Ravizza (InsideAI) su AI Act: «Fondamentale lavorare su un’Intelligenza Artificiale trasparente»

Ravizza (InsideAI) su AI Act: «Fondamentali trasparenza e formazione specifica»

Picture of Mario Catalano

Mario Catalano

Perché ne stiamo parlando
Si è concluso il II Meeting Annual organizzato da SIIAM. Tra i temi trattati, l’impatto del Regolamento europeo in medicina e Minerva 7B, la nuova versione del Large Language Models in italiano, sviluppato dall’Università La Sapienza di Roma.

L’AI in futuro avrà un ruolo sempre più strategico nella diagnosi, nella programmazione dei trattamenti e nel monitoraggio dei pazienti. Gli algoritmi hanno messo i medici di fronte a nuove e importanti sfide. L’AI Act, la legge europea che disciplina l’utilizzo dei sistemi di Intelligenza artificiale, vuole porsi come quadro normativo specificamente dedicato all’Ai per iniziare a regolamentare il fenomeno. Ma quanto sta impattando in ambito medico?

«Molto – dice Alice Ravizza, founder di InsideAI, intervenuta nei giorni scorsi al II Meeting Annual organizzato da SIIAM (Società Italiana Intelligenza Artificiale in Medicina) – Sia di tipo organizzativo che di pianificazione delle nuove attività di progettazione. Ma soprattutto, sulla vita quotidiana dei medici che devono affrontare le nuove sfide sul tema della responsabilità creata dall’AI Act».

Una delle colonne portanti del Regolamento europeo è la classificazione dei sistemi di AI secondo il livello di rischio che rappresentano per la società e gli individui. Tra quelle individuate particolarmente ad alto rischio ci sono proprio le applicazioni nell’ambito sanitario. Parola d’ordine “trasparenza”: «Per poter utilizzare l’AI – osserva Ravizza – serve interpretare il suo risultato ed eventualmente, dove necessario, correggere il potenziale errore della tecnologia. I medici, oggi, non hanno più bisogno della formazione tradizionale. Questa deve essere integrata da una buona conoscenza che ha come focus il funzionamento delle nuove tecnologie. Gli operatori sanitari non possono svolgere tutto da soli ma una grande responsabilità è in mano anche ai progettisti e sviluppatori verso quella che noi chiamiamo AI trasparente».

Ravizza: «Spero che l’alfabetizzazione per l’AI possa diventare materia universitaria»

La founder di InsideAI sottolinea l’importanza dell’aspetto legato alla sicurezza, in particolare sulla qualità dei dati di ingresso. «Ai medici sarà dato il “pulsante di stop” – aggiunge – Dovranno agire come supervisori e verrà garantita al medico la possibilità di avere sempre l’ultima parola». L’AI rappresenta tra le più importanti sfide e opportunità che la classe medica sta affrontando.

Un tassello fondamentale riguarda la formazione degli operatori sanitari: «Per quanto riguarda i percorsi universitari, ci stiamo preparando molto bene. Sono state inserite nuove materie e nuovi argomenti sulle nuove tecnologie. La legislazione entrata in vigore con l’AI Act va in questa direzione: l’alfabetizzazione per l’AI. Saranno mesi di transizione – sottolinea Ravizza – Mi auguro che in tempi brevi possa diventare una materia universitaria».

Il congresso ha visto la partecipazione di più figure professionali e non solo medici. «Questo è stato uno dei punti di forza – conclude – Oggi non si può fare a meno dell’interdisciplinarità ed è fondamentale che una società scientifica ancora molto giovane, stia costruendo la sua particolarità sulla capacità di lavorare con altre professioni».

Minerva 7B: la nuova frontiera dei LLM “Made in Italy”

Durante il convegno si è parlato anche di Minerva 7B, la nuova versione del Large Language Models (LLM) – cioè quella tecnologia AI avanzata incentrata sulla comprensione e sull’analisi del testo – in italiano, sviluppato dall’Università la Sapienza di Roma nell’ambito di FAIR (Future Artificial Intelligence Reasearch), grazie ai fondi del PNRR (Piano Nazionale di ripresa e Resilienza) in collaborazione con il CINECA, consorzio interuniversitario italiano, che ha reso disponibile il supercomputer Leonardo.

Sette miliardi di parametri e 1,5 trilioni di parole

Minerva 7B è un LLM completamente italiano, frutto del lavoro del gruppo di ricerca Sapienza NLP (Natural Language Processing) guidato da Roberto Navigli, professore di Intelligenza artificiale e Natural language processing presso l’ateneo romano. Con ben sette miliardi di parametri, rispetto ai tre della versione precedente, Minerva rappresenta un passo avanti nell’elaborazione e comprensione del linguaggio naturale in italiano, grazie a un massiccio dataset di 1,5 trilioni di parole e a un avanzato processo di instruction tuning. Questo permette al modello di generare risposte più accurate, pertinenti e sicure, riducendo fenomeni come le “allucinazioni” e garantendo contenuti appropriati.

Il progetto, realizzato nell’ambito dei fondi PNRR, ha visto il coinvolgimento di quindici ricercatori e dottorandi de “La Sapienza” e la collaborazione di partner come CINECA e anche il colosso statunitense NVIDIA. «Minerva è un punto di partenza per sviluppare soluzioni trasparenti e sicure, con l’obiettivo di ampliare le collaborazioni con editori ed enti pubblici», ha detto Navigli. L’approccio open-source lo rende ideale per utilizzi da parte di pubbliche amministrazioni e altri settori istituzionali.

Keypoints

  • L’AI è un passo fondamentale verso una regolamentazione responsabile dell’IA
  • La legge si concentra sulla trasparenza e sulla sicurezza, classificando le applicazioni di IA in base al loro livello di rischio
  • Le applicazioni mediche, considerate ad alto rischio, sono soggette a requisiti più rigorosi per garantire la sicurezza dei pazienti
  • Si è svolto nei giorni scorsi il II Meeting Annual organizzato da SIIAM
  • Alice Ravizza è founder di InsideAI
  • L’Italia è in prima linea nello sviluppo dell’IA con Minerva 7B
  • Questo LLM in italiano è stato sviluppato dall’Università La Sapienza di Roma

Altri articoli