Italy
This article was added by the user . TheWorldNews is not responsible for the content of the platform.

L'intelligenza artificiale è davvero così pericolosa? Lo abbiamo chiesto a una delle massime esperte italiane

Dopo che più di mille studiosi americani, tra cui Elon Musk, hanno firmato la lettera di FutureOfLife, per una moratoria sullo sviluppo incontrollato di Intelligenze Artificiali senza una supervisione umana, anche Rita Cucchiara, una delle massime esperte italiane nel campo dell'Intelligenza Artificiale, professore ordinario presso il dipartimento di Ingegneria «Enzo Ferrari» dell'Università degli Studi di Modena e Reggio Emilia, ci ha espresso le sue preoccupazioni sulla escalation degli ultimi mesi.

«Sicuramente sono allarmata, come molti colleghi, per lo sviluppo troppo repentino e senza una supervisione di alcun organo di controllo, delle capacità di apprendimento delle reti neurali artificiali, che ora sono alla base dell’intelligenza artificiale», spiega la docente che dirige il Centro Interuniversitario di Artificial intelligence Research and innovation di Modena e nel 2021 ha contribuito alla stesura della Strategia Nazionale in intelligenza Artificiale.

Un'evoluzione straordinaria

Da tema di ricerca per pochi e super qualificati addetti ai lavori in pochi anni l’intelligenza artificiale è diventata uno dei temi preferiti di discussione e se da un lato ha portato sviluppi positivi e significativi in moltissimi settori, dall’industria, dall’amministrazione, alla finanza, alla medicina fino alla generazione testuale e visuale così usata nei media, dall’altro uno sviluppo incontrollato comporta dei rischi notevoli.

Quello dell’intelligenze artificiale, spiega ancora l’esperta, è un tema molto spinoso: «Negli ultimi due anni si è assistito a un’evoluzione straordinaria grazie allo sviluppo di grandi server di calcolo, che però nella maggior parte dei casi sono in mano alle multinazionali private (come Google, Meta os OpenAI ora partecipata da Microsoft), alla grande disponibilità di dati e alla creazioni di nuovi algoritmi e modelli che anche la ricerca italiana sta contribuendo a sviluppare».

Gli utenti impiegati nell'addestramento dell'AI

«I modelli più potenti a larga scala, basati sull’apprendimento non supervisionato, sono diventati dei veri “modelli fondazionali” capaci di essere addestrati contemporaneamente per molti compiti diversi tra cui quelli generativi: capaci di generare testi, immagini, musiche e dati di ogni genere assolutamente verosimili a quelli umani», aggiunge l'esperta. «Questi sistemi intelligenti sono addestrati dai dati -spesso raccolti sul web- e non controllati né affidabili. I nuovi modelli poi affidano parte dell’apprendimento e la loro capacità di generazione ai feedback degli utenti, che non sono né filtrati né controllati. Chiunque di noi abbia utilizzato almeno una volta ChatGPT sa quanto può essere impreciso o fallace, eppure è il più potente strumento di AI a completa disposizione di utenti spesso inconsapevoli di essere essi stessi impiegati nell’addestramento».

La necessità di una regolamentazione

«Molti studiosi ma anche molti imprenditori americani sono tra i firmatari di questo appello che sottolinea la necessità di regolare lo sviluppo a larga scala dell’Intelligenza Artificiale, che richiedono a gran voce la creazione di un ente governativo di controllo», spiega ancora la professoressa Rita Cucchiara. «Ci sono arrivati finalmente! In Europa, infatti, siamo più avanti da questo punto di vista e dall’aprile 2021 la comunità europea sta portando in approvazione l’”AI Act” una proposta di legge europea non per fermare lo sviluppo dell’intelligenza artificiale ma per regolare i punti più delicati come i sistemi che possono mettere a rischio la privacy, la democrazia, i diritti umani, i dati medici. La Comunità Europea sta lavorando in un’ottima direzione, mentre in America l’aspetto commerciale è quello prevalente e non esiste alcuna forma di tutela o di regolamentazione: per questo si è arrivati a una lettera aperta, che senz’altro è uno strumento inusuale. Spero che l’Europa possa completare in fretta l’iter di approvazione della regolamentazione sull’AI ed essere punto di riferimento internazionale per uno sviluppo consapevole della tecnologia».

Riposte basate sulla statistica

Il punto fondamentale quindi non è bloccare la sperimentazione, ma proprio regolamentare e verificare l’uso dei dati, per avere risultati sicuri ed affidabili. «Le risposte basate sulla statistica», aggiunge la professoressa, «non possono essere sempre precise. Con ChatGPT si è deciso di mettere a disposizione degli utenti un sistema ancora non perfettamente validato affidandosi  anche al cosiddetto “Reinforcement Learning with Human Feedback”, l’uso diretto delle risposte umane in modo massivo per addestrare i sistemi artificiali e tutto cioè che questo comporta. Se noi addestriamo male il sistema e questo non è controllato ovviamente i rischi di risposte inesatte o fallaci sono molto alti. Le faccio un esempio. Ho chiesto a ChatGPT chi erano le protagoniste femminili delle canzoni di Vasco Rossi: accanto ad alcuni nomi corretti come Sally e Jenny mi ha citato una certa Annalisa protagonista di Albachiara… Non mi risulta.. Allora ho chiesto il testo di Albachiara. Che cosa viene dopo: “Respiri piano per non far rumore”? La macchina ha risposto: “Ti addormenti di sera… guardando la Tv”. Fa ridere, che non sappia che uno dei testi più famosi della discografia italiana continui con “… e ti svegli col sole”  ma non mi stupisce. Perché statisticamente ChatGPT ha dato la risposta più probabile. Se questi sistemi non hanno abbastanza dati, per esempio su una canzone italiana meno nota a livello internazionale,  rispondono con la distribuzione statistica più probabile, quindi generano le immagini o le parole più plausibili che però possono essere false. Questo è ancor più vero per i testi in lingue meno diffuse come l’italiano che, secondo il consorzio W3Tech nel 2023, sono solo l’1.8% dei documenti sul web, dominato da documenti in inglese che sono più del 56%».

Strumenti meravigliosi ma…

Sono quindi strumenti meravigliosi e utilissimi ma che se usati male o da persone “non esperte” possono diventare pericolosi e generare vere e proprie fake news: «Uno strumento come ChatGPT dovrebbe essere spiegato dettagliatamente quando viene utilizzato, come con i bugiardini dei farmaci. Spiegare per cosa può funzionare e per cosa no. Per esempio è molto valido per riassumere documenti, per aiutare nella stesura del software, per generare dei testi creativi, ma meno per altri tipi di ricerche, non potendo neppure fornire le fonti dell’informazione», chiarisce la professoressa Cucchiara.

L’intelligenza artificiale generativa è una tecnologia che non deve fare sempre paura, dice ancora la studiosa. «Noi a Modena per esempio abbiamo sviluppato un modello estremamente potente  per generare la scrittura umana, a partire da pochissimi esempi parole manoscritte; non lo utilizziamo per produrre dei testi falsi, ma per avere più dati per addestrare sistemi per riconoscere testi antichi. È un progetto molto ampio sull’analisi di testi storici (nato sui testi del Muratori alla Biblioteca Estense ed ora parte di un grande progetto finanziato dal PNRR) che comprende anche molti manoscritti. In questo caso invece di far perdere agli studiosi giorni e mesi preziosi ad analizzare e comparare la grafia, affidiamo il compito a una macchina. Anche in medicina ci sono sistemi di diagnosi molto sofisticati, ed assai utili se in mano a medici esperti. Quello che fa la differenza è sempre la capacità di controllo e di validazione umana. E comunque non dobbiamo stupirci o scandalizzarci più di tanto se pensiamo che sono anni che su web e social girano informazioni false in modo del tutto incontrollato. La maggior parte della disinformazione ora non è generata da macchine, ma da persone con secondi fini e purtroppo sono molto ascoltate. La evoluzione così repentina di sistemi di intelligenza artificiale in larga scala può ancora peggiorare la situazione. La lettera aperta americana chiede a gran voce una moratoria per “attuare congiuntamente una serie di protocolli di sicurezza condivisi per la progettazione e lo sviluppo di IA avanzate, rigorosamente controllati e supervisionati da esperti esterni indipendenti”, e non si può non condividere. Il punto è sempre la regolamentazione e il controllo per evitare pericolose derive».