Intelligenza Artificiale e disinformazione: alcuni pensieri e domande non lineari sul tema

foto di Pexel.com

di Elisa Faiella
presidio di Torino “Hyso Telharaj e Tina Motoc”, volontaria durante le Giornate del Premio Morrione 2023 dedicate al tema dell’Informazione Artificiale – il rapporto tra I.A. e giornalismo. Questo l’articolo che Elisa ha scritto al termine dell’evento.  

Non è la tecnologia ad essere buona o cattiva, è l’uso che se ne fa a renderla tale, o forse no? E’ vero che opporsi allo sviluppo scientifico sarebbe antistorico e che le potenzialità sono smisurate, ma come può un prodotto dell’intelletto umano essere “neutrale”?

Nel momento in cui Frankenstein crea il suo mostro, egli pone in questo mondo qualcosa che prima non c’era, e pertanto ne ha la responsabilità. Così la tecnologia nasce, o meglio è inventata, con una tendenza, un’inclinazione verso un fine specifico. Quello della pistola o della bomba atomica è chiaro, altri meno. La televisione ad esempio –quella senza servizi di streaming- potrebbe essere un mezzo di democratizzazione dell’informazione e del cinema, disponibile nelle case di tutti. Se non fosse che per sua stessa natura presuppone che qualcuno decida cosa mandare in onda e che la maggior parte delle persone la guardi. Non è come una radio, con cui potenzialmente chiunque può trasmettere. Certo, non per questo è cattiva né buona, ma nemmeno neutra. Così anche l’IA non nasce con uno scopo esplicito, se non quello di risolvere problemi, ma le sue caratteristiche la rendono non neutrale.

A questo punto è necessario fare distinzione, perché il sintagma “intelligenza artificiale” è talmente abusato che il suo significato è sfumato. Se intelligenza è la capacità di imparare allora saranno IA tantissimi dei software che utilizziamo ogni giorno. Dagli algoritmi intelligenti di Instagram, Tiktok e Google, a Siri, Alexa e chatGPT. Ciò che cambia è l’interfaccia, se sono IA generative o no, se si basano su set di regole che si migliorano con l’esperienza o sull’apprendimento automatico. Il principale problema è che la maggior parte di queste tecnologie è stata sviluppata con lo specifico scopo di vendere a ogni costo. Si potrebbe discutere delle implicazioni ecologiche e sociali della costante pressione all’acquisto di prodotti più o meno utili, tuttavia non è il fattore più preoccupante. Le maggiori conseguenze sociali e psicologiche derivano da questo.

L’IA è lineare: se l’output deve essere ottenere l’attenzione del cliente, essa studierà a fondo le preferenze e gli interessi della persona per proporgli contenuti che lo spingano a continuare a scrollare. E ne sarà sempre più capace, essendo creata per emulare i processi della mente umana, essa li conosce anche meglio di noi stessi. Quanto più l’utente si sente inadeguato, quanto più gli viene indicato il gruppo sociale a cui ambire, tanto più acquisterà. Per lo stesso motivo l’IA non mostrerà mai contenuti diametralmente opposti a quelli che l’individuo preferisce, creando una solida bolla di disinformazione in cui tenere il soggetto profilato.

Tutto ciò è divenuto chiaro con il caso Cambridge Analytica, ultima fase della polarizzazione estrema del dibattito politico nella nostra società. E ancora, qualora queste IA vengano applicate ad ambiti diversi, traendo i propri modelli dallo studio della nostra società notoriamente imperfetta, esse riproporranno incosciamente tutti quei bias fondati sulle peggiori vestigia della nostra Storia: misoginia, razzismo, classismo, omofobia e via dicendo. Proprio per questo in alcuni ambiti l’uso delle IA è limitato.

In medicina, essendo i dati sugli effetti dei farmaci, sui sintomi e persino sulle immagini diagnostiche incompleti, perché gli studi si svolgono spesso su una maggioranza di uomini bianchi, non ci sono sufficienti risorse per fare diagnosi su altri tipi di pazienti.
In questo caso la tendenza parrebbe essere la manipolazione dei comportamenti umani, con annesse ricadute psico-sociali enormi. Quindi non dovremmo più chiedere a Siri di mettere il timer per la pasta o seguire i trend di Tiktok? No, ma una regolamentazione solida e finanziamenti alla ricerca che non provengano da colossi multimiliardari del marketing potrebbero essere un buon inizio.

O almeno questo è quello che mi ha scritto chatGPT quando gliel’ho chiesto.