Abbonati subito per rimanere sempre aggiornato sulle ultime notizie
Attualità

«Intelligenza artificiale, la chiave è la consapevolezza dello strumento»

L’utilizzo dell’Intelligenza artificiale (IA) ha aperto le porte a enormi benefici in svariati campi. Dall’ambito medico (ad esempio la medicina personalizzata salva vita) al mondo della ricerca, da quello della finanza alla scuola, le potenzialità di un approccio algoritmico appaiono infinite. Ma accanto all’indiscusso fascino esercitato dall’IA e ai suoi vantaggi, ci si chiede pure quali siano i confini che è bene non superare, anche dal punto di vista etico, i rischi a cui si può incorrere sfruttando le potenzialità delle nuove tecnologie. Ne abbiamo parlato con Luca Grion, professore associato di Filosofia Morale all’Università di Udine, direttore della Spes (Scuola di politica ed etica sociale) dell’Arcidiocesi di Udine e presidente dell’Istituto Jacques Maritain di Trieste.

Il filosofo Luca Grion

Professore, di fronte abbiamo un mondo ancora poco conosciuto. E ciò che non si conosce spaventa. Ma non tutto va demonizzato…
«Prima di tutto va chiarito che quando comunemente parliamo di Intelligenza artificiale non intendiamo un’unica realtà. Abbiamo a disposizione tanti sistemi algoritmici diversi per caratteristiche, tutti ricondotti all’etichetta dell’IA perché sono capaci di simulare compiti e funzioni che normalmente noi riconosciamo all’intelligenza umana».

Qualche esempio?
«Dalla capacità di linguaggio, intendo ChatGPT e suoi simili, alla possibilità di ottimizzare tutta una serie di compiti. Penso all’approvvigionamento o alla gestione dei processi in ambito di ricerca, anche accademica, che consentono di fare ciò che fino a solo qualche anno fa richiedeva molto più tempo. Ricordo anche che nel periodo del Covid il vaccino ha beneficiato di questi strumenti, e mi riferisco alla velocità con la quale è stato possibile individuarlo. Insomma, l’IA consente di ottimizzare tutta una serie di funzioni anche negli ambiti produttivi, ed è il motivo per il quale si sta investendo tantissimo».

Il problema è usarla bene…
«E per farlo è necessario conoscere gli strumenti che utilizziamo. Per esempio ChatGPT serve sostanzialmente per simulare conversazioni, per risponderti sempre, indipendentemente dalla qualità delle risposte, non per dire la verità. Per questo va affinata la capacità di porre le domande, sapendo che le risposte poi vanno verificate».

Molti studenti ormai lo usano costantemente…
«Il problema dell’IA è che quando la utilizzi male, quando gli chiedi di fare cose per le quali non è stata progettata, richiederebbe una supervisione umana, mentre la tendenza è prendere per buoni i risultati che ti propone. Affidarsi totalmente allo strumento, non permette di utilizzare la capacità critica e il rischio è diventarne dipendenti, di essere sostituiti dalla macchina. Ma se c’è già una professionalità questi strumenti aiutano a fare un lavoro di qualità in meno tempo».

Come fare per non incorrere nel rischio di delegare solo alla macchina certe operazioni?
«Essendo strumenti che impattano sulla vita delle persone servono regole e un primo livello normativo deve essere politico e giuridico. Così ha fatto l’Unione Europea con una serie di norme che gradua il controllo sugli strumenti di intelligenza artificiale in rapporto alla loro potenziale pericolosità. Ad esempio, ci sono alcuni strumenti che, seppur potenzialmente utili dal punto di vista economico, vengono vietati perché sono in contrasto con i diritti fondamentali dell’Unione Europea, altri che presentano rischi, ma anche utilità, e per questo sottoposti a regole di controllo rigorose. Anche se è difficile normare una tecnologia che cambia così velocemente, esiste un primo livello che tiene conto della pericolosità e di una serie di diritti fondamentali come la libertà delle persone, il diritto alla privacy, alla sicurezza, a un controllo umano significativo, con l’uomo che risponde delle decisioni, anche laddove prese da una macchina».
Una sensibilità etica che spetta a tutti, anche a chi produce IA?

«Certo e al proposito ricordo che all’Università di Udine stiamo lavorando molto in questa direzione: ci deve essere una sensibilità etica negli informatici, negli ingegneri, perché già quando produci questi sistemi devi porre in essere una serie di attenzioni».
Quindi, attenzione politica, competenza dei tecnici. E gli utenti?

«È più che mai necessaria una cultura dell’IA, perché si deve saper chiedere a questi strumenti le cose giuste».
Chat GPT, per molti ragazzi è diventato ormai un “amico” di cui fidarsi, sempre disponibile e a portata di smartphone…

«Ma non è stato progettato per dare consigli, nemmeno psicologici. Certo, dà risposte credibili, simula empatia, non giudica e dà l’impressione di comprendere. Se riflettiamo però non ha senso chiedere ad uno strumento algoritmico che sa solo simulare attenzione, una relazione di qualità. Va ricordato che questi strumenti ci conoscono e in qualche modo adattano le risposte a quello che presumibilmente ci attendiamo».

Professor Grion, cosa non va mai dimenticato quando ci approcciamo all’IA?
«Che è comunque una macchina dietro alla quale non c’è sensibilità umana, vicinanza, sentimenti. Ci sono strumenti per i quali, ed è qui parte del problema, utilizziamo un linguaggio antropomorfo, dicendo che capiscono e comprendono. In realtà simulano ciò che per noi è comprensione, capacità empatica. Se non maturiamo questa consapevolezza, rischiamo di esserne usati anziché usarli. Quindi l’invito è proprio quello di maturare un minimo di cultura informatica perché i rischi aumentano laddove c’è inconsapevolezza».

Monika Pascolo

Articoli correlati