Notizie Nel Mondo - Notizie, affari, cultura Blog Politics «L’intelligenza artificiale non è un’amica o un oracolo, rischio giovani manipolabili»
Politics

«L’intelligenza artificiale non è un’amica o un oracolo, rischio giovani manipolabili»


Il punto sui temi di attualità, ogni lunedì
Iscriviti e ricevi le notizie via email

Masse di giovani altamente manipolabili, senza spirito critico. Ecco la visione che Leone XIV intravede all’orizzonte se non vi sarà a breve un impegno condiviso, lungimirante, praticamente una alleanza tra i governi per regolamentare le applicazioni dell’IA, il mondo dell’informazione (dai giornalisti alle imprese editoriali) e, naturalmente, i grandi gruppi tech che detengono il monopolio degli algoritmi. A loro spetterebbe maggiore trasparenza e responsabilità sociale. Il messaggio che il Papa ha rivolto al mondo della comunicazione in occasione del santo patrono dei giornalisti – San Francesco di Sales – è articolato e raccoglie molti degli interventi che finora ha fatto, sin dalla sua elezione. Nelle sue parole non c’è alcuna condanna, l’IA è uno strumento con infiniti aspetti positivi, tuttavia la rivoluzione in corso va guidata, resa sicura e fruibile nel rispetto della dignità di ogni essere umano. Altrimenti, a lungo termine, l’Intelligenza artificiale – nonostante possa fornire supporto e assistenza nella gestione di compiti comunicativi — rischia di “erodere le capacità cognitive, emotive e comunicative”. Praticamente esponendo le nuove generazioni a manipolazioni

CONSEGUENZE

Negli ultimi anni, annota il Papa, i sistemi di intelligenza artificiale, soprattutto i chatbot basati su grandi modelli linguistici (LLM) si stanno rivelando efficaci a far leva sulla persuasione occulta, imitando persino i sentimenti umani. “Questa antropomorfizzazione, che può risultare persino divertente, è allo stesso tempo ingannevole, soprattutto per le persone più vulnerabili (…) La tecnologia che sfrutta il nostro bisogno di relazione può non solo avere conseguenze dolorose sul destino dei singoli, ma può anche ledere il tessuto sociale, culturale e politico delle società.

CONTROLLO DELLE FONTI

Il rischio è grande, ha ripetuto il Papa.

Il potere della simulazione è tale che l’IA può anche illuderci con la fabbricazione di “realtà” parallele, appropriandosi dei nostri volti e delle nostre voci. A questo si aggiunge il problema della mancata accuratezza. «Una mancata verifica delle fonti, insieme alla crisi del giornalismo sul campo che comporta un continuo lavoro di raccolta e verifica di informazioni svolte nei luoghi dove gli eventi accadono, può favorire un terreno ancora più fertile per la disinformazione, provocando un crescente senso di sfiducia, smarrimento e insicurezza».

PROFITTI

In questo quadro le strategie aziendali non possono essere guidate solo «dalla massimizzazione del profitto, ma anche da una visione lungimirante che tenga conto del bene comune, allo stesso modo in cui ognuno di essi ha a cuore il bene dei propri figli».

NORME

«Ai creatori e agli sviluppatori di modelli di IA è chiesta trasparenza e responsabilità sociale riguardo ai principi di progettazione e ai sistemi di moderazione alla base dei loro algoritmi e dei modelli sviluppati (…) La stessa responsabilità è chiesta anche ai legislatori nazionali e ai regolatori sovranazionali, ai quali compete di vigilare sul rispetto della dignità umana. Una regolamentazione adeguata può tutelare le persone da un legame emotivo con i chatbot e contenere la diffusione di contenuti falsi, manipolativi o fuorvianti, preservando l’integrità dell’informazione rispetto a una sua simulazione ingannevole».

EDITORI 

«Le imprese dei media e della comunicazione non possono a loro volta permettere che algoritmi orientati a vincere a ogni costo la battaglia per qualche secondo di attenzione in più prevalgano sulla fedeltà ai loro valori professionali, volti alla ricerca della verità. La fiducia del pubblico si conquista con l’accuratezza, con la trasparenza, non con la rincorsa a un coinvolgimento qualsiasi. I contenuti generati o manipolati dall’IA vanno segnalati e distinti in modo chiaro dai contenuti creati dalle persone. Va tutelata la paternità e la proprietà sovrana dell’operato dei giornalisti e degli altri creatori di contenuto. L’informazione è un bene pubblico. Un servizio pubblico costruttivo e significativo non si basa sull’opacità, ma sulla trasparenza delle fonti, sull’inclusione dei soggetti coinvolti e su uno standard elevato di qualità».

SFIDA

«La sfida pertanto non è tecnologica, ma antropologica. Custodire i volti e le voci significa in ultima istanza custodire noi stessi. Accogliere con coraggio, determinazione e discernimento le opportunità offerte dalla tecnologia digitale e dall’intelligenza artificiale non vuol dire nascondere a noi stessi i punti critici, le opacità, i rischi».

ORACOLO

«A questo si è aggiunto un affidamento ingenuamente acritico all’intelligenza artificiale come “amica” onnisciente, dispensatrice di ogni informazione, archivio di ogni memoria, “oracolo” di ogni consiglio. Tutto ciò può logorare ulteriormente la nostra capacità di pensare in modo analitico e creativo, di comprendere i significati, di distinguere tra sintassi e semantica».


© RIPRODUZIONE RISERVATA


Exit mobile version