Costruire un maxi fondo europeo per finanziare l’informazione professionale, rendere più immediate le procedure di sblocco degli aiuti al settore e introdurre la responsabilità editoriale per creator e influencer.
Ma anche un impegno comune ai 27 Paesi membri per l’indicazione delle fonti verificate, per rendere evidente ciò che è stato realizzato o modificato con l’Intelligenza artificiale e per il contrasto al deep fake (con immagini e video manipolati per veicolare contenuti falsi). È la ricetta che il sottosegretario all’Editoria, Alberto Barachini, ha presentato ieri ai ministri europei della Cultura e dei Media alla riunione informale organizzata a Copenaghen dalla Presidenza di turno danese.
LE PROPOSTE
«Siamo convinti — ha spiegato Barachini — che occorra seguire la via italiana del sostegno all’editoria e dei limiti all’uso dell’IA, che abbiamo perseguito ad esempio istituendo uno specifico reato contro il deep fake». «L’incontro di Copenaghen — ha aggiunto — arriva in un momento davvero decisivo per la tutela dell’informazione professionale in ambito nazionale e internazionale. Per l’Italia è quindi fondamentale una collaborazione europea sulla difesa dell’ecosistema mediatico a protezione di una informazione indipendente, libera, affidabile e accessibile per i cittadini. Il nostro Paese è impegnato a promuovere questa visione».
Quanto al controllo sull’utilizzo dell’IA, il sottosegretario ha parlato in particolare dei testi soggetti a responsabilità editoriali e di quelli generati dagli utenti, affinché sia sempre riconoscibile l’intervento degli algoritmi. «Per proteggere il futuro del rapporto di fiducia tra i media e i cittadini del nostro Continente — ha infatti spiegato Barachini — è fondamentale che venga garantita la trasparenza dei sistemi di Intelligenza artificiale, perché altrimenti l’accesso all’informazione dei 450 milioni di europei sarà compromessa». Allo stesso tempo, ha proseguito l’esponente del governo italiano, «dobbiamo garantire che i cosiddetti “over the top” (cioé le bigh tech come Meta, Amazon e Alphabet) e i protagonisti della distribuzione digitale, si accordino con gli editori per la retribuzione dei contenuti tutelati dal diritto d’autore e garantiscano nelle loro policy, in maniera costante, la diffusione dei contenuti di approfondimento giornalistico».
IL GAP
Il contrasto alla disinformazione, che può essere perpetrata in maniera efficace ed economicamente più vantaggiosa proprio con l’IA, viene ribadito in un contesto internazionale dove diverse potenze extra-europee stanno investendo con forza sugli algoritmi. Non solo gli Stati Uniti, ma anche Russia e Cina, che hanno concordato di intensificare la collaborazione nel campo degli algoritmi attraverso la creazione di un gruppo di lavoro congiunto. Nell’accordo firmato ieri si legge che Mosca e Pechino hanno concordato di istituire un Consiglio di esperti per la cooperazione sull’Intelligenza artificiale, organo con funzione consultiva e analitica incaricato di elaborare proposte operative, raccomandazioni tecniche e soluzioni pratiche. L’obiettivo è quello di favorire un approccio comune alla governance “etica” dell’IA, alla definizione di standard condivisi e alla promozione delle applicazioni industriali della tecnologia.
L’Unione europea ha annunciato un piano di investimenti sugli algoritmi che prevede di raggiungere i 20 miliardi annui entro il 2030. La Cina, però, già ne investe 30 l’anno e gli Usa puntano a quota 95 entro la fine del prossimo anno. Il gap, insomma, è elevato e l’unica possibilità che ha l’Ue per distinguersi nel breve periodo, secondo gli esperti, è quella di diventare un modello nella gestione etica e nella prevenzione dei rischi derivanti dall’uso degli algoritmi.
© RIPRODUZIONE RISERVATA
Risparmio e investimenti, ogni venerdì
Iscriviti e ricevi le notizie via email
