Negli ultimi mesi il tema dell’addestramento dei modelli di intelligenza artificiale è entrato al centro del dibattito giuridico internazionale. Due decisioni molto recenti – della High Court inglese nel caso Getty Images v. Stability AI e della Corte di Monaco nel caso GEMA v. OpenAI – hanno offerto interpretazioni opposte su cosa costituisca una violazione del diritto d’autore durante il training dei modelli. Sullo sfondo, l’AI Act europeo introduce nuovi obblighi di trasparenza e strumenti come l’opt-out, che ridisegnano i rapporti tra creatori di contenuti e sviluppatori di tecnologie. Per capire cosa cambia davvero, abbiamo intervistato l’avvocata Barbara Sartori, Partner di CBA Studio Legale e Tributario.
Avvocato Sartori, partiamo dalle ultime sentenze che hanno acceso il dibattito sull’addestramento dei modelli di intelligenza artificiale. Cosa ha stabilito la High Court inglese nel caso Getty Images v. Stability AI?
“La High Court ha affermato un principio molto importante: l’addestramento dei modelli di AI generativa non costituisce una riproduzione lesiva del diritto d’autore se non comporta la realizzazione o la conservazione di copie delle opere. Nel caso dei modelli di diffusione analizzati dai giudici, le immagini usate per il training vengono processate per estrarne schemi e pattern statistici, ma non restano archiviate né sono rintracciabili nel modello finale. Secondo la Corte, Getty non è riuscita a dimostrare che Stability AI avesse effettivamente riprodotto o conservato copie delle fotografie”.
Ma pochi giorni dopo è arrivata una decisione completamente diversa dalla Corte di Monaco, nel caso GEMA v. OpenAI. Perché?
“In Germania i giudici hanno ritenuto provato l’opposto: secondo loro ChatGPT avrebbe memorizzato nei propri parametri parti identificabili di testi musicali protetti. Per questo hanno parlato di vera e propria riproduzione, sia nell’immagazzinamento interno sia nella generazione di versi uguali o simili a quelli originali. In questo scenario non può operare l’eccezione del text-and-data-mining, perché l’uso dei dati non è una mera analisi statistica, ma un utilizzo che può sostituire l’opera. Da qui l’ordine di cessazione e il risarcimento dei danni”.
Due sentenze opposte. Che cosa ci dicono sulla direzione che sta prendendo il diritto d’autore nell’AI?
“Ci mostrano due aspetti chiave. Primo, la centralità della prova. L’AI Act europeo ora impone obblighi di trasparenza ai fornitori di modelli di AI general purpose: devono pubblicare una sintesi dei dati di training, fornire documentazione tecnica e dimostrare la conformità al copyright. Questo riduce l’asimmetria informativa che finora ha reso difficile accertare cosa fosse davvero incluso nei dataset. Secondo, l’importanza dell’opt-out. L’AI Act stabilisce che i titolari dei diritti possono opporsi all’uso delle proprie opere nei dataset, purché lo facciano in un formato leggibile dalle macchine. È un meccanismo di controllo molto forte, che si affianca alle licenze e permette di governare in modo strategico la circolazione dei contenuti”.
Che cosa significa tutto questo per le imprese italiane?
“Significa che governare l’AI vuol dire governare i contenuti. Le aziende devono mappare i propri asset digitali, decidere se esercitare l’opt-out, negoziare licenze dove necessario, adottare policy interne e svolgere due diligence sui modelli utilizzati. La gestione del copyright diventa un vero fattore competitivo: chi presidia i propri contenuti avrà un vantaggio nella nuova economia digitale”.
© RIPRODUZIONE RISERVATA



Leave feedback about this