Responsabilità delle AI per la violazione del copyright: chi è responsabile?

Responsabilità delle AI per la violazione del copyright: chi è responsabile?



AI e diritti d’autore: chi è responsabile?

I developer di intelligenza artificiale (IA) sostengono che non sia colpa loro se i loro programmi di machine learning producono materiale protetto da copyright, anche se sono loro ad aver addestrato i loro sistemi su materiali protetti da copyright. Invece, vogliono che gli utenti si assumano la responsabilità legale del materiale generato dai loro sistemi.

L’Ufficio del Copyright degli Stati Uniti sta valutando nuove normative in materia di intelligenza artificiale generativa e, ad agosto, ha pubblicato una richiesta di commenti sull’intelligenza artificiale e il copyright. Le risposte alla richiesta sono pubbliche e possono essere trovate qui.

Tra le risposte inviate, le aziende, tra cui Google, il developer di Dall-E OpenAI e Microsoft, hanno sostenuto che solo la produzione non autorizzata di materiali protetti da copyright viola le protezioni esistenti. Secondo loro, il software di IA è simile a dispositivi di registrazione audio o video, fotocopiatrici o telecamere, tutti strumenti che possono essere utilizzati per violare i diritti d’autore. I produttori di questi prodotti non sono ritenuti responsabili quando ciò accade, quindi perché le aziende di IA dovrebbero essere ritenute responsabili, o almeno questo è il ragionamento adottato.

Microsoft, che ha un partenariato multimiliardario con OpenAI, ha scritto:

“Gli utenti devono assumersi la responsabilità di utilizzare gli strumenti in modo responsabile e come progettato. … Per affrontare le preoccupazioni dei detentori dei diritti, i developer di IA hanno adottato misure per mitigare il rischio che gli strumenti di IA siano utilizzati in modo improprio per violare il copyright. Microsoft incorpora molte di queste misure e salvaguardie per mitigare possibili utilizzi dannosi in tutti i nostri strumenti di IA. Queste misure includono metapromemoria e classificatori, controlli che aggiungono istruzioni aggiuntive a un prompt dell’utente per limitare le uscite dannose o violative.”

È importante sottolineare che le garanzie che Microsoft ha presumibilmente in atto hanno fatto poco per prevenire la violazione di marchi e diritti d’autore. In realtà, The Walt Disney Company ha recentemente chiesto al colosso tecnologico di impedire agli utenti di violare i suoi marchi.

Google, invece, ha sostenuto:

“La possibilità che un sistema di intelligenza artificiale generativa possa, attraverso l’ingegneria del prompt, essere addestrato per replicare i contenuti dai dati di addestramento solleva questioni riguardo il limite corretto tra violazione diretta e indiretta. Quando un sistema di intelligenza artificiale viene sollecitato da un utente a produrre un’uscita violativa, qualsiasi responsabilità risultante dovrebbe essere attribuita all’utente in quanto parte il cui comportamento volitivo ha provocato direttamente la violazione. … Una norma che renderebbe i developer di IA direttamente (e rigorosamente) responsabili per qualsiasi risultato violativo creato dagli utenti imporrebbe una responsabilità schiacciante ai developer di IA, anche se avessero adottato misure ragionevoli per prevenire attività violative da parte degli utenti. Se tale standard fosse stato applicato in passato, non avremmo avuto accesso legale a fotocopiatrici, dispositivi di registrazione audio e video personali, o computer personali, tutti in grado di essere utilizzati per violazioni così come per scopi sostanzialmente benefici.”

E OpenAI ha scritto:

“Nell’analizzare le affermazioni di violazione relative alle uscite, l’analisi inizia con l’utente. Dopotutto, non c’è uscita senza un prompt da parte di un utente, e la natura dell’uscita è direttamente influenzata da ciò che è stato richiesto.”

Va notato che tutte le aziende di cui sopra hanno utilizzato materiali coperti da copyright e marchi non autorizzati per addestrare i loro software, e OpenAI è attualmente oggetto di cause intentate da più di una dozzina di importanti autori che accusano l’azienda di violare i loro diritti d’autore.

Per complicare ulteriormente le acque, nonostante queste aziende dicano al governo degli Stati Uniti che gli utenti dovrebbero essere responsabili delle uscite dei loro sistemi, molte di esse, tra cui Google, OpenAI, Microsoft e Amazon, si offrono di coprire i costi legali dei loro clienti in cause di violazione del copyright.

Ma, in definitiva, le aziende sostengono che la legge sul copyright attuale è dalla loro parte e che non c’è bisogno che l’ufficio del copyright cambi questo aspetto, almeno non al momento. Sostengono che se l’ufficio andasse contro i developer e modificasse qualsiasi legge sul copyright, potrebbe bloccare la tecnologia nascente. Nella sua lettera, OpenAI ha dichiarato che “esorta l’Ufficio del Copyright a procedere con cautela nel chiedere nuove soluzioni legislative che potrebbero rivelarsi prematuro o fuorviante dato l’evolversi rapido della tecnologia”.

Forse sorprendentemente, le principali case cinematografiche sono dalla parte della grande tecnologia, anche se lo fanno da un angolazione diverso. Nella sua presentazione all’Ufficio del Copyright, la Motion Picture Association (MPA) ha tracciato una distinzione tra l’intelligenza artificiale generativa e l’uso dell’intelligenza artificiale nell’industria cinematografica, in cui “l’IA è uno strumento che supporta, ma non sostituisce, la creazione umana delle opere dei membri”. La MPA ha anche sostenuto di non aggiornare la legislazione attuale:

“I membri della MPA hanno una prospettiva unica e bilanciata riguardo l’interazione tra l’IA e il copyright. I contenuti protetti da copyright dei membri sono estremamente popolari e preziosi. La forte protezione del copyright è la spina dorsale del loro settore. Allo stesso tempo, i membri della MPA hanno un forte interesse nello sviluppo di strumenti guidati dai creatori, comprese le tecnologie IA, per sostenere la creazione di contenuti di livello mondiale. L’IA, come altri strumenti, supporta e potenzia la creatività, e coinvolge il pubblico nelle storie e nelle esperienze che sono il marchio distintivo dell’industria dell’intrattenimento. La visione complessiva della MPA, basata sullo stato attuale, è che sebbene le tecnologie AI sollevino una serie di questioni nuove, tali questioni implicano principi e dottrine del diritto d’autore ben consolidati. Al momento, non vi è motivo di concludere che queste dottrine e principi esistenti non saranno sufficienti a fornire ai tribunali e all’Ufficio del Copyright gli strumenti di cui hanno bisogno per rispondere alle questioni legate all’IA al momento opportuno.”

Anche se la MPA sostiene che le attuali leggi sul copyright siano sufficienti, ha espresso forti obiezioni all’idea che le aziende di IA dovrebbero poter addestrare liberamente i loro sistemi sulle loro opere. Nella sua lettera, la MPA ha scritto:

“Attualmente la MPA ritiene che la legge sul copyright esistente dovrebbe essere in grado di gestire queste questioni. Un proprietario del copyright che dimostri violazione dovrebbe potersi avvalere dei rimedi disponibili esistenti nelle sezioni 502-505, compresi danni monetari e rimedi injuntivi. … In questo momento, non vi è motivo di ritenere che i proprietari di copyright e le aziende impegnate nell’addestramento di modelli e sistemi di IA generativa non possano concludere accordi di licenza volontaria, in modo che l’intervento del governo potrebbe essere necessario”.

In conclusione, la questione della responsabilità per le uscite dei sistemi di IA è complessa e coinvolge un intreccio di interessi tra i developer, i detentori del copyright e le autorità di regolamentazione. È chiaro che questa sarà un’area in evoluzione con implicazioni significative per il futuro dell’IA e delle leggi sul copyright.



Fonte: www.cartoonbrew.com

Gianluigi Piludu

Autore di articoli, illustratore e grafico del sito www.cartonionline.com

Lascia un commento