La notizia ha fatto il giro del mondo: Scarlett Johansson ha deciso di intraprendere azioni legali contro OpenAI, l’organizzazione di ricerca sull’intelligenza artificiale nota per aver sviluppato ChatGPT. L’accusa mosse dall’attrice riguarda l’uso non autorizzato della sua voce, riprodotta senza il suo consenso all’interno dell’interfaccia del noto chatbot. Questo evento solleva numerose questioni legali, etiche e tecnologiche riguardanti i diritti d’autore e la proprietà intellettuale nell’era dell’intelligenza artificiale.
Le questioni legali e le possibili conseguenze
L’azione legale intrapresa da Johansson potrebbe aprire un significativo precedente sul piano giuridico riguardo all’uso di caratteristiche personali, come la voce di un individuo, all’interno di prodotti basati sull’intelligenza artificiale. Esiste una zona grigia nell’attuale normativa sui diritti d’autore e sulla proprietà intellettuale: fin dove può spingersi l’utilizzo di elementi personali senza infrangere le leggi? Questo caso potrebbe portare a una maggiore chiarificazione delle leggi esistenti o addirittura all’adozione di nuove normative specifiche per la tecnologia IA.
La posizione di OpenAI
OpenAI, attraverso un comunicato, ha espresso rammarico per la situazione, affermando di aver sempre puntato all’eticità e alla trasparenza nel suo operato. Tuttavia, la risposta della comunità tecnologica e non solo è stata divisa. Molti sostengono Johansson nella sua battaglia, preoccupati per le potenziali implicazioni future dell’utilizzo non autorizzato di elementi personali all’interno di tecnologie emergenti. Altri, invece, mettono in luce la complessità tecnica e legale di distinguere l’uso di caratteristiche personali riprodotte digitalmente, in un mondo sempre più dominato dall’intelligenza artificiale.