L’Europa approva il testo di legge sull’Intelligenza Artificiale
Arrivano le prime norme per regolare l’uso delle AI
Quando acquisti tramite i link sul nostro sito, potremmo guadagnare una commissione di affiliazione.Ecco come funziona
Il Parlamento europeo ha adottato una posizione negoziale sulla legge sull’intelligenza artificiale, con l’obiettivo di stabilire norme sicure e trasparenti sull’IA.
Il Parlamento europeoha compiutoun passo significativo verso la definizione dinorme sull’intelligenza artificiale(IA) con l’adozione della posizione negoziale sulla legge sull’intelligenza artificiale. In sostanza, è stato approvato il testo di legge del cosiddettoAI Act. che ora passerà alle discussioni dei triloghi.
Le norme, sostenute con 499 voti a favore, mirano a garantire che l’IA sviluppata e utilizzata in Europa aderisca ai diritti e ai valori dell’UE, sottolineando la supervisione umana, la sicurezza, la privacy, la trasparenza, la non discriminazione e il benessere sociale e ambientale.
La tecnologia IA verrebbe classificata in quattro livelli di rischio, da minimo a inaccettabile. La tecnologia ritenuta unrischio inaccettabile- come i sistemi che giudicano le persone in base al comportamento, noti comesocial scoring, e gli strumenti di polizia predittiva - sarebbe vietata, mentre altre soluzioni IA sarebbero sottoposte a controlli molto severi.
Ciò include il divieto dei sistemi di IA per il social scoring, la categorizzazione biometrica e il riconoscimento delle emozioni. Gli eurodeputati hanno ampliato l’elenco per includere il divieto di applicazioni intrusive e discriminatorie, come i sistemi di identificazione biometrica remota in tempo reale, i sistemi dipolizia predittivae lo scraping non mirato di immagini facciali da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale.
Il PPE (Partito Popolare Europeo) aveva proposto esenzioni per garantire l’utilizzo del riconoscimento facciale nei casi di ricerca di persone scomparse, per la prevenzione di attacchi terroristici e l’identificazioni di autori di reati. Secondo quantoriporta Euronews, però, i deputati del gruppo erano a Milano per i funerali di Silvio Berlusconi e non hanno votato, portato alla bocciatura degli emendamenti stessi.
Le norme classificano anche le applicazioni di IA ad alto rischio che possono causare danni alla salute, alla sicurezza, ai diritti fondamentali o all’ambiente. In particolare, sono stati aggiunti all’elenco ad alto rischio isistemi di IA utilizzati per influenzare l’esito elettorale. Anche gli algoritmi di raccomandazione dei social media sono ritenuti ad alto rischio.
Get the best Black Friday deals direct to your inbox, plus news, reviews, and more.
Sign up to be the first to know about unmissable Black Friday deals on top tech, plus get all your favorite TechRadar content.
Un dei capitolo più complessi riguarda l’obbligo di trasparenza, tema su cuiOpenAIha detto che potrebbe portare a“cessare le operazioni” in Europa. In sostanza, la norma europea obbliga le aziende a rivelare quando i contenuti sono stati generati dall’IA.
Qui le cose si fanno difficili sotto molti aspetti: da una parte non è chiaro ilcome. Se si parla di mettere un watermark, gli strumenti per rimuoverlo sono di facile accesso. Se ancheChatGPTmette qualcosa nei testi o nelle immagini, non ci vuole molto per togliere il segnale e far circolare quel materiale come se fosse autentico. Il problema dei “deepfake” tuttavia riguarda in particolare video e immagini, e forse con quelle si può davvero fare qualcosa per garantire che i falsi siano immediatamente riconoscibili come tali.
Altro aspetto difficile è ilcopyright: le aziende hanno usato moltissimo materiale per addestrare gli algoritmi, e a volte gli output generati sono un po’ troppo simili agli originali. Svelare quali sono questi originali significherebbe doverne pagare il copyright, e potenzialmente le cifre in gioco potrebbero mandare le aziende in amministrazione controllata - se non propriobancarotta. D’altra parte non è nemmeno giusto che si usino materiali protetti senza pagare.
I negoziati con il Consiglio (triloghi) sulla forma finale della legge inizieranno presto. L’approvazione finale dovrebbe arrivareentro la fine dell’anno, e l’Unione Europa è la prima grande entità geopolitica a varare una norma simile - ma anche Stati Uniti e Cina ci stanno lavorando, per quanto con approcci diversi.
L’onere dell’applicazione, una volta concluso l’iter a livello europeo, ricadrebbe come sempre sugli Stati membri dell’Unione Europea, a cui spetterà il compito di varare norme applicative a livello nazionale. Per le aziende che violano le norme sono previste multe fino a 33 milioni di dollari o al6% del fatturato globaleannuo dell’azienda. Nel caso di colossi comeGoogleoMicrosoft, si tradurrebbe in sanzioni da miliardi di dollari.
OpenAI semplifica l’accesso a ChatGPT con un nuovo dominio
Google svela accidentalmente Jarvis AI, l’assistente che farà le ricerche per te
Google testa la ricerca vocale interattiva con risultati in tempo reale