Vertenze 16 giugno 2023
Il Parlamento europeo ha adottato mercoledì 14 giugno 2023 la sua posizione negoziale sul nuovo regolamento Ue per l’Intelligenza artificiale. Con il primo sì inizia la fase di confronto con il Consiglio e la Commissione per arrivare all’intesa finale. Le nuove norme mirano a garantire che l’IA sviluppata e utilizzata in Europa sia conforme con i diritti e i valori dell’Ue – ad esempio in materia di supervisione umana, sicurezza, privacy, trasparenza, non discriminazione e benessere sociale e ambientale – e seguono un approccio basato sul rischio, stabilendo una serie di obblighi per fornitori e operatori dei sistemi di AI.
Divieto totale, ad esempio, all’utilizzo di sistemi di intelligenza artificiale per classificare le persone in base al loro comportamento sociale o alle loro caratteristiche personali (“social scoring”). Niente identificazione biometrica remota “in tempo reale” in spazi accessibili al pubblico né sistemi di categorizzazione biometrica basati su caratteristiche sensibili come genere, cittadinanza, religione, orientamento politico.
Al bando anche l’effetto “Minority report”: l’impiego di sistemi di polizia predittiva, ovvero basati su profilazione, ubicazione o comportamenti criminali passati. E vietati i sistemi di riconoscimento delle emozioni utilizzati dalle forze dell’ordine, nella gestione delle frontiere, nel luogo di lavoro e negli istituti d’istruzione, così come l’estrazione non mirata di dati biometrici da Internet o da filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale.
Sotto la lente del legislatore continentale anche i sistemi di IA utilizzati per influenzare gli elettori nelle elezioni, definiti “ad alto rischio” e quindi da sottoporre a rigoroso monitoraggio.
Quanto, infine, ai sistemi di Intelligenza artificiale generativa come Chat Gpt, dovranno rispettare nuovi requisiti di trasparenza, come per esempio imporre la dichiarazione che il contenuto è stato generato dall’IA, aiutando così a distinguere le cosiddette immagini deep-fake e da quelle reali, e fornire salvaguardie per evitare la generazione di contenuti illegali.
Interessanti saranno gli sviluppi del confronto sulle nuove norme anche per quanto attiene il settore della produzione di contenuti informativi, in qualunque forma. Dal nodo dei controlli sulla trasparenza circa la corretta indicazione della “paternità” (biologica o artificiale) delle notizie riversate in rete, sul web o sui social, alla tutela del diritto d’autore, ad esempio, relativo ai dati sulla base dei quali si addestrano i sistemi di machine learning.
Del resto, nel testo varato dall’Eurocamera, frutto di mesi di negoziati tra le parti, l’attenzione è rivolta soprattutto ai cosiddetti “foundation models”: blocchi di conoscenza primaria che fungono da fondamenta per il funzionamento delle tecnologie di intelligenza artificiale e che dovranno insegnare agli algoritmi ad essere al servizio dell’uomo e a prevenire la discriminazione in ambito digitale.
Altro elemento tutt’altro che secondario da tenere in considerazione è il fattore tempo, anche in considerazione del fatto che a giugno 2024 si vota per il rinnovo degli organismi continentali.
Per la vicepresidente della Commissione, Margrethe Vestager, vista la velocità di sviluppo delle nuove tecnologie, i negoziatori dovrebbero puntare a concludere il lavoro entro la fine del 2023. Trovato l’accordo, il testo prevede poi un periodo di 24 mesi prima dell’entrata in vigore delle nuove regole, tempo che Brando Benifei ha già annunciato di voler provare a ridurre in sede di negoziato a 18 o forse meno. «I rischi legati a queste tecnologie esistono già oggi, bisogna agire senza perdere tempo. L’era dell’IA è già iniziata», ha ammonito il relatore.