22 Novembre 2024
Intelligenza artificiale

Se i grandi provider di intelligenza artificiale come Google, Meta o Microsoft vorranno continuare a vendere i loro servizi ai cittadini e alle imprese dell’Unione europea dovranno garantire, e certificare, qualità e trasparenza di algoritmi e dati. È uno dei pilastri dell’AI Act europeo, la prima legge al mondo che prova a indirizzare lo sviluppo dell’intelligenza artificiale. Nel testo sul quale la Commissione di Ursula von der Leyen ha ottenuto venerdì a tarda sera, dopo un durissimo negoziato, il sì politico di Parlamento e Consiglio sono molti gli elementi pionieristici e di novità. La sfida è quella di tenere la barra di fronte a una tecnologia che evolve come nessun’altra, ci cambierà la vita e, per ora, promuove un business colossale.

L’authority europea
Il sistema di mitigazione dei rischi è il cuore dell’impianto normativo che si declina anche con l’istituzione di un AI Office a Bruxelles, con un proprio budget e con il compito di raccordo e supervisione, «un ufficio forte, con un’autonomia funzionale» come lo descrive il relatore del Parlamento, l’italiano Brando Benifei saluta «l’accordo storico, frutto del lavoro di una grande squadra». Anche i singoli Paesi sono chiamati a dar vita a un’Authority indipendente oppure ad affidare la vigilanza sull’artificial intelligence (AI) a un’autorità già esistente.

Nuovi limiti contro il «deep fake»
E, ancora, oltre alla protezione della privacy e dei diritti individuali e collettivi, l’AI act contiene gli attesi paletti sulla produzione e distribuzione in rete di «deep fake», contenuti falsi, e la tutela del copyright. Nel primo caso viene imposta la cosiddetta filigrana digitale (watermarking), l’obbligo per gli sviluppatori di inserire la stringa che avverte sui contenuti creati dall’AI. L’immagine del Papa con il piumino, per citare una celebre immagine «fake», potrà arrivare sui nostri device solo con la barra che ci avvisa che si tratta di un’invenzione dell’AI. Quanto al copyright, utilizzare contenuti per alimentare i chatbot avanzati, come ChatGpt o Gemini, non sarà possibile se l’autore avrà richiesto di non utilizzare i propri su cui detiene i diritti.

Più trasparenza per Big Tech
Sui contenuti già prelevati per allenare gli algoritmi, le società tech dovranno essere trasparenti, fornendo riassunti «sufficientemente dettagliati» di quanto utilizzato. «Una scelta di garanzia per i cittadini, e per il rispetto del diritto d’autore, della creatività e del lavoro delle industrie culturali» afferma il presidente dell’Associazione italiana editori (Aie) Innocenzo Cipolletta. Il ministro delle Imprese Adolfo Urso e il sottosegretario alla presidenza del Consiglio con delega all’Innovazione Alessio Butti parlano «di passo significativo nello sviluppo AI incentrato sull’uomo». La piramide del rischio — da «insostenibile» a «trascurabile» — ha portato al divieto assoluto di sistemi come il social scoring già visto in Cina, un punteggio assegnato ai cittadini in base alla loro affidabilità, alle azioni di polizia predittiva (cercare di «indovinare» chi potrebbe delinquere) e della rilevazione degli stati emotivi delle persone.

Le regole per il riconoscimento facciale
Il riconoscimento facciale attraverso telecamere biometriche sarà consentito solo in tre casi: evidente minaccia di terrorismo, ricerca di vittime, indagini per omicidio e stupro. Uno dei punti rilevanti, resta quello della responsabilità in capo alle società big tech alle quali sarà richiesta una certificazione sugli algoritmi che dovranno essere, ripuliti dai pregiudizi e sui dati che dovranno avere una conformità ambientale e di sicurezza. Il voto finale sul testo di legge è atteso a inizio febbraio 2024. Da quel momento sono previste le fasi sperimentali che prevedono anche l’adesione volontaria delle imprese alle nuove regole che entreranno in vigore in tempi scaglionati per essere completamente a regime nel 2025.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *