È giusto porre dei limiti di natura etico-legale all’utilizzo di reti neurali, ma raccogliere i dati sui requisiti di trasparenza chiesti dal disegno di legge europeo sembra oggettivamente difficile
Il Parlamento Europeo ha recentemente approvato un disegno di legge noto come «A.I. Act», che imporrebbe nuove restrizioni agli usi più rischiosi della Intelligenza Artificiale (IA). Ridurrebbe drasticamente il suo uso nel riconoscimento facciale, mentre richiederebbe ai produttori di sistemi generativi come il ChatGPT di rivelare di più sui dati utilizzati per creare i loro programmi.
È giusto porre dei limiti di natura etico-legale all’utilizzo di reti neurali di tipo black box quando si tratta di scelte che riguardano questioni sensibili della vita di cittadini, dipendenti e clienti come nel caso di assunzioni, valutazioni della performance lavorativa, promozioni, attribuzioni di prestiti, decisioni su progetti in gara, decisioni finanziarie etc… Lo stesso discorso si applica a decisioni in ambito militare, in quello della sicurezza, su infrastrutture critiche come l’acqua o l’energia, quando si determina l’accesso ai servizi pubblici e ai benefici del governo per non parlare del suo utilizzo in ambito giudiziario. Infine si deve anche considerare con attenzione il ruolo della IA nella produzione e diffusione delle fake news ed il suo effetto insidioso di suggeritori di «bias» comportamentali.
D’altra parte i limiti della IA sono evidenti in molti ambiti, dal riconoscimento facciale, alle previsioni in ambito sanitario (il flop di Google flu trends per le previsioni delle influenze stagionali e di Watson della IBM per la diagnosi dei tumori) e finanziario. La presenza di errori e risposte deliranti (da preferire al termine «allucinazioni») rende rischioso il loro utilizzo. Inoltre la loro natura di macinatori induttivi di dati sembra escludere, per ora, qualsiasi proprietà emergente di tipo cognitivo e creativo ed il raggiungimento dell’obbiettivo della «singolarità».
Rimane difficile però condividere alcune richieste del Parlamento Europeo. L’I.A. dovrebbe affrontare nuovi requisiti di trasparenza. Ciò include la pubblicazione di riassunti del materiale protetto da copyright utilizzato per addestrare il sistema e modalità di blocco per evitare che si generino contenuti illegali. Ciò sembra tecnicamente molto arduo. La I.A. generativa che utilizza reti di deep learning e fa riferimento ai Big Data del web è una black box che sembra difficile «aprire» per conoscere le informazioni utilizzate e di cui è anche problematico pilotare l’esito finale derivante dal processo di apprendimento (da ciò i problemi di natura legale sulla responsabilità delle decisioni).