Alla base c’è un principio cardine: le regole diventano più stringenti man mano che aumenta il rischio legato all’uso della tecnologia
L’Europa ha varato ieri l’AI Act: le prime regole al mondo create per governare l’intelligenza artificiale. Almeno un paio di miti vanno sfatati. Miti che troppo spesso vengono usati come alibi per non agire. Il primo è che l’Europa sia capace di fare solo regole. Il secondo è che bastino delle norme per riuscire a far nascere start up e imprese capaci di competere nel mondo dell’hi-tech. Cullarci ancora in queste illusioni rischia solo di farci perdere occasioni. Intanto a chiedere regole sono stati i nuovi protagonisti dell’intelligenza artificiale, da Sam Altman creatore di Open Ai, madre di Chat GPT, passando per Elon Musk. Indicandone peraltro i pericoli. L’esperienza di Internet brucia ancora. Non essere intervenuti con delle norme ha fatto sì che oggi il mercato del web sia dominato da pochi grandi big. È invece proprio grazie a questa nuova cornice legislativa che si individua un campo di gioco dove la competizione potrà essere onesta, leale ed equa. Magari agevolando la nascita di nuovi protagonisti. A differenza del far west digitale al quale abbiamo assistito.
Un’esigenza sentita non solo in Europa. Negli Stati Uniti, a ottobre, Joe Biden ha emesso un ordine esecutivo sull’AI. Persino in Cina il presidente cinese Xi Jinping ha proposto il suo «Global AI Governance Initiative». E nel frattempo altre autorità hanno varato misure ad interim su l’AI applicata a testi, foto, audio e video destinate ai cittadini cinesi. La differenza tra Usa, Cina e Unione europea sta nel fatto che nelle 100 pagine e 20 mila parole dell’atto di Biden si dice che gli attori dell’AI hanno il dovere di informare l’amministrazione. Ma nessun obbligo. Quella europea è invece una legge che arriva a prevedere sanzioni pesanti per chi non la rispetta.
L’Europa è l’area economica di mercato libero più grande al mondo. Maggiore anche di Stati Uniti e Cina. Ha una sorta di responsabilità nel guidare i mercati. E non è un caso che i precedenti regolamenti sul mondo digitale da quello sulla privacy (GDPR), a quelli sulla salvaguardia dei diritti dei cittadini nei confronti dei big del web (DSA e DMA), siano stati studiati e persino utilizzati anche fuori dall’Unione.
È vero, le regole possono apparire fastidiose. Ma garantiscono il rispetto dei principi. Non piace a nessuno ogni volta che si apre un sito dover rispondere alle domande poste dalle piattaforme. Ed è ormai chiaro che spesso le continue richieste di liberatoria siano una sorta di ritorsione dei giganti della tecnologia sui consumatori. Giganti che hanno usato i nostri dati per fare profitti e che oggi grazie anche il GDPR sulla privacy si sono trovati a render conto dell’uso che ne fanno.
Alla base dell’AI Act c’è un principio cardine: le regole diventano più stringenti man mano che aumenta il rischio legato all’uso della tecnologia. Un conto è utilizzare l’AI per scegliere un ristorante o il volo più economico. Un altro è usarla in medicina per analizzare radiografie o esami; o per un’auto a guida autonoma che può mettere a rischio la vita delle persone. Da qui il divieto di applicarla come tecnica manipolativa, subliminale o per il “social scoring” (voti ai cittadini a scopo sanzionatorio).
Ma fatte le regole, stabilito il campo di gioco, ora servono i giocatori. Lo scorso 21 gennaio si è capito che l’Europa voleva davvero entrare in partita. La Commissione ha presentato GENAI4EU. Un pacchetto di misure capaci di aggregare 4 miliardi di investimenti. Non finanziamenti a pioggia ma uno scopo dichiarato: fare in modo che nascano e si sviluppino start up e imprese nel settore.
Non solo. È stata installata l’infrastruttura che sta già permettendo a molte aziende, anche italiane, di offrire intelligenza artificiale di nuova generazione. Negli anni scorsi l’Europa ha creato una rete continentale di supercomputer: tre di quelli più veloci al mondo sono sul nostro Continente. E altri 5 sono in arrivo. Rete che garantisce quella capacità di calcolo necessaria per creare, testare e addestrare i programmi che sono alla base dell’intelligenza artificiale. Un ambiente tecnologico fatto di dati e velocità di calcolo dei quali i grandi della tecnologia dispongono. Ma che usano per loro scopi privati, per loro profitto.
È qui il passaggio fondamentale. Il finlandese Lumi, lo spagnolo Mare Nostrum e l’italiano Leonardo che è a Bologna formano una rete di supercomputer pubblica e aperta a start up come alle grandi aziende europee che possono usarla per sviluppare intelligenza artificiale.
Un ambiente tecnologico costato circa 8 miliardi e costruito secondo i principi europei. A partire dalla difesa dei diritti dei cittadini e di tutte le componenti della nostra società. Un esempio per tutti: i dati aggregati non sono stati pescati sul web «a strascico» copiando qui e là o carpendo informazioni senza il consenso come è accaduto anche per alcuni dei più celebri programmi di intelligenza artificiale. Ma rispettando il copyright.
Le regole ci sono, l’infrastruttura anche. La palla passa al governo e alle imprese.