Parla Marco Preuss, direttore europeo del Great (Global research team) di Kaspersky, che vede uno sviluppo rapidissimo e forse troppo polarizzato dell’Ai
L’intelligenza artificiale generativa, quella che capisce cosa diciamo e agisce di conseguenza fornendoci informazioni, disegni, piani, suggerimenti e quant’altro ci possa servire, diventa sempre più efficace e brava a portare a termine i compiti che le chiediamo.
Le versioni future di ChatGPT, Gemini, Meta AI e simili avranno una memoria di ferro, sapranno interpretare al volo filmati e foto e si integreranno con il web così bene da andare a sostituire i motori di ricerca in molte delle loro applicazioni.
Diventeranno così abili a interpretare il mondo circostante che entro massimo cinque anni ognuno di noi ne avrà addosso una, dotata di videocamera, di altoparlante per risponderci, capace di interpretare le nostre richieste vocali e connessa a tutto il nostro mondo digitale in cloud per poter organizzare i nostri appuntamenti, ricordarci delle bollette in scadenza, rispondere alle mail poco importanti o organizzarle nella prossima giornata lavorativa.
O almeno questa è l’idea di Marco Preuss, direttore europeo del Great (Global research team) di Kaspersky, che vede uno sviluppo rapidissimo e forse troppo polarizzato dell’ai.
“Lo sviluppo dell’IA” – dice Preuss – “è sbilanciato a favore dei grandi colossi. Dovrebbe essere una tecnologia quanto più democratica possibile, ma gli investimenti necessari e la difficoltà nel reperire l’hardware necessario la stanno rendendo disponibile solo a ‘pochi’”.
Le preoccupazioni di Preuss sono condivisibili, ma forse un po’ premature dal momento che alla fine è arrivata all’attenzione delle masse da neanche due anni. Due anni scarsi che hanno visto una vera e propria esplosione nell’uso dell’IA Generativa con un mare di app che fanno di tutto, ma che risulta ancora troppo dispersivo per permettere a tutti di ottenerne pieno vantaggio.
Ci vorranno degli anni perché gli ecosistemi inizino a parlarsi davvero, senza costringerci a saltare da un’app all’altra per ogni operazione che vogliamo compiere. Un lasso di tempo che i criminali useranno per prepararsi a un nuovo assalto, stavolta più personale.
Ma perché dei criminali dovrebbero voler colpire le nostre AI personali? “Per il motivo che vediamo più frequentemente in atto oggi:” – dice Preuss – “il ricatto. Quando le IA personali saranno connesse a tutti i nostri servizi e noi saremo così immersi in questo nuovo scenario da esserne quasi dipendenti, saremo disposti a pagare per riottenere accesso al nostro mondo digitale, un po’ come accade oggi con il ransomware alle aziende”.
È ancora impossibile prevedere con precisione quali saranno i metodi che i criminali sceglieranno per portare a termine i loro scellerati scopi, ma almeno all’inizio non saranno poi così diversi da quelli che vediamo già oggi scatenati contro siti web e aziende.
Almeno all’inizio, i dispositivi che faranno da assistente personale con IA dialogheranno con i servizi in cloud tramite connessioni Internet e protocolli che vengono già usati adesso e che i criminali conoscono molto bene. Quindi ci aspettano attacchi che bloccheranno l’accesso ai servizi (Denial of Service), ai connettori per lo scambio di informazioni, ai sistemi di invio di informazioni alle AI e così via.
“Quando sei dipendente da un servizio, vuoi potervi accedere sempre” – precisa Preuss – “e se i criminali riescono a bloccarlo, sarai disposto a pagare. Ma non vanno sottovalutate altre forme di estorsione basate sul furto dei dati: avere accesso alle tue e-mail tramite la compromissione del dispositivo che ti porti appresso per l’assistenza tramite AI può portare i criminali a ottenere informazioni compromettenti che verranno usate per ricattarti, oppure otterranno tutto quello che serve per creare un deepfake e rubare soldi, informazioni o accessi a colleghi, amici o servizi dove sei già registrato e le misure di sicurezza che vediamo applicare oggi ai servizi AI non sembrano in grado di mitigare il problema”.
In effetti, dopo anni passati a discutere di sicurezza “by design”, Preuss lamenta che le aziende produttrici tendono a imparare molto lentamente dalle esperienze passate. Dopo decenni passati a lamentarci dell’insicurezza che caratterizzava Internet, prima, gli IoT, poi, e il software in generale adesso, sembra che la stessa sequenza di lamentele arriverà per i servizi AI. Basti pensare al dietrofront di Microsoft su Copilot + Recall, proprio perché la funzione che teneva traccia di tutte le nostre operazioni su PC aveva un problema di sicurezza abbastanza banale da sistemare.
“Progettare la sicurezza dall’inizio nello sviluppo di un prodotto” – dice Preuss – “costa denaro, ma soprattutto ne allunga i tempi di produzione. Questo spinge le aziende a prendere delle scorciatoie di cui, poi, si pentono. Ma non imparano e rifanno questo errore ogni volta.”
Ma stavolta speriamo tutti che sarà diverso. Ormai sappiamo bene quanto sia grave la minaccia del cybercrimine e il fatto che queste IA avranno accesso a tutti i nostri dati, maneggiandoli con una disinvoltura estrema, deve far capire a tutti che gli assistenti personali con IA saranno strumenti preziosi solo se ben progettati e messi in sicurezza, altrimenti diventeranno il mezzo per lanciarci tutti nel girone infernale dei tecnofili sprovveduti.