
Parla Nicola Grandis il ceo e fondatore della start up italiana ASC27 che ha lanciato il modello di intelligenza artificiale «specializzato in logica»
Liberamente ispirato all’Uomo Vitruviano di Leonardo da Vinci, si definisce «orgogliosamente allenato in Italia». Il modello italiano di intelligenza artificiale Vitruvian-1 (per gli amici V1) è da ieri aperto al pubblico.
«Siamo in versione beta – commenta al Sole 24 Ore Nicola Grandis, il papà di V1 – e ci aspettiamo tra le 50 e le 200mila visite con l’obiettivo, tra dieci o quindici giorni, di aprire le API e quindi essere pronti a fornire servizi alle aziende».
Come tiene subito a precisare il ceo e fondatore della start up italiana ASC27, è un modello di AI con capacità di ragionamento, consuma meno, inquina meno, ma non è un chatbot come gli altri. Non è progettato per fare discorsi o intrattenere gli utenti. V1 è stato pensato per rispondere a problemi ed esigenze concrete, è sviluppato per supportare le persone nelle proprie attività, aiutare le aziende a risolvere problemi e suggerire soluzioni a questioni complesse.
Il primo pensiero, però, quello automatico che viene a tutti, è il terremoto sui mercati finanziari prodotto da DeepSeek 1, il modello cinese che ha dimostrato come sia possibile una via “low cost” all’intelligenza artificiale generativa. Vitruvian V1 non nasce con le stesse ambizioni, ma ha qualche punto in comune e forse può rappresentare una buona notizia per rivitalizzare le ambizioni europee.
«Costiamo – aggiunge Grandis – meno degli altri. DeepSeek costa 2 dollari e 54 per milione di token, noi un euro per milione di token e lo possiamo fare perché il nostro modello è leggero, solo 14 miliardi di parametri».
Il ceo di ASC27 spiega che l’addestramento è costato pochissimo, nell’ordine delle decine di migliaia di euro (contro i 6 milioni di DeepSeek, ndr) e che hanno usato 8 chip H100 Nvidia (le penultime versioni, ndr). Ma la vera magia è stata condensare i dati dentro un modello di AI di soli 14 miliardi di parametri. A parità di compiti, Vitruvian-1 necessita di minore potenza per funzionare rispetto ai grandi modelli. E quindi consuma e inquina di meno.
«Il nostro modello, infatti, nasce per rispettare i valori e le normative europee. L’abbiamo voluto leggero in termini di parametri proprio perché vogliamo che possa girare su hardware europeo, dal notebook al server, senza dover quindi acquistare costosi abbonamenti al cloud dalle Big Tech».
Per ora, però, la scelta non è quella di rilasciare il modello su Hugging Face o su altre piattaforme per l’AI open source, come Llama di Meta e i modelli cinesi come Qwen o DeepSeek.
Chiacchierata tra Vito Lops e Paolo Ardoino, il ceo dell’azienda che emette Usdt, la stablecoin più diffusa al mondo. Focus sulla scelta di comprare il 5% dei diritti di voto della squadra di calcio torinese…
«C’è tanta confusione. Per essere davvero open source – spiega – devi pubblicare i pesi e i dati, e non tutti quelli che si definiscono aperti fanno così. Noi stiamo valutando cosa fare anche rispetto all’AI Act, se rilasciare il modello in formato completamente aperto o no. Una delle perplessità è l’utilizzo di questi software da parte di criminali, che possono riutilizzare il codice per scopi illegali».
Accanto a V1 sono nati altri LLM (modelli linguistici di grandi dimensioni) allenati solo con dati e con centri di calcolo o supercomputer italiani. Come ad esempio Minerva dell’Università la Sapienza di Roma o Italia 9B di iGenius. La scelta del nome dice molto “made in Italy”.