On line il primo numero di AI OBSERVER

10 Aprile 2025

On line il primo numero di AI OBSERVER

Dopo un anno di newsletter AI scritta per le sole persone di AGIC, che “di nascosto” la giravano ai propri amici e clienti, abbiamo deciso di renderla definitivamente pubblica!

Pensiamo ti possano interessare novità e curiosità dal mondo dell’Intelligenza Artificiale, raccontate con un taglio originale, sempre verificate nelle fonti e arricchite da un pizzico di ironia. Solitamente inseriamo notizie sul nostro partner Microsoft, che è sempre foriero di novità interessanti, ma anche una sorta di “non tutti sanno che” stile Settimana Enigmistica, e altre rubriche che spero riconoscerete nel tempo. 

Gli ultimi trend nel mondo della AI riguardano la riduzione dei costi dei modelli, sia per svilupparli che per utilizzarli, con un’unica eccezione (GPT o1-pro), ma anche la creazione di modelli sempre più “leggeri”, la loro integrazione con altri servizi e la nascita di nuovi benchmark molto fantasiosi. Iniziamo!

I modelli di AI costano sempre meno e sempre di più

Dopo la scossa data da DeepSeek che proponeva modelli molto performanti ma dai costi ridotti, si è continuato ad assistere a una riduzione dei costi per utilizzare i modelli generativi. In verità è un trend costante e da molti mesi vengono resi disponibili modelli sempre più economici, probabilmente a causa della possibilità di addestrarli con costi più ridotti che in passato, ma anche perché i modelli generano risposte ottime con “meno lavoro” computazionale. Aspetta, ma non è uscito il nuovo GPT o1-pro di OpenAI che costa 600$ per milione di token (a fronte di $0.600 di GPT-40 mini)? L’impressione è che OpenAI stia cercando modelli di business ulteriori rispetto alle sottoscrizioni, per continuare la transizione verso una società di profitto vera e propria. Ricordiamo che recentemente OpenAI ha immaginato di vendere agenti AI (“with a PhD-level degree”) a $20.000/mese. E ricordiamo anche che a inizio 2025 OpenAI dichiarava “stiamo perdendo circa 5 miliardi di dollari l’anno perché ChatGPT viene utilizzato troppo”. Forse a tendere non avremo più modelli di AI gratuiti e diventerà una commodity che daremo per scontato di dover pagare. Le persone più grandi si ricorderanno le prime connessioni internet di Tiscali gratuite, che hanno portato milioni di persone a navigare su web, ma ora paghiamo tutti la connettività alla rete.

 

Dati Sherwood News

Fonte https://sherwood.news/

 

Modelli snelli presto sullo smartphone


Ogni settimana “nascono” nuovi modelli di AI generativa. Tra quelli che hanno visto la luce nelle ultime due settimane si è visto una importante riduzione della potenza di calcolo utilizzata. Qui sotto potete vedere come Gemma 3 di Google abbia prestazioni comparabili ad altri modelli che però consumano circa 30 volte di più (qui qualche notizia in più). Discorso simile per il modello Ernie x1 della cinese Baidu. Questo ha un impatto positivo sui costi e sull’ambiente, ma anche consentirà a breve di far girare i modelli direttamente sui nostri smartphone. Perché deve essere chiaro che se oggi usiamo Copilot sul nostro telefono, lui ci risponde “girando” su una GPU in una server farm.

 

Chatbot Arena

 

Non è intelligente perché manca di creatività


Cosa vuol dire essere creativi è un tema discusso. Ho chiesto a Copilot che mi dice “Essere creativi significa uscire dagli schemi, vedere connessioni dove altri non le vedono, e trasformare l’intuizione in qualcosa di concreto o significativo”. Sicuramente è la tipica contestazione che si muove alla AI generativa, che risponde ai nostri stimoli, anche generando contenuti originali, ma spesso mancando di “creatività”: un tocco personale, un punto di vista inatteso, un pensiero laterale. Su questo stanno investendo molte aziende ed è interessante che affianchino la creatività alla capacità di comprendere le emozioni, ad esempio in un testo. I recenti rilasci di GPT-4.5 e di Ernie 4.5 hanno evidenziato proprio che loro “eccellono nella scrittura creativa e design”. In questo video la stessa domanda è stata posta ai modelli GPT dal 2017 in poi: “perché l’oceano è salato?”. L’evoluzione è impressionante. Anche Ernie 4.5 si distingue per un “quoziente emotivo elevato”, addirittura dichiarando la capacità di discernere emozioni e di comprendere i meme e le vignette satiriche che circolano in rete. Sappiate, che io essere umano non ne capisco almeno il 50%.

 

Meme

 

Quale è il modello migliore, giocando


Ad ogni uscita di un modello di AI vediamo confronti sulle sue prestazioni e quelle dei modelli precedenti. Per farlo si utilizzano i benchmark, che possono essere dedicati a valutare le capacità di comprensione e conoscenza generale, ragionamento di senso comune, ragionamento matematico, generazione di codice, o prestazioni specifiche come ad esempio il livello di bias ed equità (un esempio con codice). Però con il rapido miglioramento dei modelli molti di questi benchmark sono stati “saturati”, ovvero tutti i modelli raggiungono punteggi elevatissimi e non sono più in grado di distinguere chi è bravo e chi no. Alla ricerca di nuovi bechmark, diverse aziende stanno chiedendo ai modelli AI di utilizzare videogiochi. Un esempio è il Minecraft Benchmark, creato da uno studente delle superiori, ma altre sfide sono in corso su Pokemon Red, Street Fighter, Pictionary. Rimango dell’idea che i videogiochi sono la F1 della tecnologia: un posto dove si provano le soluzioni più avanzate per poi portarle nella vita di tutti i giorni.

 

Intanto Microsoft...


Pochi giorni fa AGIC ha partecipato all’AI Tour organizzato da Microsoft a Milano. Il sold out è stata la prova del successo di questa giornata, in cui abbiamo incontrato tante persone interessate alle nostre soluzioni che utilizzano l’intelligenza artificiale. È stata anche l’occasione di osservare i competitor, senza alcuna particolare sorpresa, e le ultime soluzioni di Microsoft, che invece è stata capace ancora una volta di stupirmi. Le demo in cui gli sviluppatori generavano soluzioni molto complesse in pochi secondi, ci hanno fatto riflettere sulla necessità di investire risorse e tempo per seguire la rapidissima evoluzione degli strumenti disponibili. Ecco le domande più comuni che ho ricevuto: “Copilot studio può utilizzare dati su SAP?”, “I servizi Azure OpenAI si possono utilizzare con Service Now?”, “I nostri sistemi sviluppati internamente possono interfacciarsi con il vostro assistente virtuale?”. Sì, sì, sì. Microsoft ha lavorato tantissimo sull’integrazione con sistemi esterni al suo ecosistema e oggi possiamo realizzare progetti usando dati posizionati ovunque. Un dato interessante: su Azure AI Foundry, la piattaforma di sviluppo e distribuzione per la creazione di copilot custom, oggi sono disponibili più di 1700 modelli di AI utilizzabili! Bene la partnership con OpenAI, ma questo vuol dire che la visione di Microsoft va ben oltre gli sviluppi di Sam Altman.

 

Francesco Costantino AI Tour

Francesco Costantino al Microsoft AI Tour - Milano 2025

 

Una cosa da sapere: Chain of Draft


Abbiamo Imparato che i large language model (LLM) di AI generativa ci restituiscono la parola più probabile e che questo funziona molto bene. Abbiamo imparato che per andare oltre la semplice conversazione basata sul buon senso appreso dagli LLM si è passato alle catene-di-pensieri (Chain of Toughts- CoT) in cui un processo più complesso è scomposto in sotto task, interrogando più volte il LLM. A superare questo approccio, poche settimane fa è stato pubblicato un paper che propone una catena-di-bozze (Chain of Draft – CoD) in cui la AI simula una persona che prende appunti rapidi per arrivare a una soluzione di un problema o la scrittura di un testo, dapprima segnando solo parole e concetti fondamentali e poi utilizzando questi elementi per strutturare un output complesso. Questa metodologia riduce il costo computazionale e le tempistiche. La ricerca ha mostrato che su alcuni task la CoD eguaglia o supera CoT in accuratezza, utilizzando solo il 7,6% dei token. Mi affascina molto vedere come stiano cercando di capire come funziona il nostro modo di pensare e farlo mimare alla AI. Lavoro molto con post-it e appunti schematici e mi sono ritrovato in questo approccio chain-of-draft. 

 

Chain of Draft

 

Tutti vogliono Scarlett Johanson


Un recente video deepfake ha mostrato 20 celebrità ebree, tra cui Scarlett Johansson e il duo Simon & Garfunkel, raffigurati con magliette recanti un dito medio con la Stella di David e la scritta "KANYE". Il filmato si conclude con i messaggi "Enough is enough" e "Join the fight against antisemitism", in risposta alle azioni del rapper Kanye West, che aveva venduto magliette con le svastiche (prima che le piattaforme chiudessero il suo store). Gli sviluppatori israeliani Guy Bar e Ori Bejerano hanno creato il video con l'intento di stimolare una discussione sull'antisemitismo. Scarlett Johansson, a cui già OpenAI aveva clonato la voce, e di cui avevano utilizzato l’immagine per una pubblicità senza averne il consenso, ha condannato il video, esortando il governo degli Stati Uniti a regolamentare l'uso dei deepfake. Negli Stati Uniti, le leggi esistenti proteggono l'uso dell'immagine di una celebrità in foto, disegni o sosia umani, ma non affrontano esplicitamente la riproduzione tramite sistemi di intelligenza artificiale, e in generale si condanna l’uso dei deepfake per scopo di lucro, ma non per scopi non commerciali, politici o satirici. E noi che posizione abbiamo? Crozza vestito da Trump va bene, un falso Trump che proclama assurde decisioni non va bene (neanche quello vero, ma questo è un altro discorso), ma cosa pensare di un Trump che fa arti marziali con Zelensky? Quando il falso è evidente allora ci può stare? Temo che sia un confine troppo labile per diventare la regola da seguire.  

 

Scarlett Johansson
Il servizio di “accompagnamento” con deepfake AI denunciato da Scarlett Johansson

 

Un giornale scritto dalla AI


Dal 18 marzo e per un mese intero sarà possibile leggere su Il Foglio un inserto di 4 pagine completamente scritte dalla intelligenza artificiale. È ovvio che già tutte le redazioni utilizzano la AI per il proprio lavoro, ma in questo caso il giornale dichiara di lasciare completamente in mano all’intelligenza artificiale “la scrittura, i titoli, i catenacci, i quote, i sommari”. La notizia è stata ripresa in tutto il mondo perché sono i primi a realizzare un esperimento tanto estremo, per cui si prevedono circa 20 articoli e 3 editoriali che racconteranno i fatti del giorno. Io ho più volte tentato di far scrivere box di questa newsletter alla AI, anche “passandole” tutti i numeri precedenti, ma l’esito è stato abbastanza deludente: completa mancanza di ironia, un italiano stentato e banale, pochi link realmente approfonditi. Il direttore del Foglio Claudio Cerasa lo racconta in maniera estesa qui. La mia impressione leggendolo è che manca l’ironia e gli articoli sono più di informazione e meno di commento, mancando la presa di posizione che è abbastanza tipica de Il Foglio.

 

Il Foglio
 
L’edizione di venerdì 28 de Il Foglio AI

 

Due nuovi agenti con Microsoft 365 Copilot


Microsoft ha recentemente annunciato l'introduzione di due nuovi agenti AI avanzati all'interno di Microsoft 365 Copilot: Researcher e Analyst. Researcher è un agente AI che assiste nella gestione di compiti di ricerca complessi e articolati. Utilizza il modello di ricerca avanzato di OpenAI per accedere a dati sia interni che esterni all'organizzazione, inclusi sistemi come Salesforce e ServiceNow. Questo permette di ottenere approfondimenti dettagliati e di alta qualità, semplificando l'integrazione delle informazioni provenienti da diverse fonti. Analyst, basato su GPT o3-mini di OpenAI, è progettato per trasformare dati grezzi in analisi dettagliate. È in grado di elaborare dati, eseguire codice Python e generare report puntuali. Questa funzionalità consente agli utenti di analizzare e interpretare dati complessi senza necessità di competenze avanzate in programmazione. Questi nuovi agenti saranno disponibili a partire da aprile per i titolari di licenze Microsoft 365 Copilot.

 

ALEXA+


Molti di noi hanno Alexa a casa e quotidianamente vivono la sensazione di parlare con un sistema preistorico, da cui ci si attende oggi un dialogo simile a ChatGPT e che invece ci risponde meccanicamente e con poca capacità di interlocuzione. Insomma, Alexa sembra la nonna rimbambita di Copilot. L’esperimento Alexa è da molti considerato un fallimento, perché avrebbe dovuto generare profitti ricorrenti ma l’azienda non è riuscita a trovare il modello di business giusto per utilizzare i più di 500.000 dispositivi installati nelle nostre case. Consapevole di questo, Amazon ha appena lanciato Alexa+ che per 19$/mese può darci un agente AI a portata di voce nelle nostre abitazioni. L’aspetto interessante è che mentre OpenAI, Google, DeepSeek, Anthropic e tutte le altre aziende cercano di ottenere il modello più performante, Amazon sceglie di eliminare diverse capacità (ad esempio scrivere codice, generare immagini, o scrivere testi complessi), creando un modello esplicitamente progettato per “aiutare nelle piccole cose”. Esempi? La necessità di riparare un elettrodomestico, monitorare un prezzo online, raccontare cosa ha visto nelle nostre telecamera di sorveglianza (“il gatto è uscito?”). E ovviamente la possibilità di acquistare online, facendo la lista della spesa a voce proprio come diremmo a chi vive con noi “sta finendo la carta igienica!”. Faccio frequentemente la spesa online e sarei contento di dire “fammi l’elenco dei prodotti in offerta sul sito della Coop e metti nel carrello quello che ti ho detto che sta per finire”.  Negli USA sarà incluso nell’abbonamento Prime, in Europa ancora non si sa. 

 

Alexa+  

 

Nello stile dello Studio Ghibli

 

Il disegnatore Miyazaki aveva criticato diversi mesi fa l’utilizzo della AI per la creazione dei bellissimi film che lo studio Ghibli realizza da molti anni. Ora tutti riprendono questa notizia (credo sia del 2016!) perché OpenAI ha rilasciato una nuova funzionalità di creazione immagini che effettivamente riesce a ricreare “stili grafici” molto meglio di quanto fino ad ora disponibile nel mondo della AI. Penso che anche il lavoro di chi fa arte debba cambiare, forse generando solo i primi bozzetti e imparando a scrivere prompt molto dettagliati, proprio come tutti gli altri lavori. Personalmente, mettendo da parte i sensi di colpa per aver forse consumato la stessa quantità di energia elettrica di una acciaieria, ho voluto testare il sistema chiedendo di rendere “anime” il nostro management. Ecco il risultato, in cui potete provare a riconoscere persone che potreste conoscere. 

 

Thumbnail Video Management

 

Chi sono


Ciao, sono Francesco Costantino, professore universitario e Director of Innovation in AGIC. Appassionato di novità tecnologiche e convinto sostenitore di un futuro migliore del passato, mi piace raccontare e sperimentare i nuovi strumenti di AI disponibili, così come osservare e ragionare su quello che ci sta portando l’evoluzione digitale.

 

Francesco Costantino