Go down

Quando le voci più autorevoli del pianeta convergono sullo stesso messaggio, forse è il momento di ascoltare


Talvolta ci sono episodi, notizie, informazioni che prese singolarmente hanno un significato e, invece, se collegate mostrano un quadro nascosto o perlomeno non immediatamente visibile. Un po’ come il gioco che consiste nel disegnare una linea tra un punto e l’altro e alla fine si scopre un’immagine nuova.

Nelle ultime settimane, tra fine 2025 e febbraio 2026, ho raccolto una serie di questi punti. Presi uno per uno sembrano il solito rumore di fondo dell’intelligenza artificiale: clamore, hype, contro-hype, tutto e il contrario di tutto. Ma quando li ho collegati è emerso un disegno che potrebbe cambiare il modo in cui pensiamo al futuro del lavoro. Non in astratto e non domani: adesso, per chi gestisce un’azienda, uno studio professionale, un team.

I tempi si accorciano e convergono

Il cofondatore di Google DeepMind, Shane Legg, illustra la sua visione sulla nascita dell’intelligenza artificiale generale (AGI), prevedendo una probabilità del 50% di raggiungerla entro il 2028. Tra i requisiti che indica c’è il “grounded understanding”: i modelli attuali, confinati prevalentemente al testo, sono ancora “limitati”. Quando inizieranno a elaborare video e immagini in modo nativo, avranno una comprensione molto più fondata del mondo reale. Non più solo chat testuali, ma sistemi capaci di capire cosa sta succedendo davvero. Proprio per favorire questo grounding, Google ha sviluppato Project Genie, un modello di IA generativa capace di creare ambienti 3D interattivi e navigabili, partendo da input semplicissimi come un testo, una foto o uno schizzo. In pratica, un modo per far “provare” alle IA cosa significa fare qualcosa nel mondo reale, in modo sicuro ed economico.

Nelle stesse settimane, Geoffrey Hinton - uno dei padri fondatori dell’intelligenza artificiale, premio Nobel nel 2024 - avverte in un’intervista alla CNN che il 2026 potrebbe essere l’anno in cui milioni di persone scopriranno che i loro posti di lavoro non esistono più. Non tanto per l’arrivo dell’AGI, quanto per la velocità del suo impatto sul mercato del lavoro.

A Davos, il World Economic Forum segnala che l’IA costringerà al reskilling 850 milioni di lavoratori entro il 2030. Lo scorso anno, nel rapporto biennale “The future of jobs report 2025”, lo stesso WEF pubblicava stime sull’impatto dell’IA sul lavoro con un saldo netto positivo di 78 milioni di nuovi posti. Ma il numero che colpisce è il primo: 850 milioni di persone da riqualificare in meno di quattro anni.

Hinton: 2026. Legg: 2028. WEF: entro il 2030. Le persone più autorevoli del pianeta su questo tema convergono su orizzonti temporali molto vicini. Qualunque sia la stima esatta, il messaggio è lo stesso: non stiamo parlando del prossimo decennio, stiamo parlando di domani.

L’impatto è già misurabile - ma non dove ci aspettiamo

Fin qui potremmo liquidare tutto come l’ennesimo allarme. Ma c’è un dato che cambia la natura della discussione.

Lo studio Canaries in the coal mine?, condotto dalla Stanford University e aggiornato a novembre 2025, ha analizzato 180.000 cedolini paga negli Stati Uniti. Il risultato è netto: un crollo del 13% nell’occupazione dei giovani tra i 22 e i 25 anni nei ruoli ad alta esposizione all’IA, come sviluppatori software e addetti al customer service. I profili senior nelle stesse mansioni, nel frattempo, restano stabili o addirittura crescono.

La causa non è generica: è strutturale. L’IA sta automatizzando quella che i ricercatori chiamano “conoscenza codificata” - il sapere scolastico, le procedure standardizzate, le competenze che si imparano da un manuale. Ed è esattamente il tipo di conoscenza che caratterizza i lavoratori junior. In pratica, l’IA sta eliminando il primo gradino della scala professionale. Ma fallisce nel replicare la “conoscenza tacita” ed esperienziale dei lavoratori più maturi: l’intuizione maturata in anni di pratica, la capacità di gestire l’imprevisto, il giudizio che nasce dall’aver visto le cose andare storte.

Hinton, nella citata intervista, aggiunge un dettaglio che merita attenzione: a fare le spese di questa trasformazione saranno soprattutto le donne, che occupano in media posizioni più vulnerabili all’automazione, e i lavoratori delle minoranze - che si trovano concentrati nei ruoli a più alto rischio. Inoltre, il 77% dei nuovi 350.000 posti di lavoro legati all’IA richiede una laurea magistrale, inibendo di fatto le vie di sviluppo per chi ha una scolarità più bassa.

Questo paradosso non è un dettaglio tecnico. È la chiave per capire perché le previsioni sull’automazione del lavoro sono così spesso sbagliate: la sequenza con cui le professioni verranno trasformate non seguirà l’ordine di difficoltà percepita dagli umani.

Ma dalla ricerca di Epoch emerge un concetto forse ancora più importante: lo spostamento continuo dei colli di bottiglia. Quando l’IA risolve un compito, il lavoro umano non scompare - si sposta. Se l’IA automatizza l’analisi di routine, il valore si sposta sull’interpretazione e sul giudizio. Il lavoro si trasforma, non svanisce - almeno finché ci sono colli di bottiglia su cui spostarsi.

I segnali di chi costruisce il futuro

Fin qui abbiamo visto dati e ricerche. Ma ci sono segnali di un altro tipo, forse più rivelatori: i comportamenti delle persone che questa tecnologia la stanno costruendo. E quei comportamenti raccontano una storia.

Erik Brynjolfsson, senior fellow dello Stanford Institute for Human-Centered AI e direttore dello Stanford Digital Economy Lab, durante un evento alla Axios House di Davos, introduce una nuova funzione aziendale: il CQO, Chief Question Officer. Nell’era dell’intelligenza artificiale, sostiene, sempre più persone diventeranno “coloro che definiscono le domande da porre a una squadra di agenti IA e che poi li guidano”. Il lavoro non è più eseguire compiti, è sapere quali compiti far eseguire.

Lo stesso Shane Legg pubblica su X un annuncio di lavoro per DeepMind: cerca un Senior Economist, che riferirà direttamente a lui, per guidare un team dedicato a investigare “l’economia post-AGI”. L’annuncio è ancora attivo, se qualcuno volesse candidarsi. Ma il dato rilevante è un altro: il cofondatore di uno dei laboratori di IA più avanzati al mondo sta già cercando qualcuno che studi come funzionerà l’economia quando l’AGI sarà una realtà. Non “se”, ma “quando”.

Ethan Mollick, professore alla Wharton University, ricercatore in IA e autore del bestseller “Co-Intelligence”, scrive su LinkedIn:

“Se stai valutando un’offerta di lavoro, potresti voler chiedere a quanto ammonterà il tuo budget mensile di token“.
E aggiunge:
”Questo non vale esclusivamente per i lavori di programmazione”.

Pensateci: il budget di token come parametro nella scelta di un posto di lavoro. Come lo stipendio, l’auto aziendale, i giorni di ferie.

E infine Sam Altman, CEO di OpenAI, pubblica su X un post che merita di essere letto per intero:

“Sono molto entusiasta dell’IA, ma per un momento voglio uscire dal copione: la scorsa settimana ho costruito un’app con Codex. È stato molto divertente. Poi ho iniziato a chiedergli idee per nuove funzionalità e almeno un paio di queste erano migliori di quelle a cui stavo pensando io. Mi sono sentito un po’ inutile ed è stato triste.”

E poco dopo:

“Sono sicuro che troveremo modi molto migliori e più interessanti per spendere il nostro tempo, e nuovi incredibili modi per essere utili gli uni agli altri, ma provo nostalgia per il presente.”

Il CEO dell’azienda che sta costruendo questa tecnologia prova nostalgia per il presente. È un dettaglio che vale più di molte analisi.

L’unione dei puntini: quando l’IA trova la sua “Scienza”

Eccoci al disegno che emerge collegando tutti questi punti.

Si assiste in queste settimane a un’incessante sfida tra Anthropic con Claude Code e OpenAI con Codex 5.3: agenti potenti dedicati alla generazione di programmi, capaci di lavorare diverse ore in autonomia e di portare a termine attività di programmazione complesse. È quello che viene chiamato “vibe coding”, anche se il termine non rende giustizia alla portata di ciò che sta accadendo.

Mi sono chiesto il perché di questa “battaglia” così intensa. Dopo tutto, Anthropic e OpenAI sono concorrenti diretti e si punzecchiano spesso. Ma l’investimento nel coding autonomo ha una intensità e una urgenza che vanno oltre la normale competizione di mercato.

Alla fine ho pensato a un’analogia che può sembrare temeraria, ma che una volta formulata rende tutti i puntini coerenti.

La specie umana è imperfetta, lo sappiamo. Tuttavia è riuscita a sviluppare un metodo con il quale è progredita fino al livello che conosciamo. Parlo della Scienza, che ha un valore fondamentale: verificare e certificare in modo oggettivo l’oggetto del suo studio. Un’ipotesi non diventa conoscenza finché non viene sottoposta a verifica. Gli umani sono progrediti grazie a questo intreccio: creatività imperfetta che genera intuizioni e un metodo rigoroso che le trasforma in progresso cumulativo.

Ecco la mia tesi: la capacità di programmare autonomamente in modo preciso potrebbe essere per le IA ciò che la Scienza è stata per gli umani.

Un programma funziona o non funziona. Si compila o non si compila. Il test passa o fallisce. Non ci sono sfumature, non c’è spazio per l’ambiguità. Certo, la verifica formale non è una novità: esiste da decenni nella matematica e nella logica. Ma il coding ha qualcosa che la dimostrazione di un teorema non ha: è immediatamente operativo. Un programma verificato non resta sulla carta — agisce nel mondo, manipola dati, produce risultati, interagisce con altri sistemi. Il coding è il primo dominio in cui l’IA può verificare autonomamente la correttezza del proprio output e al tempo stesso usare quel output per fare qualcosa di concreto. E questo è qualitativamente diverso dalla scrittura, dall’analisi, dalla consulenza - ambiti in cui la differenza tra “buono” e “cattivo” è sfumata e soggettiva.

La ricerca di Epoch AI, condotta a ridosso del rilascio di Opus 4.6, mostra questo meccanismo in una fase di transizione. Claude Code costruisce un’interfaccia web funzionante per un modello economico complesso, ma i risultati del modello contengono ancora errori significativi. Eppure, con Opus 4.6, siamo già un passo avanti: il modello è ora capace di rilevare e correggere autonomamente i propri errori durante la revisione del codice - una debolezza cronica delle generazioni precedenti. Il cerchio non è ancora completamente chiuso, ma si sta chiudendo. Quando lo sarà - scrivere il codice, eseguirlo, confrontare i risultati con quelli attesi e correggere autonomamente anche gli errori logici e concettuali, non solo quelli sintattici - saremo in un territorio completamente nuovo.

Ma c’è di più. Se l’IA impara a verificarsi autonomamente nel coding, questa capacità può estendersi. Può scrivere codice per analizzare dati e verificare le proprie analisi. Può costruire simulazioni per testare le proprie previsioni. Può creare strumenti per misurare la qualità dei propri output in altri domini. Il coding diventa il ponte tra l’IA che “sembra” intelligente e l’IA che “verifica” di esserlo.

Se questa analogia coglie qualcosa di reale, allora la capacità di programmare bene da parte delle IA non è solo un miglioramento incrementale: è il trigger che potrebbe scatenare una crescita delle capacità di questi strumenti in modo potenzialmente esponenziale.

E improvvisamente le previsioni di Legg, di Hinton, del WEF, le timeline di Epoch AI, lo studio di Stanford sui lavoratori junior, il post malinconico di Altman — tutto diventa coerente. Non stiamo guardando punti sparsi: stiamo guardando un disegno.

La sfida della consapevolezza

Chi sta costruendo queste tecnologie ne è consapevole. Anthropic pubblica la Costituzione di Claude: un documento fondativo che non è scritto per noi, ma per Claude stesso. Definisce i principi che guidano il comportamento del modello e ci fa capire la complessità dei sistemi di IA di frontiera.

In parallelo, il CEO di Anthropic, Dario Amodei, pubblica un saggio intitolato “L’adolescenza della tecnologia” , in cui mette in guardia sui potenziali rischi esistenziali ma evidenzia anche le enormi opportunità. Da ingegnere quale è, suggerisce di affrontare la sfida con fiducia, maturità, passo dopo passo.

Yuval Noah Harari, storico e filosofo di fama mondiale, insieme al fisico Max Tegmark del MIT, in una tavola rotonda alla Bloomberg House di Davos ci ricordano una verità scomoda: anche un’IA “primitiva” o “molto stupida” è sufficiente a cambiare la storia, la società e la politica. Non serve aspettare l’AGI per sentirne gli effetti.

Conclusione: la domanda che dovreste farvi domani mattina

Torniamo ai puntini. Li abbiamo collegati e il disegno che emerge non è rassicurante né catastrofico - è urgente.

L’IA sta già eliminando il primo gradino della scala professionale per i più giovani. Sta imparando a verificare autonomamente i propri output attraverso il codice. Le persone che la costruiscono stanno già assumendo economisti per studiare il mondo del lavoro post-AGI e provano nostalgia per il presente.

Per chi dirige un’azienda, uno studio, un team, la domanda concreta è questa: in quale punto della catena del valore della vostra attività si trova la “conoscenza codificata” - quella procedurale, standardizzata, da manuale - che l’IA sta già imparando a sostituire? E dove si trova invece la “conoscenza tacita” -l’esperienza, il giudizio, la capacità di gestire l’imprevisto - che per ora resta un vantaggio umano?

Perché il futuro del lavoro non sarà di chi sa le risposte. Come ci suggerisce Brynjolfsson con il suo Chief Question Officer, sarà di chi sa fare le domande giuste. Alle persone e, sempre di più, alle macchine.

È il momento di iniziare a farsele, queste domande. Senza schemi e senza fazioni. Con la lucidità di chi guarda i fatti con occhi orientati agli scenari futuri, non a quelli vecchi.


Questo articolo è stato scritto da Vincenzo Carlone con il contributo di Claude Opus 4.6 (Anthropic), utilizzato come partner critico nella strutturazione, revisione e raffinamento del testo. Le idee, le tesi e le interpretazioni sono dell’autore. Immagine generata con Midjourney


Mini glossario per non addetti ai lavori

Claude Code e Codex 5.3 sono assistenti di programmazione basati su intelligenza artificiale che comprendono il linguaggio naturale (cioè quello umano) e lo trasformano in codice software funzionante. Il primo sfrutta le capacità del modello Opus di Anthropic; il secondo quelle di GPT-5.2 di OpenAI.

AGI (Artificial General Intelligence) indica un sistema di intelligenza artificiale con capacità cognitive paragonabili a quelle umane in qualsiasi ambito, non solo in compiti specifici.

Token sono le unità di base (parole o parti di parole) in cui un modello AI scompone il testo per elaborarlo. In breve: i “mattoncini” con cui l’IA legge e scrive. Il prompt che scriviamo e la risposta dell’IA sono conteggiati in token. I modelli hanno un limite massimo di token gestibili in una conversazione (finestra di contesto) e spesso si paga in base al numero di token elaborati.

Paradosso di Moravec è il principio secondo cui ciò che è facile per gli umani (percezione, movimento, buon senso) è difficile per le macchine, e viceversa. Prende il nome dal ricercatore Hans Moravec che lo formulò negli anni ’80.

Pubblicato il 12 febbraio 2026

Vincenzo Carlone

Vincenzo Carlone / Artigiano dell’IA & Formatore | Fractional Chief AI Officer | Aiuto le PMI a integrare l’Intelligenza Artificiale nei processi reali