Vai al contenuto
Un nuovo modello mentale per l’AI: dal “fare” al “decidere” 🧭

Un nuovo modello mentale per l’AI: dal “fare” al “decidere” 🧭

2 febbraio 2026·Sandro Lain
Sandro Lain

Un nuovo modello mentale per l’AI

Capita spesso così: ti svegli, apri la chat dell’AI, le chiedi una cosa “banale” e in venti secondi ti sputa fuori una risposta che avrebbe richiesto mezz’ora di ricerca e un po’ di fortuna. Poi, cinque minuti dopo, la stessa AI ti inventa un dettaglio con la sicurezza di chi ha appena letto la tua mente (spoiler: non l’ha letta).

Ed è qui la parte veramente surreale: nonostante sembri già fantascienza, siamo ancora nella preistoria delle AI. Se la storia umana, per convenzione, inizia con la scrittura, l’AI — in un certo senso — è nata nella scrittura: testo, simboli, linguaggio. Prima ancora di avere braccia, occhi e fabbriche automatizzate, ha avuto frasi. E le frasi, si sa, cambiano il mondo più velocemente dei cacciaviti.

In mezzo a questi due estremi — magia e allucinazione — c’è la parte interessante. Quella in cui l’AI smette di essere un “tool” e diventa un ambiente: cambia il modo in cui lavoriamo, il modo in cui valutiamo il valore, e (volendo essere drammatici ma onesti) il modo in cui decidiamo perché alzarci la mattina.

La domanda non è “quanto sarà brava l’AI?”. La domanda vera è:

Una società che misura la dignità in produttività è compatibile con un’intelligenza scalabile?

E no, non è una domanda da aperitivo: è un problema operativo. Perché nel frattempo dobbiamo pagare bollette, costruire prodotti, fare scelte e (possibilmente) non impazzire.

Due definizioni per non litigare con le parole 📌

Quando si parla di “AI e lavoro” spesso ci si incarta su un equivoco: stiamo parlando di automazione software, di robotica, o di entrambe?

Per capirci (in modo pragmatico, non accademico):

  • AI + automazione: sistemi software che svolgono compiti cognitivi (scrivere, riassumere, classificare, analizzare, decidere “entro vincoli”).
  • Robotica + AI: macchine che svolgono compiti fisici, guidate da sistemi sempre più capaci di gestire variabilità del mondo reale.

Nel breve periodo l’impatto più visibile è sul lavoro cognitivo ripetitivo. Nel medio-lungo periodo, quando la robotica diventa abbastanza economica e affidabile, il lavoro manuale entra nella stessa traiettoria.

La premessa che nessuno ama: le aziende ottimizzano per profitto 💸

Se partiamo da un assunto semplice — le aziende private ottimizzano per il profitto — molte cose smettono di essere misteriose.

L’AI non arriva per “realizzare il potenziale umano”. Arriva perché taglia costi, riduce tempi, abbassa l’attrito. E quando una tecnologia riesce a fare questo, la domanda non è se verrà adottata, ma quanto velocemente.

Questo non rende l’AI “cattiva”. La rende prevedibile.

Se ti interessa questo tipo di lettura “economica” delle scelte tecniche, è lo stesso filo di ragionamento di Follow the money: la tecnologia è spesso una strategia economica travestita da scelta ingegneristica.

Nei prossimi 5 anni: si rimuove l’inefficienza (e spariscono le porte d’ingresso) 🚪

Nel breve termine succede una cosa precisa: non vengono automatizzati “ruoli” interi, ma compiti.

Tutto ciò che è ripetitivo, standardizzabile, misurabile e “a basso rischio reputazionale” finisce nel mirino: supporto L1, backoffice, data entry, QA base, marketing operativo, reportistica. Anche una parte del coding “commodity” (quello dove il vero problema non è scrivere codice, ma capire cosa stai facendo).

Sul fronte fisico, l’effetto è più selettivo ma già reale: magazzini, logistica e catene produttive standardizzate sono terreno fertile per robot “di reparto”. Non perché siano perfetti, ma perché spesso sono abbastanza per togliere lavoro routinario.

Il risultato pratico non è subito una valanga di licenziamenti. È qualcosa di più subdolo:

le aziende non assumono.

Tagliano soprattutto i lavori di ingresso (stage, junior “veri”), perché l’AI diventa il pacchetto “bonus” del senior: stessa persona, più output, meno bisogno di formare da zero.

E c’è un dettaglio che vale più di mille discussioni sul “futuro del lavoro”: la pressione sui salari medi. Se l’azienda percepisce che con un’AI puoi fare il lavoro di “più persone”, la trattativa cambia tono. Non è una tragedia greca, è un foglio Excel.

E qui c’è un paradosso: l’AI che promette democratizzazione rischia di produrre una generazione con meno opportunità di fare palestra.

Se il livello base lo fa l’AI, il livello base non sparisce: sparisce il percorso per arrivare al livello medio.

Il punto non è diventare “prompt engineer” (che tra l’altro suona già come un mestiere nato vecchio). Il punto è diventare qualcuno che sa orchestrare strumenti, verificare output e prendersi responsabilità del risultato.

In altre parole: non competere sul “fare”. Competere sul “decidere”.

Tra 10 anni: ristrutturazione e polarizzazione (la festa finisce) 🧩

Nel medio termine le cose si fanno più interessanti, perché l’AI smette di essere un acceleratore personale e diventa architettura organizzativa.

Due dinamiche si rafforzano:

La prima è la creazione di aziende “AI-native”: organizzazioni nate già con costi marginali bassissimi, processi automatizzati, decision support ovunque. Sono come startup, ma con una leva che non è solo “software”, è capacità cognitiva scalabile.

La seconda è la semplificazione delle gerarchie: meno middle management, più sistemi che monitorano KPI e suggeriscono azioni. Non perché l’AI “governa”, ma perché costa meno mantenere un sistema che ridurre attriti umani.

Nel frattempo, la robotica smette di essere “solo da magazzino”: diventa più mobile, più adattiva, capace di gestire contesti semi-strutturati (assemblaggio, spostamento materiali, finitura). La combinazione più pericolosa non è AI o robotica: è AI + robotica quando il costo scende abbastanza.

Il risultato sociale è una polarizzazione:

da una parte poche persone molto pagate (strategia, responsabilità legale, visione, controllo), dall’altra molti ruoli più precari o iper-specializzati “a progetto”.

E qui succede una cosa importante: il valore si sposta su ciò che l’AI fatica a replicare a buon mercato:

fiducia, relazione, contesto umano, responsabilità finale.

Non perché siamo “speciali”. Perché la società ha bisogno di un colpevole e di un garante.

Tra 15 anni: frizione sociale (il capitalismo incontra un bug) ⚠️

Nel lungo termine, se il driver resta il profitto e la politica resta in ritardo, la frizione diventa strutturale.

Produttività altissima, occupazione relativamente più bassa, capitale che vince sul lavoro. Fin qui il film è noto.

Il colpo di scena è questo: se troppe persone guadagnano poco, chi compra?

È una contraddizione interna: un sistema economico basato sul consumo ha bisogno di redditi diffusi. Se l’AI riduce la necessità di lavoro umano senza redistribuire, la domanda si contrae. E quando la domanda si contrae, anche il profitto diventa instabile.

Da qui si aprono scenari (non mutuamente esclusivi):

  • nuovi contratti sociali (reddito minimo, servizi universali, formazione continua);
  • economia duale (élite iper-produttiva + massa di lavori marginali);
  • ritorno del valore umano in settori non ottimizzabili (cura, educazione, esperienze, artigianato “con senso”).

Non è utopia: è gestione del rischio.

Se vuoi un modo sintetico per pensarla: nel lungo termine, la tecnologia tende a diventare economica anche per le PMI. Ed è lì che la trasformazione può accelerare, perché non è più appannaggio di pochi “grandi”.

Una stima (molto grezza) dell’impatto 📊

Qui rischio il peccato mortale del blog: mettere numeri. Li metto con due avvertenze: sono scenari plausibili, non certezze; e soprattutto dipendono da politiche, welfare, educazione e velocità di adozione.

Detto questo, qui sotto trovi tre tabelle (5/10/15 anni) con ordini di grandezza per aree. Non sono “previsioni” nel senso astrologico del termine: sono un modo per rendere esplicita la direzione.

Orizzonte ~5 anni (compiti cognitivi + prime onde di robotica in ambienti controllati)

Area Dislocazione lavoro cognitivo Dislocazione lavoro manuale Pressione salariale
Italia ~60% ~30% alta
Europa Occidentale ~55% ~25% media-alta
USA ~50% ~20% alta
Cina ~45% ~35% media
Paesi OCSE non EU ~50% ~30% media-alta

Orizzonte ~10 anni (ristrutturazione + lavori ibridi uomo-AI + robotica più adattiva)

Area Disoccupazione tecnologica Riduzione lavori manuali Polarizzazione salariale
Italia ~30% ~40% molto alta
Europa Occidentale ~25% ~35% alta
USA ~20% ~30% molto alta
Cina ~15% ~45% alta
Paesi OCSE non EU ~20% ~35% alta

Orizzonte ~15 anni (diffusione ampia, anche PMI, e pressione politica più esplicita)

Area Disoccupazione tecnologica Riduzione netta di posti di lavoro Pressione politica e sociale
Italia ~40% ~40% forte
Europa Occidentale ~35% ~35% molta
USA ~30% ~30% molta
Cina ~25% ~45% media
Paesi OCSE non EU ~30% ~35% alta

E come “take-home” globale (sempre nello scenario se non intervengono politiche attive):

Scenario globale Probabilità Descrizione
Disuguaglianza accelerata 50% aziende massimizzano profitto → welfare stagnante
Transizione gestita 30% formazione + redistribuzione + regolazione AI
Rinascimento umano-tecnologico 20% nuovi lavori, nuove industrie, valore sociale

L’AGI non è “ChatGPT più bravo”: è un evento economico 💣

Fin qui abbiamo parlato di AI come la intendiamo oggi: potente, ma ancora “specializzata” e limitata.

Il salto di qualità — quello che cambia le regole del gioco — è l’AGI intesa in modo operativo: un sistema che apprende nuovi compiti, trasferisce conoscenza tra domini e pianifica come un umano medio, con costi marginali vicini allo zero.

Non serve che sia cosciente. Non serve che abbia desideri. Non serve che sia una divinità digitale.

Basta che sia un lavoratore medio replicabile infinite volte.

Ed ecco perché l’AGI è uno shock sistemico: non automatizza “categorie”, automatizza capacità orizzontali.

Non serve una superintelligenza per distruggere il mercato del lavoro: basta qualcosa di “abbastanza bravo” e infinitamente replicabile.

Le probabilità e le timeline sono materia da scommettitori (e da chi vende slide). Ma c’è un dettaglio più interessante: l’impatto arriverà prima del consenso su cosa sia davvero AGI. Il mercato non aspetta definizioni.

Se però vogliamo essere brutalmente operativi, una timeline “onesta” potrebbe assomigliare a questa:

  • entro 5 anni: 10–20% di probabilità di un’AGI “operativa”;
  • entro 10 anni: 30–50%;
  • entro 15 anni: 50–70%.

E se/quando succede, i futuri plausibili non sono mille: sono tre grandi famiglie.

Scenario post-AGI Probabilità In pratica
AGI privatizzata ~45% controllo concentrato, lavoro umano marginale, welfare minimo, disuguaglianza alta
AGI regolata e redistribuita ~35% tassazione produttività, servizi universali, lavoro più scelta che obbligo
Rottura sistemica ~20% shock occupazionale rapido, crisi politiche, nuovi modelli nel caos

L’Italia non ha un problema tecnologico: ha un problema di modello mentale 🇮🇹

Qui arriva la parte “scomoda ma utile”: l’Italia è un amplificatore naturale degli effetti negativi, non perché siamo geneticamente predisposti al disastro, ma perché abbiamo alcune fragilità strutturali.

La prima è l’analfabetismo funzionale: se non sai valutare una fonte, un output plausibile ti sembra vero. Con l’AI, questa cosa scala. E scala male.

Tradotto in casi concreti: AI usata come oracolo (“se lo dice l’AI è vero”), oppure rifiutata a priori (“non capisco quindi è pericolosa”), con in mezzo la via più dannosa: la delega irresponsabile.

Negli appunti questa fragilità è quasi “matematica”: la probabilità di impatto negativo è altissima (70–80%). E non è pessimismo: è statistica sociale applicata all’illusione dell’automazione.

La seconda è una cultura del lavoro novecentesca: valore = fatica + presenza fisica. L’AI rompe questo patto implicito e crea resistenza, soprattutto in PA e PMI.

La terza è una combinazione delicata: disoccupazione, lavoro nero, fragilità degli ammortizzatori. Una transizione “a botte” non la reggi: la subisci.

E poi c’è il tema che quasi nessuno vuole dire ad alta voce: organizzazioni criminali e reti informali sono spesso più veloci ad adottare strumenti utili, perché non hanno vincoli etici e hanno incentivi chiari.

Qui non si parla di fantascienza: frodi, phishing iper-realisti, deepfake, automazione del riciclaggio, manipolazione informativa locale. Con una probabilità alta (nell’ordine del 65–75%) che l’uso “criminale avanzato” arrivi prima di un uso “istituzionale maturo”.

E poi c’è un altro mito tutto nostro, molto romantico e molto pericoloso: “con l’AI posso fare tutto da solo”. In un paese di micro-imprese, è una tentazione naturale. Ma l’AI premia scala, dati e organizzazione: chi resta isolato rischia di usare l’AI come stampella, mentre chi si organizza la usa come leva.

Se lo Stato non guida l’AI, qualcuno la guiderà comunque. E non è detto che sia quello con le migliori intenzioni.

La crisi più sottovalutata: psicologia e senso (non solo lavoro) 🧠

La trasformazione non è solo economica. È identitaria.

Per millenni abbiamo funzionato così: guardo qualcuno davanti a me, posso diventare come lui. Il modello di riferimento era umano, fallibile, raggiungibile.

Con l’AI succede una cosa nuova: il modello diventa potenzialmente non umano, non stanco, non finito. Non è solo “più bravo”. È di un altro ordine.

Quando il riferimento è irraggiungibile, la mente reagisce in modi abbastanza prevedibili:

  • rinuncia (learned helplessness in versione moderna: “non ci provo nemmeno”, probabilità alta: 40–50%);
  • fuga identitaria (rifiuto, tribalismo, idealizzazione del passato, probabilità medio-alta: 25–35%);
  • ridefinizione del valore umano (la via più sana, ma anche più difficile, probabilità bassa ma cruciale: 15–25%).

E c’è un trauma silenzioso che merita un nome: la fine del patto meritocratico “classico”. Per secoli abbiamo interiorizzato: se studi e migliori, emergerai. Con l’AI quella promessa diventa instabile: lo sforzo non garantisce superiorità, la competenza non garantisce utilità, il merito non garantisce riconoscimento.

I sintomi sono già in giro (e non sono un meme): calo dell’autostima professionale, ansia esistenziale (“a cosa servo?”), burnout “da confronto”. Nei giovani: rifiuto del futuro e procrastinazione; nei senior: umiliazione silenziosa o ipercontrollo.

Ecco perché molte persone non hanno paura di “perdere il lavoro”. Hanno paura di perdere il senso di essere utili.

Non è l’AI a umiliarci. È la nostra metrica.

Un nuovo modello mentale: dal “fare” al “decidere” 🧭

Se c’è una bussola che regge, è questa:

non competere sul fare; competere sul decidere.

Vuol dire spostare il baricentro dal gesto alla responsabilità.

Il “fare” diventa economico, abbondante, replicabile. Il “decidere” resta caro, raro e (per ora) profondamente umano.

Decidere significa:

  • capire il contesto e i vincoli;
  • verificare e validare output;
  • assumersi la responsabilità quando qualcosa va storto;
  • negoziare tra interessi umani (che raramente sono allineati);
  • costruire fiducia e reputazione.

È una buona notizia, se la prendi nel modo giusto: l’AI non ti rende inutile. Ti costringe a diventare adulto.

Se vuoi un parallelo più “operativo” su come lavorare con i modelli senza farti portare via dalla narrativa, c’è un filo comune con Mantenere un contesto agentico ricco senza impazzire e con Context engineering: la vera magia dietro l’AI: precisione, contesto, definizione di done. Non incantesimi.

Formazione: “nonostante” la scuola, non “grazie” alla scuola 🎒

Qui serve realismo: sistemi educativi lenti non guidano transizioni veloci. Non per cattiveria: per design.

Quindi il punto non è insegnare “coding per tutti” o l’ennesima lezione su un tool che scade prima dell’esame.

Il punto è formare quattro cose:

meta-cognizione (capire come si impara), pensiero critico applicato (valutare fonti e output), costruzione del senso (perché lo fai, per chi), relazione e cooperazione (perché la performance individuale perde peso e la fiducia ne guadagna).

E, se vogliamo essere ancora più pragmatici, una buona educazione “AI-ready” è quella che insegna a:

  • distinguere sicurezza soggettiva da verità;
  • verificare output (umani e AI) senza sentirsi insultati;
  • riconoscere manipolazioni e incentivi (economici, politici, sociali);
  • convivere con l’incertezza senza scappare nel cinismo.

In pratica: la formazione del futuro sarà più simile a comunità, mentoring, reti informali e progetti brevi che a programmi ministeriali.

Sì, suona ingiusto. Ma anche aspettare che la realtà si adegui ai nostri desideri è una strategia — solo che funziona malissimo.

Conclusione: l’AI è un amplificatore, non un destino 🔎

L’AI non “sostituisce l’uomo”. Rimuove inefficienze. E il problema è che per decenni l’inefficienza è stata assorbita dal lavoro umano.

Quello che succede nei prossimi 5-15 anni dipende da incentivi economici, politiche pubbliche e cultura. Ma una cosa è già vera oggi:

Se misuri il tuo valore solo in performance, l’AI ti schiaccia. Se lo misuri in responsabilità e senso, l’AI diventa una leva.

Non serve essere profeti. Basta essere pragmatici:

costruisci agency, allena il giudizio, cerca comunità, e smetti di idolatrare gli strumenti. Gli strumenti cambiano. Il modello mentale, se è buono, regge.

Ultimo aggiornamento il