Go down

L'accessibilità ubiqua dei Large Language Models ha prodotto un paradosso: usiamo strumenti computazionalmente costosi con la stessa disinvoltura di un motore di ricerca, senza considerare la sproporzione tra il consumo energetico della richiesta e il valore informativo della risposta.
La democratizzazione dell'accesso alla potenza computazionale, lungi dall'essere solo una conquista, comporta un rischio epistemologico: la progressiva perdita del "calibro cognitivo", ovvero della capacità di valutare preliminarmente la complessità di un problema e scegliere lo strumento appropriato. Esternalizzando questa valutazione all'IA, si innesca un loop di competenza in cui la delega perpetua genera ulteriore incapacità di discernimento.


Più rifletto, più mi guardo intorno, più mi rendo conto che abbiamo un problema di proporzioni, nel senso letterale del termine. E come spesso accade con i problemi davvero interessanti, ce ne accorgiamo troppo tardi, quando ormai il comportamento è diventato abitudine e l'abitudine si è fatta struttura.

Stiamo usando l'intelligenza artificiale come se fosse un motore di ricerca. Anzi, peggio: come se fosse un amico particolarmente disponibile a cui chiedere qualsiasi cosa ci passi per la testa, dalla ricetta della carbonara all'analisi geopolitica del conflitto in Medio Oriente, passando per "come si scrive soqquadro" e "dammi tre idee per il weekend".

E fin qui, direte voi, dov'è il problema? E' così comodo. Il problema è che dietro quella risposta istantanea, così rapida e così rassicurante c'è un consumo di risorse computazionali ed energetiche che non ha nulla a che vedere con la banalità della domanda ( e della risposta, se e quando è corretta).

Il costo nascosto della conversazione

Quando chiedi a Google "a che ora chiude il supermercato Esselunga", Google fa sostanzialmente questo: cerca in un indice già costruito, trova la stringa corrispondente, te la restituisce. Energia consumata: relativamente poca. Tempo: millisecondi. Valore della risposta: esattamente quello che cercavi.

Quando chiedi la stessa cosa a ChatGPT o Claude, quello che succede è radicalmente diverso. Si attivano miliardi di parametri. Una rete neurale profonda processa la tua richiesta attraverso decine di layer. Il modello genera una risposta token per token, valutando probabilisticamente ogni parola successiva. Il tutto consumando energia nell'ordine di grandezza superiore – secondo alcune stime, anche 10-100 volte di più – rispetto a una ricerca tradizionale. Per dirti che il supermercato chiude alle 20. (Qualcuno dice che 100x è esagerato. Ma già 10x mi sembra un bel moltiplicatore).

Tecnicamente funziona. Ma c'è qualcosa che non torna nella proporzione tra mezzo e fine.

L'inconsapevolezza strutturale

Il punto non è solo ecologico, anche se quello conta eccome. Il punto è che stiamo sviluppando una sorta di inconsapevolezza strutturale del rapporto costi-benefici cognitivi. Non sappiamo più distinguere quando uno strumento è appropriato e quando è sproporzionato. Abbiamo perso il calibro.

Un tempo – e non parlo del Pleistocene, parlo di cinque anni fa – avevamo ancora una certa consapevolezza della "gerarchia degli strumenti". Sapevamo che per sapere l'ora guardi l'orologio, per una traduzione rapida usi Google Translate, per una ricerca accademica vai su Scholar, per un'analisi complessa ti metti lì con carta e penna e ragioni.

Oggi? Oggi c'è un unico punto di accesso per tutto: l'interfaccia conversazionale dell'IA. E questo ha un effetto paradossale: democratizza l'accesso alla potenza computazionale, ma oscura il costo di quella potenza. È come se tutti potessimo permetterci l'elicottero per andare dal fruttivendolo, ma nessuno ci dicesse che quello non è il modo più sensato di comprare le mele.

Quando l'IA vale quello che costa

Allora la domanda diventa: quando ha senso usare questi strumenti? Quando il valore della risposta giustifica il consumo della richiesta?

Proviamo a ragionare per densità cognitiva. L'IA dovrebbe essere usata quando la domanda stessa è densa, complessa, stratificata. Quando non c'è una risposta univoca, quando serve mettere insieme pezzi di puzzle che stanno in domini diversi, quando il contesto è determinante.

Facciamo esempi concreti:

Alto valore cognitivo (qui l'IA è probabilmente appropriata):

  • "Ho questi sintomi, questa storia clinica e queste analisi. Quali domande dovrei porre al medico?"
  • "Sto scrivendo un saggio su Gramsci e l'egemonia culturale. Come potrei connettere questo con l'analisi degli algoritmi di raccomandazione?"
  • "Ho un conflitto con un collega. Ti descrivo la situazione da entrambe le prospettive. Aiutami a vedere cosa mi sfugge."
  • "Devo spiegare la teoria della relatività a mia nipote di 12 anni che ama il basket. Come potrei usare metafore sportive?"

In tutti questi casi stai chiedendo qualcosa che richiede: sintesi, connessione tra domini diversi, adattamento al contesto, ragionamento controfattuale. Cose per cui l'IA è effettivamente uno strumento potente (al netto del suo essere macchina statistica e non pensante).

Basso valore cognitivo (qui stai sprecando):

  • "Scrivimi un'email per ringraziare il cliente del meeting di oggi"
  • "Genera un post LinkedIn sui vantaggi dell'IA nel marketing"
  • "Riassumi questo articolo in 3 punti"
  • "Dammi 5 idee per il team building aziendale"
  • "Crea un template per le mie presentazioni commerciali"

Aspetta, direte. Ma questi sono esattamente gli usi che tutti i guru della produttività ci dicono di fare! I famosi "super prompt" che dovrebbero rivoluzionare il nostro lavoro! L'automatizzazione delle cose noiose e banali.

Esatto.

Il miraggio della produttività

Perché questi usi sono a basso valore cognitivo? Perché nella maggior parte dei casi non richiedono vera elaborazione contestuale. Richiedono riempimento di template, generazione di testo standard, applicazione di schemi consolidati.

Un'email di ringraziamento post-meeting ha una struttura codificata: saluto, riferimento al meeting, apprezzamento, prossimi passi, chiusura. Non serve l'IA per questo. Serve un modello, al massimo. E se proprio devi personalizzarla, quella personalizzazione – che è l'unica cosa che conta davvero – la devi mettere tu, perché l'IA non c'era al meeting.

Un post LinkedIn sui vantaggi dell'IA nel marketing? L'IA ti genererà un testo generico, probabilmente simile a migliaia di altri post già scritti, perché non ha il tuo punto di vista, la tua esperienza specifica, il tuo caso d'uso unico. Stai sostanzialmente chiedendo di produrre rumore informativo standardizzato.

Il riassunto in 3 punti? Bella sfida cognitiva: prendi il testo, identifica le informazioni salienti, riformulale. È un'operazione che può fare anche un software di estrazione di keyword. Non serve attivare miliardi di parametri.

Tutte queste operazioni sono state marchiate come "produttive" perché sembrano far risparmiare tempo. Ma il tempo che risparmi è tempo che avresti dovuto investire in operazioni cognitive semplici ma necessarie: pensare a cosa vuoi dire, a come vuoi dirlo, a cosa è davvero rilevante nel testo che stai leggendo.

E il costo nascosto è doppio: sprechi risorse computazionali per operazioni banali, e ti privi dell'esercizio cognitivo che quelle operazioni comportano.

La perdita del calibro cognitivo

Ma c'è un secondo livello, più sottile e più preoccupante. Ogni volta che usiamo l'IA per una domanda che non richiede vera elaborazione, non stiamo solo sprecando energia. Stiamo esternalizzando la capacità di valutare la complessità del problema.

Pensa a cosa succede: prima ancora di formulare la domanda, dovremmo chiederci: "Questa è una questione complessa o semplice? Richiede elaborazione o recupero? Serve contestualizzazione o solo un'informazione fattuale?"

Quel momento di valutazione preliminare è un atto cognitivo importante. È quello che ti permette di scegliere lo strumento giusto. È il calibro, appunto: la capacità di misurare il problema prima di affrontarlo.

Ma se usi sempre lo stesso strumento universale per tutto, quel calibro non lo eserciti più. E quando non lo eserciti, lo perdi. Diventi come qualcuno che ha sempre usato il navigatore satellitare e non sa più orientarsi guardando le strade.

Questo si collega – e qui torno al mio lavoro di ricerca già presentato in queste "pagine" – al concetto di doxastic loop: cicli in cui le opinioni si trasformano in pseudo-conoscenza autorevole. Ma qui il loop è diverso, è un loop di competenza: più deleghi all'IA la valutazione della complessità, meno sei in grado di fare quella valutazione autonomamente, quindi deleghi ancora di più, e così via.

Il risultato? Una progressiva incapacità di distinguere il banale dal complesso, il fattuale dal controverso, il recuperabile dal generabile.

Verso una frugalità computazionale

Quello che ci serve, credo, è sviluppare una cultura della frugalità computazionale. Sapere quando non usare l'IA diventa competenza tanto importante quanto saperla usare bene.

Non si tratta di nostalgia o di luddismo tecnologico. Si tratta di proporzione, di appropriatezza, di riconoscere che ogni strumento ha un costo (anche quando sembra quasi gratis) e che la scelta dello strumento giusto è essa stessa una forma di intelligenza.

Potremmo chiamarlo il principio di necessità computazionale: usa l'IA solo quando il valore cognitivo della risposta è proporzionale – o superiore – al costo della richiesta. Non in termini strettamente monetari, ma in termini di risorse, energie, impatto.

Il lusso che non riconosciamo

C'è un paradosso finale in tutto questo. L'IA generativa è probabilmente la tecnologia più potente mai messa a disposizione dell'uomo in modo così accessibile. È un lusso cognitivo straordinario: avere a disposizione, sempre, uno strumento che può aiutarti a ragionare, sintetizzare, connettere, generare.

Ma proprio perché è così accessibile, proprio perché sembra (quasi) gratuita, non la trattiamo come un lusso. La trattiamo come l'acqua del rubinetto: abbondante, infinita, sempre disponibile.

E come per l'acqua, ci accorgeremo del suo vero costo solo quando dovremo fare i conti con la bolletta. Energetica, ambientale, ma anche cognitiva: il costo di aver perso la capacità di distinguere quando ne abbiamo davvero bisogno.

Forse è il momento di iniziare a chiederci: questa domanda vale un elicottero? O bastava andare a piedi?

Pubblicato il 12 novembre 2025

Martino Pirella

Martino Pirella / Architetto delle relazioni cognitive | Consulente e formatore AI