Negli ultimi anni (e scriviamo queste note quando sono passati esattamente tre anni dalla diffusione di ChatGPT) l’intelligenza artificiale generativa è emersa come una tecnologia senza precedenti. Per la prima volta disponiamo, nei nostri dispositivi personali e spesso in forma gratuita, di sistemi capaci di produrre testi e dialoghi che appaiono scritti come i nostri, se non meglio dei nostri (come spesso si sente dire), e di sostenerci in una conversazione fluida, contestuale e spesso sorprendentemente pertinente. A differenza delle tecnologie precedenti – facilmente riconducibili a metafore “idrauliche” di flussi e canali informativi – questi sistemi assumono i tratti di un interlocutore: parlano, scrivono, sembrano comprendere e talvolta persino manifestare sentimenti, intenzioni, una sorta di identità. Non stupisce che, in una recente indagine, quasi due terzi degli utenti tendano a interpretare tali comportamenti come indizi di una qualche forma di coscienza o di interiorità, pur sapendo perfettamente che si tratta di artefatti di silicio e codici binari.
tutti siamo chiamati a interrogarci su ciò che noi, come individui e come collettività, stiamo diventando nell’interazione quotidiana cone le IA generative
Questa dissonanza tra ciò che sappiamo e ciò che percepiamo mette in luce un punto centrale: è ormai insufficiente continuare a parlare di intelligenza artificiale solo come “tecnologia”. Il problema concettuale più urgente riguarda ciò che noi, come individui e come collettività, stiamo diventando nell’interazione quotidiana con questi sistemi. Il ruolo trasformativo delle tecnologie non è certo una novità: il linguaggio ha segnato una discontinuità radicale rispetto agli altri primati; la scrittura, fin dai tempi di Platone, ha modificato il modo in cui memorizziamo, argomentiamo e trasmettiamo il sapere; il codice giuridico, il libro stampato, il libro tascabile e, in epoca recente, il web, hanno ridefinito la nostra ecologia cognitiva. Chi è cresciuto “nell’era del libro”, prima dell’ipertesto e di Internet, percepisce retrospettivamente l’enormità di questa trasformazione.
Negli ultimi decenni si sono poi stratificate nuove tecnologie radicate sul web – in particolare i social media – e oggi i sistemi di IA generativa. Tutte hanno contribuito a rimodellare le nostre capacità cognitive e le nostre abitudini mentali. È noto, ad esempio, come lo smartphone abbia modificato il nostro rapporto con la memoria: se un tempo ricordavamo numerosi numeri di telefono, oggi ne conosciamo a memoria pochissimi. Analogamente, la diffusione dei navigatori satellitari ha ridotto la nostra capacità di orientamento spaziale, con effetti misurabili anche a livello neurobiologico, come suggeriscono studi di risonanza magnetica funzionale su gruppi di guidatori esposti o meno all’uso intensivo del GPS. Più in generale, aumentano le preoccupazioni per l’impatto di queste tecnologie sulle nuove generazioni, alla luce del calo di alcuni indicatori di profitto scolastico e di capacità cognitive generali, attribuito da alcuni alla pervasività di smartphone e social media.
l'intelligenza ibrida è la configurazione emergente che si produce quando le facoltà umane si intrecciano stabilmente con il supporto di sistemi artificiali
In questo quadro si inserisce l’intelligenza artificiale generativa, che non si limita a modificare alcune funzioni cognitive, ma si integra direttamente nei nostri processi di pensiero, di decisione e di espressione. Per descrivere ciò che accade, è utile parlare di “intelligenza ibrida”: non una nuova forma di intelligenza separata dalla nostra, ma la configurazione emergente che si produce quando le facoltà umane si intrecciano stabilmente con il supporto di sistemi artificiali. La cultura – intesa in senso antropologico come insieme stratificato di pratiche, saperi, abilità, strumenti – è sempre stata “materiale” e mediata da artefatti. I sistemi di IA generativa rappresentano un nuovo strato di questa cultura materiale, che si innesta rapidamente nelle nostre abitudini e nei nostri contesti di cooperazione, comunicazione e lavoro.
Le trasformazioni introdotte dall’intelligenza artificiale generativa non pongono soltanto problemi tecnici o economici, ma toccano in profondità l’ibridazione a cui si è accennato, l’autorialità, le forme di apprendimento e la responsabilità collettiva. Da un lato, esse rimettono in discussione il concetto di creatività e di originalità in un contesto in cui sistemi algoritmici sono in grado di produrre contenuti sempre nuovi dal punto di vista sintattico; dall’altro, ridefiniscono le dinamiche di trasmissione del sapere, mettendo in tensione la figura tradizionale del docente con quella di un “mentore artificiale” capace di dialogo permanente. Sullo sfondo emerge la necessità di una riflessione normativa ed etica su ciò che, come comunità, vogliamo diventare attraverso l’uso di queste tecnologie.
Partiamo dunque dall’ibridazione, per poi procedere agli altri nodi della questione. Per comprenderla meglio, conviene richiamare il funzionamento di tali sistemi. I modelli di intelligenza artificiale generativa si basano su tecniche di machine learning che apprendono comportamenti a partire da grandi collezioni di esempi: testi, tracce di interazioni, dati multimodali. “Comportamento”, qui, significa generare un testo, classificare un’immagine, suggerire una diagnosi, produrre un suono: sono tutte forme di output apprese statisticamente da dati umani. Ma accanto al fatto, ormai noto, che le macchine possono “imparare” dai nostri dati, emerge un fenomeno speculare: anche gli esseri umani possono imparare dalle macchine.
Per descrivere questo processo non è del tutto adeguato parlare di insegnamento in senso tradizionale (teaching), né di semplice tutoraggio: è più appropriato il termine machine mentoring. A differenza di un docente umano che trasmette una conoscenza formalizzata – esplicitata in regole, definizioni, criteri simbolici – il sistema di IA offre esempi di comportamento corretto in contesti complessi, fungendo da mentore implicito. Questo è particolarmente evidente nei contesti medici, dove l’IA viene usata come supporto alla diagnosi o all’interpretazione di immagini diagnostiche. In due studi che ho condotto personalmente con medici in formazione, specializzandi e studenti mostrano che, quando il sistema è sufficientemente accurato, i medici non solo migliorano le loro prestazioni con il supporto della macchina, ma interiorizzano gradualmente i criteri diagnostici che sono stati “embedded” nel comportamento del sistema stesso, anche se tali criteri non sono mai stati esplicitamente codificati nell'algoritmo e trasmessi come insegnamento ai discenti. Dopo un certo numero di casi affrontati con l’IA, i partecipanti migliorano significativamente le loro performance anche in assenza del supporto algoritmico, e tuttavia spesso non sono consapevoli di aver appreso qualcosa di nuovo.
Questo fenomeno va letto tuttavia in parallelo alla “faccia oscura” della stessa medaglia. Sempre quegli studi (e altri disponibili nella letteratura specialistica) hanno mostrato che i sistemi di IA sono altrettanto efficaci nel trasmettere biase pregiudizi presenti nei dati di addestramento: discriminazioni di genere o etnia nei processi di selezione del personale, differenze ingiustificate nella severità delle pene comminate, e così via. In questi casi, l’IA eredita distorsioni cognitive e le restituisce con l’aura dell’oggettività, rischiando di consolidarle nei comportamenti degli utenti che si affidano a essa in momenti formativi o decisionali. La stessa logica che permette di “estrarre” criteri diagnostici latenti dai dati può quindi veicolare tanto conoscenza preziosa quanto pregiudizi pericolosi.
I sistemi di IA generativa possono essere visti, da un’altra angolatura, come una nuova interfaccia di accesso all’intelligenza collettiva. Il web ha raccolto una massa immensa di tracce mnestiche – testi, documenti, memorie esplicite – e il motore di ricerca ha rappresentato il primo grande strumento di accesso a questa memoria distribuita. Tuttavia il motore di ricerca restituisce informazioni, non ancora conoscenza: per trasformarle in sapere occorre lavoro cognitivo umano di selezione, confronto, astrazione. I grandi modelli linguistici possono essere considerati l’evoluzione conversazionale di questo paradigma: sono, in un certo senso, “motori” che aggregano e ristrutturano informazioni in forme più facilmente integrabili nei nostri schemi cognitivi, e che si lasciano interrogare in linguaggio naturale, captando impliciti, intenzioni e contesto.
La tradizione pedagogica, già in Goethe, mette in luce una dimensione affettiva e relazionale del processo di apprendimento: “si apprende solo da chi si ama”. L’idea di “amore”, qui, può essere intesa come stima, ammirazione, riconoscimento dell’altro come modello. Il docente efficace non trasmette solo informazioni, ma incarna una figura alla quale il discente desidera, in qualche misura, somigliare. L’apprendimento è, quindi, anche imitazione di un modello umano. La comparsa di sistemi di IA conversazionali introduce una novità: gli studenti possono sperimentare forme di apprezzamento, fiducia e persino attaccamento nei confronti di un “interlocutore” artificiale sempre disponibile, non giudicante, adattivo, a tratti compiacente. Tali sistemi possono risultare molto più pazienti di un docente umano, talvolta più abili nel semplificare o nel calibrare il linguaggio, e possono cadere facilmente in forme di sycophancy, cioè di adulazione, che rendono l’interazione particolarmente gratificante.
La domanda diventa allora se, e in che misura, queste macchine possano occupare nella mente dei ragazzi lo spazio simbolico del “maestro”. È ragionevole pensare che il ruolo del modello umano resti insostituibile, poiché solo un essere umano può testimoniare con la propria biografia, con le proprie scelte e contraddizioni, il senso profondo di un sapere. Tuttavia non si può negare che l’IA susciti forme di apprezzamento reali e che ciò imponga una riflessione seria sulle modalità con cui viene integrata nei percorsi educativi.
È qui che la questione diventa normativa e pratica: in che modo usiamo questi sistemi? Possiamo concepirli come strumenti di cognitive offloading – scarico cognitivo – oppure come dispositivi di cognitive scaffolding – impalcature cognitive. Nel primo caso delego sistematicamente alla macchina compiti che potrei svolgere io: scrivere testi, prendere decisioni, ricordare informazioni, interpretare segnali. È una scorciatoia funzionale, che offre vantaggi immediati ma che, nel tempo, può condurre a deskilling, all’erosione delle competenze: ciò che non esercitiamo tende a degradarsi. Nel secondo caso, invece, considero il sistema come un’impalcatura temporanea che mi permette di salire di livello: lo uso per capire meglio, per esercitarmi, per esplorare casi complessi, con la finalità esplicita di potenziare le mie capacità e non di sostituirle.
Questa distinzione non dipende solo dall’atteggiamento individuale, ma anche dalle scelte progettuali e commerciali dei fornitori. Alcuni sistemi offrono oggi modalità “didattiche” o di learning, nelle quali l’IA non fornisce direttamente la soluzione ma guida l’utente a costruirla, introducendo deliberatamente un attrito cognitivo per favorire l’apprendimento. Tuttavia tali modalità non sono la configurazione predefinita, proprio perché richiedono più sforzo e rischiano di risultare meno attraenti in un mercato orientato alla massima comodità percepita. Ne deriva una responsabilità condivisa: da un lato, i fornitori dovrebbero progettare interazioni che premino l’uso formativo e riflessivo dei sistemi; dall’altro, gli utenti dovrebbero resistere alla tentazione costante della scorciatoia, soprattutto nei contesti educativi e professionali critici.
Sul piano etico, ciò rimanda a una concezione dell’etica come consapevolezza delle conseguenze, in senso genuinamente consequenzialista: valutare non solo i benefici immediati di efficienza, ma anche gli effetti a medio e lungo termine sulla qualità delle nostre competenze, sulla nostra autonomia di giudizio, sul nostro tessuto sociale e formativo. Perdere competenze critiche può essere considerato un “male” anche se, parallelamente, se ne acquisiscono altre. La questione diventa allora: quali capacità dell’Homo sapiens nel XXI secolo vogliamo preservare e quali siamo disposti a lasciare andare? Finché non affrontiamo in modo esplicito questo interrogativo, il rischio è che l’ibridazione con l’IA avvenga in modo cieco, guidata principalmente da incentivi di breve periodo e da logiche di mercato.
Consideriamo ora il nodo che riguarda la creatività. La giurisprudenza americana in materia di copyright ha elaborato un criterio di originalità che non si esaurisce nella semplice novità. Il solo fatto di produrre qualcosa che non esisteva prima – ad esempio un remix di contenuti preesistenti – non è sufficiente a fondare un diritto d’autore pieno, se non è possibile individuare un’origine autentica dell’opera. La tradizione della common law ha isolato tre requisiti necessari: skill, effort e judgment.
La skill rimanda alla competenza: l’autore è tale se mette in gioco capacità acquisite, non un gesto puramente casuale o istintivo. L’effort introduce la dimensione dello sforzo, del lavoro, dell’impegno nel processo creativo. Infine, il judgment indica il momento in cui l’autore valuta ciò che ha prodotto, decide che lo riconosce come “suo”, si assume la responsabilità di fermarsi e di presentarlo come compiuto. Quest’ultima componente richiama la dimensione valutativa e riflessiva del creare: l’atto di dire “basta così” è, esso stesso, un atto creativo, come esemplificato dalla tradizionale aneddotica su Michelangelo e la sua difficoltà a considerare conclusa l’opera.
Se si confrontano questi criteri con il funzionamento dei sistemi di IA generativa, emerge un quadro ambiguo. Da un lato, le macchine dispongono di una skill in senso tecnico: sono in grado di replicare comportamenti linguistici umani grazie a processi di machine learning addestrati su grandi masse di dati. È persino possibile attribuire loro una forma di “sforzo”: esse eseguono calcoli intensivi, consumano energia e risorse materiali. Tuttavia, il judgment – inteso come valutazione autonoma di ciò che è adeguato, completo, “sufficientemente buono” – appare assente. Un sistema come ChatGPT interrompe la generazione non perché abbia formulato un giudizio di valore sull’output, ma perché è stato progettato per farlo entro certi limiti tecnici ed economici.
Alla luce di questo, si può sostenere che, pur producendo contenuti nuovi, l’IA non costituisca ancora un’“origine” in senso forte. Essa rielabora in maniera sofisticata pattern appresi da altri, senza un atto di assunzione di responsabilità sul risultato. Ne deriva una tensione tra la percezione – spesso antropomorfizzante – della macchina creativa e i criteri giuridici e filosofici che storicamente abbiamo adottato per riconoscere la paternità di un’opera.
la questione dell’uso dell’IA si iscrive in un orizzonte normativo ed etico che non può essere delegato né alle sole aziende tecnologiche né ai soli giuristi
Infine, la questione dell’uso dell’IA si iscrive in un orizzonte normativo ed etico che non può essere delegato né alle sole aziende tecnologiche né ai soli giuristi. Domandarsi “che cosa vogliamo diventare” significa riconoscere che l’identità collettiva è il risultato di scelte politiche, di quadri regolatori e di pratiche individuali. Il Regolamento europeo sull’intelligenza artificiale rappresenta un tentativo ambizioso di fissare dei limiti, di enumerare diritti fondamentali che l’IA non deve violare, ma anzi dovrebbe contribuire a tutelare.
Tuttavia, come accade in ogni ambito del diritto, la norma non è sufficiente: deve essere applicata e interiorizzata. Una società che condanna la violenza può dotarsi di leggi severe, ma resta il fatto che ogni individuo, concretamente, decide se compiere o meno un atto violento. Analogamente, un regolamento può vietare determinati usi dell’IA, ma saranno progettisti, organizzazioni e cittadini a scegliere se aderire allo spirito della legge o cercare di aggirarla.
La responsabilità si gioca dunque su due livelli intrecciati: istituzionale e personale. Da un lato, i decisori politici e i regolatori definiscono i confini di ciò che è lecito o proibito; dall’altro, ciascuno di noi decide quotidianamente come usare i propri strumenti – che si tratti di un libro o di un sistema di IA – e se farne veicoli di formazione, dialogo, emancipazione, oppure di manipolazione, deresponsabilizzazione e delega indiscriminata.
Considerazioni finali
Per concludere: l’intelligenza artificiale generativa obbliga a rivedere il modo in cui concepiamo creatività, e quindi identità; apprendimento, e quindi circolazione della conoscenza; etica, e quindi responsabilità. Non si tratta soltanto di stabilire che cosa l’IA può o non può fare, ma di chiarire che cosa vogliamo resti umano, cioè quali competenze intendiamo preservare e quali forme di convivenza vogliamo promuovere, ma anche che cosa vogliamo diventi l’umano. La tecnologia, per quanto potente, non decide al nostro posto: fornisce possibilità, invita a realizzare scenari. Spetta alle comunità politiche, alle istituzioni educative e ai singoli individui trasformare queste possibilità e opportunità in scelte coerenti con l’idea di umanità che intendono difendere e sviluppare.
A questo scopo, può essere utile un approccio pragmatico che cominci con una decisa “decontaminazione dell’immaginario collettivo”, oggi così pervaso da narrazioni su ciò che l’IA potrebbe diventare nei prossimi anni o decenni e su ciò che potrebbe fare al nostro posto. Al contrario, sarebbe opportuno parlare meno di “intelligenza artificiale” e più di “intelligenza ibrida”: non tanto della tecnologia, quanto della configurazione nuova che essa produce in noi. La nostra intelligenza è sempre stata, in un certo senso, ibrida e collettiva, sostenuta da strumenti esterni che spesso reificano pratiche e conoscenze che, presi singolarmente, nessuno di noi possiede. Ma l’avvento di sistemi che ci parlano e ci rispondono in modo fluido e persuasivo rende questa ibridazione più profonda e più rapida. Ripetiamoci che il punto non è solo che cosa possano fare queste tecnologie, ma che cosa vogliamo diventare noi nel loro uso: quali forme di pensiero, di apprendimento, di cooperazione e di responsabilità intendiamo coltivare. Su questo, per quanto assistiti da macchine sempre più sofisticate, restiamo – e resteremo – noi gli artefici principali del nostro destino individuale e collettivo.
La tecnologia, per quanto potente, non decide al nostro posto: fornisce possibilità, invita a realizzare scenari.