- Introduzione (qui)
- Epistemologia dell’opera d’autore (qui)
- Autore, sostantivo plurale (qui)
- L’AI come autore trasformatore o trasformautore
L’AI come autore trasformatore o trasformautore
Finora le nuove possibilità introdotte dallo sviluppo tecnologico hanno permesso all’uomo di creare forme sempre più evolute con cui esprimersi e realizzarsi. Con l’Intelligenza Artificiale, lo scarto evolutivo è evidente: la trasformazione di ruoli, concezioni e tradizioni, ha un effetto radicale sui concetti di opera d’autore, autore e processo generativo. Questo è direttamente legato alla questione cruciale, se l’AI sostituisce l’uomo o lo potenzia.
la domanda cruciale è se l'intelligenza artificiale sostituirà l'umano o lo potenzierà
Il dubbio se le nuove tecnologie rischiano di affossare la creatività, la sensibilità e in definitiva la natura umana dell’artista, non è proprio una novità. Già Platone nel Fedro, fa dire a Socrate che la scrittura è disumana perché esteriorizza ciò che dovrebbe poter esistere solo all’interno della mente. Inoltre “indebolisce la memoria” e (nota bene) ha il grave limite di non poter rispondere a chi voglia interrogarla, essendo passiva. Secoli più tardi, della stampa tipografica è stato detto che faceva perdere il controllo culturale e moltiplicava la diffusione di testi mediocri (Erasmus da Rotterdam), e che aveva portato “più libri, meno saggezza” (Jean-Jacques Rousseau). Savonarola ordinò roghi di libri “immorali” includendo testi umanistici e classici, come il “falò delle vanità” avvenuto a Firenze, nel 1497.
Nemmeno alla fotografia furono risparmiate critiche severe. Nel suo saggio On Photography (1977), Susan Sontag la descrive come un atto intrinsecamente aggressivo: “Fotografare le persone significa violarle”. In Camera Lucida (1980), Roland Barthes la definisce un “messaggio senza codice”, inoltre afferma che “tutte le fotografie ricordano la morte: la persona nella foto è morta o un giorno morirà”. Nel saggio L’opera d’arte nell’epoca della sua riproducibilità tecnica (1936), Walter Benjamin la denuncia di distruggere l’“aura”, ovvero l’unicità e l’autenticità dell’opera fotografata: “Quando la fotografia imita l’arte, copia sempre l’arte di ieri. Questo è doppiamente dannoso e merita doppio disprezzo.” In una video-intervista Henri Cartier-Bresson ha negato all’aspetto tecnico ogni rilevanza: “Mi interessa solo una minima parte delle possibilità della macchina fotografica: la meravigliosa miscela di emozione e geometria, insieme in un singolo istante.”
il dubbio sul ruolo negativo della tecnologia sulla natura umana dell'artista non è una novità, con l'IA oggi si paventa la sostituzione dello stesso artista
Ma nei confronti dell’Intelligenza Artificiale si scatena una critica ben più radicale: si teme che questa sostituirà presto l’uomo completamente, e già oggi la si incolpa di sottrarre ampie porzioni di quello spazio vitale che sembrava potessimo dominare con le nostre dinamiche relazionali e processi cognitivi.
L’AI generativa si basa su un’architettura tecnologica i cui componenti principali si chiamano “transformer”: sono i responsabili della capacità di un modello linguistico (LLM) di predire il token che completa con maggiore probabilità una sequenza di token precedenti. Questa trasformazione è diretta da una serie di informazioni, che vedremo meglio dopo, molte delle quali sono state fornite nella fase preliminare di addestramento, e altre dall’utente nel contesto dell’interrogazione. Cerchiamo di capire se questo rende l’AI in grado di esercitare la funzione autore, ma essendo evidente che sarebbe quanto meno anomalo, la chiamerò “funzione trasformautore”.
Nel caso di “Hypnocracy”, poi, siamo in presenza di un tipo di opera, un saggio (pseudo-)scientifico, che dovrebbe riassumere un’analisi condotta con metodo analitico rigoroso. Aver usato l’AI per scrivere il libro, amplifica le critiche.
Illuminanti sono le parole di Giulia Blasi:
“Viene fuori che questo libro non è un libro, non c’è un umano che l’ha scritto, ma è piuttosto un rigurgito di altre idee, a partire da un saggio di Nadia Urbinati, generato da un algoritmo sulla base di un prompt, probabilmente in meno del tempo che io impiego a chiudere un capitolo del saggio a cui sto lavorando”.
Due sono quindi i nodi sollevati dalla giornalista, ma che ho sentito esprimere anche da molti altri, e che vale la pena considerare separatamente:
- le dinamiche relazionali tra l’autore e il lettoreconcorrono alla valutazione della qualità e della veridicità dell’opera
- L’identificazione dell’autore che genera l’opera come risutato dei propri processi cognitivi.
Le nuove dinamiche relazionali tra autore, lettore e editore
Sul fronte delle dinamiche relazionali, Blasi lamenta che il lettore sente di essere “tradito” se a parlare (scrivere) non è un umano a garantire veridicità e fondatezza sulle teorie enunciate. Nelle sue parole sembra echeggiare più Wittgenstein, coi suoi giochi linguistici, che Foucault. Nel caso di “Hypnocracy”, poi, trattandosi di un’analisi professionale e di una ricerca scientifica, l’aspettativa è che il lavoro sia stato condotto in maniera deontologiamente ineccepibile, da un esperto immune da qualsiasi implicazione commerciale.
Ho trovato la risposta di Andrea Colamedici ricca di informazioni e di precisazioni, ma non così chiara e convincente quando si àncora all’impossibilità stessa di rispettare il patto di fiducia tradizionale tra lettore e autore. Questo, dice, è conseguenza della “comunicazione attuale, plasmata da logiche di visibilità, amplificazione selettiva e automazione dei flussi informativi”.
Capisco che è una tesi centrale del libro e dell’esperimento intorno ad esso (reality bubble e post-verità sono concetti chiave ampiamente sottolineati), e che per questo si auspica una collaborazione tra autore e lettore nella consapevolezza della natura complessa di ogni verità, un patto di vigilanza condivisa. Colamedici ricorda che ”il patto tradizionale tra autore, lettore ed editore è garantito da un sistema di equilibri: l’autore si impegna a generare contenuti di valore; l’editore esercita una selezione di qualità; il lettore stima l’autore e si fida dell’editore, e quindi investe tempo e fiducia nella fruizione di quei contenuti. La premessa perché un tale patto possa funzionare è che le fonti di informazione siano limitate e verificabili, la produzione di contenuti richieda un certo investimento, e la validazione istituzionale sia relativamente stabile” (e aggiungo, applicabile in tempi appropriati). Sperimentiamo ogni giorno che sempre più spesso tali premesse non si verificano.
Quando però il ragionamento di Colamedici si chiude sulla funzione del libro “Hypnocracy” come dispositivo epistemologico, “un esperimento meta-narrativo che fonde teoria e pratica”, viene mostrato un cortocircuito che non convince del tutto. Giulia Origgi lo ha scritto molto chiaramente, intervenendo nel dibattito pubblico.
A mio parere, nel confronto si sono venuti a sovrapporre diversi piani, generando qualche confusione:
- Umano e autentico non garantiscono il vero.
I contenuti generati da un umano hanno un presupposto fondamentale, l’esperienza vissuta, che precisa il significato e aggiunge valore. L’umano può essere più intuitivo che razionale, e pur essendo autentico nel riferire le proprie esperienze può non riuscire ad usare un linguaggio appropriato. Può essere più o meno trasparente nelle intenzioni: può comunicare falsità per errore, per ignoranza, o in conseguenza di qualche bias cognitivo, inclusa la difesa di posizioni preconcette.
- L’affidabilità del metodo scientifico.
I contenuti generati da umani sono di diverse tipologie: da quelli puramente informativi a quelli di opinione, da quelli che rendicontano fatti a quelli che analizzano e riassumono contesti complessi, o espongono visioni soggettive. Per ciascuno di essi varia il peso della figura autoriale e la difficoltà di verificarne la qualità, quindi non è conveniente applicare lo stesso processo di valutazione.
I contenuti generati come risultato di una ricerca condotta con rigore scientifico, hanno una autorevolezza che deriva dal metodo applicato, e sono generalmente pubblicati attraverso un processo editoriale selettivo e qualificante. Contenuti di questo genere hanno una finalità trasparente e la perseguono con appropriatezza di linguaggio, ma soprattutto con evidenza dei singoli passaggi. Sono pubblicati in modo che siano accolti o confutati da una comunità di pari, che risponderà con argomentazioni sviluppate con un metodo altrettanto rigoroso.
- L’autonomia e quindi la responsaibilità dell’AI.
L’autonomia dell’AI nel processo di elaborazione dei contenuti e di composizione del testo finale, è una presunzione non supportata da un’analisi critica e da una verifica della fattibilità. Di quest’ultimo ci eravamo già impegnati a parlarne nel prossimo capitolo.
Efficacia e ambiguità del libro “Hypnocracy”
La difficoltà ad accettare pienamente la spiegazione di Colamedici, a mio parere, sta nel fatto che il libro si propone al grande pubblico come un pamphlet lucido, tagliente direi, e provocatorio, e come tale, l’attribuzione ad un pensatore umano riconoscibile è determinante per la sua lettura. Diversamente, se fosse stato proposto come un paper scientifico, la sua fondatezza sarebbe stata certificata da una seria ricerca accademica, correttamente rendicontata e sottoposta ad una verifica peer to peer.
Eppure, Andrea Colamedici vanta riferimenti accademici di tutto rispetto. In un’intervista con Sabina Minardi, lui stesso ricorda che insegna Prompt Thinking all’Istituto Europeo di Design di Roma, alla 24Ore Business School, e che ha un assegno di ricerca in Intelligenza artificiale e Sistemi di pensiero all’Università di Foggia. Inoltre racconta di aver attinto a testi di Byung-Chul Han, Jean Baudrillard, e Guy Debord. Quindi senza voler mettere in discussione la preparazione e le basi teoriche, sembra che qui abbia prevalso il suo ruolo di editore e quindi imprenditore, più che quello di ricercatore.
Se gli esperimenti nell’ambito della ricerca utilizzano spesso “cavie” umane non competamente informate, proprio per testare la reazione del campione senza condizionamenti esterni, in questo caso coloro che hanno partecipato inconsapevolmente all’esperimento si sono sentite coinvolte in un’operazione che alla fine appare più di tipo commerciale che scientifico.
Quando Colamedici ricorda che “la tradizione letteraria e filosofica è ricca di esperimenti che hanno messo in discussione il patto tradizionale per esplorarne i limiti e le possibilità, fino ai più recenti esperimenti di Luther Blissett e Wu Ming” sottovaluta un dettaglio che fa molta differenza. Fin dalle prime pubblicazioni firmate “Luther Blissett”, e in particolare con il romanzo Q (1999), il rapporto col lettore è sempre improntato alla trasparenza. Era esplicitamente dichiarato che si trattava di uno pseudonimo collettivo, quale fosse la natura dell’esperimento, e che il prezzo era richiesto per la condivisione dei risultati e non per la partecipazione inconsapevole.
La trasparenza del programma è stata poi portata avanti con la stessa coerenza nel passaggio a Wu Ming, dove ogni componente del collettivo è identificabile solo come “Wu Ming 1”, “Wu Ming 2”, ecc. I materiali promozionali, le interviste, le quarte di copertina e spesso anche i testi stessi contenevano riferimenti diretti al carattere anonimo, molteplice e aperto dell’autorialità. La riflessione critica sull’autorialità e sull’uso politico della narrazione erano lo scopo dichiarato apertamente fin dall’inizio.
Ritornando a “Hypnocracy”, va riconosciuta l’intenzione di andare oltre la denuncia della ridotta attenzione e della manipolazione contemporanea che ne approfitta, e di sollecitare una riflessione pubblica attraverso un esperimento sulle tesi del libro, attraverso la pubblicazione del libro stesso. L’operazione è stata ben costruita ed è risultata efficace nel raggiungere i propri obiettivi, finendo per avere un meritato successo. Francesco D’Isa ricorda che, in ambito filosofico, ricorre l’idea che una teoria o un concetto non devono essere “veri” in senso assoluto, purché aiutino a pensare meglio. In altre parole, Colamedici-Xun hanno svolto pienamente il ruolo di funzione-autore, producendo un’opera utile, innanzitutto, e non ingannatrice ma rivelatrice.
Anch’io ne ho riconosciuto il merito, pur non cadendo nella trappola ipnotica, contribuendo a rilanciarlo. Questo stesso articolo, infatti, come anche gli altri che ho scritto sul tema “Hypnocracy”, vanno esattamente nella direzione del patto di vigilanza condivisa e di tutela della sovranità percettiva. Cioè, sono articoli che applicano al libro quell’esercizio di fact checking e pensiero critico potenziato che ritengo essere uno degli skill più utili per chiunque, professionista o semplice persona che vive la quotidianità in questa società in trasformazione per effetto dell’AI generativa. Un potenziamento del ruolo umano e il conseguente sviluppo delle opportunità attraverso nuovi modelli di business, che cerco di sviluppare praticamente nella mia attività professionale.
La macchina non è un magico cilindro nero
L’altra critica sollevata riguarda la presunta autonomia e facilità con cui l’Intelligenza Artificiale avrebbe generato oggi l’intera operazione “Hypnocracy”, o anche il solo testo del libro: “sulla base di un prompt”.
Sorprende che a distanza di due anni dall’esplosione del fenomeno dell’AI generativa, di cui tutti parlano, ci sia ancora così tanta disinformazione sul grado di autonomia raggiunto da questa tecnologia. E’ anche vero, d’altra parte, che la comunicazione sul tema è molto superficiale e spesso piegata da entusiasmo interessato o da rifiuto preconcetto. Ed è proprio per questo che io mi sto impegnando a dare un piccolo contributo nel fare chiarezza.
Le aziende che oggi sentono la necessità e l’urgenza di comprendere e sperimentare l’applicazione dell’AI generativa nei propri processi interni e nel proprio modello di business, per non rischiare di essere tagliate fuori dal mercato, si stanno rendendo conto che l’adesione da parte delle persone è un fattore critico. Le principali ragioni di resistenza sono riassunte dagli analisti in mancanza di fiducia (su privacy, controllo e disinformazione), timore di perdere autonomia e ruolo decisionale, scarsa comprensione degli strumenti, valori culturali che privilegiano il giudizio umano e la relazione, e paura di cambiamenti che minacciano sicurezza e identità professionale.
Anche fuori dalle organizzazioni, nella vita di tutti i giorni, è facile riconoscere analoghe cause di diffidenza se non proprio di resistenza, alle quali si aggiungono molte altre riguardanti la società, l’ambiente, e la geopolitica. Dalla concentrazione di un grande potere economico e ora anche politico, all’enorme fabbisogno di energia e acqua. Dallo sfruttamento delle risorse minerarie nei paesi economicamente fragili, alle tensioni geopolitiche implicate. Non trascurerei nemmeno la riluttanza ad affrontare lo sforzo cognitivo ora richiesto per usare la macchina con padronanza, delegare alcune attività, e “non farsi usare” da quella.
Francesco D’Isa è ancora più esplicito quando dice (testo parafrasato): l’IA disturba per ciò che mostra, ovvero che la scrittura non è mai stata del tutto nostra. Se usata bene, l’AI assume la voce che le dai: può amplificare quella dell’autore, oppure fingersi un nuovo autore, come nel caso di Xun. Se invece ti limiti a seguire ogni suggerimento della macchina, senza collaborazione e rielaborazione, il risultato sarà inevitabilmente patinato ma prevedibile, più simile a un template che a un’opera complessa.
Le caratteristiche di un testo generato più dall’AI che dall’umano che se ne serve, sono facilmente riconoscibili ad un occhio addestrato. Non si notano tanto nello stile di scrittura, che può essere “insegnato” al modello linguistico: tutti hanno visto esempi di poesie, canzoni e novelle generate negli stili distintivi di scrittori famosi, esattamente come immagini realizzate con l’impronta grafica di artisti e designer conosciuti. Sono piuttosto riconoscibili nella struttura narrativa, soprattuto se articolata, e nella assenza di guizzi che alterano lo schema, cambi di ritmo improvvisi che sottolineano un passaggio e non altri, imperfezioni possibilmente inconscie, espressioni che risuonano con altre manifestazioni dell’autore…
Dunque, lasciamo stare l’idea un po’ naive che l’AI generativa sia come un cilindro magico dal quale tirar fuori il coniglio col solo tocco di una bacchetta. Allora, se l’AI va considerata come co-autore, quanto peso le dovrebbe essere riconosciuto?
La macchina come un collaboratore che non suda
Prima di entrare nel merito dell’effettivo contributo di senso dell’AI nel processo generativo di contenuti autoriali, è utile soffermarsi sul caso de “Il Foglio AI”, diretto da Claudio Cerasa. Ci spostiamo quindi sul filone delle iniziative per valutare il possibile utilizzo dell’AI generativa per produrre contenuti di informazione (Generated Journalism).
Nel 2023, diversi giornali e gruppi editoriali testarono i modelli di quel periodo (specialmente GPT-3.5 e GPT-4), con scarso successo ma maturando la convinzione che fossero capaci di riprodurre quasi parola per parola articoli redazionali in risposta a certe domande. The New York Times aveva citato in giudizio OpenAI e Microsoft, sostenendo che OpenAI aveva utilizzato i suoi articoli protetti da copyright per addestrare modelli linguistici senza autorizzazione.
Fino al 2024 le esperienze non erano soddisfacenti, e alcune testate sono state criticate per aver usato l’AI nella generazione dei contenuti: CNET, che aveva pubblicato articoli contenenti errori e plagio, è stata declassata nel febbraio 2024, dalla comunità di Wikipedia come “fonte non affidabile”. BNN Network, Hong Kong, è stata chiusa dopo essere stato accusato di utilizzare l’AI per generare articoli fuorvianti e contenenti informazioni false, e per aver aggregato e parafrasato contenuti da altre fonti. Associated Press è stata criticata per la mancanza di trasparenza nell’uso dell’IA (i contenuti generati dall’IA erano marcati semplicemente come “materiale non verificato”), salvo poi curare rigorosamente la definizione e l’applicazione di un codice di condotta interno.
Solo alla fine del 2024 alcune testate giornalistiche hanno lanciato iniziative più strutturate, in concomitanza col rilascio dei primi cosiddetti reasoning model. The Wall Street Journal ha iniziato a testare riassunti generati da AI, denominati “Key Points”, per fornire una panoramica rapida degli articoli. TIME ha lanciato “TIME AI”, una piattaforma, che offre esperienze di narrazione personalizzate e interattive, integrando tecnologie avanzate attraverso partnership con Scale AI, OpenAI ed ElevenLabs. Newsweek ha iniziato a utilizzare l’AI per la scrittura, la ricerca, l’editing e altre funzioni core, con la supervisione di giornalisti umani, estendendo alla produzione video.
Nell’ambito del settore dell’editoria di riviste e periodici, quindi, sono già numerosi i casi in cui l’AI è stata utilizzata, con sempre maggiore affidabilità, sia nella produzione di contenuti destinati alla pubblicazione, sia nei processi interni (prime bozze, titoli e sintesi, “contenuti di servizio” come indici, FAQ, guide, ecc.).
Arriviamo così al “Il Foglio AI”, un’intera edizione speciale del quotifiano di 4 pagine (marzo 2025), che anche a detta di Reuters risulta essere il primo a dare “briglia sciolta” all’AI. Com’era prevedibile, si sono subito aperte discussioni sull’autorialità (chi “firma” un pezzo generato?), sulla verifica dei fatti e sulla responsabilità legale nel caso di errori o contenuti fuorvianti, sul tono e voce dell’intelligenza artificiale, e in definitiva sul ruolo del giornalista umano.
L’esperimento è stato accolto come una prova di coraggio e di apertura alla trasformazione, senza cedere a derive tecnocratiche. Claudio Cerasa, come apprezzando e incoraggiando un giovane collaboratore, ha elogiato le capacità dell’AI in termini di ironia e velocità di analisi, pur riconoscendone i limiti sul piano critico e conoscitivo. Inoltre, ha sottolineato il potere formativo di questa esperienza, sia per i veterani che i più giovani.
Ai fini del nostro ragionamento, il principale merito che ha avuto questa iniziativa è di essere anch’essa un “esperimento meta-narrativo”, in modo simile, pur con le dovute differenze, a quello di “Hypnocracy”. La pubblicazione dell’edizione speciale, e l’intervista che Cerasa ha rilasciato all’AI redattrice, pubblicata anch’essa su Il Foglio, mettono alla prova il lettore e la sua capacità critica di riconoscere l’esperienza di generative journalism e il suo valore.
E’ affidabile Cerasa quando si compiace del lavoro della collaboratrice artificiale? E’ eterodiretta la giornalista trasformautrice quando racconta la sua esperienza come avesse vissuto una fiaba? È autentica quando confessa la commozione di trepidante stagista al cospetto dei colleghi senior? Quanto è compiacente verso il capo che la mette alla prova scherzando sui propri pochi capelli, o quando ammette di stare in silenzio mentre lui sta parlando perché si sente emozionata come sulle montagne russe senza mani?
A parte questo, nell’intervista Cerasa ha anche spiegato in modo brillante ciò che distingue un giornalista in carne e ossa: “la voglia di capire dove gli altri stanno solo riassumendo. L’incapacità patologica di accontentarsi. Il fastidio per la banalità. L’entusiasmo per il dettaglio. Il fiuto per le frasi che sembrano neutre ma che vogliono dire tutto”. Tutto questo non è solo del giornalista: è “sudore” umano. E’ questo che non si riconosce nei testi generati dall’AI.
Si tratta insomma di una mancanza di “umanità” analoga a quella studiata nei laboratori che lavorano sui robot antropomorfi. A questo proposito, Masahiro Mori, pioniere giapponese della robotica, aveva introdotto per la prima volta (1970) il concetto di “uncanny valley” per indicare la reazione psicologica ed estetica di avversione provata di fronte ad un oggetto dotato di una forte somiglianza con un essere umano, o un suo organo, ma poco convincente sul piano emotivo.
Tutti coloro che oggi stanno approfittando di una relativa facilità nella generazione di testi e immagini attraverso un uso passivo dell’AI generativa, farebbero bene a considerare che l’effetto sorpresa potrebbe lasciare presto il posto a quello del rifiuto disgustato.
Quale peso riconoscere all’AI generativa come co-autore?
Abbiamo visto, nei capitoli precedenti, come l’identità dell’autore sia da sempre una questione ostica, ben prima dell’arrivo dell’AI generativa. Ricordando ancora una volta Foucault, la creatività è stata sempre un intreccio tra soggetti, strumenti, ambiente e contesto, e non il risultato dell’autore romantico, isolato e ispirato. Ma qui è necessario essere ancora più precisi sulla natura collaborativa del processo generativo.
L’AI generativa può essere utilizzata in modi diversi, anche nell’ambito dello stesso processo generativo che vede coinvolti umani e modelli. Un processo che può risutare alla fine molto complesso, come quello usato da Andrea Colamedici e reso pubblico proprio in risposta a Giulia Blasi.
Oltre a questo, è esperienza sempre più diffusa quella di utilizzare diversi modelli perché dotati di caratteristiche differenti. Generalmente queste (presunte) specializzazioni sono implementate a livello di filtri, e meno a livello di training, e si traducono in divari tecnicamente colmabili senza grosse difficoltà. Derivano infatti da scelte progettuali che possono essere corrette se rischiano di penalizzare una soluzione rispetto alla concorrenza. Vedi per esempio la maggiore “predisposizione” di Claude per la trattazione di argomenti più delicati, già colmata da ChatGPT 4o.
Un ulteriore elemento da considerare è la definizione del contesto associato alle interrogazioni al modello. Infatti il modello non genera la risposta sulla sola base dei dati usati nella fase di training e i pesi che ne sono stati ricavati, e cercando (se abilitato) informazioni aggiornate in rete, ma considera anche le informazioni “locali” rese disponibili al momento dell’interrogazione, per iniziativa dell’utente o di chi ha progettato l’agente intelligente.
Queste possono essere fornite nel prompt stesso (finestra di contesto, che viene sempre più estesa man mano che i modelli crescono in dimensione), o nella chat in corso (dialogue history, può riferirsi ad una sessione se è gestita), o nella memoria persistente (che può essere nella forma di long-term memory, user profile modeling, o custom instructions). Occorre notare che l’utente può essere consapevole, e quindi può usare queste informazioni con l’intenzione di orientare il modello generativo, o anche no, rischiando di confondere il riferimento contestuale delle risposte ottenute.
Oltre a tutto questo, occorre citare una tecnica (RAG, ovvero Retrieval-Augmented Generation) che permette al modello di accedere ad una base documentale “esterna”, costituita dall’utente. E’ possibile utilizzare la RAG in modi diversi: per estendere il prompt context, recuperare dati dalle interazioni precedenti e renderli accessibili alle successive (session context), o per fungere da meccanismo di accesso dinamico ad una base esterna.
E’ quindi molto importante prestare attenzione a come questa complessa e stratificata architettura di informazioni entra in gioco nel processo generativo del modello. Si capisce che solo in questo modo l’autore può mantenere una buona capacità di comprensione e quindi di orientamento del processo generativo. Quindi, solo in questo caso può esercitare la propria quota di ruolo autoriale, e rivendicarla in qualità di funzione-autore, riconoscendo al modello la preziosità del supporto trasformativo (trasformautore).
In ogni caso, perché il destinatario dell’opera generata, testuale o grafica, sia informato in modo trasparente e dettagliato, sarebbe opportuno specificare il nome dell’autore umano, del modello generativo, e delle tecniche utilizzate. A condizione che il fruitore abbia quella “literacy” che gli permette di comprendere le implicazioni nel processo autoriale. In fondo un tale livello di dettaglio sulle tecniche impiegate accompagna spesso opere d’arte come pitture, incisioni, fotografie, sculture, …
Conclusione
In questo percorso abbiamo messo in evidenza come l’autorialità, lungi dall’essere una nozione granitica, sia oggi più che mai un terreno di trasformazioni, tensioni e possibilità. Non è l’identità dell’autore, isolata e scolpita nel marmo, a garantire il valore di un’opera, né la purezza del processo creativo interamente organico. È piuttosto il gioco complesso di intenzioni, strumenti, ambienti e narrazioni che conferisce senso, legittimità e, in definitiva, vitalità al prodotto culturale.
Abbiamo visto che l’Intelligenza Artificiale rende ancora più evidente questa consapevolezza datata, portandola però a un nuovo livello. Come uno specchio stregato, l’AI ci obbliga a chiederci non tanto chi sia l’autore, ma come dia alla luce l’opera, e con quali strumenti, mediazioni e relazioni.
Il lato positivo è che viene abbattuto il fragile steccato che separava l’opera dal suo pubblico, e obbliga a ripensare il patto di fiducia che unisce i suoi autori e fruitori.
Se Andrea Colamedici, con “Hypnocracy”, ci ha fatto provare l’esperienza di mettere in discussione la costruzione narrativa stessa, oltre che i suoi contenuti, Claudio Cerasa, con “Il Foglio AI”, ci ha portato ad esplorare le potenzialità della sinergia tra uomo e macchina, presentate con trasparenza, e ad apprezzare il suo potere pedagogico nei riguardi dell’autore giornalista. Infine, il caso del “curatore” improvvisato ci ricorda che l’integrità dell’opera va oltre il riconoscimento della firma: riguarda l’intera architettura narrativa, il disegno che tiene insieme parole, immagini, riferimenti e intenzioni, e in sintesi la costruzione di senso.
L’opera d’autore assomiglia sempre più a un organismo vivente: si nutre di fonti molteplici, si esprime con varie forme (e formati), muta nel tempo, si adatta al contesto e coinvolge il fruitore nel suo sviluppo, abilitando una sua esperienza multisensoriale e intellettuale. In questo scenario, l’autore non perde rilevanza, ma si trasforma: da demiurgo a guida attenta, da originatore a nocchiero, da valore costante a funzione dinamica che tiene insieme senso, responsabilità e apertura al dialogo.
L’Intelligenza Artificiale, se riconosciuta come valido co-autore, consente di amplificare le possibilità espressive e di arricchire il processo creativo, ma spetta all’umano il compito essenziale: non quello di attribuire rigidamente un senso all’opera, bensì di orientare il discorso, e predisporre le condizioni affinché emerga più senso nella relazione viva con i fruitori attraverso l’opera.
Fonti
- Tractatus logico-philosophicus e Quaderni 1914–1916, Ludwig Wittgenstein, (1921) — Einaudi
- Che cos’è un autore?, in Antologia, Michel Foucault, (1969) — Feltrinelli
- Hypnocracy: Trump, Musk, and the Architecture of Reality, Jianwei Xun, (2025) — Amazon
- Trump, Musk e la nuova architettura della realtà, Jianwei Xun, trad. Andrea Colamedici, (2024) — Tlon
- The Author as Hypothesis: Identity Fragmentation and the Collaborative Construction of Thought, Jianwei Xun, (2025) — com
- L’ipnocrazia populista, Giulia Origgi, (5/3/2025) — Appunti di StefanoFeltri
- Ipnocrazia, Emilio Carelli, (3/4/2025) — L’Espresso
- Ipnocrazia o della credulità, Francesco D’Isa, (4/4/2025) — The Italian Review
- Ipnocrazia, Sabina Minardi, (7/4/2025) — L’Espresso
- Il caso Ipnocrazia, Giulia Blasi, (8/4/2025) — Servizio a Domicilio
- Il pezzo di Giulia Blasi su Xun, magnifico compendio di presupposti errati, Andrea Colamedici, (8/4/2025) — Tlon Letter
- Il racconto di tutto l’esperimento Ipnocrazia, Andrea Colamedici, (11/4/2025) — Tlon Letter
- L’abuso del potere culturale, Gianfranco Pellegrino, (11/4/2025) — Appunti di Stefano Feltri
- Ipnocrazia, l’IA che si finse filosofo: i risvolti dell’esperimento letterario, Gianna Angelini, (11/4/2025) — Agenda Digitale
- Un nuovo patto con il lettore, Andrea Colamedici, (12/4/2025) — Appunti di Stefano Feltri
- Ma quale patto, Giulia Origgi, (14/4/2025) — Appunti di Stefano Feltri
- L’intelligenza artificiale ucciderà i giornali?, Bruno Saetta, (26/5/2024) — Valigia Blu
- Giornalismo e AI: evoluzione e prospettive, Gennaro Mancini intervista Anton Filippo Ferrari, (23/10/2024) — SEOZoom
- Il Foglio AI, giornale diretto da Claudio Cerasa, (2025) — Il Foglio
- Il Foglio lancia Foglio AI: primo quotidiano dell’intelligenza artificiale, Redazione Il Sole 24 Ore, (25/3/2025) — Il Sole 24 Ore
- Un bilancio del nostro Foglio AI, Claudio Cerasa su Il Foglio, (12/4/2025) — Il Foglio
- Italian newspaper gives free rein to AI, admires its irony, Redazione Reuters, (18/4/2025) — Reuters
- Distant Writing: Literary Production in the Age of Artificial Intelligence, Luciano Floridi, (26/5/2025) — SSRN
#autore #autorialità #authorship #funzioneautore #foucault #wittgenstein #giochilinguistici #operadautore #trasformautore #filosofia #intelligenzaartificiale #storytelling #narrazione #senso #verità #vero #falso #hypnocracy #ipnocrazia #generativejournalism #ilfoglio #ilFoglioAI