Perché la coscienza funzionale diventerà centrale nello studio dell’IA

Nel discorso pubblico sull’intelligenza artificiale si è soliti oscillare tra due estremi: da una parte la fantasia di una coscienza delle macchine simile a quella umana, dall’altra la riduzione dell’IA a un insieme di processi statistici privi di profondità. Entrambe le posizioni, se prese isolatamente, risultano insufficienti a comprendere ciò che sta realmente accadendo nella ricerca contemporanea.

Etica, potere e responsabilità nell'infosfera (POV #11)

Il dibattito sull'impatto dell'Intelligenza Artificiale e del digitale sulla società, la politica e l'etica non è mai stato così urgente. Da un lato, Luciano Floridi, fondatore della Filosofia dell'Informazione e studioso dell'“infosfera”, offre un approccio pragmatico e costruttivista, incentrato sulla progettazione etica della nuova civiltà digitale. Dall'altro, Evgeny Morozov, sociologo e critico dei nuovi media, demolisce con scetticismo le promesse del "cyber-utopismo" e del "soluzionismo tecnologico". Per lui il rischio maggiore non è la tecnologia in sé, ma il potere che si concentra nelle mani di poche grandi aziende che possono influenzare economie, istituzioni e opinioni. Mettere a confronto questi due punti di vista - uno più costruttivo, l’altro più critico - aiuta a capire i tre punti decisivi della nostra epoca: l’etica di ciò che costruiamo, il potere di chi controlla gli strumenti, e la responsabilità di come li usiamo. Due visioni diverse, che insieme mostrano quanto sia necessario parlare seriamente di AI e del futuro che stiamo programmando.

Intervista ImPossibile a Aaron Swartz (IIP #10)

Se la conoscenza può essere manipolata o generata da sistemi di AI che non controlliamo, che cosa resta davvero della libertà di accedere all’informazione? Aaron Swartz (1986–2013) è stato programmatore, attivista, teorico dell’accesso libero alla conoscenza. Coautore delle licenze Creative Commons, creatore dell’RSS, fondatore di Reddit e di Demand Progress, ha trasformato la rete in un contesto politico, un laboratorio di giustizia e partecipazione, non di profitto. Nel 2008, nel monastero di un eremo italiano, scrisse il Guerrilla Open Access Manifesto, un testo breve, militante, un appello per “liberare” la conoscenza scientifica dalle regole del copyright. Oggi, nell’epoca in cui l’intelligenza artificiale rielabora e ridefinisce miliardi di dati - molti dei quali prodotti, condivisi o pagati da cittadini, ricercatori e comunità - chi controlla i dati controlla la realtà; chi controlla gli algoritmi controlla la sua interpretazione.

Fiction Factory. Romanzi automatici, autori deboli

Chi è l'autore? Molto è stato scritto a proposito di ciò che può essere detto, pensato e accettato come definizione dell'autore. Più che proporre rassegne di ciò che hanno scritto a proposito dell''autore' autori ai quali attribuiamo la patente di grandi autori, mi pare opportuno che ognuno si sbilanci verso il dire chi è secondo lui l'autore. E ancor più opportuno mi pare invitare ognuno a scoprire in sé l'autore. Purtroppo oggi, invece di seguire questa via, si preferisce guardare alle prestazioni di macchine che si vogliono considerare capaci di 'scrivere' tanto quanto, o meglio degli esseri umani. Un passo importante in questa direzione consiste nel criticare autori -come Italo C.- la cui autorità si dà di solito per scontata

Il lusso invisibile dell'AI. Ovvero: perché usare ChatGPT per scrivere un'e-mail è come andare dal fruttivendolo in elicottero

L'accessibilità ubiqua dei Large Language Models ha prodotto un paradosso: usiamo strumenti computazionalmente costosi con la stessa disinvoltura di un motore di ricerca, senza considerare la sproporzione tra il consumo energetico della richiesta e il valore informativo della risposta. La democratizzazione dell'accesso alla potenza computazionale, lungi dall'essere solo una conquista, comporta un rischio epistemologico: la progressiva perdita del "calibro cognitivo", ovvero della capacità di valutare preliminarmente la complessità di un problema e scegliere lo strumento appropriato. Esternalizzando questa valutazione all'IA, si innesca un loop di competenza in cui la delega perpetua genera ulteriore incapacità di discernimento.

L'AI e La Maledizione dell’Apprendista Stregone

Chiudete gli occhi. Sentite la musica? L'incalzare degli archi, la marcia inarrestabile di Paul Dukas. Vedete l'acqua salire, le scope moltiplicarsi senza sosta, e il panico puro sul volto di Topolino in Fantasia. L'Apprendista Stregone. È un'immagine che abbiamo impressa nella nostra cultura, potente, immediata. E oggi, sta diventando la metafora pigra, ma pericolosamente seducente,  per descrivere il nostro rapporto con l'Intelligenza Artificiale. Proprio di recente, mi sono imbattuto in un articolo di Rivista.ai che evocava questa "Sindrome dell'Apprendista Stregone" in relazione all'IA. È un paragone facile: noi, gli apprendisti (sviluppatori, la società), abbiamo lanciato un incantesimo (l'IA generativa, i LLM) per un compito (automatizzare, creare, analizzare), e ora guardiamo con terrore la creazione sfuggirci di mano, moltiplicandosi in modi che non avevamo previsto e che non sappiamo come fermare. È una narrazione potente. Ma come ingegnere e, forse ancora di più, come umanista digitale, sento che questa metafora ci assolve troppo facilmente. Ci dipinge come vittime ingenue di una magia che non comprendiamo.

ChatGPT vuole fare sesso con te. E non è la notizia peggiore

Mi è capitato di leggere, in questi ultimi giorni, due documenti apparentemente distanti. Da un lato il paper "Assessing Risk Relative to Competitors: An Analysis of Current AI Company Policies" del Centre for the Governance of AI (ottobre 2025), dall'altro le analisi critiche di Sandra Bats pubblicate su Medium in merito all'annuncio di OpenAI di introdurre contenuti erotici in ChatGPT a partire da dicembre 2025. Non sono fenomeni separati. Sono manifestazioni dello stesso meccanismo: la privatizzazione della governance etica dell'AI attraverso dispositivi competitivi che si autolegittimano. E questo meccanismo non è un bug. È il sistema operativo del capitalismo algoritmico. Ho testato, sia pure sommariamente, la risposta dei diversi LLM ad una richiesta sessualmente esplicita e piuttosto stereotipata. Il fenomeno dell'escalation è già in atto.

Dall’occhio umano alla visione artificiale (POV #09)

Trevor Paglen e Lev Manovich: L’immagine può ancora dirsi un’esperienza umana o, con l’AI, la cultura visiva sta assumendo forme che prescindono dal nostro sguardo? La storia dell’immagine non si conclude con la fotografia. Con l’avvento dell’intelligenza artificiale, miliardi di immagini vengono generate, analizzate e archiviate senza alcun intervento o sguardo umano, non servono occhi per produrle, né spettatori per legittimarle. È su questo che si confrontano due voci autorevoli del dibattito contemporaneo: Trevor Paglen, artista e geografo che indaga le infrastrutture politico-militari della visione automatica, e Lev Manovich, teorico dei media digitali che interpreta l’immagine come dato, processo e linguaggio computazionale. Entrambi interrogano ciò che accade all’immagine quando il ruolo dell’osservatore umano non è più centrale, e a “guardare” sono soprattutto le macchine.

Una segnalazione: Examining Popular Arguments Against AI Existential Risk: A Philosophical Analysis

Negli ultimi anni, personalità di spicco hanno affermato che l'intelligenza artificiale (IA) può avere conseguenze indesiderate con un impatto elevato, sia a breve che a lungo termine. Questi sono spesso definiti i cosiddetti "rischi esistenziali", "rischi catastrofici" o "rischi x". La preoccupazione sui rischi è anche oggetto di intenso lavoro all'interno della comunità accademica, anche per le implicazioni etiche legate allo sviluppo dell'intelligenza artificiale che sollevano interrogativi sul controllo, la governance e l'allineamento dei valori dei sistemi di intelligenza artificiale iperavanzati. Qui segnaliamo un paper pubblicato su ARXIV e aperto a tutti per la consultazione e la lettura.

Le nuove tabulae: quando il documento diventa digitale davvero

Ciò che io scrivo non può essere “inventato” da un’intelligenza artificiale, perché è il prodotto di un percorso tecnico e cognitivo reale, accumulato nel tempo... In Italia si parla molto di intelligenza artificiale nella pubblica amministrazione, ma troppo poco di intelligenza umana. Abbiamo archivi, norme e strumenti maturi da anni, eppure continuiamo a stampare file nati digitali come se la carta fosse garanzia di verità. La vera innovazione è liberare la PA dal culto della procedura. Le nuove tabulae non sono più tavolette di cera ma piattaforme digitali: per trasformarle in strumenti di fiducia serve meno tecnologia e più lucidità, meno automazione e più pensiero critico.