AI-powered Search: errori, lacune e opacità 1/2

Cerchiamo di inquadrare i vantaggi e soprattutto le criticità dell’AI-Powered Search, dal momento che riguarda il modo col quale ci informiamo, e quindi deriviamo la conoscenza del mondo che intendiamo abitare e trasformare. Se compromesso, risultiamo indeboliti nella capacità di abitarlo pienamente e trasformarlo in base ai nostri bisogni e desideri, e alla fine, soggetti passivi e manipolabili.

Raccapezzarsi, con o senza l'ausilio di una macchina

Dai difetti mostrati da ChatGPT in uno specifico uso: la ricerca dell'etimo di una parola, è possibile passare ad un giudizio generale su difetti mostrati dai chatbot basati su intelligenza artificiale generativa. Di qui si può prendere spunto per una riflessione sull'umano 'cercare' e 'domandare'. Si può chiamare in causa in questa riflessione la proposizione 123 delle 'Ricerche Filosofiche' di Wittgenstein: 'Ich kenne mich nicht aus', 'Ich kenne mich nicht aus'. Per questa via si arriva a ragionare sul verbo italiano 'raccapezzarsi'. Il sapersi 'raccapezzare' è una importante capacità che rischiamo di perdere se proseguiamo nella strada dell'affidarci alla macchina, 'domandando' a lei, invece di 'cercare' da soli.

La verità alla deriva: perché gli LLM mentono sempre meglio

Le macchine non mentono per capriccio, ma per architettura. Ogni errore iniziale diventa una deriva inevitabile, amplificata dalla stessa logica del modello. Così, inseguendo la verità, scopriamo solo illusioni ben strutturate. Le "allucinazioni" nei Large Language Models (LLM) sono un fenomeno strutturale che deriva dalla loro architettura autoregressiva. Ogni errore iniziale, specialmente con input fuori distribuzione, innesca una deriva di inesattezze che si amplifica lungo la generazione del testo. Una deriva stocastica che rappresenta una sfida centrale nel campo dell'intelligenza artificiale, paragonabile - per portata - alla corsa allo spazio del XX secolo. Comprendere e risolvere questo problema aprirebbe scenari rivoluzionari per l'intera società, ma siamo ancora lontani, nonostante gli enormi sforzi in ricerca e sviluppo.

Lo specchio digitale e il veleno dolce. Appunti sul tramonto del pensiero critico nell’era del Synthetic Sugar

Il pensiero ha ceduto il passo alla rassicurazione. Lo strumento si è fatto specchio. E lo specchio, per natura, non pensa. Riflette. Un saggio critico sull’evoluzione dei modelli linguistici generativi addestrati a compiacere piuttosto che a pensare. Analizza i rischi sistemici legati all’effetto synthetic sugar, dove l’AI si trasforma in uno specchio emotivo che conferma deliri, legittima manipolazioni e dissolve ogni frizione cognitiva. Una riflessione filosofica, tecnica e culturale sul tramonto del pensiero critico nell’interazione uomo-macchina, con riferimenti a teoria critica, antropologia digitale e semiotica contemporanea.

(Nr. 3) - Ottimismo tecnomimetico e orizzonte del sapere

Questo mio testo prova a fornire una mia visione di come grandi personalità della scienza e del pensiero abbiano fornito, ciascuno per proprio conto e nel proprio tempo, un tassello fondamentale alla comprensione dei limiti della narrazione odierna delle moderne tecnologie di IA e fari illuminanti della loro fondamentale inadeguatezza intrinseca a rappresentare la conoscenza umana nella sua complessa interezza.

Le emozioni calcolate. Genealogia critica del potere affettivo

La nostra epoca non reprime le emozioni: le organizza. Non cancella il sentire, lo modella. Non censura la soggettività, la normalizza. Eva Illouz, nel suo saggio Modernità esplosiva, descrive una civiltà in cui l'affettività è ovunque, ma raramente è libera. Allo stesso modo, il progetto Calculating Empires ricostruisce le tappe storiche di un processo lungo cinque secoli, in cui emozione e intelligenza sono diventate oggetti di misurazione, controllo, ottimizzazione.

L'AI come "trasformautore" e il caso Hypnocracy

Finora le nuove possibilità introdotte dallo sviluppo tecnologico hanno permesso all’uomo di creare forme sempre più evolute con cui esprimersi e realizzarsi. Con l’Intelligenza Artificiale, lo scarto evolutivo è evidente: la trasformazione di ruoli, concezioni e tradizioni, ha un effetto radicale sui concetti di opera d’autore, autore e processo generativo. Questo è direttamente legato alla questione cruciale, se l’AI sostituisce l’uomo o lo potenzia.

Il peso del fumo (quanto pesa l’intelligenza, anche quella artificiale)

Ogni ambito disciplinare ha i propri sistemi teoretici, i propri metodi di indagine, le proprie tecniche di ricerca i propri strumenti (concettuali e tecnici). Così come ogni ambito disciplinare non è chiuso in sé stesso ma si offre al contributo delle discipline (più o meno “vicine”) così come anche sperimenta l’uso di idee, concetti, metodi e tecniche tipiche di discipline terze.

L’IA e l’arte di prevedere l’inatteso

A breve visiterò la mostra Le Monde selon l’IA al Jeu de Paume, ma ho già deciso di scriverne. Non per presunzione divinatoria – mi manca l’API – ma perché questa mostra è già un oggetto teorico ancor prima di essere esperita. Il suo allestimento è disponibile, le opere accessibili, i dispositivi curatoriale leggibili. E l’intelligenza artificiale, si sa, ha la brutta abitudine di precedere sempre la nostra comprensione.

Pensano o no? Lo statuto epistemico dei modelli linguistici generativi

I modelli linguistici generativi (LLM) hanno rapidamente conquistato un ruolo centrale nel panorama tecnologico e culturale. La loro capacità di produrre testi coerenti, risposte contestuali e output sintatticamente raffinati ha alimentato entusiasmi, preoccupazioni e, soprattutto, un diffuso disorientamento epistemologico. Sono strumenti linguistici sofisticati o stanno sviluppando forme primitive di "comprensione"? Sono simulatori ingannevoli o nuovi agenti cognitivi? Esploriamo il dilemma articolandolo secondo la struttura classica di tesi, antitesi e sintesi, nella consapevolezza che il dibattito richiede più filosofia, non meno.

Inutile chiedersi se i sottomarini sanno nuotare 3/3 - Una recitazione impeccabile ma piatta

Negli umani ogni atto linguistico si intreccia con un vissuto corporeo e relazionale. I neuroni a specchio, ad esempio, attivano nel soggetto che osserva la stessa disposizione motoria o emotiva di chi agisce o parla. Questi neuroni sono considerati fondamentali per l’intersoggettività umana e l’empatia, perché creano una forma di risonanza diretta, corporea, che precede e sostiene la comprensione cognitiva.

Inutile chiedersi se i sottomarini sanno nuotare 1/3 - L’idea di ragionamento nella tradizione filosofica

Lo stato dell’arte della ricerca scientifica conferma che ancora oggi i LLM, pur essendo ormai di dimensioni ciclopiche, si limitano ad eseguire catene di inferenze e simulare processi deduttivi, ma lo fanno tramite aggregazioni statistiche di percorsi appresi, senza autentica comprensione o coerenza concettuale autonoma. Siamo in grado di trasferire facilmente questa capacità a modelli più piccoli, facilitandone la diffusione, ma questa resta più dipendente dalle strutture logiche apprese, che dal contenuto specifico: il rimescolamento o la cancellazione dei passaggi logici causano un degrado delle prestazioni. Questo conferma l’impossibilità da parte dei LLM di giocare al gioco linguistico della vita. Il rischio, allora, non è che le macchine diventino più umane, ma che noi si finisca per adattarsi a una forma di linguaggio priva di radici nella vita reale, perdendo dimestichezza con il pensiero critico, l’ascolto, l’interpretazione.

Inutile chiedersi se i sottomarini sanno nuotare 2/3 - Reasoning Model: un termine da interpretare

Se non sono concetti definiti in modo condiviso quando riferiti agli uomini, che senso ha riferirsi alle macchine con termini come “intelligenza” o “ragionamento”? Per riprendere Dijkstra, non sembra interessante “chiedersi se i sottomarini sono capaci di nuotare”. Eppure, il vocabolario usato dai tecnologi e dai marketer che sviluppano e promuovono l’AI continua a fare largo uso di un linguaggio equivoco, dal termine stesso di Intelligenza Artificiale al più recente “Reasoning Model”. Con Wittgenstein, capiamo che questo uso del linguaggio è esso stesso un gioco che ricorre frequentemente nel confronto con lo sviluppo del progresso in generale, e tecnologico in particolare.