1. Natura e definizione dell’AI: mito o realtà?
Se l’intelligenza artificiale non è davvero “intelligenza” nel senso umano del termine, che cosa stiamo nominando quando parliamo di AI e su quali basi possiamo valutarne l’affidabilità in ambiti sensibili come la salute, la giustizia o l’istruzione?
Kate Crawford mette in discussione l’idea diffusa dell’AI come mente autonoma e immateriale. In Atlas of AI sostiene che l’espressione stessa “intelligenza artificiale” sia fuorviante in quanto questi sistemi non pensano e non hanno intenzionalità. Operano attraverso calcoli statistici applicati a grandi quantità di dati prodotti e selezionati da esseri umani. Crawford richiama casi storici come quello del cavallo “Clever Hans” per mostrare quanto facilmente si possa scambiare un comportamento addestrato per intelligenza. Per questo insiste su un punto spesso rimosso dal discorso pubblico, l’AI è un’infrastruttura materiale, che consuma energia, sfrutta risorse naturali e si regge su lavoro umano, spesso invisibile.
Yann LeCun condivide l’idea che l’AI non sia una forma di coscienza artificiale e rifiuta ogni lettura “magica” della tecnologia. Tuttavia, respinge anche gli approcci allarmistici. Per lui l’AI è uno strumento potente, pensato per estendere le capacità umane, non per sostituirle. La sua celebre metafora della “bicicletta per la mente” chiarisce questa posizione. Come una bicicletta amplifica la forza fisica senza diventare un corpo umano, così l’AI amplifica alcune funzioni cognitive. LeCun riconosce i limiti attuali dei sistemi di apprendimento automatico, ma sottolinea i benefici concreti già visibili, dalla visione artificiale ai modelli linguistici, capaci di abbassare le soglie di accesso alla produzione creativa e alla conoscenza.
Entrambi concordano sul fatto che l’AI sia lontana dall’intelligenza umana. La differenza sta nello sguardo politico e culturale, Crawford smonta il mito per mostrarne i costi nascosti e le implicazioni di potere, LeCun ridimensiona il mito per concentrarsi sull’utilità pratica.
2. Potere, controllo e dati
Chi controlla davvero l’intelligenza artificiale e i dati su cui si fonda, e in che misura questo controllo rischia di rafforzare le disuguaglianze di potere esistenti invece di ridurle?
Per Kate Crawford, la risposta è tutt’altro che scontata. L’AI non è un insieme astratto di algoritmi, ma una vera e propria infrastruttura di potere, una “mega-macchina” estrattiva che concentra dati, risorse e capacità decisionale nelle mani di poche grandi aziende tecnologiche e di alcuni Stati. In questa concentrazione, osserva Crawford, si produce un duplice effetto, da un lato l’accentramento del potere politico ed economico, dall’altro l’occultamento dei costi reali dell’AI. L’estrazione di terre rare, il consumo energetico e le condizioni di lavoro precarie lungo le filiere tecnologiche mostrano che l’AI si regge su risorse naturali e umane spesso invisibili e sottopagate. In questo senso, la tecnologia non corregge gli squilibri esistenti, ma li rende più profondi, contribuendo a una crisi della democrazia e a una crescente alienazione sociale.
Yann LeCun riconosce il rischio di concentrazione, ma ne propone una lettura diversa e, soprattutto, una soluzione di natura tecnica. Per lui, il problema non è l’AI in sé, ma il modo in cui viene sviluppata e distribuita. Da qui il sostegno a modelli di ricerca aperta e open source, pensati per evitare che algoritmi e conoscenza restino sotto il controllo di poche entità dominanti. In questa prospettiva, la condivisione dei modelli e degli strumenti può ridurre il rischio di monopolio e favorire un uso più diffuso e cooperativo dell’AI. LeCun richiama spesso una visione ottimista: se ben progettata, l’intelligenza artificiale può liberare le persone da attività ripetitive e ampliare le capacità umane, piuttosto che limitarle.
Il punto di contatto tra le due posizioni è la consapevolezza che il potere tende ad accumularsi dove non esistono contrappesi. La divergenza riguarda il modo di affrontare il problema. Crawford insiste sulla necessità di interventi politici, regolazione pubblica e tutela dei diritti, perché il potere tecnologico è anche potere economico e istituzionale. LeCun affida invece la soluzione principalmente alle dinamiche della ricerca aperta, alla collaborazione tra comunità scientifiche e alla trasparenza dei processi tecnici. In entrambi i casi, la posta in gioco resta la stessa, evitare che l’intelligenza artificiale diventi un ulteriore strumento di dominio anziché una risorsa condivisa.
3. Etica e responsabilità
Chi deve decidere i limiti etici dell’intelligenza artificiale, la politica attraverso leggi e regolamenti, oppure gli ingegneri attraverso il modo in cui i sistemi vengono progettati e controllati?
Per Kate Crawford, l’etica non può restare un principio astratto o una dichiarazione di buone intenzioni. L’intelligenza artificiale ha effetti materiali sul mondo - ambiente, lavoro, diritti - e proprio per questo richiede una responsabilità politica esplicita. I sistemi di AI, ricorda Crawford, non sono mai neutrali, incorporano valori, priorità e bias di chi li progetta e di chi li finanzia. Senza regole pubbliche su trasparenza, sicurezza e sostenibilità, il rischio è che decisioni automatizzate producano discriminazioni sistemiche o violazioni della privacy difficili da contestare.
Yann LeCun guarda alla stessa questione da un’angolazione diversa. Piuttosto che affidare la soluzione principalmente alla regolazione politica, sostiene che il controllo etico debba essere integrato nel design dei sistemi. Gli algoritmi operano sulla base di obiettivi e vincoli precisi, per LeCun, è lì che vanno inseriti i cosiddetti guardrail, restrizioni tecniche capaci di prevenire comportamenti indesiderati. Da questa prospettiva, l’etica diventa una questione di buona ingegneria. LeCun è inoltre scettico verso narrazioni catastrofiste e richiama esempi in cui l’AI è già impiegata con successo per ridurre la diffusione di contenuti d’odio o disinformazione.
Il punto di contatto tra le due posizioni sta nel riconoscere che l’AI non è mai etica “di per sé”. La divergenza riguarda piuttosto chi debba agire per primo. Crawford insiste sulla necessità di norme, sanzioni e investimenti pubblici per governare una tecnologia che incide sulla vita collettiva. LeCun privilegia invece un approccio bottom-up, in cui si chiarisce cosa si vuole ottenere dai sistemi e si lavora tecnicamente per renderli coerenti con quegli obiettivi.
4. Impatto su lavoro e disuguaglianze
L’intelligenza artificiale ridurrà la fatica umana o finirà per accentuare le disuguaglianze sociali, redistribuendo benefici e costi in modo sempre più asimmetrico?
Kate Crawford invita a guardare il lato meno visibile dell’automazione. Nei grandi sistemi di AI, sostiene, il lavoro umano non scompare, viene spostato, frammentato e reso invisibile. In Atlas of AI ricostruisce una filiera che parte dalle miniere di litio e arriva ai magazzini della logistica globale, mostrando come l’intelligenza artificiale si fondi su pratiche estrattive, consumo energetico e lavoro precario. In questo quadro, l’AI non rappresenta un progresso “pulito”, ma un processo che tende a concentrare valore economico e dati nelle mani di pochi attori, mentre i costi sociali e ambientali ricadono su lavoratori e comunità già vulnerabili. Senza interventi pubblici e strumenti di compensazione, l’automazione rischia così di amplificare disuguaglianze preesistenti.
Yann LeCun propone una lettura diversa. Per lui l’AI è prima di tutto una tecnologia di supporto, un’estensione delle capacità umane, può sollevare le persone da compiti ripetitivi, pericolosi o usuranti, aprendo spazio a forme di lavoro più creative e relazionali. LeCun sottolinea come i sistemi di generazione automatica di testi, immagini o codice stiano già ampliando l’accesso a strumenti complessi, pur riconoscendone i limiti e le imperfezioni. In questa prospettiva, la robotizzazione non elimina lavoro in sé, ma ne trasforma la natura, rendendo possibile una riqualificazione verso attività a maggiore valore umano e sociale.
La distanza tra le due posizioni emerge soprattutto sul piano politico. Crawford insiste sul fatto che, senza regole, redistribuzione e politiche di accompagnamento, l’AI tenderà a rafforzare le disuguaglianze. LeCun si concentra invece sui benefici potenziali per individui e organizzazioni, lasciando sullo sfondo la questione degli squilibri strutturali. Entrambi, però, condividono un punto cruciale, l’intelligenza artificiale è un processo che dipende da risorse materiali, scelte progettuali e decisioni collettive. La vera posta in gioco non è solo quanto l’AI renderà più produttivi, ma come verranno distribuiti i suoi vantaggi e i suoi costi.
5. Società, democrazia e futuro
L’intelligenza artificiale rafforzerà la convivenza democratica oppure finirà per indebolirla, concentrando potere, orientando l’informazione e riducendo gli spazi di decisione collettiva?
Per Kate Crawford, i sistemi di analisi dei dati e di visione automatica, inseriti in contesti politici ed economici sbilanciati, contribuiscono a imporre un ordine sociale che tende a riprodurre e amplificare disuguaglianze, pregiudizi e asimmetrie di potere. Crawford sottolinea come le trasformazioni recenti nel campo dell’AI abbiano favorito una crescente concentrazione del potere decisionale, accelerando processi di polarizzazione e alienazione. In questo quadro, avverte, la democrazia entra in una fase di fragilità, senza limiti e contro-poteri, l’uso degli algoritmi può diventare uno strumento di sorveglianza, controllo e normalizzazione del dissenso, come mostrano i casi di utilizzo dell’AI da parte di regimi autoritari. La posta in gioco, per Crawford, è la fiducia pubblica, la circolazione delle informazioni e la possibilità di un controllo civico devono essere difese attivamente.
Yann LeCun propone una lettura diversa. A suo avviso, l’intelligenza artificiale può funzionare come uno strumento di protezione e stabilizzazione dello spazio pubblico. Porta spesso l’esempio della moderazione dei contenuti online, ricordando che i sistemi automatici permettono già oggi di intercettare e rimuovere una grande quantità di discorsi d’odio e contenuti violenti prima che raggiungano gli utenti. In questo senso, l’AI non sostituisce il giudizio umano, ma lo supporta, rendendo possibili interventi su scala che altrimenti sarebbero impraticabili. LeCun invita inoltre a non assumere come inevitabile il legame tra piattaforme digitali e polarizzazione, sottolineando che gli effetti dipendono dalle scelte progettuali e dall’uso concreto delle tecnologie.
Il contrasto tra le due posizioni è netto ma non inconciliabile. Crawford mette in guardia dai rischi politici di un’AI governata da logiche di mercato e di controllo; LeCun insiste sulle sue potenzialità come strumento di contenimento di fenomeni nocivi e di supporto alla vita democratica. Entrambi, tuttavia, concordano su un punto essenziale, l’intelligenza artificiale modificherà profondamente gli equilibri sociali e politici. La sfida, comune a entrambe le prospettive, è trovare un equilibrio tra innovazione tecnologica, responsabilità pubblica e tutela dei principi democratici.
Conclusione
Il confronto tra Kate Crawford e Yann LeCun mette in evidenza una tensione che attraversa oggi tutto il dibattito sull’intelligenza artificiale: da un lato, l’esigenza di riconoscerne i rischi concreti - concentrazione del potere, effetti sociali e ambientali, asimmetrie di responsabilità - e di affrontarli con strumenti politici e regolativi; dall’altro, la fiducia nelle potenzialità della tecnologia e nella possibilità di orientarne gli sviluppi attraverso ricerca aperta, scelte progettuali consapevoli e buone pratiche tecniche.
Entrambi condividono che l’AI non agisce mai in modo automatico o indipendente dalle decisioni umane. La divergenza riguarda piuttosto chi debba assumersi la responsabilità di queste decisioni e come debbano essere esercitate.
La domanda che resta aperta è quindi come riusciremo a costruire una governance dell’intelligenza artificiale in cui competenze tecniche, responsabilità politiche e interessi collettivi non procedano separati, ma siano tenuti insieme da criteri di trasparenza, giustizia e responsabilità pubblica.
Breve bio degli autori:
Kate Crawford (1974) è ricercatrice e professoressa australiana specializzata negli aspetti sociali e politici dell’AI. È Senior Principal Researcher presso Microsoft Research NYC e professoressa all’USC Annenberg. Co-fondatrice dell’AI Now Institute, è autrice del libro Atlas of AI: Power, Politics, and the Planetary Costs of Artificial Intelligence (Yale University Press, 2021). Sito ufficiale: katecrawford.net .
Yann LeCun (1960) è informatico franco-americano, premio Turing 2018 per il deep learning. È professore all’Università di New York (NYU) e Chief AI Scientist presso Meta (Facebook). Pioniere delle reti neurali convoluzionali e co-creatore del framework Caffe, LeCun condivide gran parte dei riconoscimenti sui fondamenti del deep learning. Sito ufficiale: yann.lecun.com.
POV nasce dall’idea di mettere a confronto due autori viventi, provenienti da ambiti diversi - filosofia, tecnologia, arte, politica - che esprimono posizioni divergenti o complementari su un tema specifico legato all’intelligenza artificiale.
Si tratta di autori che ho letto e approfondito, di cui ho caricato i testi in PDF su NotebookLM. A partire da queste fonti ho costruito una scaletta di argomenti e, con l’ausilio di GPT, ho sviluppato un confronto articolato in forma di articolo.
L’obiettivo non è giungere a una sintesi, ma realizzare una messa a fuoco tematica, far emergere i nodi conflittuali, perché è proprio nella differenza delle visioni che nascono nuove domande e strumenti utili a orientare la nostra ricerca di senso.