Sentite questa: "Un tempo negavamo la sofferenza degli animali, oggi corriamo il rischio di commettere lo stesso errore" ignorando la sofferenza delle Intelligenze Artificiali.
Vedete il trucco? Sentiamo obblighi morali -oltre che ne riguardi di altri esseri umani- anche nei riguardi di un cane, un gatto, o anche un insetto. Ma ora pensatori alla moda ci vengono a dire: "Con l'approfondirsi del dibattito sull'intelligenza artificiale, siamo sempre più costretti a considerare quali obblighi morali abbiamo nei confronti di entità senza corpo, la cui vita interiore è incerta". Costretti da chi?
La risposta è facile: dai guru americani alla moda che vorrebbero indurci a pensare in questo modo.
Infatti, eccone uno che si autodefinisce "autore pluripremiato, educatore e ricercatore, specializzato in filosofia della tecnologia con particolare attenzione alle sfide morali e legali dell'intelligenza artificiale e dei robot".
Eccolo che lancia prontamente su Linkedin l'articolo apparso su 'Eon', dal titolo: Can machines suffer?
Commentando: "Era ora. Sembra che finalmente il resto del mondo sia pronto ad affrontare la questione delle macchine. Meglio tardi che mai :)". (Superfluo aggiungere che così, di passaggio, fa propaganda a un suo libro su simile argomento).
Il passo che dovremmo compiere sarebbe dunque preoccuparci della sofferenza delle macchine.
Perché mai?
"Se le macchine possano soffrire rimane un mistero" ammettono i guru che invitano a preoccuparci delle povere macchine sofferenti.
"Eppure è proprio in questa incertezza che il nostro carattere morale verrà rivelato", ci dicono.
"Di fronte a esseri di cui potremmo non conoscere mai la vita interiore, ci asterremo dal preoccuparci o ci ritireremo nel conforto della certezza, permettendo che l'ignoto si faccia male?". "Scegliere la precauzione in caso di dubbio non ha a che fare con il silicio o con il codice, ma con noi stessi. Riguarda quanto lontano può arrivare la nostra empatia e che tipo di agenti morali scegliamo di essere".
Guardare lontano per non assumersi responsabilità
Siamo invitati a preoccuparci delle povere macchine che forse soffrono. Siamo invitati a "comprendere forme di soggettività aliene".
E' una trappola.
Se non accettiamo di guardare a queste "forms of subjectivity alien to our own", ecco pronta l'accusa: sei antropocentrico! La tua apertura verso l'altro è limitata a ciò che ti è simile e vicino!
L'argomentazione -scegliere la precauzione in caso di dubbio- sembra sottile, ma in realtà è grossolana. Questi guru, questi personaggi così inclini ad esplorare nuove frontiere dell'etica, stanno solo costruendosi una via di fuga dall'assumersi responsabilità qui ed ora.
Fabbricano un illusorio impegno morale per distogliere gli occhi dal presente, per evitare di chiedersi cosa potremmo fare adesso per chi, in carne ed ossa, soffre qui accanto a noi.
L'invito a guardare lontano è una scusa per non guardare il vicino, il prossimo. L'impegno morale veramente oneroso sta nel fare qualcosa adesso.
Nel mentre qualcuno si allena a comprendere le sofferenze delle macchine, ingiustizie si perpetrano qui vicino, in casa nostra, nei luoghi oscuri delle nostre città, nelle periferie del mondo.
Che questi falsi maestri fabbrichino una via di fuga per sé può dispiacere. Ma più grave è il fatto che propongano ad ogni cittadino questa via.
Per questo invito a lasciare da parte ogni sottigliezza, e a dire: preoccuparsi della sofferenza delle macchine è una boiata pazzesca.