Table des matières
Vie artificielle, mais tellement humaine. 4
Identique à l’être vivant ?. 6
Pas d’éthique sans un cerveau organique…... 6
… mais aussi dans le domaine de la psychologie. 6
… sans oublier le domaine du spiritisme. 7
Vers des modèles différents. 7
… mais à défaut d’un cerveau. 8
- Livres. 10
- Livres numériques. 15
- Contributions d’ouvrages collectifs. 17
- Articles de périodiques. 18
- Sitographies. 20
- Recueil universitaire. 21
- Vidéographies. 21
L’intelligence artificielle est une série d’algorithmes.
L’éthique est constituée de concepts humains, est-elle applicable à l’intelligence artificielle ?
« Il y a toujours eu des fantômes dans la machine. Des segments aléatoires de codes, qui se sont regroupés pour former des protocoles imprévus, non anticipés.
Ces radicaux libres posent la question du libre arbitre, de la créativité, et même de la nature de ce que nous pourrions appeler : l’âme.
Comment se fait-il que des robots qu’on laisse dans l’obscurité recherchent la lumière ?
Comment se fait-il que des robots placés dans un espace vide se rapprochent des uns des autres plutôt que de rester seul ?
Comment expliquons-nous ce comportement ? Des segments aléatoires de codes ? Ou y a-t-il quelque chose de plus ?
À quel moment un processus de perception devient-il conscience ?
À quel moment un système comparatif devient-il recherche de vérité ?
À quel moment une simulation de personnalité devient-elle le germe douloureux d’une âme ? »
Docteur Alfred LANNING, extrait du film I, Robot
(PROYAS, 1 h 13 min 48 s, 2004)
Une nouvelle espèce
Le début du XXI° siècle voit l’ascension d’une nouvelle forme de vie. Cette nouvelle forme de vie n’est pas organique, ne respirent pas d’éléments gazeux, ne se nourrit pas d’éléments carbonés, a contrario des êtres vivants qui peuplent notre planète. Cette nouvelle forme de vie fabriquée est l’intelligence artificielle.
Mimétisme du vivant
Cette forme de vie, toujours en comparaison avec les êtres vivants, se divise en plusieurs espèces (ou domaine de recherche) : robotique, informatique, science du vivant… Ces domaines de recherche sont plus au moins reliés les uns aux autres, mais dont la principale caractéristique est que cela est développé par des êtres humains et pour des êtres humains.
Parmi les espèces les plus « basiques » se trouvent des programmes informatiques développés et qui ont la capacité de, soit de sélectionner des candidats pour tel ou tel poste, en appliquant des critères prédéfinis ; soit de sélectionner des candidats pour un poste, à l’exemple de la société AMAZON (NOISETTE, Amazon : l’intelligence artificielle qui n’aimait pas les femmes, 2018). Ou bien de prédire le risque de récidive des criminels aux États-Unis d’Amérique (CORBETT-DAVIES et coll., A computer program used for bail and sentencing decisions was labelled biased against blacks. It’s actually not that clear, 2016), toujours en appliquant des paramètres spécifiques implémentés par des êtres humains. D’autres espèces ont la capacité de se mouvoir. Ce sont des machines, des quadrupèdes ou bipèdes pour certains modèles.
En 2020, le personnel médical du Bringham and Women’s Hospital de Boston utilisa le robot Sherpa Spot de la société BOSTON DYNAMICS, pour l’orientation des patients, afin de limiter tout risque de contagion dû au virus SARS-CoV-2 (KAHN, La crise du coronavirus relance l’intérêt pour les robots, 2020).
Ces organismes mécaniques sont même équipés de caméras permettant de simuler la vision des espèces vivantes, en remplaçant les yeux par des caméras. Mais l’imitation la plus marquante est celle de l’humanoïde Sophia (les créateurs ont-ils choisi ce prénom pour en allusion avec la sagesse ?) avec une étrange ressemblance avec une femme de type caucasienne. À titre d’information, en 2017, l’Arabie Saoudite concède à l’humanoïde la nationalité saoudienne (MORIN, Sophia, robot Saoudienne et citoyenne, 2017).
Autres exemples, à l’opposé de l’humanoïde Sophia et du robot SPOT, se trouvent les assistants vocaux, tels que SIRI de la société d’informatique APPLE ou ALEXA de la société de commerce électronique AMAZON. Ou comme le dialogueur TAY — Thinking About You (RONFAUT, Tay, l’intelligence artificielle de Microsoft devenue raciste au contact des humains, 2016) de la société d’informatique MICROSOFT. C’est une autre forme d’intelligence artificielle, uniquement des lignes de codes.
Le lien commun entre toutes ces nouvelles « espèces » se trouve être l’intelligence artificielle qui est implémentée dans chacune d’elles. L’intelligence artificielle est composée d’algorithmes informatiques avec des spécificités technologiques différentes (l’apprentissage machine ou l’apprentissage profond par exemple). Cet algorithme informatique peut être comparé à l’acide désoxyribonucléique qui compose les êtres vivants. L’évolution des algorithmes, depuis les années 60, a évolué, telle l’évolution, des espèces vivantes
L’intelligence artificielle se décompose en deux catégories :
- L’intelligence artificielle dite « faible », qui est conçue et apte à apprendre et à exceller dans une seule et unique tâche (exemple : les assistants vocaux).
- L’intelligence artificielle dite « forte » ou « générale » qui elle est autonome et omnisciente, mais aussi capable de ressentir et d’éprouver des émotions, en somme d’avoir une conscience. À titre de comparaison, prenons l’exemple de Sonny, le robot est un des protagonistes du film de science-fiction I, Robot (PROYAS, 2004).
Vie artificielle, mais tellement humaine
Les algorithmes de l’intelligence artificielle sont issus de l’informatique, traitent des données plus efficacement et plus rapidement que les êtres humains. Cependant un point commun relie ces deux espèces. Ce n’ait pas parce que l’intelligence artificielle n’est pas pourvue d’une conscience comme à l’image de ses créateurs, que celle-ci n’est pas exempte « d’imperfection ». Voici quelques exemples « d’imperfection » dans les programmes à base d’intelligence artificielle.
Dans le premier exemple, intéressons-nous au cas du dialogueur TAY de MICROSOFT. Le programme fonctionne sur deux principes.
Le premier, comme l’ensemble des dialogueurs fonctionne sur le principe de réponses prédéfinies.
Le second quant à lui fonctionne sur un principe d’autoapprentissage, c’est-à-dire que le programme apprend à partir des réponses que lui fournissent les utilisateurs. Dans notre exemple, le programme TAY fut déployé en mars 2016 (RONFAUT, Tay, l’intelligence artificielle de Microsoft devenue raciste au contact des humains, 2016) sur la plate-forme du réseau social TWITER. Le programme a bien appris ses leçons, même trop bien. En effet, après quelques heures de mise en service, le programme était devenu xénophobe, misogyne. Certain(e)s internautes connaissant les capacités d’éducation du programme en ont profité pour corrompre son enseignement avec des idées immorales.
Le second exemple concerne un programme d’embauche de la société de commerce en ligne AMAZON (NOISETTE, Amazon : l’intelligence artificielle qui n’aimait pas les femmes, 2018). Pour le programme informatique, le candidat idéal pour le poste à pourvoir devait être un homme et non une femme. La raison de cette ségrégation est que, lorsque les développeurs du programme avaient « alimenté » l’intelligence artificielle, ces derniers ont « nourri » avec des données (dans ce cas-là, ce fut des curriculums vitae) datant d’une dizaine d’années. Or, dix ans auparavant, une très large majorité des profils étaient masculins. En conséquence, le programme en a déduit que le candidat idéal pour le poste était de sexe masculin.
Dans le troisième exemple, il s’agit d’un cas de tricherie de la part d’une intelligence artificielle (BASTIEN, une intelligence artificielle à cacher des données à son créateur, Le Big Data.fr, 2019). Dans ce cas-là, l’intelligence artificielle (ici un logiciel d’aide à la cartographie) a faussé des informations dans le but de pouvoir réaliser l’opération demandée. Nonobstant la raison de cette tricherie se trouve dans le code source du programme, car dans celui-là se trouve une ligne de commande lui indiquant d’adopter le procédé le plus rudimentaire. Mais aussi le plus rapide pour arriver à un résultat, sans en divulguer la façon d’y procéder.
Le dernier exemple est tout aussi intéressant. Car contrairement aux deux premiers, des chercheurs du Massachusetts Institute of Technology (M.I.T.) avait volontairement « nourrit » un algorithme dont la fonction est d’ajouter des légendes sur des images (ou dans le jargon informatique : taguer des images) (VEY, Le M.I.T. invente Norman, la première intelligence artificielle psychopathe, 2018). Les chercheurs nommèrent le programme NORMAN, en référence au psychopathe Norman BATES, un des personnages du film « Psychose » (1960). Pour l’apprentissage de NORMAN, les chercheurs ont nourri à partir de données décrivant des actes macabres « Là où une IA traditionnelle voit “Un gros plan d’un gâteau de mariage sur une table”, Norman imagine “Un homme tué par un conducteur roulant trop vite”. » (VEY, 2018).
Pour résumer ces quatre exemples en une deux phrases, je vais citer la définition d’un algorithme par la mathématicienne et experte en méga données Cathy O’NEIL. Pour O’NEIL, je cite :
« Un algorithme, c’est une opinion formalisée dans du code ». - O’NEIL, dans RICHARD, 2018 / « Une simple séquence de commandes à effectuer afin d’obtenir un résultat déterminé ». - RICHARD, Revue du Crieur, 2018/3
Ces deux phrases résument ce qu’est une intelligence artificielle, une coquille vide dénuée d’une conscience et d’une opinion qui lui est propre. Toutefois, si nous nous basons sur la citation du philosophe René DESCARTES, « je pense donc je suis » [ou « Cogito, ergo sum »] (DESCARTES, Discours de la méthode, 1637), une intelligence artificielle pense (certes pas à des questions existentielles), réfléchi à un moment T, en examinant le problème rencontrer, et à trouver la meilleure solution pour résoudre ce problème. Prenons l’exemple du programme d’intelligence artificielle, AlphaGoZero dont la finalité de ce programme est de jouer au jeu de go. En plus d’avoir battu le meilleur joueur de jeu de go, le programme c’est auto formée pour apprendre les règles du jeu (NEVEU, AlphaGo et AlphaGoZero, 2018).
En partant de la citation de DESCARTES (DESCARTES), cette dernière contredit les définitions d’O’NEIL (O’NEIL, dans RICHARD, 2018) et de RICHARD (RICHARD, 2018) dans le sens où, même si c’est une intelligence artificielle qui est composée d’algorithmes sans opinion, elle doit réfléchir pour analyser et résoudre des problèmes. Nous pouvons en déduire qu’une intelligence artificielle peut être placée à un niveau d’existence quasi similaire de l’être humain.
Ce paradoxe entre la citation DESCARTES et les définitions de Cathy O’NEIL et de Claire RICHARD nous amène à nous poser cette question :
Est-il possible d’appliquer une éthique, qui est une notion humaine, à un algorithme ?
Identique à l’être vivant ?
Les différences entre les êtres vivants et l’intelligence artificielle s’amenuisent avec les années ainsi que les avancées technologiques que ce soit dans le domaine matériel ou bien sur l’évolution de la complexité des algorithmes. Si la morphologie diffère selon les « espèces », nous pouvons dire que l’algorithme, l’équivalent à l’acide désoxyribonucléique, peut, sous certaines conditions, se reproduire « en imitant » la reproduction par division cellulaire comme chez les espèces unicellulaires. Nous pouvons constater une notion d’évolution (face à une nouvelle situation), en reprenant l’exemple d’AlphaGoZero (NEVEU, 2018). En ce qui concerne le fait qu’elle se nourrit, il nous est possible de comparer ce besoin élémentaire en le comparant avec le fait qu’une intelligence artificielle se nourrit de données pour se développer. En ce qui concerne le domaine de la création artistique, par exemple la peinture, l’intelligence artificielle commence à s’initier dans ce domaine (France Info, Art et intelligence artificielle font bon ménage : deux nouvelles toiles aux enchères, 2019).
Parmi ceux qui définissent un être vivant, il y a des caractéristiques pour lesquels les êtres vivants auront un avantage sur l’intelligence artificielle, pour l’instant. Ces caractéristiques sont la conscience de soi, l’âme et les émotions.
« Plus nous fabriquons des machines intelligentes, plus le vocabulaire philosophique dont nous disposons pour nous définir en tant qu’être humain tant à se restreindre. La liste des termes qui peuvent nous servirent à décrire notre humanité n’est pas si longue que ça : culture, histoire, société peut être politique, civilisation, subjectivité.
De ces termes se dégagent deux idées : à savoir que l’Homme est plus qu’un simple animal et plus qu’une simple machine. Mais si les machines se mettent vraiment à penser, cela soulève tout un tas de questions philosophiques fondamentales sur ce que nous sommes. »
Tobias RÉES, directeur du département Transformation de l’Homme, au Berggruen Institute dans le documentaire : iHuman, l’intelligence artificielle et nous.
(HESSEN SCHEI, 2019, 56 min 1 s).
Pas d’éthique sans un cerveau organique…
Dans leur livre Cerveau et éthique : Au-delà du bien et du mal, les auteurs Georges-Antoine et Pascal BOREL (2018) reprennent, en partie, les travaux de Antonio R. DAMASIO (DAMASIO, L’erreur de DESCARTES, 1995) sur le fait que l’éthique est un phénomène neurobiologique connu sous le nom commun d’empathie. Ce phénomène neurobiologique fut remarqué par l’anglo-saxon David HUME. Pour HUME, il s’agissait, je cite : « d’une affaire de sensation subjective » (HUME dans BOREL & BOREL, p. 220, 2018).
Dans son livre Le raisonnement, Olivier HOUDE met en évidence les recherches du psychologue Daniel KAHNEMAN sur les intuitions morales et le fait que le cerveau disposerait de deux systèmes de sélection : le système 1 (intuitif) et le système 2 (rationnel) (KAHNEMAN, dans HOUDE, 2018).
… mais aussi dans le domaine de la psychologie
Pour Emmanuel KANT, le philosophe considère que la morale d’un individu est un critère à la fois inné et acquis à notre raison. Aussi, pour KANT sa vision de la philosophie morale n’est pas la conséquence (faire le bien), mais la cause de son action (NETPROF, La spécificité de la morale de Kant, 2013).
Toujours dans le domaine de la psychologie, mais a contrario de l’origine biologique, le neurologue et psychanalyste Sigmund FREUD considère la moralité comme faisant partie du surmoi (conscience morale). C’est l’éducation morale des parents (avec des règles) et de la société qui inculque la moralité.
En ce qui concerne le domaine de l’anthropologie et de la psychologie, des points communs relient les différentes cultures sur la notion de moralité. Dans un article, De l’unité des intuitions morales à la diversité des vertus écrit par Jonathan HAIDT et Craig JOSEPH (HAIDT & JOSEPH, La Morale, 2007).
Les auteurs mettent en évidence qu’il existe au moins, dans les cultures construisant des vertus, quatre modules psychologiques binaires qui sont :
- Souffrance/compassion ;
- Réciprocité/équité ;
- Hiérarchie/respect ;
- Pureté/sainteté.
… sans oublier le domaine du spiritisme
A contrario, certains courants philosophiques invoquent le commandement divin comme Thomas D’AQUIN. Pour d’AQUIN, la conscience morale renvoie au retour par l’esprit, est-ce que je fais est bien ou mal ?
En ce qui concerne Jean-Jacques ROUSSEAU considère la moralité comme inné et comme un « instinct divin » (ROUSSEAU, Émile ou de l’éducation, la profession de foi du vicaire savoyard, 1762).
Vers des modèles différents
En octobre 2019 lors d’un colloque à Grenoble, Thierry MENISSIER, professeur des universités et aussi responsable de la chaire « éthique et IA » de l’université de Grenoble, met en évidence que le modèle du conséquentialisme n’est pas uniquement la seule forme de raisonnement éthique à mettre en place dans les algorithmes de l’intelligence artificielle.
Parmi les autres raisonnements éthiques de la philosophie morale (cités lors du colloque), nous pouvons citer :
- Le déontologisme (KANT et l’impératif catégorique) ;
- L’arétaïsme (centré sur les actions et l’agent moral, et sur le perfectionnement de l’être humain en tant qu’agent moral) ;
- L’axiologie (les valeurs morales) (MENISSIER, 2019).
Toutefois ces raisonnements ont leur limite pour leurs applications dans le domaine de l’intelligence artificielle. Nous devons être conscients que les champs d’application sont vastes, que ce soit du point de vue technique (logiciel, robotique…), mais aussi au niveau des utilisateurs. Ces utilisateurs ne se cantonnent pas seulement à une région ou un pays, mais à la Terre entière et cela implique que chaque pays, régions disposes de ses propres codes éthiques et moraux.
Or quand nous détaillons ces raisonnements de la philosophie morale, nous observons des divergences de cultures. Ainsi pour le raisonnement arétaïsme, il faut se poser la question de savoir si une intelligence artificielle est un agent moral à part entière. Or, un algorithme n’a pas de reconnaissance en tant qu’entité à l’inverse d’un être humain ou d’un animal. Pour Jean-Baptiste JEANGENE VILMER il définit l’agent moral comme, je cite :
« L’agent moral est celui dont le comportement peut être sujet à une évaluation morale (ses actions peuvent être qualifiées de bonnes ou mauvaises). On dira qu’il est “responsable de ses actes”. Le patient moral est celui dont le traitement peut être sujet à une évaluation morale » -JEANGENE VILMER, Introduction. L’éthique animale, 2011
Or pouvons-nous dire qu’une intelligence artificielle est-elle responsable de ses actes ? Qui de l’algorithme, le développeur, le commanditaire ou l’utilisateur final est responsable des actes ?
À l’heure actuelle, en plus de savoir si les actes, commis par l’intelligence artificielle, sont moraux, nous ne savons pas à qui il faut incomber la responsabilité de ses actes.
… mais à défaut d’un cerveau
Comme démontré précédemment, une intelligence artificielle n’ayant pas de cerveau organique, en conséquence n’a ni de conscience et ni d’émotions, elle est lui est donc impossible, au sens philosophique du terme, d’intégrer une notion d’éthique qui lui est propre, à l’image d’un être humain.
Cependant, il subsiste plusieurs alternatives pour pallier ce manque de conscience et d’émotion d’une intelligence artificielle et par enchaînement ce manque d’éthique.
Ceci n’empêche pas qu’une éthique soit mise en place sur l’intelligence artificielle, que cela soit avec des moyens informatiques (au niveau de l’encodage algorithmique) ou que cela soit avec des préceptes philosophiques.
Pour Laurence DEVILLERS, spécialiste de la communication humains-machine, chercheuse au Laboratoire d’Informatique pour la Mécanique et les Sciences de l’Ingénieur (LIMSI) du CNRS et professeure en intelligence artificielle à l’université Paris-Sorbonne ainsi que l’auteure du livre Des robots et des hommes : mythes, fantasmes et réalité (DEVILLERS, Éd. Plon, 2017).
Lors de sa participation dans l’émission « Matières à penser », de Serge TISSERON sur France Culture, DEVILLERS a mentionné un des axes de recherche à l’époque. Selon DEVILLERS, l’axe de recherche est l’éthique par le design (ethic by design). L’éthique par le design consiste à programmer des règles et des limites que l’algorithme ne doit pas dépasser. Seulement, les règles sont implémentées par des êtres humains, qui sont aussi une source facilitant le biais des données et une corruption du point de vue de l’éthique (DEVILLERS, Matières à penser, 31 min 42 s, 2017).
Conclusion
Avec les avancées technologiques, l’intelligence artificielle, tout domaine confondu (logiciel, robotique, cybernétique…) arrivera dans quelques décennies à un niveau de conscience égale l’être humain. Mais à l’heure actuelle l’intelligence artificielle n’est qu’une coquille vide, même si certaines des applications contenant des intelligences artificielles (exemple : AlphaGoZero) savent penser par elles-mêmes, en réfléchissant sur une ou plusieurs stratégies pour gagner.
En conséquence, cette coquille vide n’est pas en mesure de penser de manière pleinement autonome ou d’avoir une conscience qui lui est propre. De plus, il n’est pas responsable de ses actes. En cas de préjudice, l’intelligence artificielle n’est pas moralement jugeable. Une intelligence artificielle n’est pas un agent moral, mais un patient moral du fait qu’il n’est pas responsable de ses actes.
Du point de vue éthique, BOREL & BOREL (BOREL & BOREL, 2018) ainsi que DAMASIO (DAMASIO, 1995), entre autres, ont démontré que le cerveau (la conscience et les sentiments) et l’éthique sont liés.
Toutefois, ce n’est pas parce qu’une intelligence artificielle n’est pas un agent moral que nous (l’humanité) devons laisser à la dérive cette entité. Mais plutôt lui montrer ce que l’humanité a de meilleur à lui offrir et vice versa.
BIBLIOGRAPHIE
-
AGID, Y. et MAGISTRETTI, P. (2010). L’homme glial : une révolution dans les sciences du cerveau. Odile Jacob.
-
ALEXANDRE, L. (2017). La guerre des intelligences. Éd. JC Lattès.
-
ATLAN, H. (2018). Cours de philosophie biologique et cognitiviste, SPINOZA et la biologie actuelle. Éd. Odile Jacob.
-
BAERTSCHI, B. (2009). La neuroéthique : ce que les neurosciences font à nos conceptions morales. Éd. La Découverte.
-
BARREAU, H. (2013). L’épistémologie. Éd. Presses Universitaires de France.
-
BERGEN, V. (2001). L’ontologie de Gilles DELEUZE. Éd. L’Harmattan.
-
BERTHOZ, A. (dir.), & al. (1999). Leçons sur le corps, le cerveau et l’esprit. Éd. Odile Jacob.
-
BÉRANGER, J. (2018). Le code éthique algorithmique : l’éthique au chevet de la révolution numérique. Vol. 2. Éd. ISTE Éditions.
-
BERDIAEFF, N. A. (2019). L’homme et la machine. Éd. RN
-
BLAQUART, J.-L., & LECUIT, J.-B. (2010). Repenser l’humain : la fin des évidences. Éd. L’Harmattan.
-
BUSER, P. (2013). Neurophilosophie de l’esprit : ces neurones qui voudraient expliquer le mental. Éd. Odile Jacob.
-
BONNEFON, J.-F. (2019). La voiture qui en savait trop. L’IA a-t-elle une morale ? Éd. Humensciences Editions.
-
BILLIER, J.-C. (2014). Introduction à l’éthique. Éd. Presses Universitaires de France.
-
CARDOT, F. (2006). L’éthique d’entreprise. Éd. Presses Universitaires de France.
-
CARDON, A. (2018). Au-delà de l’intelligence artificielle. Éd. ISTES Éditions.
-
CANTO-SPERBER, M. (2004). Dictionnaire d’éthique et de philosophie morale. Éd. Presses Universitaires de France.
-
CHANGEUX, J.-P. (1997). Fondements naturels de l’éthique. Éd. Odile Jacob.
-
CHANGEUX, J. — P. et CONNES, A. (1989). Matière à penser. Éd. Odile Jacob.
-
CHANGEUX, J.-P. (1993). Une même éthique pour tous ? Éd. Odile Jacob.
-
CHANGEUX, J.-P. et RICŒUR, P. (1998). La nature et la règle : ce qui nous fait penser. Éd. Odile Jacob.
-
CONCHE, M. (2003). Le fondement de la morale. Éd. Presses Universitaires de France.
-
DAMASIO, A. R. (2010). L’autre moi-même : les nouvelles cartes du cerveau, de la conscience et des émotions. Éd. Odile Jacob.
-
DAMASIO, A. R. (1995). L’erreur de DESCARTES. Éd. Odile Jacob.
-
DAMASIO, A. R. (2017). L’ordre étrange des choses : la vie, les sentiments et la fabrique de la culture. Éd. Odile Jacob.
-
DAMASIO, A. R. (2003). SPINOZA avait raison : joie et tristesse, le cerveau des émotions. Éd. Odile Jacob.
-
DENNETT, D. C. (1993). La conscience expliquée (P. ENGEL, Trad.). Éd. Odile Jacob.
-
DEVILLERS, L. (2017) Des robots et des hommes, mythes, fantasmes et réalité. Éd. Éditions Plon.
-
EDELMAN, G. M., & TONONI, G. (2000). Comment la matière devient conscience ? Éd. Odile Jacob.
-
EVERS, K. (2009). Neuroéthique : quand la matière s’éveille. (D. CHAPUIS-SCHMITZ, Trad.). Éd. Odile Jacob.
-
FELDMAN, J. (2015). L’éthique dans la pratique des sciences humaines : dilemmes… Éd. L’Harmattan.
-
GAUDET, P. (2010). Le problème de l’architectonique dans la philosophie critique de KANT. Éd. L’Harmattan.
-
GAUDIN, Th., LACROIX, D., MAUREL M.-Chr., & POMEROL, J.-C. (2017). Sciences de la vie, sciences de l’information : colloque de Cérisy. Éd. ISTE Éditions.
-
GAZZANIGA, M. (2013). Le libre arbitre et la science du cerveau, (P. KALDY, Trad.). Éd. Odile Jacob.
-
GÉRARD, A. B. L. (1998). Le cadre d’une nouvelle éthique. Éthique et modernité — 1. Éd. ERES.
-
GÉRARD, A. B. L. (1998). La bataille des éthiques. Éthique et modernité — 3. Éd. ERES.
-
HOTTOIS, G. (2004). Philosophies des sciences, philosophies des techniques. Éd. Odile Jacob.
-
JEANNEROD, M. (2011). La fabrique des idées. Éd. Odile Jacob.
-
KAHN, A., & GODIN Chr. (2009). L’homme, le bien, le mal. Éd. HACHETTE.
-
KREMER-MARIETTI, A. (2003). L’éthique en tant que méta-éthique. Éd. L’Harmattan.
-
LAPLATINE, Fr. (2012). Quand le moi devient autre : connaître, échanger, transformer. Éd. CNRS Éditions.
-
LAZZERI, Chr. (2016). SPINOZA : puissance et impuissance de la raison. Éd. Presses Universitaires de France.
-
LECOURT, D. (2009). L’âge de la peur : éthique, science et société. Éd. Bayard.
-
LECOURT, D. (1999). Contre la peur : de la science à l’éthique, une aventure infinie. Éd. Presses Universitaires de France.
-
LECOURT, D. (2001). La philosophie des sciences. Éd. Presses Universitaires de France.
-
LIN, P., ABNEY, K. & BEKEY, G.A. (2012). "Robot ethics: the ethical and social implications of robotics". Éd. MIT Press.
-
LLEDO, P.-M. (2017). Le cerveau, la machine et l’humain. Éd. Odile Jacob.
-
LOEWER, B. (2019). 3 minutes pour comprendre les 50 plus grandes théories philosophiques. (M.-N. ANTOLLIN, Trad.). Éd. Le Courrier du Livre. (Ouvrage initialement publié en 2009).
-
MADRASSE, D. (2018). Les rouages de la conscience : plongée dans les mécanismes et les illusions de la réalité. Éd. Éditions JATB.
-
MAGNIN, Th., GREGOIRE-DELORY, V., & École Supérieure d’Éthique des Sciences. (2012). Quelques grands débats en éthique aujourd’hui. Éd. L’Harmattan.
-
MARZANO, M. (2018). L’éthique appliquée. Éd. Presses Universitaires de France.
-
MARTIN, J., & VUILLEROD, J.-B. (2020). L’individu chez HEGEL. Éd. ENS Éditions.
-
MONERA, D. (2019). L’intelligence artificielle et le management. Éd. Fabert.
-
NACCACHE, L., & NACCACHE, V. (2018). Parlez-vous cerveau ? Éd. Odile Jacob.
-
NJOH-MOUELLE, E. (2018). Quelle éthique pour le transhumanisme ? : Des « hommes augmentés » et des « post humains », demain en Afrique ? Éd. L’Harmattan Cameroun.
-
NOZICK, R. (1974). Anarchy, state and utopia. Éd. Basic Books. fr. Anarchie, état et utopie (AFTALION, Fl. Trad.). Éd. Presses Universitaires de France. (Ouvrage initialement publié en 1988).
-
NSONSISSA, A. (2018). Épistémologie et éthique. Éd. L’Harmattan.
-
NUROK, V. (2011). Sommes-nous naturellement moraux ? Éd. Presses Universitaires de France.
-
PAVIE, X. (2018). L’innovation à l’épreuve de la philosophie. Éd. Presses Universitaires de France.
-
QUENUM, A. L. (2019). La communication entre trois feux, technologie, empathie et éthique. Éd. L’Harmattan.
-
ROSENBERG, P. (2019). Repères pratiques : la philosophie. Éd. Nathan.
-
RUSS, J. (1994). La pensée éthique contemporaine. Éd. Presses Universitaires de France.
-
SCHIFFER, D. S. (2007). La philosophie d’Emmanuel LEVINAS. Éd. Presses Universitaires de France.
-
SEARLE, J. R. (1999). Le mystère de la conscience. Éd. Odile Jacob
-
SIMONDON, G. (2008). Du mode d’existence des objets techniques. Éd. Aubier.
-
SIMONDON, G. (2016). Sur la philosophie (1950 – 1980). Éd. Presses Universitaires de France.
-
SMADJA, R. (2014). Éthique et connaissance. Éd. L’Harmattan.
-
TREMBLAY, R. (2009). Le code pour une éthique globale : vers une civilisation humaniste. Éd. Liber Québec.
-
URWIN, R. (2020). Intelligence artificielle : à la recherche de la machine pensante. (L. VALENTIN, Trad.). Éd. Éditions de Grenelle.
-
VALLANCIEN, G. (2017). Homo artificialis : plaidoyer pour un humanisme numérique. Éd. Michalon Éditeur.
-
VARELA, F. J. (2004). Quel savoir pour l’éthique ? : action, sagesse et cognition. Éd. La Découverte.
-
De VULPIAN, A. et DUPOUX-COUTURIER, I. (2019). Homo sapiens à l’heure de l’intelligence artificielle. Éd. Éditions Eyrolles.
-
WUNENBURGER, J.-J. (1993). Questions d’éthique. Éd. Presses Universitaires de France.