L’intelligence artificielle et la robotique ouvrent d’importantes perspectives dans presque tous les domaines. « Serons-nous un jour remplacés par des machines ? » est une question souvent posée. Il est nécessaire de déconstruire les croyances et chercher à comprendre l’intérêt de ces technologies pour la société. Un robot social et affectif est une machine artificiellement intelligente grâce à des modèles informatiques conçus par des humains : pour peu qu’on l’ait programmée pour dialoguer, détecter et reconnaître des indices émotionnels et conversationnels et pour s’adapter à l’humain, voire même simuler de l’humour, cette machine peut sembler chaleureuse. Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d’une réelle conscience de soi, de « vrais sentiments », et « une compréhension de ses propres raisonnements ». Nous en sommes loin actuellement, les systèmes sont dits d’intelligence artificielle faible ; ce sont des systèmes très spécifiques : des intelligences artificielles sont utilisées pour détecter des cancers, pour lire les émotions sur un visage, pour imiter des artistes, peintres ou musiciens.
Le choix humain sera toujours primordial
En 2016, la victoire d’AlphaGo (programme informatique d’intelligence artificielle conçu par Google DeepMind) sur l’un des meilleurs joueurs de go, Lee Sedol, a relancé les questionnements sur les promesses et les risques de l’utilisation de machines intelligentes. Pourtant cet exploit, qui suit de vingt ans la victoire de Deep Blue face à Garry Kasparov, ne doit pas nous faire fantasmer sur ce dont seront capables les robots demain dans notre vie quotidienne. Lorsqu’AlphaGo bat le joueur de go, la machine ne comprend pas ce qu’elle fait. Le robot peut réussir une tâche difficile, il n’en n’éprouvera aucune fierté, à moins qu’un concepteur l’ait programmé afin de simuler un état affectif. Le robot est un objet complexe, qui peut simuler des capacités de cognition mais sans conscience phénoménale, ni ressentis, ni ce désir ou « appétit de vivre » que Spinoza désigne du nom de conatus1 (effort pour persévérer dans l’être) qui se rapporte à toute chose, aussi bien au mental qu’au corps.
Malgré des performances impressionnantes sur des tâches spécifiques, il est nécessaire de garder à l’esprit que les systèmes d’intelligence artificielle n’arrivent pas à apprendre en dehors des données du « réel » ; ils ne connaissent que les données passées pour prédire l’avenir. Or, beaucoup de découvertes de nos plus grands savants sont dues à la capacité d’être contre-intuitif, c’est-à-dire de ne pas tenir compte du savoir présent ! Galilée, au XVIè siècle eut l’intuition que le poids d’un objet n’avait pas d’influence sur sa vitesse de chute. On ne peut pas inférer cette loi de la physique « Tous les corps tombent à la même vitesse dans le vide » à partir d’observations du monde réel. La sérendipité, le « don de faire des trouvailles » par hasard n’est également pas le fort de la machine.
Devant une question sans réponse connue, l’humain est incroyablement plus fort que la machine pour imaginer des solutions. L’intégration d’une intentionnalité et une créativité de type humain semblent très peu probables pour la machine.
Les machines pourront sûrement créer en imitant ou grâce au hasard, mais ne pourront pas savoir si ce qu’elles ont créé est intéressant, car elles n’ont pas de conscience. Le choix humain sera toujours primordial.
De nombreuses questions éthiques, juridiques et sociales
Tous ces outils dits d’intelligence artificielle « faible » deviennent de formidables alliés dans une interaction complémentaire avec les humains. La robotique sociale et affective veut créer des robots compagnons, censés nous apporter une assistance. Il faut éviter un déficit de confiance mais également une confiance trop aveugle dans les programmes d’intelligence artificielle. Les robots sociaux et affectifs soulèvent de nombreuses questions éthiques, juridiques et sociales. Qui est responsable en cas d’accident : le fabricant, l’acheteur, le thérapeute, l’utilisateur ? Comment réguler leur fonctionnement ? Faut-il intégrer des règles morales dans leur programmation ? Contrôler leur utilisation par des permis ? Pour quelles tâches souhaitons-nous créer ces entités artificielles ? Comment préserver notre intimité, nos données personnelles ?
Un certain nombre de valeurs éthiques sont importantes : la déontologie et responsabilité des concepteurs, l’émancipation des utilisateurs, l’évaluation, la transparence, l’explicabilité, la loyauté, et l’équité des systèmes, enfin l’étude de la co-évolution humain-machine.
Développer une discipline de recherche interdisciplinaire avec des informaticiens, des experts des différents métiers, des psychologues cogniticiens pour étudier les effets de la coévolution avec ces machines de façon longitudinale est urgent. La machine va apprendre à s’adapter à nous, comment allons-nous nous adapter à elle ?
Une évaluation nécessaire
Tout système doit être évalué avant d’être mis dans les mains de son utilisateur. Comment évaluer une intelligence artificielle qui apprend des humains et s’adapte à eux, ou qui apprend seule ? Peut-on prouver qu’elle se cantonnera aux fonctions pour lesquelles elle a été conçue, qu’elle ne dépassera pas les limites fixées ? Les données que la machine exploite pour son apprentissage la dirigent vers certaines actions. Qui supervisera la sélection de ces données ? Ces questions prégnantes ne sont évoquées que depuis peu.
Dans mon ouvrage « Des robots et des hommes : mythes, fantasmes et réalité »2, je propose d’enrichir les lois d’Asimov avec des commandements adaptés aux robots assistants de vie. Les fondements de ces commandements viennent en partie de retour d’expériences d’interactions. Toute la difficulté est de les formuler sous forme algorithmique. Les progrès spectaculaires du numérique permettront un jour d’améliorer le bien-être des personnes, à condition de réfléchir non à ce que nous pouvons en faire, mais à ce que nous voulons en faire. Il est important de commencer à construire les robots sociaux de demain avec des comportements éthiques et sécuritaires. Nous avons besoin de démystifier, de former à l’intelligence artificielle et de remettre au centre de la conception de ces systèmes robotiques, les valeurs de l’humain.
- Éthique III, prop. 9, scolie.
- Devillers, L. « Des robots et des hommes : mythes, fantasmes et réalité », Plon, 2017.