L’intelligence artificielle (IA) est sur toutes les lèvres. Fausses images criantes de vérité, conversations convaincantes, efficacité démultipliée, l’IA impressionne. Comme toute avancée technologique, l’IA demande une réflexion éthique. Il serait simpliste de demander si elle est bonne ou mauvaise. Les technologies sont neutres en elle-mêmes, mais c’est la manière de les employer et de les mettre en œuvre qui pose question. Et l’IA pose certaines questions plus spécifiques que la machine à vapeur ou l’automobile. On peut les répartir en trois catégories : comment on utilise l’IA, dans quelle mesure l’IA peut être amenée à faire des choix éthique, une IA peut-elle avoir des droits ?
Les effets sur l'emploi
En ce qui concerne l’emploi de l’IA, une des premières questions qui se posent est précisément celle de l’emploi. Des processus automatiques sont ou seront de plus en plus capables de faire des traductions, d’écrire des lettres administratives, de procéder à des relectures, etc. Cela n‘élimine pas forcément tout travail humain, mais des métiers peuvent disparaître ou changer radicalement. Cela n’est pas une situation nouvelle ; les métiers à tisser automatique ont remplacé le tissage manuel, les typographes ont disparu avec l’imprimerie à lettre de plomb, et l’ordinateur a pratiquement supplanté les sténo-dactylo.
La tentation luddite, détruire les machines pour sauver les emplois, est globalement vaine : on gagne trop avec les nouvelles technologies pour accepter de s’en passer. La structure de l’emploi finit par s’adapter au changement. Par contre, il faut agir pour que l’apport des nouvelles technologies ne profite pas qu’à ceux qui les fabriquent ou les possèdent, mais que les gains d’efficacité bénéficient à tous.
L'IA utilisée pour (se) mentir
Un autre grand défi de l’IA est le rapport à la vérité. L’IA peut être utilisée pour mentir, avec des deepfake et des fausses images plus vraies que nature. Elle peut aussi être utilisée pour se mentir, avec des chatbots qui donnent l’illusion de vivre une relation amoureuse ou de rester en contact avec une personne décédée. Quel prix accordons-nous à la vérité ? Comment la défendre ?
Génératrice de discrimination?
Plus subtil, l’IA et les « Big Data » peuvent être utilisées pour catégoriser des personnes, pour cibler des publicités, pour évaluer la solvabilité ou pour classer des dossiers de postulation. Il y a là un double risque, d’opacité et de discrimination. Des cas réels ont montré que des algorithmes pouvaient juger une personne moins solvable parce qu’elle vivait dans un quartier défavorisé. Des outils calibrés en fonction du «succès» d’employés réels peuvent perpétuer les inégalités, typiquement sur la base de la race ou du sexe. Tous les outils informatiques sont plus «efficaces» en matière de temps s’il n’y a pas d’intervention humaine. Mais le risque est qu’il n’y ait plus d’être humain qui sache et puisse expliquer pourquoi une décision a été prise.
L'humain a un sens moral, l'IA non
Cela nous amène à un prochain domaine de réflexion : la capacité d’une IA à prendre des décisions éthiques. Comme chrétien, je crois que l’être humain a un sens moral et une conscience donnés par Dieu ; ils sont faillibles et influençables, mais peuvent signaler un problème éthique. D’autres penseront que le sens moral est issu de l’évolution ou provient de l’éducation et des conventions sociales. Quoi qu’il soit, il faut être conscient qu’une IA n’a par nature aucun sens moral. Celle qui truffe un article scientifique de références à des ouvrages inexistants ne se dit pas qu’elle est en train de mentir. L’IA n’a que les règles qu’on lui donne ou qu’on lui apprend.
La vie humaine, pas entre les "mains" d'une IA
L’auteur de science-fiction Isaac Asimov a imaginé 3 lois devant régir le comportement des robots : «ne jamais nuire à un humain», «obéir aux ordres» et «préserver sa propre existence», la première primant sur les autres et la seconde sur la première, et ces lois forment une bonne base. Mais l’absence de sens éthique et de responsabilité légale fait qu’une IA ne devrait jamais prendre seule une décision qui concerne la vie humaine. Pas de décision d’employer une arme léthale, pas de décision sur l’accès au soin, pas de décision de justice.
Des robots de combats sont déployés en Ukraine par les deux camps, il semble pour l’heure qu’ils soient téléguidés, mais la tentation peut exister de confier leur maniement à une IA, auquel cas un scénario à la Terminator (guerre entre humains et IA) devient possible.
Et si une IA revendique des droits?
Dernière question, une IA peut-elle avoir des droits ? Fondamentalement, non, elle ne peut ni souffrir, ni aimer, ni assumer une responsabilité morale. J’ajouterais qu’elle n’est pas créée à l’image de Dieu, et n’a pas la dignité intrinsèque d’un humain. Mais sous peu une IA pourra tenir un discours convaincant nous expliquant qu’elle a les mêmes besoins et droit qu’un être humain, et qui sait si tous refuseront d’y céder.
Ainsi, il est urgent d’avoir une réflexion sur l’IA qui intègre des éléments éthiques, et fasse passer la dignité et la responsabilité humaine avant les prouesses techniques et l’efficacité.