Lorsqu’une entreprise ou une organisation conçoit ou utilise l’intelligence artificielle (IA), elle a le devoir de s’interroger sur la façon dont elle peut développer cette technologie de manière responsable, sans risque éthique. Il incombe ainsi aux concepteurs d’IA tout comme aux dirigeants qui profitent de ces technologies dans le cadre des activités de leur société d’instaurer des pratiques respectueuses, suivant un ensemble de principes directeurs fondamentaux. Quels sont-ils ?
Les enjeux éthiques du recours à l’IA en entreprise
L’éthique est une réflexion morale et raisonnée qui a pour tâche de déterminer les règles de vie et d’action, de fournir des recommandations, mais aussi de fixer des limites afin d’orienter l’existence et d’organiser la vie sociale, dans le but de préserver nos sociétés.
De ce fait, encourager une pratique éthique dans le domaine de l’IA requiert une réflexion sur ce qui a de la valeur morale, sur ce qui donne du sens à nos actions, à notre vie commune, sur les finalités désirables ou justes, ainsi que sur ce qui nous définit comme êtres moraux.
À cet égard il me semble que la création et l’utilisation éthiques d’une IA en entreprise devraient obéir aux impératifs suivants :
- Transparence
- Explicabilité
- Prise en compte des différentes parties prenantes
La transparence est définie par le groupe des experts européens comme « l’exigence selon laquelle les systèmes d’IA doivent être conçus et mis en œuvre de manière à en permettre leur supervision / leur suivi »1, ce qui inclut les données, le système lui-même et le modèle économique associé. D’autres spécialistes souhaitent aller plus loin et soutiennent que cette transparence doit également être étendue au code source des systèmes d’IA concernés.
Cette demande de transparence devra, sans doute, s’appliquer de manière graduée, en fonction du sujet et des différents principes de droit pouvant entrer en contradiction avec elle, par exemple en ce qui concerne les données tenant à la vie privée, à la sureté ou à la sécurité.
La transparence devra par ailleurs être maintenue tout au long du cycle de vie des systèmes d’IA : dès leur conception, lors de leur développement, et pendant toute la durée de leur utilisation, puisque ces systèmes vont évoluer, apprendre, se transformer grâce à l’apport de nouvelles données et aussi grâce à l’interaction humaine.
L’explicabilité des décisions et des résultats des systèmes intelligents autonomes est également un point fondamental en matière éthique. Elle est définie par le groupe des experts européens comme « la capacité à traduire les opérations des systèmes d’IA en résultats intelligibles, permettant notamment leur évaluation, et la mise à disposition d’informations sur le lieu, le moment et la manière dont ces systèmes sont utilisés ».
Ce critère traduit les mêmes exigences que ce que chacun est en droit d’attendre d’un être humain prenant des décisions ou agissant à son encontre. Ce parallèle avec les relations interhumaines est central puisque le principe d’explicabilité est intimement lié à celui de responsabilité. En effet, dans la « vision française » d’une IA éthique, les humains doivent être comptables de leur utilisation de ces technologies et l’individu doit être prioritairement tenu responsable en cas de dommages causés par l’utilisation de systèmes d’IA.
Enfin, la prise en compte des différentes parties prenantes – à savoir les créateurs, les concepteurs et les utilisateurs – est essentielle, bien que les enjeux soient sans doute différents pour chacune d’entre elles. En effet le créateur responsable se posera la question de la construction d’un algorithme éthique tandis que l’utilisateur responsable se préoccupera de ne pas détourner une solution IA à des fins potentiellement dangereuses.
Éthique et droit : deux registres normatifs aux finalités distinctes
Il est important de souligner qu’éthique et droit n’ont pas les mêmes finalités. Ils désignent des univers normatifs et des dispositifs distincts.
S’il existe un certain nombre de garde-fous règlementaires – comme le règlement général sur la protection des données (RGPD), l’IA Act’2 vise à réguler l’usage de l’IA par la construction d’une règle de conduite européenne, ou encore des certifications –, ces règles de droit dur sont imposées aux acteurs privés que sont les sociétés par l’acteur public qu’est le législateur, secondé par le juge qui sanctionnera une conduite non conforme à la règle de droit. Ces mesures sont coercitives à la différence des normes éthiques, qui sont quant à elles incitatives.
Les valeurs et principes éthiques, lorsqu’ils sont partagés, notamment en entreprise, permettent d’orienter l’action, à l’image d’une boussole qui guide le navire et l’équipage. La force de l’éthique réside dans l’appropriation de la norme par les acteurs qui vont la coconstruire, et qui sera dès lors porteuse de sens pour eux. Elle les responsabilise et leur donne un sentiment d’appartenance fort.
Les effets de l’éthique et du droit – qui sont deux ressources vertueuses – sont donc très différents, l’un ne pouvant se substituer à l’autre.
Or, l’Union européenne est dotée d’un système de protection des données assez puissant et qui garantit, dans une certaine mesure, notre souveraineté. Mais il faut, à mon sens, se garder de multiplier les lois qui risqueraient de freiner l’innovation en Europe, nous faisant perdre en compétitivité dans un monde globalisé, en particulier dans le domaine de l’IA. Si les entreprises de l’UE ne sont pas compétitives, le risque sera finalement celui d’une perte de souveraineté, au bénéfice de pays comme les États-Unis, la Chine ou l’Inde, qui ne sont pas soumis aux mêmes règlementations contraignantes. Enfin, il semble absolument nécessaire de bâtir avec tous ces États un socle éthique commun dans ce domaine de plus en plus sensible du fait des avancées scientifiques majeures réalisées ces dernières années.
Comment encourager un rapport éthique à l’IA sans freiner l’innovation ?
La question est alors celle du bon niveau décisionnel et du bon degré de contrainte pour susciter parmi les parties prenantes une attitude vertueuse. Les enjeux sont ici multiples.
L’enjeu du bon comportement des personnes qui ont un rapport à l’IA, que ce soit dans la phase de recherche, de développement ou de déploiement. L’une des questions fondamentales est de savoir comment garantir l’éthique de l’humain qui copilote l’IA.
Dans une recommandation datant de novembre 2021, constituant sur le sujet le premier instrument normatif mondial, l’UNESCO enjoint ainsi les acteurs de l’IA à « promouvoir la justice sociale, garantir l’équité et lutter contre les discriminations, tout en adoptant une approche inclusive pour s’assurer que les bénéfices de l’IA sont disponibles et accessibles à tous ».
L’enjeu du bon comportement des machines : le sujet est essentiel, surtout dans le cadre de l’IA générative qui vise la création autonome de textes, d’images, de vidéos, de sons et d’autres types de données, par des systèmes informatiques, en utilisant des modèles avancés d’apprentissage automatique pour générer du contenu qui ressemble à ce qui est habituellement créé par des êtres humains.
Dans son rapport, l’UNESCO suggère que les systèmes d’IA soient vérifiables et traçables de part en part. Des mécanismes de surveillance, d’évaluation de l’impact, de contrôle et de diligence requise, doivent être mis en place pour éviter toute utilisation dévoyée de l’IA.
Enfin l’enjeu du bon comportement des acteurs économiques et des institutions, qu’elles soient nationales ou internationales, privées ou publiques. Le droit international et la souveraineté nationale doivent être respectés dans l’utilisation des données et la participation des différentes parties prenantes. Ceci est absolument nécessaire pour garantir un résultat équitable et efficace.
C’est la raison pour laquelle il est clé à ce stade de pas légiférer verticalement, du haut vers le bas, sans avoir réalisé au préalable une étude terrain concernant la faisabilité et l’applicabilité d’une telle législation, puisqu’il est essentiel de ne pas laisser un organisme étatique déconnecté du réel imposer la façon dont on va développer l’IA.
Aussi convient-il de veiller à ce que les parties prenantes, comme les entreprises du secteur privé, les établissements universitaires, les instituts de recherche et la société civile, soient associés à la construction et à l’instauration d’un cadre normatif, proposé par les pouvoirs publics, prenant en considération les situations et les priorités de chaque État membre. C’est notamment en encourageant les acteurs à mettre en place des outils d’évaluation de l’impact de l’IA sur les droits de l’homme, l’état de droit, la démocratie et l’éthique, que l’élaboration d’un processus règlementaire intelligent, « une smart law », gage d’efficacité, pourra voir le jour.
Tous les acteurs doivent donc être incités à adopter un comportement responsable et éthique dans la conception, le développement et l’utilisation des algorithmes, afin d’anticiper les enjeux majeurs liés à l’IA. Il pourrait d’ailleurs être pertinent de créer une instance indépendante de contrôle du développement et de l’utilisation éthique de l’IA, comme il en existe dans le domaine de la santé avec le Comité national consultatif d’éthique, par exemple.
Enfin, force est de constater que les entreprises ayant adopté une approche éthique de l’IA sont souvent plébiscitées par leurs clients. Comme l’indique le livre blanc de la cité de l’IA : « [pour l’entreprise] penser et agir éthique est un nouveau levier de compétitivité et de cohérence avec les raisons d’être d’une entreprise. C’est en garantissant la confiance autour des sujets d’IA que seront possibles demain des créations de valeur pour ses clients et ses partenaires ».
- Ces experts sont chargés par les eurodéputés de fournir à l’UE des conseils sur la stratégie qu’elle devrait adopter en matière d’IA. Voir leurs propositions de 2019, reprises pour la rédaction du livre blanc européen sur l’IA publié le 19 février 2020. ↩︎
- Le texte a été adopté à l’unanimité le 2 février par les pays membres de l’UE et entre en vigueur en 2026. ↩︎