Skip to content.

L’intelligence artificielle ne cesse de s’améliorer, mais elle soulève aussi de nouveaux défis pour les programmes d’éthique et de conformité des entreprises. Alors que vous vous efforcez peut-être encore de gérer les risques de l’IA générative, sa cousine, l’IA agentique, gagne rapidement du terrain.

L’IA agentique, comme son nom l’indique, est un “agent” d’IA capable d’agir de manière autonome pour atteindre des objectifs variés. Elle peut élaborer ses propres stratégies, apprendre de ses expériences et même collaborer avec d’autres agents d’IA pour accomplir des tâches complexes.

Si ces capacités sont prometteuses dans le quotidien (automatisation de tâches personnelles, par exemple), leurs risques deviennent plus évidents dans le monde de l’entreprise :

  • Gestion de la chaîne d’approvisionnement : Un agent d’IA pourrait gérer les stocks et passer des commandes. Cela soulève des questions sur le choix des fournisseurs et les risques associés (financiers, travail forcé, cybersécurité, sanctions)
  • Service client : Un agent d’IA pourrait répondre aux réclamations des clients de manière autonome, au risque de prendre des engagements qui violent la politique de l’entreprise et exposent cette dernière à des obligations légales. ( Cela est arrivé chez Air Canada en 2024.)
  • Ressources humaines : L’utilisation d’agents d’IA pour le recrutement (examen des CV, entretiens préliminaires) pose des questions de transparence, d’équité et de discrimination

En somme, l’IA agentique apporte des gains d’efficacité, mais aussi un large éventail de risques de conformité, opérationnels et éthiques. Votre programme de conformité d’entreprise doit les anticiper dès maintenant.

Quels sont les risques liés à l’IA agentique ?

Bien que l’IA agentique soit une nouvelle catégorie, les mesures fondamentales pour guider l’adoption de l’IA s’appliquent tout autant :

  1. Mettre en place un cadre de gouvernance : Établissez une politique claire pour l’adoption de l’IA, afin d’éviter que les employés ne l’expérimentent sans comprendre les risques juridiques ou éthiques
  2. Procéder à des évaluations des risques : Les systèmes d’IA doivent non seulement se conformer aux nouvelles lois (comme l’EU AI Act), mais aussi aux réglementations existantes en matière de protection des consommateurs, de lutte contre la discrimination, de confidentialité, etc.
  3. Appliquer des contrôles : Mettez en œuvre des procédures pour valider les données, surveiller les résultats des systèmes d’IA et former les employés à leur bonne utilisation

Le défi pour les responsables de la conformité sera d’adapter ces étapes à l’IA agentique, en collaborant avec divers services pour identifier de nouveaux cas d’usage et concevoir des contrôles adaptés.

Principaux défis de cette IA

À quoi cela ressemblera-t-il dans la pratique ? Envisagez les obstacles suivants :

Comment évaluer les tâches qu’un agent IA doit accomplir ? Votre entreprise doit disposer d’une politique ou d’un processus permettant de décider comment et quand elle utilisera l’IA agentique. Allez-vous lui confier des tâches importantes ou critiques, telles que la gestion d’une nouvelle campagne marketing ou la surveillance des stocks ? Cette décision revient-elle aux chefs de service ou aux vice-présidents exécutifs ?

Comment décider quels agents IA utiliser ? Allez-vous uniquement faire confiance aux agents IA développés ou approuvés par votre équipe informatique, ou les employés seront-ils autorisés à utiliser n’importe quel agent IA disponible dans le commerce qu’ils trouveront en ligne ? D’ailleurs, étant donné que les agents IA peuvent eux-mêmes collaborer avec d’autres agents IA, comment allez-vous contrôler les agents utilisés par « votre » agent IA ?

Comment rendre les actions des agents explicables ? Votre agent IA devra trouver un moyen de montrer son processus de réflexion et de prise de décision, en particulier s’il prend une décision discutable qui attire l’attention des autorités réglementaires ou des médias. Allez-vous donc tester l’explicabilité de l’agent avant de le lancer dans le monde réel ? Comment allez-vous surveiller son comportement à mesure qu’il apprend de ses expériences passées et commence à prendre de nouvelles décisions ?

Interactions humain-agent

IIl est utile de considérer les agents d’IA comme des sous-traitants externes. Bien qu’ils ne soient pas des employés, ils agissent au nom de votre organisation et peuvent générer des risques.

Les programmes de conformité s’attaquent généralement aux risques liés aux tiers en commençant par les employés qui les embauchent. De la même manière, il est essentiel d’établir des politiques et des procédures qui encadrent la manière dont vos employés utilisent les agents d’IA.

En fin de compte, il s’agit de mettre en place un ensemble de mesures qui renforcent la responsabilité des employés quant à l’utilisation de l’IA agentique. Cela dépend d’un engagement fort de la direction à adopter l’IA de manière prudente et en toute conformité.

Une fois de plus, nous en revenons à l’importance de l’éthique et de la conscience humaines pour assurer le succès de l’intelligence artificielle. Quelle surprise.

Le débat sur l’IA, ses nombreuses utilisations et ses implications promet de se poursuivre et de s’intensifier à mesure que cette technologie s’impose dans la vie des entreprises et des consommateurs. Pour en savoir plus sur notre couverture de l’intersection entre l’IA et la conformité, cliquez ici.

En savoir plus sur la conformité de l'IA