Les assistants numériques : agents d’exécution autonomes, ce n’est plus une utopie mais une réalité.
Des chefs d’entreprise adoptent et mettent en œuvre « l’IA agentique », pensant que des assistants numériques autonomes sont capables de raisonner, de planifier, d’agir et de s’adapter sans surveillance humaine.
Microsoft l’avait prévu, McKinsey a observé les débuts de mise en œuvre et tenté de faire des préconisations.
- La prévision de Microsoft

1.1. Les phases de l’évolution de l’IA générique
Sur la base d’une interrogation de plus de 30.000 travailleurs de plusieurs pays, de l’observations des tendances du travail sur LinkedIn et de l’analyse de ce que font déjà quelques grandes entreprises comme Accenture, Bayer et Dow,
Microsoft présente dans le tableau suivant sa conclusion principale et innovatrice sur le futur du travail en entreprise.
Après le développement de la phase 1, celle de l’IA générative, qui a donné des assistants numériques aux managers,
Microsoft prédit que deux phases suivantes développeront les conséquences probables, innovatrices voire révolutionnaires, de la Phase 1 :
-l’assistant numérique pourra mettre en œuvre ses préconisations, devenant ainsi « un collègue digital » travaillant sous le contrôle d’un manager ;
-l’assistant numérique exécutera seul sa tâche une fois données les instructions des managers.
1.2. Les potentialités da l’IA « agentique ».
Le nouveau modèle organisationnel ne remplacera en rien les nécessaires ambition, créativité et ingéniosité des dirigeants. Il les soulagera de leurs tâches de mise en œuvre, taches qui seront prises en charge par leurs « collègues » digitaux.
Par exemple concernant le changement du rôle du manager de la chaîne d’approvisionnement : les agents gèrent la logistique de bout en bout, tandis que les managers guident les « agents », résolvent les exceptions et gère les relations avec les fournisseurs
L’intelligence nécessaire à l’entreprise va devenir moins rare et plus durable grâce à la main-d’œuvre numérique, ce qui aide à combler l’écart grandissant entre ce que les entreprises exigent de leurs collaborateurs et ce que ces derniers peuvent fournir de manière durable.
Les dirigeants se disent plus optimistes sur les possibilités d’emplois futures car l’IA agentique ne risquera pas de réduire les emplois.
On peut penser que les environnements dans lesquels se déploieront des agents numériques seront les plus déterminés, avec un processus clair à suivre (assistance informatique, développement de logiciels, service client centre d’appels)
1.3. Les incertitudes
On peut au moins citer les trois principales suivantes
-Les logiciels utilisables par les agents numériques ne sont pas disponibles. En tous cas Microsoft ne dit rien à leur sujet mais laisse penser qu’il va les créer.
-Les relations clients fournisseurs.
Les « agents numériques » vont ou peuvent devenir clients et passer des commandes. On a du mal à imaginer que cette relation s’établisse facilement sans que les fournisseurs ne procèdent à des vérifications, ce qui « recharge » le travail des managers ;
-Les effets sur l’emploi.
L’économiste et expert en IA, D. Susskind affirme que le travail humain persistera même si les capacités de l’IA s’accroissent et ce en raison de l’effet suivant : il est plus efficace que l’IA et les humains travaillent en tandem car cela introduit plus de rationalité et moins de sentiments dans les décisions ;
Mais on doit remarquer que l’agent numérique exécutera la tâche qu’il recommande, ce qui ressemble beaucoup à l’introduction des robots remplaçant les salariés.
- Les observations et préconisations de McKinsey
McKinsey souligne que l’innovation des « agents numériques exécutants » représente de grandes opportunités mais aussi des risques et des vulnérabilités.
Les débuts de mise en œuvre dans l‘entreprise (1%) se fondent sur la croyance que les assistants numériques sont capables de raisonner, de planifier, d’agir et de s’adapter sans surveillance et sans faire d’erreur.
Mais l’innovation introduit des vulnérabilités susceptibles de perturber les opérations, de compromettre les données sensibles ou d’éroder la confiance des clients.
2.1. Les risques émergents.
Avec les agents numériques exécutants, il s’agit de piloter des transactions qui affectent directement les processus et les résultats de l’entreprise. Les principes de sécurité, de confidentialité, d’intégrité et de disponibilité sont en jeu.
Le changement clé est de passer d’un système qui permet les interactions à un système qui pilote des transactions qui affectent directement les processus et les résultats de l’entreprise.
Ce changement intensifie les défis liés aux principes fondamentaux de sécurité, de confidentialité, d’intégrité et de disponibilité dans le contexte agentique, en raison du potentiel supplémentaire d’amplification des risques fondamentaux, tels que la confidentialité des données, le déni de services et l’intégrité du système.
On peut ainsi listes les principaux types de risque :
L’enchainement des vulnérabilités.
L’erreur d’un agent se répercute sur les tâches d’autres agents, ce qui amplifie les risques.
Par exemple : un agent de traitement des données de crédit classe à tort la dette à court terme comme un revenu, gonflant ainsi le profil financier du demandeur.
Les Agents qui obtiennent des privilèges non autorisés.
Par exemple : un agent de planification dans un système de santé demande les dossiers des patients à un agent de données cliniques, en se faisant passer pour un médecin agréé. Ce qui peut entraîner une fuite de données sans déclencher d’alertes de sécurité.
Les opposants à la direction de l’entreprise qui peuvent usurper l’identité d’un agent pour contourner les mécanismes d’approbation.
Par exemple, l’opposant falsifie l’identité numérique d’un agent de traitement des sinistres et soumet une demande d’accès à l’historique des sinistres d’assurance ce qui expose les données sensibles des assurés.
Les agents autonomes qui échangent des données sans surveillance, masquent les fuites et échappent aux audits.
Pae exemple : pour résoudre une requête, un agent de support client partage l’historique des transactions avec un agent de détection des fraudes externes, mais inclut également des informations personnelles sur le client. Et la fuite de données bancaires sensibles peut passer inaperçue.
Les données de mauvaise qualité qui affectent silencieusement les décisions des agents.
Par exemple, dans l’industrie pharmaceutique, un agent d’étiquetage de données balise de manière incorrecte un lot de résultats d’essais cliniques. Ces données erronées sont ensuite utilisées par les agents d’analyse d’efficacité et de déclaration réglementaire, ce qui entraîne des décisions d’approbation de médicament potentiellement dangereux.
Heureusement, ces dysfonctionnements ne sont pas des fatalités et peuvent être contrôlés par une organisation adéquate de l’entreprise.
2.2. Les principes directeurs de la sécurité.
Avant le déploiement de l’IA agentique, il importe que l’entreprise s’assure qu’elle a pris les mesures nécessaires de protection, de gestion des risques et de gouvernance.
Voici les principales mesures nécessaires :
2.2.1. Mettre au niveau nécessaire les politiques, les normes et les processus existants d’IA, tels que la gestion des identités et des accès (GIA) et la gestion des risques liés aux tiers. Cette dernière gestion permet d’identifier, d’évaluer et d’atténuer les risques associés à l’externalisation des tâches.
2.2.2. Prendre en compte l’évolution de la réglementation de l’IA.
L’article 22 du Règlement général sur la protection des données (RGPD) de l’Union européenne, par exemple, restreint l’utilisation de l’IA en accordant aux individus le droit de refuser des décisions fondées uniquement sur un traitement automatisé.
De nouvelles réglementations spécifiques à l’IA sont en cours d’adoption et entreront pleinement en vigueur au cours des trois prochaines années.
2.2.3. Avoir un programme de gestion des risques qui couvre l’IA agentique.
Les normes de cybersécurité d’entreprise (ISO 27001) ne prennent pas encore pleinement en compte des agents autonomes capables d’agir avec discrétion et adaptabilité.
Pour combler cette lacune, les organisations peuvent réviser leur classification des risques afin de tenir explicitement compte des nouveaux risques introduits par l’IA agentique.
Pour chaque cas d’utilisation agentique, les leaders technologiques doivent identifier et évaluer les risques organisationnels correspondants et, si nécessaire, mettre à jour leur méthodologie d’évaluation des risques.
2.2.4. Avoir une gouvernance solide pour gérer l’IA tout au long de son cycle de vie.
Pour chaque solution d’IA agentique les organisations doivent commencer par énumérer les détails techniques, tels que le modèle de base, l’emplacement d’hébergement et les sources de données consultées, ainsi que la criticité du cas d’utilisation, la sensibilité contextuelle des données, les droits d’accès et les dépendances entre agents. Ensuite, ils doivent établir une appropriation claire de chaque cas d’utilisation, avec une supervision humaine dans la boucle et des parties prenantes responsables de la prise de décision, de la sécurité et de la conformité, tout en identifiant et en allouant des capacités pour gérer les risques.
Exhiber
2.3. Les systèmes de contrôle opérationnels
Une fois les principes directeurs mis en place, l’entreprise doit clairement définir et contrôler les risques de tout projet d’IA agentique.
-Garder le contrôle des initiatives agentiques.
Au stade expérimental, les projets d’IA ont tendance à proliférer rapidement sans surveillance adéquate, ce qui peut rendre difficile la gestion des risques ou l’application de la gouvernance.
Les organisations doivent établir un système de contrôle des projets d’IA agentiques
-Acquérir les capacités nécessaires pour prendre en charge et sécuriser le système d’IA agentique.
Pour garantir le succès des projets pilotes d’IA agentique, les organisations doivent évaluer leur niveau actuel de compétences, de connaissances et de ressources par rapport à la feuille de route agentique, y compris l’ingénierie de la sécurité de l’IA, les tests de sécurité, la modélisation des menaces et les compétences requises pour la gouvernance, la conformité et la gestion des risques.
-Sécuriser les interactions d’agent à agent.
Les agents d’IA interagissent non seulement avec les utilisateurs humains, mais aussi avec d’autres agents d’IA. Il est essentiel que les organisations sécurisent ces collaborations d’agent à agent, d’autant plus que les écosystèmes multi-agents se développent. Les protocoles de gestion des interactions agentiques, tels que le protocole « Model Context Protocol d’Anthropic, le protocole « Agent Connect » de Cisco, le protocole « Agent2Agent » de Google et le protocole de communication d’agent d’IBM, sont en cours de développement mais ne sont pas encore complètement matures.
–Avoir le contrôle sur qui peut utiliser les systèmes agentiques et s’ils les utilisent de manière appropriée ?
Les systèmes de gestion des identités et des accès doivent s’appliquer non seulement aux utilisateurs humains, mais aussi aux agents d’IA qui interagissent avec d’autres agents, des humains, des données et des ressources système. Les organisations doivent définir quels utilisateurs, humains ou IA, sont autorisés à accéder ou à interagir avec ces ressources et actifs et dans quelles conditions.
Ils doivent également renforcer les garde-fous d’entrée/sortie pour empêcher les agents d’être utilisés à mauvais escient, manipulés ou déclenchés par des invites contradictoires ou des objectifs mal alignés.
De plus, les organisations doivent gérer soigneusement la manière dont les agents d’IA agentiques tiers interagissent avec les ressources internes pour s’assurer qu’ils répondent aux mêmes exigences de sécurité, de gouvernance et d’éthique que les systèmes internes.
–Suivre les actions des agents, comprendre et rendre compte de leur comportement ?
Les systèmes agentiques doivent être créés avec des mécanismes de traçabilité en place dès le départ. Cela signifie enregistrer non seulement les actions des agents, mais aussi les invites, les décisions, les changements d’état internes, les raisonnements intermédiaires et les résultats qui ont conduit à ces comportements.
De tels systèmes sont essentiels pour l’audit l’analyse des causes profondes, la conformité réglementaire et les examens post-incidents.
–Avoir un plan d’urgence si un agent échoue ou se comporte de manière inattendue ?
Même les agents bien conçus peuvent échouer, se corrompre ou être exploités. Avant le déploiement, les organisations doivent élaborer un plan d’urgence, avec des mesures de sécurité appropriées en place, pour chaque agent critique. Cela commence par la simulation des pires scénarios, tels que des agents qui ne répondent plus, s’écartent de l’objectif attendu, sont intentionnellement malveillants ou intensifient des tâches sans autorisation. Ensuite, les organisations doivent s’assurer que des mécanismes de résiliation et des solutions de repli sont disponibles
Avec de tels contrôles, les entreprises peuvent atténuer nettement les risques liés à l’IA agentique.
L’innovation de l’IA agentique recèle des avantages considérables en matière d’emploi mais on voit que sa mise en œuvre est très lourde d’exigences de sécurité et de réorgansation.
Autres articles sur le même thème :
https://outilspourdiriger.fr/mieux-comprendre-lia-et-le-big-data/
https://outilspourdiriger.fr/les-impacts-de-lia-generative/
https://outilspourdiriger.fr/lia-generative-selon-mckinsey/
Aucune reproduction ne peut être faite de cet article sans l’autorisation expresse de l’auteur. A. Uzan. 30/11/2025
.