Singapour dévoile le premier cadre mondial pour la gouvernance de l'IA agentique
En janvier 2026, Singapour a présenté le « Model AI Governance Framework for Agentic AI » lors du Forum économique mondial, se positionnant ainsi à l'avant-garde de la réglementation en matière d'IA. Contrairement aux outils d'IA classiques qui répondent à des instructions, les systèmes d'IA agentique sont capables de raisonner, de planifier et d'exécuter de manière autonome des tâches en plusieurs étapes pour le compte des individus. Bien que ce cadre ne soit pas juridiquement contraignant, il envoie un signal fort aux entreprises quant à la manière dont les régulateurs attendent que ces systèmes autonomes soient utilisés de manière responsable.
Pour les organisations opérant à Singapour ou travaillant avec des clients basés à Singapour, ce cadre ne se limite pas à des recommandations théoriques. Il propose une approche structurée visant à intégrer des pratiques de gouvernance dans le déploiement de l'IA, aidant ainsi les entreprises à gérer à la fois les risques opérationnels et les risques de réputation tout en maximisant le potentiel de l'IA autonome.
L'approche de Singapour s'appuie sur plus de cinq ans d'initiatives en matière de gouvernance de l'IA, notamment le cadre modèle de gouvernance de l'IA de 2019, le programme « AI Verify » et le projet pilote mondial d'assurance de l'IA lancé en 2025. Ce qui distingue ce nouveau cadre, c'est l'accent mis sur les risques liés aux agents agissant de manière autonome, notamment en matière de prise de décision, d'accès aux données et d'interactions avec les systèmes. Cette approche est essentielle pour les entreprises qui réfléchissent à la manière de mettre en œuvre l'IA dans des environnements où les erreurs peuvent avoir des conséquences concrètes.
Pourquoi ce cadre est-il important pour les entreprises ?
Les entreprises ont de plus en plus recours à l'IA agentique pour automatiser des tâches qui, auparavant, étaient considérées comme nécessitant un jugement humain. Cela va des activités administratives, telles que la planification de réunions et la mise à jour des dossiers clients, à des fonctions plus complexes comme la gestion des chaînes d'approvisionnement, le lancement de transactions financières ou la coordination de systèmes multi-agents entre différents services.
Ces systèmes promettent des gains d'efficacité significatifs, mais ils comportent également des risques spécifiques. Contrairement aux outils d'IA générative qui produisent des résultats en réponse à des invites, l'IA agentique peut interagir directement avec des bases de données internes, des API tierces et des plateformes externes. Elle peut exécuter des actions ayant des conséquences tangibles, et les erreurs peuvent se propager rapidement à travers les flux de travail connectés.
Le cadre réglementaire de Singapour tient compte de cette réalité opérationnelle. Il n'est pas conçu pour restreindre l'innovation, mais pour garantir que les organisations mettent en place des mesures de protection suffisantes pour gérer les erreurs potentielles, les actions non autorisées, les résultats biaisés et les violations de données.
Évaluation et limitation des risques
Au cœur de ce cadre se trouve le principe de la gestion proactive des risques. Avant de déployer un système d’IA agentique, les organisations doivent évaluer la pertinence du cas d’utilisation en tenant compte à la fois de l’impact potentiel des erreurs et de la probabilité qu’elles se produisent.
Cette évaluation doit tenir compte de facteurs tels que la sensibilité des données auxquelles le système accède, le degré d'autonomie accordé à l'agent et la réversibilité de ses actions. Par exemple, un agent capable de planifier des réunions au sein d'un service marketing peut présenter un risque minime, tandis qu'un agent autorisé à traiter des paiements ou à modifier les données des clients peut avoir des conséquences bien plus graves.
Une fois les risques identifiés, les organisations sont encouragées à les « circonscrire » grâce à une conception rigoureuse. Cela peut impliquer de limiter l’accès d’un agent aux seuls outils et données indispensables à ses tâches, de restreindre sa capacité à modifier des enregistrements critiques, ou de créer des mécanismes de sécurité intégrée permettant à des superviseurs humains de désactiver le système en cas de comportement inattendu. En intégrant ces contrôles dès la phase de conception, les entreprises peuvent réduire leur exposition aux risques et renforcer la confiance dans le fonctionnement sûr de leurs systèmes d’IA.
Définition de l'espace d'action et de l'autonomie
Deux leviers interdépendants déterminent le comportement concret d'une IA agentique : l'espace d'action, c'est-à-dire ce qu'un agent est autorisé à faire, et son degré d'autonomie.
L'espace d'action est lié aux autorisations accordées au système. Un agent qui ne peut que récupérer des informations présente bien moins de risques qu'un agent capable d'exécuter des transactions, de prendre des décisions ou de modifier des bases de données. De même, l'accès à des systèmes externes et à des API accroît l'exposition aux risques et les conséquences potentielles.
L'autonomie détermine le degré d'indépendance dont dispose l'agent dans la prise de décision. Certains agents fonctionnent selon des instructions strictes et détaillées, nécessitant une validation humaine à chaque étape, tandis que d'autres peuvent définir leurs propres flux de travail et agir à moins qu'un seuil de supervision humaine ne soit atteint. Ces deux leviers sont sous le contrôle de l’entreprise qui déploie le système, et le cadre souligne que la responsabilité finale incombe à l'entreprise.
La responsabilité humaine reste au cœur du dispositif
L'une des caractéristiques déterminantes du cadre singapourien réside dans son insistance sur le fait que la responsabilité humaine ne peut être déléguée à l'IA. Les entreprises sont tenues de répartir clairement les responsabilités entre les équipes de direction, les équipes techniques, les experts en cybersécurité et les utilisateurs opérationnels. La direction doit définir les cas d'utilisation autorisés, tandis que les équipes produit veillent à la sécurité de la conception et de la mise en œuvre. Les équipes de cybersécurité protègent les systèmes contre toute exploitation, et les utilisateurs opérationnels assurent la supervision des actions de l'IA.
La responsabilité humaine nécessite également des points de contrôle actifs. Pour les actions sensibles ou irréversibles telles que l'exécution de paiements, la suppression d'enregistrements ou l'intervention de systèmes externes, l'approbation humaine est essentielle. Au-delà de la conformité, cette structure répond à un défi plus subtil : le biais d'automatisation. Même des employés bien formés peuvent finir par trop se fier aux systèmes autonomes ; c'est pourquoi une formation et des audits continus sont essentiels pour maintenir une surveillance efficace.
Mesures de sécurité techniques tout au long du cycle de vie
Ce cadre encourage les entreprises à intégrer des contrôles techniques tout au long du cycle de vie de l'IA. Au cours de la phase de développement, les mesures de sécurité doivent se concentrer sur la manière dont les agents planifient, sélectionnent leurs outils et communiquent avec d'autres systèmes. Cela implique notamment de limiter l'accès aux outils, de normaliser les protocoles de communication et d'utiliser des environnements en bac à sable afin de réduire le risque d'erreurs.
Avant le déploiement, les agents doivent être soumis à des tests rigoureux, non seulement pour vérifier leur précision individuelle, mais aussi pour évaluer leur interaction dans des flux de travail multi-agents et des scénarios réels. Après le déploiement, une surveillance continue, la journalisation des activités et des processus d'escalade rapide sont essentiels pour détecter les comportements inattendus avant qu'ils ne causent des dommages.
Cette perspective du cycle de vie s'aligne étroitement sur les pratiques établies de gestion des risques, en traitant les systèmes d'IA non pas comme des outils statiques, mais comme des composants évolutifs qui nécessitent une gouvernance et une supervision continues.
Responsabiliser les utilisateurs finaux et préserver la confiance
Ce cadre reconnaît que la confiance dans l’IA ne dépend pas seulement de la manière dont le système est conçu, mais aussi de la façon dont il est utilisé. En interne, les employés doivent savoir quand ils interagissent avec un agent, ce que celui-ci est autorisé à faire et comment intervenir si nécessaire. En externe, les agents en contact avec la clientèle doivent faire preuve de transparence quant aux capacités, aux limites et aux canaux permettant de faire appel à un intervenant humain.
De plus, à mesure que les agents prennent en charge les tâches routinières, les organisations doivent veiller à ce que les employés continuent à développer leurs compétences fondamentales plutôt que de se reposer uniquement sur l'automatisation. En s'engageant de manière éclairée avec l'IA, les entreprises peuvent éviter une dépendance excessive et renforcer l'intégrité de leurs flux de travail.
Traduire les recommandations en pratiques opérationnelles
Bien que le cadre de Singapour ne soit pas contraignant, il revêt une importance pratique. Les entreprises, en particulier dans les secteurs réglementés tels que la finance, la santé et les télécommunications, devraient le considérer comme une feuille de route pour un déploiement responsable. Le respect de ce cadre peut aider les entreprises à harmoniser leurs politiques internes, à mettre en place une surveillance efficace et à démontrer leur diligence raisonnable auprès des autorités de régulation et de leurs clients.
Les mesures concrètes pourraient inclure l'examen des cas d'utilisation actuels de l'IA, la cartographie des autorisations et de l'autonomie des agents, la confirmation des points de contrôle d'approbation humaine, l'évaluation des capacités de surveillance et de réponse aux incidents, ainsi que l'alignement des contrats avec les fournisseurs sur les attentes en matière de gouvernance. En intégrant ces pratiques dès le début, les entreprises atténuent non seulement les risques, mais renforcent également la confiance des parties prenantes et se préparent à l'évolution des exigences réglementaires.
Comment maintenir l'intervention humaine
L'un des principes fondamentaux du cadre modèle de gouvernance de l'IA de Singapour pour l'IA agentique est que l’humain reste en dernier ressort responsable du comportement et des décisions des agents autonomes. Même si ces systèmes peuvent agir de manière indépendante, planifier plusieurs étapes et s'adapter de manière dynamique à l'évolution des circonstances, la responsabilité n'est pas transférée hors des entreprises et des individus qui les déploient et les supervisent.
Dans la pratique, maintenir une responsabilité significative peut s’avérer complexe. L’IA agentique implique souvent de multiples parties prenantes tout au long d’une chaîne de valeur, depuis les développeurs de modèles et les fournisseurs de plateformes jusqu’aux équipes produit internes et aux utilisateurs finaux. Chaque partie contribue de différentes manières, et sans une répartition claire des responsabilités, la responsabilité peut devenir diffuse. De plus, le phénomène de biais d’automatisation, où les individus accordent une confiance excessive aux systèmes automatisés, en particulier ceux qui ont fait leurs preuves par le passé, peut affaiblir la supervision et augmenter le risque que des erreurs passent inaperçues.
Pour relever ces défis, les entreprises sont encouragées à établir des chaînes de responsabilité claires entre tous les acteurs impliqués. Au sein d’une entreprise, les dirigeants, tels que les membres du conseil d’administration et les chefs de service, doivent définir des objectifs généraux, des politiques de gouvernance et des cas d’utilisation acceptables. Les équipes produit et les ingénieurs traduisent ces politiques en contrôles opérationnels, garantissant que les agents sont conçus, testés et déployés en toute sécurité. Les équipes de cybersécurité protègent à la fois les agents et les systèmes avec lesquels ils interagissent, en mettant en œuvre des mesures préventives et en surveillant les menaces potentielles. Les utilisateurs finaux, qu'il s'agisse d'employés ou de clients, jouent également un rôle dans la supervision et l'utilisation responsable des systèmes.
La responsabilité s'étend au-delà des équipes internes pour inclure également les partenaires externes. Lorsqu'elles travaillent avec des fournisseurs, des fournisseurs de modèles ou des API tierces, les entreprises doivent formaliser leurs attentes dans des contrats. Ces accords doivent clarifier les responsabilités en matière de protection des données, de sécurité et de conformité opérationnelle, et garantir que l'organisation conserve un contrôle et une visibilité suffisants sur les actions de l'agent.
En fin de compte, la responsabilité humaine n'est pas une simple case à cocher, mais une pratique continue. Les organisations doivent intégrer des mécanismes de supervision humaine aux points de décision critiques, vérifier régulièrement les autorisations et maintenir des structures de gouvernance adaptatives qui évoluent au rythme de la technologie. Cette approche garantit que, même à mesure que les agents acquièrent de nouvelles capacités, la supervision reste solide, traçable et applicable.
Surveillance continue : maintenir les agents sous contrôle
Au-delà de l'établissement de la responsabilité, le cadre de Singapour met l'accent sur la nécessité d'une surveillance et de tests continus. Contrairement aux systèmes logiciels traditionnels, l'IA agentique est intrinsèquement dynamique ; elle exécute des flux de travail en plusieurs étapes pouvant interagir de manière imprévisible avec des systèmes internes et externes. Sans une observation continue, des erreurs allant d'actions non autorisées à des prises de décision biaisées peuvent se propager rapidement.
Avant leur déploiement, les agents doivent être soumis à des tests rigoureux qui évaluent non seulement le résultat final, mais l'ensemble du flux de travail, y compris la manière dont l'agent raisonne, sélectionne les outils et interagit avec d'autres agents ou systèmes. Ces tests doivent couvrir aussi bien les agents individuels que les configurations multi-agents, en identifiant les risques tels que les erreurs d'exécution des tâches, le non-respect des processus d'approbation ou les interactions involontaires entre agents. Des environnements de test réalistes, notamment des sandbox reproduisant les systèmes de production, permettent de s’assurer que les agents réagissent de manière appropriée dans des conditions similaires à celles des opérations réelles.
Une fois le déploiement effectué, la surveillance ne peut se limiter à une action ponctuelle. Les entreprises doivent mettre en place des systèmes de journalisation et d’observabilité pour suivre le comportement des agents dans toutes les tâches. Parmi les considérations clés figurent la définition des événements à consigner, en particulier les actions à haut risque telles que les modifications de bases de données ou les transactions financières, ainsi que l’établissement de seuils d’alerte. Les alertes peuvent être déclenchées par programmation lorsque certaines conditions sont remplies, ou via des systèmes de détection d'anomalies qui identifient des schémas inhabituels indiquant des dysfonctionnements ou des failles de sécurité.
Les stratégies de surveillance peuvent également impliquer des agents supervisant d'autres agents, signalant automatiquement les comportements inattendus ou dangereux. Lorsque des anomalies surviennent, les interventions doivent être clairement définies et proportionnées au risque. Pour les problèmes courants, un examen humain peut suffire, tandis que des défaillances importantes peuvent nécessiter la mise en pause ou l'arrêt des flux de travail des agents afin d'éviter tout préjudice.
Enfin, la surveillance ne doit pas être statique. Les modèles d'IA agentique peuvent évoluer au fil du temps en raison de changements dans les données d'entrée, les systèmes connectés ou la dérive des modèles. Des tests continus après le déploiement garantissent que les agents maintiennent les performances prévues, se conforment aux politiques de gouvernance et restent alignés sur la tolérance au risque de l'organisation. En combinant la supervision humaine et la surveillance automatisée, les organisations peuvent créer un filet de sécurité robuste qui leur permet de tirer parti des avantages de l'IA agentique tout en atténuant les risques potentiels.
Comment Gerrish Legal peut vous aider?
Gerrish Legal est un cabinet juridique numérique et dynamique. Nous sommes fiers de prodiguer des conseils juridiques experts et de haute qualité à nos précieux clients. Nous sommes spécialisés dans de nombreux aspects du droit numérique tels que le RGPD, la confidentialité des données, le droit numérique et technologique, le droit commercial et la propriété intellectuelle.
Nous offrons aux entreprises le soutien dont elles ont besoin pour gérer leurs activités avec succès et en toute confiance tout en se conformant aux réglementations légales, sans avoir à se plier aux exigences numériques en constante évolution.
Nous sommes là pour vous aider, contactez-nous dès aujourd’hui pour plus d’informations.
Article de Nathalie Pouderoux, Consultante pour Gerrish Legal