Singapore presenterar världens första ramverk för agentisk AI-styrning

I januari 2026 presenterade Singapore modellramverket för AI-styrning för agentisk AI vid World Economic Forum, vilket positionerade sig i framkant inom AI-reglering. Till skillnad från typiska AI-verktyg som svarar på uppmaningar kan agentiska AI-system självständigt resonera, planera och utföra flerstegsuppgifter för människors räkning. Även om ramverket inte är rättsligt bindande så ger det en stark signal till företag om hur tillsynsmyndigheter förväntar sig att dessa autonoma system används ansvarsfullt.

För organisationer som är verksamma i Singapore eller samarbetar med Singapore-baserade kunder erbjuder ramverket mer än teoretisk vägledning. Det ger en strukturerad metod för att integrera styrningsmetoder i AI-implementering, vilket hjälper företag att hantera både operativa och ryktesrelaterade risker samtidigt som potentialen hos agentisk AI maximeras.

Singapors strategi bygger på över ett halvt decennium av AI-styrningsinitiativ, inklusive 2019 års modellramverk för AI-styrning, AI Verify och Global AI Assurance Pilot som lanserades 2025. Det som gör det nya ramverket unikt är dess fokus på de risker som introduceras av agenter som agerar autonomt, särskilt kring beslutsfattande, dataåtkomst och systeminteraktioner. Denna betoning är avgörande för företag som överväger hur man operationaliserar AI i miljöer där misstag kan få verkliga konsekvenser.

Varför ramverket är viktigt för företag

Företag använder i allt högre grad agentisk AI för att automatisera uppgifter som tidigare ansågs kräva mänskligt omdöme. Detta kan variera från administrativa aktiviteter, såsom att schemalägga möten och uppdatera kundregister, till mer komplexa funktioner som att hantera leveranskedjor, initiera finansiella transaktioner eller koordinera system med flera agenter mellan avdelningar.

Dessa system lovar betydande effektivitetsvinster, men de medför också unika risker. Till skillnad från generativa AI-verktyg som producerar resultat som svar på uppmaningar kan agentisk AI interagera direkt med interna databaser, tredjeparts-API:er och externa plattformar. Den kan utföra åtgärder som har konkreta konsekvenser, och fel kan spridas snabbt genom sammankopplade arbetsflöden.

Singapores ramverk erkänner denna operativa verklighet. Det är inte utformat för att begränsa innovation utan för att säkerställa att organisationer implementerar tillräckliga skyddsåtgärder för att hantera potentiella fel, obehöriga åtgärder, partiska resultat och dataintrång.

Bedöma och begränsa risker

I hjärtat av ramverket ligger principen om proaktiv riskhantering. Innan ett agentbaserat AI-system driftsätts förväntas organisationer utvärdera lämpligheten av användningsfallet genom att beakta både den potentiella effekten av fel och sannolikheten för att de kommer att inträffa.

Denna utvärdering bör ta hänsyn till faktorer som känsligheten hos de data som systemet har åtkomst till, graden av autonomi som ges agenten och reversibiliteten i dess handlingar. Till exempel kan en agent som kan schemalägga möten på en marknadsavdelning innebära minimal risk, medan en agent som är auktoriserad att behandla betalningar eller ändra kunddata har betydligt större konsekvenser.

När risker har identifierats uppmuntras organisationer att "binda" dem genom noggrann design. Detta kan innebära att begränsa en agents åtkomst till endast de verktyg och data som är nödvändiga för dess uppgifter, begränsa dess möjlighet att ändra kritiska register eller skapa felsäkra mekanismer som gör det möjligt för mänskliga handledare att inaktivera systemet vid oväntat beteende. Genom att integrera dessa kontroller i designfasen kan företag minska exponeringen och öka förtroendet för säker drift av sina AI-system.

Definiera handlingsutrymme och autonomi

Två sammanhängande hävstångseffekter formar hur agentisk AI beter sig i praktiken: handlingsutrymmet eller vad en agent får göra och graden av autonomi den har.

Handlingsutrymmet relaterar till systemets behörigheter. En agent som bara kan hämta information är mycket mindre riskabel än en som kan utföra transaktioner, fatta beslut eller ändra databaser. På liknande sätt förstärker åtkomst till externa system och API:er exponeringen och potentiella konsekvenser.

Autonomi avgör hur mycket självständigt beslutsfattande agenten kan utöva. Vissa agenter arbetar under strikta stegvisa instruktioner, som kräver mänskligt godkännande i varje steg, medan andra kan definiera sina egna arbetsflöden och vidta åtgärder om inte en tröskel för mänsklig tillsyn utlöses. Båda hävstångseffekterna kontrolleras av den organisation som driftsätter systemet, och ramverket betonar att det yttersta ansvaret ligger hos verksamheten.

 

Mänskligt ansvar förblir centralt

Ett utmärkande drag i Singapores ramverk är dess insisterande på att mänskligt ansvar inte kan delegeras till AI. Organisationer förväntas tydligt fördela ansvaret mellan ledningsgrupper, tekniska team, cybersäkerhetsexperter och operativa användare. Ledningen bör definiera tillåtna användningsfall, medan produktteam säkerställer säker design och implementering. Cybersäkerhetsteam skyddar system från utnyttjande, och operativa användare upprätthåller tillsyn över AI-åtgärder.

Mänskligt ansvar kräver också aktiva kontrollpunkter. För känsliga eller oåterkalleliga åtgärder som att utföra betalningar, radera poster eller engagera externa system är mänskligt godkännande avgörande. Utöver efterlevnad adresserar denna struktur en mer subtil utmaning som är automatiseringsbias. Även välutbildade anställda kan bli överberoende av autonoma system, så kontinuerlig utbildning och revision är avgörande för att upprätthålla meningsfull tillsyn.

 

Tekniska skyddsåtgärder under hela livscykeln

Ramverket uppmuntrar företag att integrera tekniska kontroller under hela AI-livscykeln. Under utvecklingen bör skyddsåtgärderna fokusera på hur agenter planerar, väljer verktyg och kommunicerar med andra system. Detta inkluderar att begränsa verktygsåtkomst, standardisera kommunikationsprotokoll och använda sandlådemiljöer för att minska risken för kaskadfel.

Före driftsättning bör agenter genomgå rigorösa tester, inte bara för individuell noggrannhet utan också för hur de interagerar i arbetsflöden med flera agenter och verkliga scenarier. Efter driftsättning är kontinuerlig övervakning, aktivitetsloggning och snabba eskaleringsprocesser avgörande för att upptäcka oväntade beteenden innan de orsakar skada.

Detta livscykelperspektiv överensstämmer nära med etablerade riskhanteringspraxis och behandlar AI-system inte som statiska verktyg, utan som utvecklande komponenter som kräver kontinuerlig styrning och tillsyn.

 

Stärka slutanvändare och upprätthålla förtroende

 Ramverket erkänner att förtroende för AI inte bara handlar om hur systemet är byggt, utan också hur det används. Internt bör anställda förstå när de interagerar med en agent, vad den är behörig att göra och hur de ska ingripa vid behov. Externt måste kundvända agenter åtföljas av transparens om funktioner, begränsningar och kanaler för mänsklig eskalering.

 Dessutom, när agenter tar över rutinuppgifter, måste organisationer se till att anställda fortsätter att utveckla kärnkompetenser snarare än att enbart förlita sig på automatisering. Genom att initiera informerat engagemang med AI kan företag förhindra överdriven beroende och förstärka integriteten i sina arbetsflöden.

Att omsätta vägledning till affärspraxis

Även om Singapores ramverk inte är bindande har det praktisk vikt. Organisationer, särskilt inom reglerade sektorer som finans, hälso- och sjukvård och telekommunikation, bör se det som en färdplan för ansvarsfull implementering. Att följa ramverket kan hjälpa företag att anpassa interna policyer, etablera effektiv tillsyn och visa tillbörlig aktsamhet gentemot tillsynsmyndigheter och kunder.

Praktiska steg kan innefatta att granska nuvarande AI-användningsfall, kartlägga agentbehörigheter och autonomi, bekräfta kontrollpunkter för mänskliga godkännanden, utvärdera övervaknings- och incidenthanteringskapacitet och anpassa leverantörsavtal till styrningsförväntningarna. Genom att integrera dessa metoder tidigt minskar organisationer inte bara risker utan bygger också förtroende hos intressenter och förbereder sig för förändrade regelkrav.

 

Hur man håller en människa uppdaterad

En av kärnprinciperna i Singapores modell AI-styrningsramverk för agentisk AI är att människor i slutändan förblir ansvariga för autonoma agenters beteende och beslut. Även om dessa system kan agera självständigt, planera över flera steg och anpassa sig dynamiskt till förändrade omständigheter, flyttas ansvaret inte bort från de organisationer och individer som distribuerar och övervakar dem.

I praktiken kan det vara komplext att upprätthålla meningsfull ansvarsskyldighet. Agentisk AI involverar ofta flera intressenter i en värdekedja, från modellutvecklare och plattformsleverantörer till interna produktteam och slutanvändare. Varje part bidrar på olika sätt, och utan tydlig ansvarsfördelning kan ansvarsskyldigheten bli diffus. Dessutom kan fenomenet automatiseringsbias, där människor har otillbörligt förtroende för automatiserade system, särskilt de som har fungerat tillförlitligt tidigare, försvaga tillsynen och öka sannolikheten för att fel går obemärkt förbi.

För att hantera dessa utmaningar uppmuntras organisationer att etablera tydliga ansvarskedjor mellan alla inblandade aktörer. Inom ett företag bör ledare som styrelseledamöter och avdelningschefer definiera övergripande mål, styrningspolicyer och acceptabla användningsfall. Produktteam och ingenjörer omsätter dessa policyer till operativa kontroller och säkerställer att agenter utformas, testas och driftsätts på ett säkert sätt. Cybersäkerhetsteam skyddar både agenterna och de system de interagerar med, implementerar förebyggande åtgärder och övervakar potentiella hot. Slutanvändare, oavsett om de är anställda eller kunder, spelar också en roll i att utöva tillsyn och använda systemen ansvarsfullt.

Ansvarsskyldighet sträcker sig bortom interna team till externa partners också. När företag arbetar med leverantörer, modellleverantörer eller tredjeparts-API:er bör de formalisera förväntningar i kontrakt. Dessa avtal bör klargöra ansvaret för dataskydd, säkerhet och operativ efterlevnad, och säkerställa att organisationen behåller tillräcklig kontroll och insyn över agentens handlingar.

I slutändan är mänskligt ansvar inte en statisk bock utan en kontinuerlig praxis. Organisationer bör integrera mekanismer för mänsklig övervakning vid kritiska beslutspunkter, regelbundet granska godkännanden och upprätthålla adaptiva styrningsstrukturer som utvecklas i takt med tekniken. Denna metod säkerställer att även när agenter får nya funktioner förblir tillsynen robust, spårbar och verkställbar.

 

Kontinuerlig övervakning: Att hålla agenter under uppsikt

Utöver att fastställa ansvarsskyldighet betonar Singapores ramverk behovet av kontinuerlig övervakning och testning. Till skillnad från traditionella programvarusystem är agentisk AI i sig dynamisk och exekverar arbetsflöden i flera steg som kan interagera oförutsägbart med interna och externa system. Utan kontinuerlig observation kan fel som sträcker sig från obehöriga handlingar till partiskt beslutsfattande spridas snabbt.

Före driftsättning bör agenter genomgå rigorösa tester som utvärderar inte bara den slutliga utdata utan hela arbetsflödet, inklusive hur agenten resonerar, väljer verktyg och interagerar med andra agenter eller system. Denna testning bör omfatta enskilda agenter såväl som konfigurationer med flera agenter och identifiera risker som fel i uppgiftskörningen, underlåtenhet att följa godkännandeprocesser eller oavsiktliga interaktioner mellan agenter. Realistiska testmiljöer, inklusive sandlådor som speglar produktionssystem, hjälper till att säkerställa att agenter svarar på lämpligt sätt under förhållanden som liknar verkliga operationer.

När övervakningen väl är i driftsättning kan den inte vara en engångsinsats. Organisationer bör implementera loggnings- och observerbarhetssystem för att spåra agenters beteende i alla uppgifter. Viktiga överväganden inkluderar att definiera vilka händelser som ska loggas, särskilt högriskåtgärder som databasmodifieringar eller finansiella transaktioner, och att fastställa tröskelvärden för varningar. Varningar kan utlösas programmatiskt när vissa villkor är uppfyllda, eller genom system för avvikelsedetektering som identifierar ovanliga mönster som indikerar fel eller säkerhetsöverträdelser.

Övervakningsstrategier kan också involvera agenter som övervakar andra agenter och automatiskt flaggar oväntade eller osäkra beteenden. När avvikelser inträffar bör interventioner vara tydligt definierade och proportionella mot risken. För rutinmässiga problem kan mänsklig granskning räcka, medan betydande fel kan kräva att agenternas arbetsflöden pausas eller avslutas för att förhindra skada.

Slutligen bör övervakning inte vara statisk. Agentbaserade AI-modeller kan utvecklas över tid på grund av förändringar i datainmatning, anslutna system eller modelldrift. Kontinuerlig testning efter driftsättning säkerställer att agenterna upprätthåller sin avsedda prestanda, följer styrningspolicyer och förblir i linje med organisationens risktolerans. Genom att kombinera mänsklig tillsyn med automatiserad övervakning kan organisationer skapa ett robust säkerhetsnät som gör det möjligt för dem att utnyttja fördelarna med agentbaserad AI samtidigt som de minskar potentiella risker.

 

Hur kan Gerrish Legal hjälpa till?

Gerrish Legal är en dynamisk digital advokatbyrå. Vi är stolta över att ge högkvalitativ och expertrådgivning till våra värderade klienter. Vi specialiserar oss på många aspekter av digital rätt, såsom GDPR, dataskydd, digital och teknologisk rätt, handelsrätt och immateriella rättigheter. Vi ger företag det stöd de behöver för att framgångsrikt och tryggt driva sina verksamheter samtidigt som de följer lagstadgade regler utan bördorna av att hålla jämna steg med ständigt föränderliga digitala krav. Vi finns här för att hjälpa dig, kontakta oss idag för mer information.

Previous
Previous

Datamappning: Varför det är avgörande för efterlevnad och integritet

Next
Next

Din företagsguide till AI-efterlevnad för 2026