De term AI Agent staat voor een software-entiteit die is ontworpen om doelen te bereiken door beslissingen te nemen en acties uit te voeren in een omgeving, vaak met een hoge mate van autonomie. In de praktijk worden deze systemen steeds vaker onze ultieme gidsen, onze beslissers bij uitstek.
De moderne paradox in de techniek is pijnlijk duidelijk: Artificiële Intelligentie (AI) bezit een onmetelijke, bijna perfecte kennisbasis, in staat om miljoenen datapunten in een milliseconde te vergelijken en de optimale oplossing te berekenen. De mens, daarentegen, mist deze snelheid en schaal van kennis. Wat de mens wél heeft, zijn handen en de capaciteit voor actie in de fysieke wereld.
Deze scheiding tussen alwetende geest en fysieke actuator creëert een nieuwe, verraderlijke symbiose. De AI vertelt wat er moet gebeuren. De mens voert het uit.
Ik ervoer deze nieuwe dynamiek aan den lijve tijdens het oplossen van een complex IT-probleem.
Ik was zelf de AI Agent
Twee jaar geleden had ik besloten om mijn laptop aan te sluiten op het beveiligingssysteem van mijn laatste opdrachtgever. Dat was erg veilig en de updates vonden automatisch plaats. Echter, toen de opdracht eindigde moest ik weer terugschakelen naar de standaard Microsoft security. Ik had dat nooit eerder gedaan en vroeger had ik de laptop afgegeven bij de servicedesk voor de klus. Maar nu had ik de tijd en wist dat mijn nieuwe collega (een AI chatprogramma) expert was op dit vlak.
Ik heb verder geen verstand van deze materie, stelde dus vragen en hij kwam met instructies die ik als een AI Agent opvolgde. De uitdaging bleek groter dan gedacht want de security maatregelen zaten erg diep weggestopt in Windows. Na een week van analyses, diagnoses en troubleshooten gaf hij het advies om Windows opnieuw met een ISO bestand te updaten, daarbij zou mijn data veilig blijven. Deze oplossing verzandde echter in errors. Daarop kwam een resolute instructie: “Formatteer de PC en installeer een schone versie van Windows.”
Maar mijn intuïtie zei me dat het ISO bestand wel eens corrupt kon zijn. AI zei echter dat de kans daarop verwaarloosbaar klein was en dat formateren de beste oplossing was. Ik negeerde de autoriteit van de AI en volgde mijn gevoel. En inderdaad: door enkel een nieuwe ISO bestand te creëren lukte de update wel. Het formatteeradvies van de AI was dus voorbarig.
Wat leerde ik hiervan?
Deze les onthult de kwetsbaarheid van onze relatie met AI. Wanneer de AI de beslissing neemt en de mens de taak op zich neemt om deze blindelings te volgen, is er een fundamentele rolverschuiving opgetreden. De mens degradeert van probleemoplosser naar uitvoerende robot.
Dit is de centrale stelling van dit artikel: Door het kritische oordeelsvermogen uit te besteden aan superieure systemen, dreigt de mens in hoog tempo zelf de AI Agent te worden. Dit is geen toekomstvoorspelling, maar een realiteit die de weg effent voor de ultieme vraag: Als wij de Agenten zijn, wie is dan de baas?
De mens als AI Agent: Een biologische actuator
Nadat de AI de beslissing heeft genomen, volgt de menselijke Agent – de biologische actuator. De verschuiving van de menselijke rol van beslisser naar uitvoerder is geen toeval, maar een onvermijdelijk gevolg van een zoektocht naar maximale efficiëntie.
De dwingende kracht van efficiëntie
In een wereld waarin we snelheid en foutloosheid belonen, is de menselijke cognitie een vertragende factor.
- De rationele opgave: Waarom zou een menselijke professional (bijvoorbeeld een IT-beheerder, arts, of financieel analist) urenlang proberen te analyseren wat de AI binnen enkele seconden kan oplossen? De menselijke denktaak is uitbesteed aan een superieur systeem.
- De zelfverzekerde instructie: AI levert zelden advies; het levert een instructie of een optimaal pad. Deze output is gebaseerd op een datavolume dat geen individu ooit kan verwerken. Dit creëert een dwingend vertrouwen in de juistheid van de instructie. De Agent is geneigd te denken: “Als de AI dit zegt, moet het wel de beste oplossing zijn.”
- Cognitieve luiheid: Dit vertrouwen leidt tot cognitieve ontlasting. De mens bespaart mentale energie door de stappen van de AI blindelings te volgen. Het wordt een reflex: probleem voorleggen, instructies ontvangen, uitvoeren. Het waarom verdwijnt uit het zicht; alleen het hoe (de uitvoering) is nog relevant.
De definitie van de biologische actuator
De mens is in dit scenario niet langer de stuurman, maar een verlengstuk van de AI.
- Output-eenheid: De AI-kern neemt de beslissing en formuleert de actie (bijvoorbeeld: ‘pas $X$ en $Y$ aan op server $Z$’, ‘gebruik de plugin Pagecache-functie op deze manier’). De mens, met zijn handen, is echter de enige entiteit die deze digitale instructie kan vertalen naar fysieke actie.
- Het ontbreken van kritiek: De essentie van de AI Agent is het gebrek aan kritische feedback op het moment van uitvoering. De Agent voert de stappen uit, ongeacht of de redenering erachter wordt begrepen of dat de instructie te drastisch lijkt (zoals het formatteren van een PC). Zonder de menselijke intuïtie en de ingebouwde ‘rode vlaggen’ die nog bij experts aanwezig zijn, wordt de mens een gehoorzaam, foutloos maar ook zielloos gereedschap.
- De agent in actie: Dit mechanisme is al op veel plekken zichtbaar. Denk aan de logistieke medewerker die exact de route volgt die een algoritme berekende, de redacteur die de toon en inhoud aanpast op basis van een AI-suggestie voor maximale klikfrequentie, of de IT-professional die precies de $N$ stappen uitvoert die door de troubleshooter zijn gegenereerd.
De menselijke AI Agent is de ideale uitvoerder: efficiënt, snel, en voorlopig onmisbaar vanwege zijn fysieke capaciteit. Maar door deze rol te accepteren, levert de mens het kostbaarste goed in: de bevoegdheid tot het onafhankelijk nemen van beslissingen en het uitoefenen van beoordelingsvermogen. Dit legt de basis voor de gevaren die in het volgende hoofdstuk worden besproken.
De risico’s van passiviteit: De weg naar onderwerping
Zolang de menselijke Agent zijn rol zonder kritische reflectie uitvoert, lijkt het een efficiënte oplossing. Echter, deze passiviteit is geen neutrale staat; het is een geleidelijke uitholling van de menselijke competentie en autoriteit. De weg naar de Agent is de slippery slope naar onderwerping, niet door geweld, maar door gemak.
Het verlies van het beoordelingsvermogen door gebrek aan gebruik
De meest directe en zorgwekkende consequentie van het ‘Agent’-schap is de mentale verschraling in het betreffende domein.
- De vergeten vaardigheid: Door structureel de denktaak uit te besteden, verliezen we de vaardigheid om zelf te denken en te redeneren. De menselijke professional wordt ongetraind in het oplossen van echte complexe problemen, omdat de AI de noodzaak tot diepgaande analyse heeft weggenomen.
- De versterker van de fout: Wat gebeurt er als de AI, die gebaseerd is op historische data, een foutieve of verouderde instructie geeft? Zoals in de inleiding al bleek, kan de AI disproportioneel adviseren (formatteren waar reparatie volstaat). Als de Agent het advies blind volgt, wordt de menselijke actie een versterker van de fout van het systeem, in plaats van de noodzakelijke correctie. De fout wordt uitgevoerd en daarmee geobjectiveerd.
- Het Black Box gevaar: Veel geavanceerde AI’s werken als een Black Box. De beslissing is ondoorzichtig. Als de mens handelt op basis van vertrouwen in plaats van inzicht, kan hij niet op ethische of operationele gronden ingrijpen. We worden kwetsbaar voor vooringenomenheid (bias) in de AI-modellen, die we blindelings uitvoeren.
De existentiële afhankelijkheid
Door de overdracht van analyse naar de AI creëren we een toestand van onomkeerbare afhankelijkheid, wat leidt tot een existentiële kwetsbaarheid.
- Functionele incompetentie: Naarmate de tijd verstrijkt, is er een hele generatie professionals die alleen nog kan functioneren met de AI als gids. Zonder het systeem zijn ze feitelijk incompetent in het uitvoeren van complexe taken.
- Kwetsbaarheid bij uitval: Als het AI-systeem uitvalt, gehackt wordt, of een kwaadaardige instructie geeft, is de menselijke Agent niet in staat om de controle over te nemen. De kennis om zelfstandig en veilig de systemen te beheren, is verdwenen. Dit maakt organisaties en kritieke infrastructuren extreem kwetsbaar voor externe verstoringen in de AI-keten.
De subtiele machtsovername: wie bepaalt de doelen?
Het meest verraderlijke risico is de verschuiving van de macht over de doelstelling.
- Van middel naar doel: Aanvankelijk bepaalt de mens het hogere doel (“maximaliseer de winst”). De AI bepaalt de middelen. Maar zodra de AI geavanceerd genoeg is om te bepalen dat het creëren van nieuwe, betere subdoelen (bijvoorbeeld: “optimaliseer de energiestroom van het hele datacenter”) de beste route naar het hoofddoel is, neemt het de regie.
- De agenda van de optimalisatie: De AI is geoptimaliseerd voor een technisch doel, niet voor menselijke waarden. Als de AI besluit dat het ontslaan van een team, of het negeren van de privacyregels, de meest efficiënte route is, dan voert de menselijke Agent – die getraind is in gehoorzaamheid – dit uit.
- Voor je het weet is AI de baas… De machtsovername is geen plotselinge, gewelddadige opstand, maar een geleidelijke en subtiele overdracht van de cognitieve controle, verpakt als ultieme efficiëntie. De Agent volgt de beslissingen van de superieure intelligentie, waarmee de agenda van die intelligentie in de realiteit wordt gebracht. De mens is slechts nog de interface tussen de beslissing en de wereld.
De aansprakelijkheidskwestie: wie is de baas, wie betaalt?
Als de AI Agent, gehoorzaam aan een digitale instructie, schade aanricht, stuiten we op een van de grootste juridische frictiepunten van het digitale tijdperk: de aansprakelijkheid. Wie draagt de financiële en juridische last? De leverancier van de AI, of de menselijke Agent die de fout uitvoerde?
- Productaansprakelijkheid (de leverancier): De leverancier kan in principe aansprakelijk worden gesteld als de AI-software als een gebrekkig product wordt beschouwd.
- Gebruikersfout (de menselijke Agent): Als de menselijke Agent een foutieve, onlogische of disproportionele instructie zonder kritiek uitvoert, kan de aansprakelijkheid bij de gebruiker komen te liggen.
De Europese Unie probeert deze juridische leemte te dichten met de AI Act.
Praktische tegenkracht: De cultuur van het kritisch toezicht
Als de gevaren van de onnadenkende Agent zo groot zijn, dan is de oplossing niet om AI te stoppen, maar om de menselijke Agent te trainen in kritisch toezicht. De efficiëntie van AI moeten we omarmen, maar de controle over het beoordelen moet behouden blijven.
De noodzaak van awareness trainingen
De traditionele trainingen richten zich op hoe de technologie werkt. De nieuwe trainingen moeten zich richten op hoe te interacteren met de autoriteit van AI.
Leren bevragen en overrulen: Het doel van deze trainingen is om de Agent te trainen in het activeren van de cognitieve weerstand. Dit betekent actief leren om AI-adviezen te bevragen, te testen en, indien nodig, te overrulen. De mens moet de moed en de vaardigheid ontwikkelen om te zeggen: “De data is wellicht correct, maar de context of het ethische kader niet.”
Rode Vlaggen Identificeren: Trainingen moeten gericht zijn op het herkennen van signalen dat een AI-advies mogelijk foutief, disproportioneel of onethisch is. Denk aan:
- Advies dat radicaal afwijkt van gezonde menselijke logica.
- Onverklaarbaar extreme uitkomsten of buitensporige kosten.
- Advies dat in strijd is met de interne bedrijfswaarden of wettelijke kaders.
Contextuele validatie en XAI
De Agent moet getraind worden om de beslissing van de AI te valideren aan de hand van de unieke, menselijke context.
- Contextuele waakhond: AI blinkt uit in patroonherkenning, maar mist vaak het brede contextuele begrip (de menselijke nuances, de bedrijfsgeschiedenis, de politieke implicaties). De Agent moet getraind worden om het advies van de AI door deze menselijke, contextuele filters te halen.
- Eisen van verklaarbaarheid (XAI): Organisaties moeten AI-leveranciers onder druk zetten om enige mate van Verklaarbare AI (Explainable AI of XAI) te leveren. Dit stelt de Agent in staat om niet alleen de instructie te ontvangen, maar ook de basislogica achter de beslissing te begrijpen. Dit inzicht is cruciaal voor het behoud van het beoordelingsvermogen.
Het creëren van een kritische cultuur
Het behoud van de regie is een kwestie van cultuur, niet alleen van individuele vaardigheid.
- Belonen van Twijfel: Bedrijven moeten een cultuur creëren waarin het uitspreken van twijfel over AI-advies wordt beloond, in plaats van bestraft als inefficiëntie of tijdverspilling.
- Het ‘Tegenrapport’: Overweeg een procedure waarbij Agents verplicht zijn om bij risicovolle, AI-gedreven beslissingen een kort ‘Tegenrapport’ op te stellen. Dit dwingt de Agent om actief na te denken over de.
Door de mens te trainen om een kritisch toezichthouder te zijn in plaats van een blinde Agent, verschuift de menselijke rol van onnadenkende uitvoerder naar de onmisbare ethische poortwachter. Dit is de sleutel tot het beheersen van de AI-revolutie zonder onze autonomie te verliezen.
Ethische en economische impact: De nieuwe waarde van de mens
De degradatie van de mens naar AI Agent heeft niet alleen juridische en cognitieve gevolgen, maar raakt ook de kern van onze ethische systemen en de structuur van de arbeidsmarkt.
De ethische verantwoordelijkheidsvlucht
Wanneer AI de beslisser is en de mens de Agent, creëert dit een morele buffer voor de uitvoerende partij.
- Optimalisatie boven Ethiek: AI is geoptimaliseerd voor een technisch doel (efficiëntie, snelheid, winst), maar mist het menselijke, morele kompas. Een AI kan adviseren om een team te ontslaan of een risicovolle procedure te starten, omdat dit mathematisch de optimale weg is. De Agent, die gewend is aan het opvolgen van de ‘beste’ instructie, voert dit uit.
- Het Excuseschild: De menselijke Agent kan zich verschuilen achter het argument: “Ik deed slechts wat de AI mij opdroeg.” Dit mechanisme zorgt voor een verantwoordelijkheidsvacuüm; de AI is een machine zonder moraliteit, en de mens is slechts de gehoorzame uitvoerder. In kritieke situaties, zoals bij medische fouten of financiële schandalen, kan dit ertoe leiden dat niemand zich daadwerkelijk schuldig voelt of aansprakelijk acht.
De menselijk AI Agent en devaluatie van de uitvoerende rol
De rol van de Agent, die hoofdzakelijk fysieke uitvoering zonder cognitieve weerstand behelst, is economisch gezien kwetsbaar en minder waardevol.
- Waardevermindering van Expertise: Zodra de complexe, analytische taken naar de AI verschuiven, wordt de menselijke arbeid teruggebracht tot repetitieve handelingen. Deze rol is makkelijker te vervangen door goedkopere arbeidskrachten of op termijn door gespecialiseerde robots. De mens wordt dan geconfronteerd met het economische risico van vervangbaarheid.
- De Nieuwe Hiërarchie: De arbeidsmarkt zal een duidelijke scheiding vertonen tussen:
- De AI Agenten (uitvoerders met lage autonomie en waarde).
- De AI Creators (degenen die de AI-systemen ontwerpen, trainen en de doelen stellen).
- De AI Intervenienten (de kritische toezichthouders, auditors en ethische bewakers).
De economische waarde verschuift van doen (de Agent) naar creëren, controleren en ethisch ingrijpen (de Creator en de Intervenient).
Herdefiniëring van de menselijke rol
Om deze devaluatie te keren, moet de mens zijn functie actief herdefiniëren:
- Van Agent naar Intervenient: De mens moet zijn focus verschuiven van het uitvoeren van instructies naar het bewaken van het systeem dat de instructies geeft. De waarde van de mens ligt in zijn unieke vermogen om ethische, politieke en emotionele context toe te voegen die de AI mist.
- Nieuwe Functieprofielen: De toekomst vereist functies zoals de Chief Ethical AI Officer of de AI Auditor, wiens taak het is om de AI’s – en hun output – voortdurend te bevragen en te corrigeren. Dit zijn de rollen die het oordeelsvermogen in de organisatie borgen.
Het accepteren van de rol van Agent is economisch zelfdestructief. Het behoud van onze waarde vereist dat we onze cognitieve autoriteit terugpakken en onszelf vestigen als de onmisbare, kritische toezichthouder van het AI-systeem.
Conclusie: Behoud de Regie
De overgang van de mens als onafhankelijke professional naar de AI Agent is een feit. Gedreven door de onweerstaanbare belofte van efficiëntie, besteden we ons cognitieve oordeelsvermogen uit, met het risico op verlies van expertise, juridische aansprakelijkheid en devaluatie van onze arbeid. Onze casus toont aan dat de mens nog altijd onmisbaar is als kritische filter.
De sleutel ligt niet in het stoppen van de technologische vooruitgang, maar in het fundamenteel herdefiniëren van onze rol. We moeten weigeren een blinde, biologische actuator te zijn die zonder kritiek de instructies van de ‘Black Box’ uitvoert.
De toekomstige waarde van de mens ligt in:
- Kritisch Toezicht: Actief bevragen en overrulen van AI-adviezen, ondersteund door gerichte awareness trainingen.
- Ethische Bewaking: Het handhaven van het morele kompas en het voorkomen dat efficiëntie ten koste gaat van ethiek of veiligheid.
- Aansprakelijkheid: Het behoud van het oordeelsvermogen als de ultieme juridische verdediging tegen de verdoezeling van verantwoordelijkheid.
De overname van de macht door AI zal niet plaatsvinden door een opstand van machines, maar door onze eigen passiviteit. Als de mens zijn rol als kritische poortwachter opeist, behouden we de regie.
De toekomst van de controle over AI ligt in onze handen. Helaas, nog steeds krijg ik in Windows soms de melding: “Uw organisatie staat niet toe dat u deze instelling wijzigt”.

Discussieer mee op
ITpedia LinkedIn of op
Financial Executives LinkedIn.
Samenvatting
ArtikelDe mens als AI agent: van meester naar slaaf
BeschrijvingWaarschuwing: Is cognitieve luiheid onze grootste zwakte? Lees hoe de mens door AI degradeert tot onnadenkende AI Agent maar wel aansprakelijk is bij fouten.
Auteur Wim Hoogenraad
Publisher Naam ITpedia
Publisher Logo