AI-schaamte?
AI-schaamte is de neiging om AI-gebruik te verzwijgen, er terughoudend over te communiceren, of het gebruik te minimaliseren. Het gevolg is dat leerervaringen, kwaliteitswinst en de risico’s rondom het gebruik van AI onzichtbaar blijven.
Recente studies (2025) laten zien dat AI-schaamte geen randverschijnsel is, maar wijdverspreid gedrag. Een wereldwijd onderzoek onder 48.340 personen in 47 landen geeft het volgende interessante beeld:
- 58% zegt AI bewust op het werk te gebruiken.
- Tegelijkertijd geeft 57% toe dat zij dit gebruik niet transparant maken, bijvoorbeeld door AI-output als eigen werk te presenteren.
- Ook meldt 48% ooit bedrijfsinformatie te hebben geplakt in een publieke AI-tool.
- Minder dan de helft ontving training (47%). Dat helpt wellicht te verklaren waarom 66% AI-uitvoer wel eens overneemt zonder te controleren en 56% van de gebruikers fouten rapporteert doordat ze AI gebruikten.
- Ongeveer een derde gebruikt AI wekelijks of dagelijks (31%, waarvan 17% dagelijks en 14% wekelijks).
Waarom blijft AI-gebruik onder de radar? Een deel is cultuur en perceptie. Een recent experiment met 1.026 controleurs liet zien dat identiek werk dat zij controleerden lager wordt ingeschat wanneer men denkt dat de maker AI gebruikte. De gemiddelde competentiebeoordeling daalde met 9%, met zelfs sterkere effecten voor vrouwen.
Waardoor ontstaat AI-schaamte?
Dit zijn de meest voorkomende redenen waarom AI-schaamte ontstaat:
- Reputatierisico. Medewerkers vrezen dat AI het beeld wekt van gemakzucht of lagere competentie. Collega’s of leidinggevenden kunnen hun werk als minder “ambachtelijk” beoordelen.
- Onzekere normen. Er is vaak onduidelijkheid over wanneer en hoe je AI-gebruik moet vermelden, en welke data wel of niet mogen worden gebruikt.
- Vaardigheidskloof. Onzekerheid over promptkwaliteit, feitcontrole en brongebruik vergroot de kans op missers, wat openheid nog spannender maakt.
- Beleid en tooling. Als veilige oplossingen en goede kaders ontbreken, verschuift gebruik naar “shadow AI”, buiten het zicht en de governance.
Wat werkt ertegen op organisatieniveau?
Op organisatieniveau kun je de volgende beheersmaatregelen treffen:
- Stel duidelijke, korte spelregels op. Benoem toegestane cases, verboden data, verplichte kwaliteitschecks en hoe je verantwoord informatie naar buiten brengt.
- Normaliseer transparantie. Geef een vaste formulering voor verantwoorde inzet en maak duidelijk dat de mens eindverantwoordelijk blijft.
- Beoordeel eerst de uitkomst. Waar mogelijk review je het resultaat zonder procesinformatie, daarna pas het gebruik van AI.
- Investeer gericht in AI-geletterdheid. Trainen op prompten, factchecking, bias, privacy en bronvermelding levert direct zichtbaar beter werk op.
- Bied veilige tooling. Lever gecontroleerde AI-hulpmiddelen met logging en datakaders, zodat schaduwgebruik afneemt.
- Geef als leidinggevenden duidelijk aan wat je ambitie is voor de inzet van AI. En laat zelf, met goed voorbeeldgedrag, zien wat AI brengt en hoe het hoort te worden toegepast.
Wat helpt jou als professional persoonlijk?
Uiteraard kun je als professional zelf ook maatregelen treffen. Denk dan aan de volgende zaken:
- Houd een beknopt werklog bij met doel, gebruikte bronnen en uitgevoerde controles.
- Gebruik een neutrale disclosure: “Een AI-assistent is ingezet voor suggesties, structurering en samenvatting; de inhoud is door mij persoonlijk gecontroleerd en verbeterd.”
- Zet AI in voor suggesties, structureren, samenvatten en het genereren van varianten. Controleer de feiten, bronnen, privacy en bias (met steeds eenzelfde ‘checklist).
- Scherp de eindredactie aan, waarbij je controleert of de tekst jouw herkenbare ‘tone of voice’ heeft. De AI kan overigens ook worden gevraagd om al met jouw schrijfstijl rekening te houden.
Een cultuurvraagstuk
In feite is AI-schaamte minder een technologisch probleem, maar een cultuurvraagstuk dat zich uit in specifiek gedrag van mensen. Gelukkig weten we inmiddels dat ook gedrag is bij te sturen, mits de juiste beheersmaatregelen worden gekozen. Wie uiteindelijk transparantie, vakmanschap en goede kaders combineert, oogst betere AI-uitkomsten met minder risico’s. Veel succes gewenst bij mooie en verantwoorde AI toepassingen, vakgenoten binnen audit, risk en compliance!
Meer weten over hoe je de risico’s van AI in de grip houdt?
Hartelijk dank voor het lezen van deze bijdrage. Ben je geïnteresseerd in meer informatie over het onderwerp AI en de beheersing van zowel de kansen als risico’s op dat gebied? Neem dan contact op met mij of één van mijn collega’s. Wij staan klaar om je vragen te beantwoorden en je verder te helpen.
Ons deskundig team, met jarenlange ervaring, staat klaar om onze relaties te ondersteunen en persoonlijk advies op maat te bieden dat aansluit bij de specifieke situatie. Wij streven ernaar om zo snel mogelijk op vragen te reageren.