Met AI kan je jouw content sneller en slimmer produceren. Maar hoe gebruik je AI zodat het veilig en ethisch blijft? Veel organisaties worstelen met deze vragen over dataveiligheid, compliance, ethiek en intellectueel eigendom als je AI gebruikt.

Sommige organisaties verbieden daarom het gebruik van AI, maar uit onderzoek blijkt dat 48% van de medewerkers dan toch AI gebruikt, (Bron: AI Proficiency Report – Section, www.sectionschool.com/resources)

Het gebruik verbieden of alles dichttimmeren met strenge regels werkt dus niet. Wat kun je dan wel doen? Dit is hoe wij het aanpakken: praktisch, werkbaar en bovenal veilig.

Man lacht en gebaart tijdens een vergadering

Waarom uitleg geven beter werkt dan verbieden

Wat beter werkt is het uitleggen van de risico's en het geven van de context. Waarom zijn die regels er? Wat kan er misgaan?

Door concrete voorbeelden te geven, maken we de risico’s tastbaar. Zo worden onze collega’s bewuster en voorzichtiger.

Veel voorkomende risico’s bij gebruik van AI

  • Datalekken en ongecontroleerd gebruik
    Denk aan een medewerker die ChatGPT gebruikt zonder toestemming en per ongeluk gevoelige data deelt. Deze gegevens zijn nu als ‘openbare informatie’ gelabeld in ChatGPT, waardoor iedereen bij deze gegevens kan. Veel organisaties hebben hier nog geen duidelijk beleid op en dat maakt het risico groter.

  • Compliance-risico’s en persoonsgegevens
    Naast de AVG (GDPR) geldt sinds 2024 ook de EU AI Act. Deze wet stelt eisen aan transparantie en ethiek. Je mag niet zomaar persoonsgegevens uploaden, ook geen namen van collega’s of klanten.

  • Intellectueel eigendom (IP)
    Content die door AI wordt gegenereerd, valt vaak niet automatisch onder het auteursrecht, wat betekent dat je er mogelijk geen exclusieve rechten op hebt. Daarnaast worden veel AI-systemen getraind met bestaande teksten, beelden of muziek die wél auteursrechtelijk beschermd zijn. Dat kan juridische risico’s opleveren, zeker als de output van de AI sterk lijkt op het originele materiaal. Omdat de wetgeving hierover nog in ontwikkeling is, is het verstandig om hier extra voorzichtig mee om te gaan.

  • Bias in AI
    AI leert van bestaande data en neemt daarin de vooroordelen mee. Dat kan onbewust leiden tot discriminatie. Wees je bewust van deze bias, jij bent en blijft altijd zelf eindverantwoordelijk voor de content die je maakt, ook met gebruik van AI.

  • Ethische valkuilen
    AI kan misleidende of schadelijke content genereren. Hetzelfde als met bias, wees ervan bewust dat jij zelf verantwoordelijk bent.

Wat kun je doen om veilig en ethisch met AI te werken?

Als onze medewerkers de risico’s beter begrijpen, wordt het voor hen makkelijker om AI veilig en ethisch in te zetten. Onze regels zijn heel duidelijk. Zo pakken wij het aan:

Zorg voor een helder AI-beleid en praktische training
We leggen uit hoe je veilig omgaat met data, bias herkent en wat wel of niet gedeeld mag worden. Bij ons is dit een vast onderdeel van de onboarding en een terugkerende training.

Stel duidelijke richtlijnen op
We geven richtlijnen aan onze medewerkers wat ze wel of niet mogen invoeren in AI-tools. Na deze training kunnen de meesten dat prima zelf inschatten.

Bij data en persoonsgegevens? Heel simpel: niet doen. Hoe verleidelijk het ook is om even een Excel in AI te gooien, dat doen we nooit. De analyse doen we traditioneel met de hand. We laten AI de formules schrijven, maar plakken die handmatig in ons bestand. Of we anonimiseren al onze data. ‘Better safe than sorry.’

En bij intellectueel eigendom, bias en ethiek: als je twijfelt, doe extra onderzoek. Vaak voel je al aan dat er extra controle nodig is, luister naar je intuïtie.

Man wijst naar een muur met post-its

Bescherm gevoelige data
We voeren nooit vertrouwelijke informatie in AI-tools, ook niet bij betaalde of ‘private’ versies zoals ChatGPT Teams. Zolang we niet zeker weten hoe veilig het is, doen we het gewoon niet.

Beperk intellectueel eigendom-risico’s
We controleren de AI-output altijd, want we weten dat AI kan hallucineren en bronnen kan verzinnen. Daarom vertrouwen we er nooit blind op en we controleren de bronnen altijd zelf.

Voorkom ongecontroleerd AI-gebruik
Naast de trainingen bieden we onze medewerkers een veilige, betaalde Crossphase AI-omgeving aan. Zo voorkomen we dat medewerkers risicovolle tools gebruiken. Zien we een nieuwe AI-tool die echt meerwaarde heeft? Dan toetsen we die zorgvuldig en schaffen hem officieel aan.

Wees transparant over AI-gebruik
We zijn eerlijk over ons gebruik van AI, onze content is (deels) door AI gegenereerd. Ons uitgangspunt is dat wij altijd AI combineren met onze strategische input en redactie. Werken met AI vinden we geen schande, we zijn er juist trots op, omdat we beter én sneller werken mét AI dan zonder.

Twee collega's in gesprek bij een laptop op kantoor

Conclusie: zo werk je veilig met AI in contentcreatie

AI biedt enorme kansen voor contentcreatie en we gebruiken het veel. Maar we weten dat je zonder duidelijke afspraken grote risico’s loopt. Daarom hebben wij een praktische aanpak die we continu optimaliseren en aanpassen.

Kort samengevat:

  • Zorg voor een helder beleid
  • Train je team en houd de kennis up-to-date
  • Geef je team toegang tot veilige AI tools

Het belangrijkste is dat we AI training niet zien als een eenmalige actie. Wij trainen continu. En als er nieuwe, waardevolle AI-tools opduiken, dan toetsen we ze en schaffen ze aan.

De toekomst van AI in content ligt in bewuste keuzes. Niet in grenzeloos experimenteren, maar in slim, veilig en doordacht gebruik.

Shiane Gambhirsingh

ontdekken wat wij voor jouw organisatie kunnen betekenen?

Shiane Gambhirsingh
Lead accountmanager
bel naar
071 528 0002