Met AI kan je jouw content sneller en slimmer produceren. Maar hoe gebruik je AI zodat het veilig en ethisch blijft? Veel organisaties worstelen met deze vragen over dataveiligheid, compliance, ethiek en intellectueel eigendom als je AI gebruikt.
Sommige organisaties verbieden daarom het gebruik van AI, maar uit onderzoek blijkt dat 48% van de medewerkers dan toch AI gebruikt, (Bron: AI Proficiency Report – Section, www.sectionschool.com/resources)
Het gebruik verbieden of alles dichttimmeren met strenge regels werkt dus niet. Wat kun je dan wel doen? Dit is hoe wij het aanpakken: praktisch, werkbaar en bovenal veilig.
Wat beter werkt is het uitleggen van de risico's en het geven van de context. Waarom zijn die regels er? Wat kan er misgaan?
Door concrete voorbeelden te geven, maken we de risico’s tastbaar. Zo worden onze collega’s bewuster en voorzichtiger.
Veel voorkomende risico’s bij gebruik van AI
Als onze medewerkers de risico’s beter begrijpen, wordt het voor hen makkelijker om AI veilig en ethisch in te zetten. Onze regels zijn heel duidelijk. Zo pakken wij het aan:
Zorg voor een helder AI-beleid en praktische training
We leggen uit hoe je veilig omgaat met data, bias herkent en wat wel of niet gedeeld mag worden. Bij ons is dit een vast onderdeel van de onboarding en een terugkerende training.
Stel duidelijke richtlijnen op
We geven richtlijnen aan onze medewerkers wat ze wel of niet mogen invoeren in AI-tools. Na deze training kunnen de meesten dat prima zelf inschatten.
Bij data en persoonsgegevens? Heel simpel: niet doen. Hoe verleidelijk het ook is om even een Excel in AI te gooien, dat doen we nooit. De analyse doen we traditioneel met de hand. We laten AI de formules schrijven, maar plakken die handmatig in ons bestand. Of we anonimiseren al onze data. ‘Better safe than sorry.’
En bij intellectueel eigendom, bias en ethiek: als je twijfelt, doe extra onderzoek. Vaak voel je al aan dat er extra controle nodig is, luister naar je intuïtie.
Bescherm gevoelige data
We voeren nooit vertrouwelijke informatie in AI-tools, ook niet bij betaalde of ‘private’ versies zoals ChatGPT Teams. Zolang we niet zeker weten hoe veilig het is, doen we het gewoon niet.
Beperk intellectueel eigendom-risico’s
We controleren de AI-output altijd, want we weten dat AI kan hallucineren en bronnen kan verzinnen. Daarom vertrouwen we er nooit blind op en we controleren de bronnen altijd zelf.
Voorkom ongecontroleerd AI-gebruik
Naast de trainingen bieden we onze medewerkers een veilige, betaalde Crossphase AI-omgeving aan. Zo voorkomen we dat medewerkers risicovolle tools gebruiken. Zien we een nieuwe AI-tool die echt meerwaarde heeft? Dan toetsen we die zorgvuldig en schaffen hem officieel aan.
Wees transparant over AI-gebruik
We zijn eerlijk over ons gebruik van AI, onze content is (deels) door AI gegenereerd. Ons uitgangspunt is dat wij altijd AI combineren met onze strategische input en redactie. Werken met AI vinden we geen schande, we zijn er juist trots op, omdat we beter én sneller werken mét AI dan zonder.
AI biedt enorme kansen voor contentcreatie en we gebruiken het veel. Maar we weten dat je zonder duidelijke afspraken grote risico’s loopt. Daarom hebben wij een praktische aanpak die we continu optimaliseren en aanpassen.
Kort samengevat:
Het belangrijkste is dat we AI training niet zien als een eenmalige actie. Wij trainen continu. En als er nieuwe, waardevolle AI-tools opduiken, dan toetsen we ze en schaffen ze aan.
De toekomst van AI in content ligt in bewuste keuzes. Niet in grenzeloos experimenteren, maar in slim, veilig en doordacht gebruik.