AI-CADEMIE

Wat wil jij leren?

Veilig schrijven met AI

Wat je moet weten over aansprakelijkheid, privacy, auteursrecht, bronvermelding, bias en hallucinaties

Hoe veilig is het gebruik van generatieve AI-tools, zoals ChatGPT, Claude of CoPilot? Wat mag wel en niet juridisch? Hoe zit het met aansprakelijkheid? En met auteursrechten? En hoe voorkom je bias of feitelijke onjuistheden (‘hallucinaties’) in door AI geschreven content?

In dit artikel gaan we in op juridische en ethische vragen die AI-gebruik oproept. We behandelen de belangrijkste aandachtspunten voor veilig schrijven met AI – van aansprakelijkheid en privacy (AVG/GDPR) tot auteursrecht, bias en hallucinaties – en bieden per thema concrete handvatten om veilig en verantwoord met AI te schrijven.

Juridisch veilig schrijven met AI

AI-gebruik roept vragen op over juridische risico’s. Welke risico’s zijn er, hoe garandeer je veilig schrijven met AI? Twee kernaspecten springen eruit: aansprakelijkheid voor de inhoud die de AI genereert en privacy/gegevensbescherming bij het gebruik van externe AI-tools.

Aansprakelijkheid voor AI-inhoud

Wanneer je AI gebruikt om teksten te genereren ben jij als gebruiker (of jouw organisatie) in de praktijk verantwoordelijk voor de inhoud. Ook al komt de tekst (deels) van een model als ChatGPT, juridische gevolgen van die content – zoals onjuiste of schadelijke uitspraken – komen waarschijnlijk voor jouw rekening. AI-modellen kunnen bijvoorbeeld feitelijke onzin presenteren als ware het waarheid. Stel dat een AI in een rapport een persoon onterecht beschuldigt van wangedrag; dit kan leiden tot een beschadigde reputatie of zelfs een rechtszaak. In Australië is OpenAI (de maker van ChatGPT) recent juridisch in het nauw gekomen nadat ChatGPT ten onrechte beweerde dat een lokale burgemeester betrokken was bij omkoping. Die burgemeester heeft juridische stappen ondernomen wegens laster en reputatieschade, een primeur die duidelijk maakt dat valse beweringen van AI tot serieuze aansprakelijkheidsrisico’s leiden​. In dit geval werd OpenAI zelf aangeklaagd, maar stel dat jij zo’n ongefundeerde beschuldiging, gegenereerd door AI, publiekelijk verspreidt – dan kun je zelf ook aansprakelijk worden gesteld.

Wie is verantwoordelijk: AI of jij?

Bedenk dat de voorwaarden van AI-diensten vaak aansprakelijkheid bij de gebruiker leggen. De meeste AI-platformen (zoals OpenAI’s API) vermelden dat de gebruiker verantwoordelijk is voor hoe de output wordt toegepast. Er is nog geen eenduidige wetgeving die bepaalt wie juridisch aansprakelijk is voor AI-output, maar de trend is duidelijk: de menselijke gebruiker of uitgever blijft de feitelijke auteur in juridische zin. Je kunt je dus niet zomaar verschuilen achter ‘de computer zei het’. Vergelijk het met het citeren van een onbetrouwbare bron – degene die citeert, wordt ter verantwoording geroepen. In de EU moet wetgeving zoals de AI Act duidelijk regelen wie verantwoordelijk is bij schade door AI. Hoewel de wetgeving in ontwikkeling is, leggen de regels de nadruk op transparantie en menselijk toezicht​. Met andere woorden: organisaties moeten laten zien dat ze AI-uitkomsten controleren en dat gebruikers weten wanneer ze met AI-content te maken hebben.

Privacy en AVG/GDPR

Veilig schrijven met AI: AVG en privacyEen ander juridisch knelpunt bij veilig schrijven met AI is gegevensbescherming. Veel professionele teksten bevatten (of worden gevoed door) vertrouwelijke informatie of persoonsgegevens. Denk aan concept-contracten, klantdossiers, interne nota’s, enzovoort. Als je dergelijke input rechtstreeks aan een externe AI-dienst voert, loop je het risico dat je de AVG (GDPR) schendt.

Italië was in 2023 het eerste land dat ChatGPT tijdelijk blokkeerde wegens privacyzorgen: de autoriteiten oordeelden dat niet duidelijk was hoe OpenAI omgaat met persoonlijke data en of het gebruik voldoet aan de AVG​. Recenter blokkeerde Italië om vergelijkbare redenen ook het Chinese DeepSeek. Dit onderstreept hoe strikt Europa omgaat met privacy. In Nederland zal de Autoriteit Persoonsgegevens kritisch kijken of het invoeren van persoonsgegevens in een AI-tool is toegestaan. Formeel gezien verstrek je immers data aan een derde partij (bijvoorbeeld aan een Amerikaans bedrijf als OpenAI) – dit vereist doorgaans een verwerkersovereenkomst en een gerechtvaardigde grondslag onder de AVG. Zonder die basis kan het ongeoorloofd zijn om bijvoorbeeld klantgegevens door ChatGPT te laten analyseren.

Gebruikt AI jouw data?

Daarnaast is er het risico van vertrouwelijkheidslekken. De prompt die je aan een AI geeft, kan door de AI-provider worden opgeslagen of zelfs gebruikt om het model verder te trainen, tenzij je andere afspraken hebt. OpenAI zelf waarschuwt gebruikers om geen gevoelige informatie prijs te geven via ChatGPT. Sinds 2023 biedt het bedrijf zakelijke gebruikers de mogelijkheid om data-uitwisseling uit te zetten, maar standaard geldt: wat je invoert, zou in theorie later door anderen gereproduceerd kunnen worden. Er zijn voorbeelden waar AI-modellen bedrijfsgevoelige informatie ‘geleerd’ hebben omdat iemand het ooit invoerde, wat later tot uitlekken leidde. Gebruikers moeten dus beseffen dat content delen met een AI gelijkstaat aan het delen met de wereld, tenzij contractueel anders is gegarandeerd.

Tips voor juridisch veilig schrijven met AI

  • Voer geen vertrouwelijke of herleidbare persoonsgegevens in bij publieke AI-diensten. Anonimiseer data (vervang namen en details) als je toch gevoelige cases wilt laten analyseren. Beter nog: gebruik on-premise of Europese AI-oplossingen voor privacygevoelig materiaal.
  • Check de gebruiksvoorwaarden van de AI-tool. Voor commercieel gebruik van de output gelden bij de grote aanbieders doorgaans weinig beperkingen, maar je bevestigt meestal dat je geen rechten van derden schendt en dat de aanbieder niet aansprakelijk is. Weet wat je accepteert.
  • Beoordeel AI-output alsof het door een collega is geschreven die niet juridisch onderlegd is. Met andere woorden: laat de output altijd door een menselijke expert controleren vóór publicatie of intern gebruik. Dit geldt met name voor beweringen over personen, juridische uitspraken, medische adviezen, enzovoort. Voorkom dat potentieel schadelijke onjuistheden ongezien passeren.
  • Hanteer interne richtlijnen voor AI-gebruik. Steeds meer organisaties stellen AI-beleid op: wat mag wel/niet met tools als ChatGPT? Bijvoorbeeld: AI-gegenereerde tekst moet altijd door een medewerker worden geredigeerd. Of: geen AI-gebruik voor bepaalde hoog-risico documenten. Stel dergelijke kaders op en zorg dat collega’s ervan op de hoogte zijn.
  • Houd ontwikkelingen in de gaten. Wet- en regelgeving rond AI evolueert snel. Nieuwe EU-regels kunnen bijvoorbeeld transparantie-eisen introduceren (waarbij je het moet melden als tekst door AI is gemaakt). Blijf juridisch up-to-date zodat je gebruik aansluit bij de actuele normen.

Auteursrecht en AI: wie is de maker en hoe zit het met plagiaat?

AI-gegenereerde content roept fundamentele vragen op over auteursrecht. Immers, als een tekst niet door een mens maar door een model is geschreven, wie geldt dan als auteur? En mag je AI überhaupt gebruiken om commerciële content te creëren zonder inbreuk te maken op copyrights van anderen?

Wie is de auteur van AI-tekst?

Veilig schrijven met AI AuteursrechtIn het huidige auteursrecht (zowel Nederlands als internationaal) ligt het auteurschap bij de natuurlijke persoon die een werk heeft voortgebracht met een oorspronkelijk, creatief karakter. Een tekst die volledig door AI is gegenereerd mist menselijke creatieve inbreng en valt juridisch gezien waarschijnlijk niet onder traditionele auteursrechtbescherming. Simpel gezegd: een AI zelf kan geen juridische auteur zijn, en als de menselijke gebruiker nauwelijks creatieve keuzes heeft gemaakt, kan die persoon niet zonder meer auteursrecht claimen op de output. Dit heeft twee gevolgen: (1) Je hebt mogelijk geen exclusieve rechten op door AI-gegenereerde tekst – anderen zouden delen kunnen overnemen zonder inbreuk (omdat er juridisch gezien misschien geen auteursrecht op rust). En (2) omgekeerd ben je ook beperkt in het afdwingen van jouw rechten als iemand anders AI gebruikt om iets soortgelijks te maken. Dit gegeven wordt steeds relevanter nu bedrijven content (blogs, productteksten, podcasts, webpagina’s, enzovoort) door AI laten schrijven.

Moet je AI-gebruik vermelden?

Daarnaast worstelt men met de vraag of en hoe je bronvermelding moet doen bij AI-gebruik. In academische kring wordt AI-output niet gezien als een traditionele bron, maar het gebruik van AI zonder vermelding kan ethisch discutabel zijn – je presenteert werk als eigen creatie terwijl het (deels) door AI is gegenereerd. Sommige uitgeverijen en conferenties eisen dat auteurs aangeven of AI is gebruikt bij het schrijven. In commerciële content is dit minder uitgekristalliseerd: doorgaans hoeft een copywriter niet expliciet te vermelden dat bijvoorbeeld een slogan met hulp van ChatGPT is bedacht. Toch is transparantie naar de opdrachtgever verstandig.

Commercieel veilig schrijven met AI

Veilig schrijven met AI Commercieel gebruikMag je AI inzetten voor commerciële teksten? Ja, in principe mag je AI gebruiken om teksten te genereren voor commerciële doeleinden. Er is geen wet die het verbiedt – integendeel, bedrijven omarmen deze tools massaal voor marketing, klantenservice, websites, enzovoort. Wel zijn er aandachtspunten voor veilig schrijven met AI voor commercieel gebruik. Ten eerste de eerdergenoemde privacy (geen klantdata onbeschermd invoeren). Ten tweede eventuele contractuele afspraken: controleer of jouw opdrachtgever of werkgever hier beperkingen op heeft (sommige organisaties willen geen AI-gegenereerde content onder hun naam, uit vrees voor kwaliteitsverlies of reputatieschade). Ten derde: realiseer je dat de output mogelijk niet onder jouw auteursrecht valt. Voor een blogartikel is dat wellicht geen groot bezwaar, maar als je bijvoorbeeld een uniek cursusboek door AI laat samenstellen dat je commercieel wilt exploiteren, kan het problemen geven om daar exclusieve rechten op te claimen.

Plagiaat en data-invoer van AI

Een groot risico van AI-gegenereerde tekst is onbedoeld plagiaat. Modellen als GPT genereren over het algemeen wel nieuw geformuleerde zinnen, maar dat doen ze op basis van hun trainingsdata – bestaande uit miljarden bestaande teksten. In principe genereren ze probabilistisch nieuwe combinaties, maar er zijn gevallen bekend waarin een AI-model letterlijk langere passages uit het bronmateriaal oplepelt. Zeker als je een AI vraagt om exacte teksten (‘Geef de openingsparagraaf van The Great Gatsby’), loop je kans dat het model bijna woordelijk het origineel weergeeft. Ook zonder expliciete instructie kan dit gebeuren. Uit een onderzoek door Patronus AI (maart 2024) bleek dat GPT-4 in 44% van de testen letterlijk zinnen uit een auteursrechtelijk beschermd boek produceerde wanneer hier feitelijk om werd gevraagd​. Andere modellen deden dit iets minder vaak, maar het toont aan dat zelfs geavanceerde AI’s soms hele passages kopiëren uit hun trainingscorpus.

Veilig schrijven met AI zonder plagiaatCopyright

Dit betekent dat een AI-tekst onbewust inbreuk kan maken op auteursrecht. Bijvoorbeeld als een AI-tool tekst genereert die sterk lijkt op een al bestaande publicatie (zonder dat jij of het AI-model dat beseft). Als jij dat vervolgens publiceert, overtreed je mogelijk het auteursrecht van de oorspronkelijke auteur. Jij kunt dan als publicerend gebruiker verantwoordelijk worden gehouden. Er lopen al diverse rechtszaken over het gebruik van beschermd materiaal in AI-training. Zo klaagden auteurs als Sarah Silverman OpenAI en Meta aan omdat hun boeken zonder toestemming in het trainingsmateriaal zijn gebruikt​. Hoewel veel van die claims nog onopgehelderd zijn of afgewezen werden (in de zaak-Silverman werden in 2024 de meeste vorderingen afgewezen, behalve een claim over oneerlijke concurrentie​), illustreert dit de aandacht voor copyrightschending door AI. Ook persorganisaties komen in verweer: eind 2023 spande de New York Times een zaak aan omdat ChatGPT stukken uit hun artikelen kon reproduceren​. Hier ging het om AI-output die zo sterk leek op de originelen dat het als overtreding werd gezien.

Tips voor veilig schrijven met AI zonder plagiaat

  • Voeg menselijke creativiteit toe. Zie AI-output als ruwe grondstof die jij als schrijver bewerkt. Door zelf de tekst ingrijpend te redigeren, te herschrijven in je eigen stijl en te verrijken met originele ideeën, zorg je dat het eindproduct een menselijke creatieve stempel draagt. Zo vergroot je de kans dat het auteursrechtelijk als ‘origineel werk’ geldt (mocht dat belangrijk zijn) én maak je de tekst unieker.
  • Controleer op plagiaat. Behandel AI-tekst alsof je een tekst van een ander hebt gekregen: draai het door een plagiaatchecker (bijvoorbeeld Grammarly of Copyscape) om te zien of er grote overlap is met bestaande bronnen. Ook kun je een paar opvallende zinnen googlen. Vindt de tool of zoekmachine een bijna identieke bron, herschrijf die passage dan drastisch of laat die inhoud weg. Dit beschermt niet alleen tegen juridische claims maar ook tegen reputatieschade.
  • Geef AI desnoods beperkingen mee in je prompt. Je kunt in de opdracht aan een model opnemen: ‘Geef een originele tekst en vermijd het letterlijk overnemen van bestaande bronnen.’ Hoewel dit geen garantie biedt, vergroot het wel de kans dat het model ervoor kiest om informatie in eigen woorden samen te vatten.
  • Let op bronnen en citaten. Als de AI feitelijke informatie of citaten aanreikt, vraag dan expliciet naar de bron. Wees zeer terughoudend met het overnemen van lange citaten die de AI geeft, tenzij je hun oorsprong verifieert. Een AI verzint namelijk vaak bronnen of haalt quotes uit context (hierover meer bij hallucinaties). In het algemeen: als er een substantiële passage in de AI-output zit die je niet zelf had kunnen schrijven, verdiep je dan in de herkomst voor je die gebruikt.
  • Overweeg transparantie over AI-gebruik. Intern kun je aangeven welke delen met AI-hulp tot stand kwamen – dit kan relevant zijn voor peer review of juridische checks. Voor externe publicaties is er nog geen brede plicht tot labelen, maar transparantie kan vertrouwen scheppen. Sommige auteurs voegen een noot toe als ‘Deze tekst is tot stand gekomen met ondersteuning van AI’. Dit is situatie-afhankelijk (marketingcopy zal dit meestal niet vermelden, academische publicaties steeds vaker wel).

Bias in AI-systemen: onzichtbare vooroordelen in tekst

Veilig schrijven met AI zonder biasBias – vooroordelen of aannames – is een subtiel maar risicovol aspect van AI-gegenereerde teksten. Grote taalmodellen leren van enorme hoeveelheden bestaande teksten van het internet en andere bronnen. In dat trainingsmateriaal zitten onvermijdelijk vooroordelen besloten: van genderstereotypen en etnische biases tot politieke en culturele voorkeuren. Het model kan deze biases onbewust reproduceren of zelfs versterken in de output. Voor professionele communicatie, waar neutraliteit en inclusiviteit belangrijke waardes zijn, is dit een aandachtspunt. Hoe kun je veilig schrijven met AI zonder bias?

Bias kan op verschillende manieren tot uiting komen. Soms is het direct en herkenbaar, bijvoorbeeld een AI-assistent die op vragen over criminaliteit ongepaste associaties legt met een bepaalde demografische groep. Vaker is het indirect: bepaalde assumpties of voorbeelden die steevast vanuit één perspectief komen. Stel, je vraagt een AI om een voorbeeld te geven van een CEO en zijn assistent – als het model structureel mannelijke voornaamwoorden voor de CEO gebruikt en vrouwelijke voor de assistent, sluipt er een genderbias in de tekst. Zo zijn er gevallen bekend van AI-systemen die bij het schrijven van vacatureteksten termen kozen die onbewust gericht zijn op één gender, of klantcommunicatie creëerden waarbij klachten van de ene groep anders werden bejegend dan die van een andere.

Kan AI volledig neutraal zijn?

Onderzoek bevestigt dat biases breed aanwezig zijn. Een in 2025 gepubliceerd onderzoek van de Anti-Defamation League toonde aan dat meerdere grote taalmodellen (ChatGPT, LLaMA, Claude e.a.) antisemitische bias vertoonden in hun output​. Eerder is ook politieke bias waargenomen: ChatGPT werd beschuldigd van een links-liberale insteek in sommige antwoorden​. De ontwikkelaars proberen dit te mitigeren – OpenAI heeft richtlijnen opgesteld om het model neutraal te laten blijven bij controversiële onderwerpen​ – maar volledige neutraliteit blijft een uitdaging. Bias kan zich dus manifesteren op gebieden van gender, ras, religie, politiek, leeftijd, of welk gebied dan ook.

Waarom is dit risicovol?

In professionele communicatie kan een biased AI-tekst leiden tot uitsluiting of imagoschade. Een ogenschijnlijk onschuldige marketingtekst die alleen op één bevolkingsgroep lijkt te mikken, kan anderen vervreemden. Interne communicatie die stereotypen bevat kan in een organisatie tot frictie leiden. Er zijn ook juridische risico’s: discriminerende uitingen (al zijn ze onbedoeld via AI ontstaan) kunnen bijvoorbeeld in strijd zijn met arbeidsrechtelijke gelijkheidsbeginselen of anti-discriminatiewetgeving als ze in vacatures of publiek materiaal belanden. Voor veilig schrijven met AI is dus van belang dat je alert bent op bias.

Tips om bias te herkennen en vermijden:

  • Wees bewust en lees kritisch. De eerste stap is bewustzijn: weet dat AI-uitvoer kan bijdragen aan vooroordelen. Lees daarom elke AI-gegenereerde tekst kritisch. Vraag je af: worden groepen mensen onnodig expliciet genoemd? Worden er impliciete aannames gedaan? Is de toon respectvol naar alle doelgroepen?
  • Stuur het model actief aan op neutraliteit. Je kunt in je prompt al bias tegengaan. Bijvoorbeeld: ‘Schrijf genderneutraal’ of ‘Geef evenwichtige perspectieven van verschillende groepen’. Als je merkt dat de output eenzijdig is, probeer dan: ‘Herzie de tekst en zorg dat hij cultureel divers en inclusief is’. Veel AI-modellen kunnen daarmee uit de voeten.
  • Check op inclusiviteit. Er bestaan tools die teksten scannen op onbevooroordeeld taalgebruik. Denk aan Microsoft Editor’s inclusiviteitssuggesties, of plug-ins zoals Textio en Gender Decoder voor vacatures. Door AI-teksten hier even doorheen te halen, kun je signalen van bias detecteren, zoals woorden die onbedoeld mannen of vrouwen meer aanspreken.
  • Laat diverse lezers meekijken. Als het een belangrijke uiting is, laat dan collega’s met verschillende achtergronden de tekst reviewen. Zij pikken er vaak uit wat jij over het hoofd ziet. Een multicultureel communicatieteam kan AI-output beoordelen op mogelijke gevoeligheden.
  • Train het model of gebruik specifieke AI’s. Voor wie regelmatig AI inzet: sommige platforms bieden de mogelijkheid om modellen te finetunen op je eigen data. Je kunt het model voeden met jouw huisstijl of schrijfwijzer, met expliciete aandacht voor inclusiviteit. Ook zijn er AI-systemen die claimen minder bias te hebben doordat ze met zorg samengestelde datasets gebruiken. Verken die opties als bias voor jouw content kritiek is.
  • Ken de valkuilen in jouw domein. Elke sector heeft z’n eigen gevoeligheden. In de ene sector is bijvoorbeeld van belang dat beschrijvingen niet stigmatiserend zijn, in een andere misschien dat voorbeelden niet alleen Westers georiënteerd zijn, enzovoort. Inventariseer welke valkuilen gelden voor jouw branche en beoordeel AI-output specifiek op deze punten.

Hallucinaties en feitelijke onjuistheden: als AI dingen verzint

Veilig schrijven met AI zonder hallucinerenMisschien wel het meest besproken risico is de neiging van AI tot ‘hallucineren’ – het zelfverzekerd presenteren van verzonnen feiten. Anders dan een traditionele software die stopt bij ‘weet ik niet’, zal een model als ChatGPT altijd een antwoord genereren, zelfs als er geen goede informatie beschikbaar is. Het resultaat: feitelijke onjuistheden die soms moeilijk van echte feiten te onderscheiden zijn. Dit varieert van kleine fouten (jaartallen, namen) tot compleet fictieve verhalen of bronnen.

OpenAI zelf erkent deze beperking. Bij het gebruik van ChatGPT krijgt iedere gebruiker een disclaimer te zien dat het model soms ‘plausibel klinkende maar incorrecte of nonsensicale antwoorden’ produceert​. Een AI kan bijvoorbeeld een rapport of onderzoek citeren dat in werkelijkheid niet bestaat, puur omdat dat statistisch gezien in het antwoord past. In jargon: de AI hallucineert de bron. Zo’n fout is niet altijd triviaal: in een veelbesproken voorval in 2023 dienden advocaten in New York een pleidooi in met verwijzingen naar rechtszaken die volstrekt fictief bleken – ze hadden ChatGPT juridische bronnen laten opzoeken en die had ze gewoon verzonnen​. De advocaten waren zich van geen kwaad bewust totdat de rechter hen confronteerde met het feit dat die jurisprudentie niet bestond. ‘Ik besefte niet dat ChatGPT zaken kon fabriceren,’ verklaarde een van hen later​. Dit incident had disciplinaire gevolgen en is een waarschuwing: AI’s kunnen op overtuigende wijze onwaarheden verkondigen, met potentieel ernstige repercussies als je ze overneemt.

Geloofwaardigheid in het geding

Hallucinaties hoeven niet altijd juridisch zwaar te wegen, maar kunnen ook je geloofwaardigheid aantasten. Stel je schrijft met behulp van AI een achtergrondartikel en daarin staat dat 80% van de Nederlanders X doet volgens een CBS-rapport, terwijl dat cijfer in werkelijkheid uit de duim gezogen is – je lezers of collega’s zullen het vertrouwen verliezen als ze erachter komen. Of denk aan interne beleidsstukken: een AI genereert een prachtig onderbouwd advies, compleet met aanbevelingen uit ‘onderzoeken’ die nooit hebben plaatsgevonden. Zonder factcheck neemt het management beslissingen op spookinformatie.

Hoe kun je veilig schrijven met AI zonder fouten?

Het verraderlijke is dat AI-hallucinaties vaak zeer geloofwaardig ogen. Ze worden gebracht met details, soms met referenties in academische stijl. Toch zijn er signalen: extreem precieze feiten (‘Exact 52,4% van de gebruikers ervaart…’ – klinkt betrouwbaar maar check het altijd), bronnen die moeilijk te traceren zijn, of inconsistente logica. In het voorbeeld van de fictieve rechtszaken viel bij nadere lezing op dat de casus in die ‘zaak’ halverwege veranderde..​. AI-verzinsels kunnen bij kritisch lezen als zodanig herkend worden, mits je weet dat het kan gebeuren. Vandaar het belang van een gezonde dosis scepticisme tegenover AI-output.

Tips om hallucinaties te voorkomen en corrigeren:

  • Factcheck systematisch. Neem geen enkele feitelijke bewering van de AI blindelings over zonder onafhankelijke verificatie. Zoek statistieken op in betrouwbare databronnen, controleer namen en gebeurtenissen en kijk of citaten daadwerkelijk voorkomen in een publicatie. Beschouw de AI als een (te) enthousiaste stagiair: lekker vlotte pen, maar je moet alle feiten dubbelchecken.
  • Vraag om bronnen, maar vertrouw ze niet meteen. Je kunt modellen als ChatGPT vragen: ‘Geef bronnen bij je antwoord.’ Soms produceert het dan referenties. Maar zelfs als AI bronnen vermeldt, moet je alert blijven: AI verzint geregeld artikel- of boektitels die niet bestaan, of geeft wel bestaande titels maar met verzonnen inhoud. Gebruik de gegeven bronnen als startpunt: zoek ze op (bij voorkeur via officiële websites) en kijk of ze echt bestaan en of ze daadwerkelijk ondersteunen wat de AI beweert.
  • Gebruik gespecialiseerde AI-tools of plugins. Nieuwe versies en alternatieve systemen (zoals Bing’s AI-chatmodus of bepaalde plug-ins voor ChatGPT) kunnen live op internet zoeken en bronnen aanbieden. Dit reduceert hallucinaties omdat de AI zich baseert op actuele informatie. Maar ook hier geldt: klik door naar de bronnen en lees ze zelf. Tools als Bing geven voetnoten; maak daar gebruik van om te controleren. Er komen ook AI-add-ons die claims automatisch verifiëren, maar deze staan nog in de kinderschoenen.
  • Stel controlevragen aan de AI. Als iets verdacht klinkt, kun je de AI zelf bevragen: ‘Klopt het zeker dat X gebeurd is? Hoe weet je dat?’ of ‘Kun je bevestigen of er echt een rapport bestaat van instelling Y in jaar Z?’. Soms zal het model dan eerlijk toegeven dat het dat niet zeker weet of zelfs rectificeren. Pas wel op: een AI kan ook daar weer hallucineren. Dus zie dit hooguit als een voorselectie (‘als het model nu al gaat twijfelen, is het zeker verdacht’). De daadwerkelijke bevestiging moet van een menselijke bron komen.
  • Gebruik je vakkennis. Als een AI iets beweert wat haaks staat op jouw eigen kennis of wat je eerder hebt gelezen, is dat een rode vlag. Ga het na in plaats van het klakkeloos te accepteren omdat het zo mooi verwoord is. Je expertise is hier je beste wapen: AI heeft geen begrip, alleen statistiek. Jij kunt beoordelen of iets waarschijnlijk juist is.
  • Plan tijd voor eindredactie en research. Je wint tijd bij het schrijven door AI-inzet, investeer die winst in grondige eindredactie. Zie het niet als dubbel werk, maar als essentieel onderdeel van AI-gebruik. Structureer eventueel je workflow: eerst laat je AI een draft maken, vervolgens markeer je alle feitelijke elementen in die draft (namen, data, claims) en besteed je tijd om die stuk voor stuk na te lopen en te corrigeren. Dit voorkomt dat er verborgen fouten blijven zitten.

Veilig schrijven met AI

Veilig schrijven met AI samenvattendAI biedt ongekende mogelijkheden voor het schrijfproces: razendsnel een eerste versie genereren, alternatieve formuleringen aandragen, of complexe stof toegankelijk verwoorden. Tegelijkertijd brengen deze technologieën onzekerheden en risico’s met zich mee op juridisch, ethisch en inhoudelijk vlak. Veilig schrijven met AI betekent: AI gebruiken als gereedschap onder toezicht. Dus: juridisch je huiswerk doen (denk aan privacy en aansprakelijkheid), de regie houden over auteursrecht en originaliteit, scherp letten op bias in de output, en elke feitelijke uitspraak behandelen als onjuist totdat het tegendeel bewezen is.

De rode draad is menselijke controle. Uiteindelijk is een AI geen vervanging van de professionele pen, maar een augmentatie – jij blijft de eindverantwoordelijke curator van de tekst. Door de in dit artikel gegeven handvatten toe te passen, kun je de voordelen van AI benutten (efficiëntie, creativiteit, productiviteit) zonder dat de kwaliteit of integriteit van je tekst in het geding komt. Met die combinatie van technologische hulp én menselijk kritisch vermogen, kun je veilig schrijven met AI.

Twijfel je over de veiligheid van je AI-gebruik? Doe de risico-scan.