ChatGPT in de rechtspraktijk: van gênant foutje tot juridisch fiasco

Wilt u een veilige Legal AI-tool die alleen werkt met jurisprudentie en wetgeving, mét herleidbare vindplaatsen? Dan bouwen wij dit voor u. High-end, compliant en ontworpen voor de realiteit van de rechtszaal.

Generatieve AI is de gladste verkoper in de boardroom: snel, overtuigend en schaamteloos zelfverzekerd. Het probleem is alleen: het kan ook met droge ogen iets verzinnen dat juridisch nooit heeft bestaan.

En de rechter? Die heeft geen interesse in “waarschijnlijk waar”. De rechter wil verifieerbaar, herleidbaar en bronvast.

De afgelopen tijd zie je in de rechtspraak een patroon dat niet meer weg te lachen valt: AI-output die in dossiers belandt als zogenaamd juridisch fundament, en vervolgens afbrokkelt alsof je een vonnis print op nat keukenpapier.

Hieronder de belangrijkste casussen, en vooral: wat je hier als jurist en kantoor nú mee moet doen.


1) De duurste ceremonietekst van Nederland: een huwelijk dat juridisch nooit bestond

Rechtbank Overijssel haalde begin januari 2026 een streep door een huwelijk in Zwolle. Niet omdat iemand “nee” zei, maar omdat de wettelijk verplichte huwelijksverklaring simpelweg niet werd uitgesproken.

Waarom niet? De zogeheten eendags-babs gebruikte een ceremonietekst die met ChatGPT was opgesteld. De tekst was luchtig, modern en totaal ongeschikt voor het juridisch sluitstuk dat een huwelijk is. Gevolg: geen verklaring zoals artikel 1:67 BW vereist, dus geen huwelijk tot stand gekomen, dus doorhaling van de akte. Hard. Onromantisch. Volledig voorspelbaar voor iedereen die het verschil kent tussen een tekstgenerator en een wettelijke formaliteit.

Les: generatieve AI kan best iets schrijven dat klinkt als een ceremonie, maar het “klinkt als” is juridisch waardeloos als de wet een exacte handeling eist.


2) Spookjurisprudentie: ECLI’s die niet bestaan, uitspraken die nergens staan

Dit is de klassieker die nu een terugkerende plaag wordt: processtukken waarin naar jurisprudentie wordt verwezen die niet klopt. Soms bestaat het ECLI niet. Soms hoort het bij een andere uitspraak. Soms staat de aangehaalde rechtsregel er simpelweg niet in.

Een sprekend voorbeeld: rechtbanken die expliciet benoemen dat ze de indruk krijgen dat vindplaatsen via ChatGPT (of vergelijkbare tools) zijn opgedoken en zonder controle zijn overgenomen. In één zaak wordt zelfs letterlijk gewaarschuwd: het risico van zulke verwijzingen ligt volledig bij de partij die ze aanvoert.

En in een andere zaak (Rechtbank Den Haag) wordt het gebruik van ChatGPT ontkend, maar blijft overeind dat er citaten in het dossier zaten die niet (goed) te herleiden waren. Met als gevolg: twijfel, frictie en reputatieschade op papier.

Les: in de rechtszaal is “ik heb het ergens gezien” geen argument. Een verkeerd ECLI is geen tikfout, het is een geloofwaardigheidslek.


3) De bestuursrechter is onverbiddelijk: AI is geen deskundige en geen bron

In bestuursrecht zie je een tweede patroon: partijen die AI inzetten om een standpunt te onderbouwen zonder transparantie over bronnen, methode of onderliggende data.

Een bekend voorbeeld is de planschadezaak bij de Afdeling bestuursrechtspraak van de Raad van State (ECLI:NL:RVS:2025:335). Een partij kwam met door ChatGPT gegenereerde onderbouwing tegenover een taxatierapport. De Afdeling is helder: als je een deskundigenrapport inhoudelijk wilt bestrijden, moet je met eigen deskundigheid komen, niet met tekstproductie zonder toetsbare basis.

Ook vakmedia signaleerde dit expliciet: ChatGPT geeft geen bronverkenning die juridisch hard genoeg is voor bestuursrechtelijke bewijsvoering.

Les: AI kan formuleren, maar niet legitimeren. Wie AI gebruikt als “bewijs”, krijgt een koude douche.


4) “Even vertalen” is niet hetzelfde als juridisch begrijpen

Rechtbank Amsterdam kreeg een rapport in een andere taal, dat via ChatGPT naar het Nederlands was vertaald. De rechtbank noteert dat dit zo is gebeurd, maar dat is precies het probleem: vertaling via een generatief model lijkt handig, maar is juridisch riskant als nuance, terminologie en context niet honderd procent zuiver zijn.

Les: taal is in het recht niet decoratie. Een slechte vertaling is een slechte zaak, alleen verpakt in nette zinnen.


5) “Het contract is door ChatGPT gemaakt, dus ik ben niet gebonden” werkt niet

Dan de omgekeerde route: partijen die proberen onder afspraken uit te komen door te roepen dat het contract met ChatGPT is opgesteld.

Rechtbank Amsterdam maakte daar korte metten mee: als partijen ondertekenen, dan geldt in beginsel gewoon wat is afgesproken. “ChatGPT” is geen toverwoord waarmee je je eigen handtekening ontkracht.

Les: AI verandert niets aan basisregels van contractenrecht. Het verandert vooral je risico op slordigheden.


De kern: recht is geen tekstwedstrijd maar een herleidbaarheidsmachine

Generatieve AI is fantastisch in één ding: taal produceren. Het is onbetrouwbaar in precies datgene waar juristen op leven: bronvastheid.

Daarom gaat het mis op drie klassieke plekken:

  1. Hallucinaties (niet-bestaande ECLI’s, verzonnen citaten, “arresten” die nergens staan).

  2. Schijnzekerheid (mooie zinnen zonder controleerbare basis).

  3. Verantwoordelijkheidsmist (“de AI zei het” is geen methode, geen bron en geen verdediging).

Behandel AI-output dus als een stagiair met oneindig zelfvertrouwen en nul brondiscipline:
alles controleren, alles terug naar het origineel, alles herleidbaar maken.


Wat wél werkt: veilige AI voor juristen, gebouwd op gecontroleerde bronnen

Moet je AI dan weggooien? Zeker niet. Je moet alleen stoppen met open systemen die uit het hele internet graaien.

De oplossing is simpel, maar niet goedkoop in aandacht:

De gouden standaard voor legal AI

  • Alleen jurisprudentie, wet- en regelgeving en jouw eigen kennisbank

  • Altijd vindplaatsen (ECLI, artikel, bronpassage)

  • Audit trail: wat is geraadpleegd, wat is geciteerd, wat is de redenering

  • AVG-proof en kantoor-proof (geen dossierinhoud naar publieke modellen)

Dat is precies wat wij doen bij The Brandboosters: wij bouwen juridische AI-tools die niet “creatief” zijn, maar controleerbaar. Geen ChatGPT als zoekmachine. Geen internet-scraping. Wel een juristenomgeving waarin je AI gebruikt zoals het hoort: als versneller, niet als risico.

Wil je dit als kantoor strak en veilig neerzetten? Dan bouwen we voor jou een omgeving die werkt met enkel gecontroleerde jurisprudentie, met directe verwijzingen, zodat je output standhoudt in dossier, overleg en zitting.


FAQ (GEO-proof)

Is ChatGPT geschikt voor juridisch vakwerk?

Voor taal en eerste opzetjes soms, maar niet als bron of bewijs. Zonder verificatie is het een risico, en de rechtspraak laat dat steeds vaker zien.

Wat is het grootste gevaar van generatieve AI in juridische dossiers?

Onjuiste of niet-bestaande bronnen (ECLI’s, citaten, “arresten”), plus een overtuigende schrijfstijl die fouten maskeert.

Wat is een veilige manier om AI wél te gebruiken als jurist?

Werk in een afgeschermde tool die alleen put uit gecontroleerde databronnen (jurisprudentie, wetgeving, eigen kennisbank) en altijd vindplaatsen toont.