ChatGPT in het recht: van handig speeltje naar juridisch risico (met echte uitspraken)

Wilt u een veilige Legal AI-tool die alleen werkt met jurisprudentie en wetgeving, mét herleidbare vindplaatsen? Dan bouwen wij dit voor u. High-end, compliant en ontworpen voor de realiteit van de rechtszaal.

Generatieve AI schrijft soepel. Soms té soepel. En het recht is allergisch voor soepelheid zonder bronvastheid.

Begin januari 2026 haalde Nederland een pijnlijke primeur: een huwelijk dat juridisch gezien nooit heeft bestaan, omdat de ceremonietekst (via ChatGPT) de wettelijk verplichte verklaring miste. Geen verplichte woorden, geen huwelijk. Zo eenvoudig, zo meedogenloos.

En nee: dit is geen los incident. Het is een patroon dat zich in de rechtspraak begint af te tekenen. Niet omdat rechters “tegen AI” zijn, maar omdat het recht draait op drie dingen waar open generatieve AI structureel slecht in is:

  • Herleidbaarheid (waar komt dit vandaan?)

  • Verifieerbaarheid (klopt het echt?)

  • Procesdiscipline (wat is methode, prompt, bron en berekening?)

Wie dat vergeet, bouwt bewijsvoering op decorbouw.


Casus 1: het huwelijk dat verdampte door één ontbrekende zin

In Rechtbank Overijssel (ECLI:NL:RBOVE:2026:23) ging het mis bij een eendags-babs: het bruidspaar wilde een luchtige ceremonie, de tekst kwam (deels) uit ChatGPT, maar de wettelijk vereiste verklaring uit art. 1:67 BW stond er niet in. De rechtbank concludeerde dat er geen huwelijk tot stand was gekomen. Wat je hiervan moet onthouden

Formele rechtshandelingen hebben minimumteksten en minimumvereisten.

  • “Bijna goed” is in het recht vaak gewoon nietig, non-existent of waardeloos.

  • AI is niet dom, maar onverschillig. Het voelt geen wettelijke plicht.


Casus 2: nep-jurisprudentie en spook-ECLI’s maken korte metten met geloofwaardigheid

Rechters signaleren steeds vaker iets dat ik “juridisch hallucinatie-afval” noem: verwijzingen naar uitspraken die niet bestaan, niet kloppen, of inhoudelijk iets heel anders zeggen dan wordt beweerd.

Voorbeeld: waarschuwing voor “ChatGPT-jurisprudentie” zonder controle

In Rb. Noord-Nederland (ECLI:NL:RBNNE:2025:4814) werd expliciet benoemd dat aangehaalde uitspraken vermoedelijk via ChatGPT of vergelijkbare tools waren gevonden en zonder controle waren overgenomen. De rechtbank waarschuwt: het risico ligt volledig bij de partij die zich erop beroept. Voorbeeld: “sommige ECLI’s bestaan niet”

In een zaak bij Rb. Rotterdam (ECLI:NL:RBROT:2025:10388) werd erop gewezen dat aangehaalde (vermeende) arresten niet relevant waren en dat sommige ECLI’s zelfs niet bestonden. Dit soort missers slopen je dossier, en vaak ook je reputatie.

De impliciete boodschap van de rechterlijke macht is glashelder:
Als jij je bronnen niet beheerst, beheersen je bronnen jou.


Casus 3: ChatGPT als “expert” in de rechtszaal? Rechters prikken erdoorheen

Sommige partijen proberen AI-output te gebruiken alsof het deskundigenbewijs is: “ChatGPT zegt X, dus X is waar.” Rechters willen dan weten:

  • Wat was de prompt?

  • Welke bronnen?

  • Welke berekening of methode?

  • Hoe reproduceerbaar is dit?

In Rb. Zeeland-West-Brabant (ECLI:NL:RBZWB:2025:6499) speelde ChatGPT-output een rol, maar zonder transparantie over onderliggende aannames en bronnen is de overtuigingskracht beperkt.

Ook in Gerechtshof Amsterdam (ECLI:NL:GHAMS:2025:2647) komt terug dat AI-output zonder inzicht in herkomst en controle niet zomaar als dragend fundament dient. Kort gezegd: AI is geen deskundige. Hooguit een tekstmachine met bravoure.


Casus 4: “Even vertalen” is geen juridisch begrijpen

Een klassieker in de praktijk: een rapport in een vreemde taal “even door ChatGPT halen”.

In Rb. Amsterdam (ECLI:NL:RBAMS:2025:326) werd een via ChatGPT vertaalde tekst niet geaccepteerd zoals een beëdigde vertaling dat wel is, met voorspelbare gevolgen voor de bruikbaarheid in het juridische proces. 

Les: taal is bewijs. En bewijs is formaliteit. Formaliteit is hard.


Casus 5: standpunten onderbouwen met AI zonder bronnen? Dan is het lucht

Bij de Afdeling bestuursrechtspraak zie je dezelfde lijn: AI-output zonder bronmethodiek is geen serieuze tegenhanger van deskundigenoordelen.

In RVS (ECLI:NL:RVS:2025:335) werd ChatGPT-output gebruikt in de onderbouwing, maar zonder transparante basis en herleidbare bronnen is dat simpelweg onvoldoende.

Voor juristen is dit cruciaal: het probleem is niet “AI”. Het probleem is AI zonder dossierdiscipline.


Wat de rechtspraak ons eigenlijk vertelt

De rode draad door al deze zaken is geen angst voor innovatie. Het is een kwaliteitsnorm:

1) Geen bron, geen waarde

Zonder vindplaats ben je niet aan het pleiten, je bent aan het improv-theateren.

2) Geen methode, geen bewijs

Als prompt, berekening of selectie onbekend is, is de output procesmatig zwak.

3) Geen controle, geen genade

Foute ECLI’s, verdraaide quotes, verzonnen “regels”: rechters zijn niet mild, en terecht.


Wanneer AI wél werkt voor juristen (en wanneer je moet stoppen)

Je moet AI niet weren. Je moet AI temmen.

Gebruik géén open ChatGPT voor:

  • jurisprudentie-onderzoek zonder verificatie

  • het “vullen” van ECLI’s of vindplaatsen

  • processtukken waar bronvastheid de kern is

  • formele teksten met wettelijke minimumvereisten

Gebruik AI wél voor (veilig, mits goed ingericht):

  • samenvatten van door jou geselecteerde uitspraken

  • structureren van argumenten op basis van jouw bronnen

  • checklisten, formats en interne kennismanagement

  • concept-teksten die vervolgens juridisch worden gevalideerd


De BrandBoosters-oplossing: AI voor juristen, maar dan wél rechtbank-proof

Open modellen graaien uit “het internet”. Dat is precies wat je níét wilt als je met bewijs, wetgeving en jurisprudentie werkt.

Wij bouwen veilige AI-tools voor juristen die werken volgens de gouden standaard:

  • Alleen gecontroleerde bronnen (jurisprudentie, wetgeving, eigen kennisbank)

  • Altijd vindplaatsen en klikbare herleidbaarheid

  • Geen hallucinerende ECLI-generator

  • Audit trail: wat is gebruikt, wanneer, waarom

  • Compliance-by-design (privacy, governance, toegangsniveaus)

Geen magie. Wel controle, snelheid en rust in je dossier.

Wil je dat jouw team sneller werkt zonder reputatierisico? Dan is dit het verschil tussen “AI gebruiken” en “AI beheersen”.

Wilt u een veilige Legal AI-tool die alleen werkt met jurisprudentie en wetgeving, mét herleidbare vindplaatsen?
Dan bouwen wij dit voor u. High-end, compliant en ontworpen voor de realiteit van de rechtszaal.