Menu

Zoek op
rubriek
Data&Privacyweb
0

ChatGPT: het lijkt op een bedreiging voor advocaten

"An Edward Hopper painting of a lawyer working late in court." Dat ene zinnetje is genoeg. Of eigenlijk, dat ene zinnetje aangevuld met een gigantische database van beeldmateriaal. 30 seconden later verschijnen er op het scherm vier stemmige afbeeldingen van een advocaat, die er uit zien alsof ze door Edward Hopper geschilderd hadden kunnen zijn. De algoritmes van Dall-E van het bedrijf openAI hebben zoveel beeldmateriaal verwerkt, dat ze geleerd hebben hoe een afbeelding van een advocaat er uit ziet, maar ook wat de stijlkenmerken van het werk van Hopper zijn. Best interessant als je toevallig bij een artikel een illustratie nodig hebt over een bepaald thema, met een bepaalde uitstraling. Het is dan ook niet verrassend dat kunstenaars en illustrators al volop in discussie gaan over de impact die dit soort technologie op hun werk zal hebben.

8 mrt 2023

Achtergrond artikelen

Achtergrond artikelen

"A two-sided non-disclosure agreement for the duration of one year". Hetzelfde verhaal. Dit zinnetje, plus een gigantische database aan doorgespitte teksten. Hieraan heeft ChatGPT genoeg om binnen twee minuten een tekst op te stellen die inderdaad veel lijkt op een geheimhoudingsovereenkomst. Net als bij het Edward Hopper schilderij bevat het de juiste onderdelen op de juiste plaats, en kloppen ook de stijlkenmerken. Een aanhef, definities, partijen, ruimte voor handtekeningen, het zit er allemaal in. Misschien is het zelfs een goede overeenkomst, maar dat kan ik niet beoordelen. Moeten advocaten zich dan, net zoals de beeldmakers, zorgen gaan maken om hun toekomst? Ik geloof het niet, en daar heb ik drie redenen voor.

De computer 'begrijpt' niet waar het over gaat.

 We zijn geneigd om ChatGPT - en kunstmatige intelligentie over het algemeen - een soort van 'intelligentie' toe te kennen. Wanneer een computer een antwoord geeft op onze vragen suggereert dit dat de computer ons begrijpt. Dat de computer op basis van dit begrip gaat nadenken over de wereld, en dan naar het beste antwoord toe redeneert. Maar in werkelijkheid probeert een computer onze vragen niet eens te begrijpen. ChatGPT gebruikt statistiek (Neurale Netwerken) om te voorspellen welke combinatie van woorden het beste een antwoord geeft op onze vraag. Hierbij wordt het geholpen door modellen van de taal, en de ervaring die het met taal heeft opgedaan door de statistische analyse van grote hoeveelheden tekst. Begrijp me niet verkeerd, het is bijzonder hoe goed deze modellen zijn, en hoe effectief ze ingezet kunnen worden. Maar het is wezenlijk anders of je een tekst genereert die lijkt op een goed antwoord, of dat je een goed antwoord beredeneert.

Goed of fout, het maakt niet uit

Een van de gevolgen van de manier waarop ChatGPT werkt, is dat het programma opvallende fouten maakt. Teksten bevatten soms beweringen die voor iedere menselijke lezer duidelijk fout zijn. En deze beweringen worden gedaan met dezelfde grote stelligheid als waarmee alle teksten opgediend worden. Dit soort fouten is zo veelvoorkomend dat met het fenomeen zijn eigen naam is gaan geven: hallucineren. Nu zijn grote fouten voor de oplettende lezer makkelijk uit een tekst te halen, maar hoe zit dat met de subtielere fouten?


Wanneer je de computer een LinkedIn post laat schrijven maakt het misschien niet zoveel uit als er wat problemen in de tekst zitten. De meeste mensen lezen toch alleen de titel. Maar in een juridisch stuk is dit natuurlijk anders. Daar is juist de correctheid en consistentie essentieel. Het is ook dit probleem dat het lastig maakt om dit soort technieken in te zetten om snel tot een eerste versie van een tekst te komen. De tijd die je wint met het snel opstellen van een tekst ben je zo weer kwijt aan het zorgvuldig controleren daarvan. In dat geval kan je misschien een stuk sneller een tekst van hoge kwaliteit opstellen als je een zorgvuldig bijgehouden clausulebibliotheek gebruikt.

Een advocaat doet meer dan alleen tekst produceren.
En tot slot nog even over het idee dat mensen zich in de toekomst liever wenden tot ChatGPT dan tot een advocaat. Ik geloof persoonlijk dat er op de juridische markt nog een hoop ruimte is voor slimmere tools waarmee consumenten of bedrijven snel toegang hebben tot informatie en stukken. Maar als me een ding duidelijk is geworden de laatste jaren, dan is dat dat deze informatie en stukken altijd maar een deel van de puzzel zijn. Algemene informatie is mooi, maar je wilt graag specifiek advies de situatie waar jij of je organisatie zich in bevindt. En, misschien nog belangrijker, je wilt de informatie graag hebben van iemand die er voor staat dat het ook echt klopt.

Conclusie

ChatGPT is interessant wanneer je een tekst nodig hebt waar best wat fouten mogen zitten, bijvoorbeeld omdat het slechts gaat om een eerste schets, of omdat toch niemand de tekst ooit grondig zal lezen. Bij juridische teksten draait het juist om precisie. Hier zijn opvallende missers maar ook subtielere fouten niet acceptabel. Voorlopig zal ChatGPT alleen gebruikt worden door de mensen die nu al genoegen nemen met een contractje dat ze ergens van internet afhalen. Dit zijn ook nu niet de mensen die een advocaat in de arm nemen. Maar dit betekent niet dat advocaten afwachtend achterover kunnen leunen. Cliënten zijn wel degelijk op zoek naar efficiënte manieren om tot goede juridische stukken te komen, en het is aan advocaten om hier met goede processen en slimme tools aan tegemoet te komen.

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.