Menu

Filter op
content
PONT Data&Privacy

0

Geesteswetenschappers over ChatGPT en de morele kwesties van AI

ChatGPT. De afgelopen weken had iedereen het over de chatrobot zie zelf teksten kan genereren. Unieke teksten, moeilijk van ‘echt’ te onderscheiden. Het is een voorbeeld van kunstmatige intelligentie, ook artificiële intelligentie (AI) genoemd. AI roept niet alleen technische, maar ook morele vragen op: hoe zal het onze economie beïnvloeden? Kan AI helpen bij het oplossen van problemen in onze samenleving en hoe dan? Maar ook: wat is de impact van AI op menselijke autonomie? Hiernaar doen verschillende geesteswetenschappers onderzoek.

Universiteit Utrecht 31 januari 2023

Verantwoorde kunstmatige intelligentie

Een van hen is hoogleraar Filosofie Jan Broersen (1). Met een achtergrond in wiskunde, logica en computerwetenschappen onderzoekt hij filosofische vragen die AI opwerpt. Bijvoorbeeld hoe op logica gebaseerde methoden van modellering kunnen helpen bij het ontwikkelen van vormen van verantwoordelijke kunstmatige intelligentie, die controleerbaar zijn en die in dienst staan van de mens.

Broersen ziet dat er naast haast ongebreideld optimisme over de mogelijkheden, ook veel angst is voor kunstmatige intelligentie. Er valt veel te nuanceren, vindt hij. In Radio1-programma De nacht van licht Broersen zowel de kansen die AI biedt toe, als ook de grenzen eraan. En hij stelt luisteraars gerust, die vrezen voor kwaadaardige werelddominantie van kunstmatige intelligentie.

Over alle mogelijkheden, maar ook onmogelijkheden van AI praat hoogleraar Jan Broersen verder in zijn Studium Generale-lezing ‘Hoe dom is kunstmatige intelligentie?’ (2), op woensdag 22 februari 2023. 

BELUISTER HIER DE NACHT VAN... ‘DE TWEE KANTEN VAN AI’ (24 JANUARI 2023) (3)

Vooringenomen vertaalprogramma’s

Ook hoogleraar Taal, communicatie en computatie Antal van den Bosch (4) werkt aan toepassingen van AI in de taal- en communicatiewetenschappen. In NRC bespreekt hij de toepassingen van Large Language Models (LLM): computerprogramma’s zoals ChatGPT die grote hoeveelheden tekst kunnen analyseren, samenvatten, herkennen en bovendien teksten kunnen genereren.

Van den Bosch is enthousiast over het vertalen met spraakherkenning, zowel voor geschreven als ongeschreven talen. Maar hij ziet ook schaduwkanten van algoritmes die zich met taal bezighouden. Een probleem is, dat ze stereotypering kunnen reproduceren en zo bias in stand kunnen houden. Hierover spreekt Van den Bosch met Jort Kelder in het Radio 1-programma Dr. Kelder en co.

Teksten van ChatGPT herkennen als docent

In Het Financieele Dagblad wordt Van den Bosch bevraagd over hoe ChatGPT door studenten wordt gebruikt: hoe kan je als docent herkennen of het werk van een student authentiek is of door een chatbot is geschreven? Hier is bij ChatGPT aparte sofware voor beschikbaar, maar die is niet foutloos. “Een complicatie, is dat de detector soms ook origineel werk van een student brandmerkt als AI: een ‘vals positieve’ uitslag. Examencommissies moeten zich buigen over de vraag hoe studenten daartegen worden beschermd.”

‘KLETSEN MET CHATGPT’, DR. KELDER EN CO (28 JANUARI 2023) (5)
‘ARTIFICIAL INTELLIGENCE MAAKT ONS ONDERWIJS ACHTERHAALD’, HET FINANCIEELE DAGBLAD (22 DECEMBER 2022) (6)
‘ALS DE COMPUTER BETER WORDT MET TAAL DAN WIJ’, NRC (4 DECEMBER 2022) (7)

Weerstand bieden tegen de hype van chatbots

Kritische geluiden zijn er ook. Universitair docent Vertaalwetenschap en vertalen Gys-Walt van Egdom (8) ziet net als zijn collega’s dat we niet om chatbots als ChatGPT heen kunnen, maar denkt dat we ze misschien wel kunnen saboteren. In een opiniestuk in de Volkskrant schrijft hij:

“Ik ben van mening dat we de hype kunnen bezweren door hem massaal te voeden. Datagedreven technologie als ChatGPT vraagt juist om paradoxaal engagement. Ik zou iedereen, vooral critici, aanraden om eindeloos met de tool te spelen en tijdens het spelen datasabotage te plegen. Geef de chatbot waar hij om vraagt. Voed hem met data, maar wel met onzinnige data."

‘BEZWEER CHATGPT DOOR ZIJN ALGORITMEN TE ONTREGELEN’, DE VOLKSKRANT (18 JANUARI 2023) (9)

Haken en ogen, maar ook kansen van AI verder toegelicht

Tot slot een leestip van hoogleraar Antal van den Bosch. Alle mitsen en maren, van arbeidsomstandigheden bij techbedrijven tot energieslurpende servers, komen ter sprake in dit Nederlandstalige artikel op Knack.be. Van den Bosch: “Nergens wordt een bocht afgesneden. Ik kan me vinden in wat alle experts zeggen, waarnemen en speculeren.”

'DE GEVAREN VAN CHATGPT: ‘WE DREIGEN COLLECTIEF DOMMER TE WORDEN’', KNACK.BE (23 JANUARI 2023) (10)

  1. https://www.uu.nl/medewerkers/jmbroersen

  2. https://www.sg.uu.nl/sprekers/jan-broersen

  3. https://www.nporadio1.nl/podcasts/de-nacht-van/84054/de-twee-kanten-van-ai

  4. https://www.uu.nl/medewerkers/APJvandenBosch

  5. https://www.nrc.nl/nieuws/2022/12/04/als-de-computer-beter-wordt-met-taal-dan-wij-a4150269

  6. https://fd.nl/samenleving/1461748/artificial-intelligence-maakt-ons-onderwijs-achterhaald

  7. https://www.nrc.nl/nieuws/2022/12/04/als-de-computer-beter-wordt-met-taal-dan-wij-a4150269

  8. uu.nl/medewerkers/GMWvanEgdom

  9. volkskrant.nl/columns-opinie/opinie-bezweer-chatgpt-door-zijn-algoritmen-te-ontregelen~b3372de1/

  10. knack.be/nieuws/technologie/de-gevaren-van-chatgpt-we-dreigen-collectief-dommer-te-worden/

Artikel delen

Reacties

Laat een reactie achter

U moet ingelogd zijn om een reactie te plaatsen.