Chatbots... ben je als docent nog wel relevant?
Ineens kunnen we er niet meer omheen: schrijfprogramma's op basis van kunstmatige intelligentie (AI). Hoe gebruiken we deze techniek op een verantwoorde manier in onderwijs en onderzoek zonder de risico's, privacy en beroepscodes uit het oog te verliezen?
Het was nota bene tijdens het kerstdiner dat het ter sprake kwam: ChatGPT en de vraag of ik als docent nog relevant ben. Werkstukken, essays, papers, casuïstiek: chatbots kunnen het allemaal voor je schrijven.
Mij beving de enthousiaste opwinding die ik ooit ervoer toen ik voor het eerst een code schreef voor mijn Commodore-64 in de jaren ’80, toen ik in mijn eerste PowerPointteksten over een scherm liet buitelen en toen ik eind jaren ’90 “het internet” opging.
Tegelijkertijd beving mij een lichte paniek. Wat betekent dit voor het onderwijs? Hoeveel van de essays die ik net voor de kerstvakantie had zitten beoordelen, zouden met chatbots geschreven zijn?
Confident bullshitters of niet?
Zoals alle grote uitvindingen - denk aan de boekdrukkunst, trein, rekenmachine en het internet - wordt AI ontvangen met zowel verwondering als scepsis.
Dat is niet geheel onterecht. Chatbots worden getraind op de informatie die beschikbaar is op het internet. Ze kunnen geen onderscheid maken tussen correcte of incorrecte informatie en geen morele afwegingen maken. Bronnen worden vaak niet vermeld of bevatten fouten.
Een groot probleem is dat chatbots zeer overtuigend kunnen schrijven. Technologie-expert Benedict Evans schrijft:
“It often looks like an undergraduate confidently answering a question for which it didn’t attend any lectures. It looks like a confident bullshitter, that can write very convincing nonsense”.
Ik vroeg ChatGPT te reageren op de uitspraak van Evans en zij schreef in enkele seconden het volgende:
“AI-systemen kunnen alleen doen wat ze getraind zijn om te doen. Zij zijn in staat om op natuurlijke wijze te communiceren en teksten te genereren die op het eerste gezicht overtuigend en professioneel lijken, maar ze zijn afhankelijk van de gegevens waarmee ze zijn getraind en kunnen daarom beperkt zijn in hun vermogen om informatie op een diepgaande en accurate manier te presenteren. Dit betekent dat AI-systemen soms informatie kunnen geven die onjuist, onvolledig of onsamenhangend is, vooral als ze worden gevraagd om te speculeren over onderwerpen waarover ze geen specifieke kennis hebben. Het is daarom belangrijk om te onthouden dat AI-systemen alleen gebruikt kunnen worden als hulpmiddel en niet als vervanging voor menselijke expertise en kritisch denken.”
Interessant in deze tekst is het woord “speculeren”. Chatbots worden erop getraind om aannemelijke tekst te schrijven, maar kunnen de betrouwbaarheid ervan niet afwegen. Op de site van ChatGPT wordt dan ook gewaarschuwd voor schadelijke instructies, incorrecte of gebiaste informatie.
AIgiarisme
In hoeverre kunnen we het advies van ChatGPT om AI-systemen als hulpmiddel te gebruiken dan vormgeven? Want dát deze systemen als hulpmiddelen zullen worden gebruikt, staat buiten kijf. De voornaamste zorg van mijn schoolgaande en studerende familieleden aan het kerstdiner was of ze betrapt konden worden.
En ja, dat kan. De New York Post maakte melding van een universitair docent die een student betrapte op "AIgiarisme" en schorste de student. In de Volkskrant vertelde een lerares haar havo-klas bestraft te hebben voor Algiarisme met een handgeschreven paper opdracht.
AIgiarisme onderscheidt zich van plagiaat, doordat chatbots geen teksten van anderen kopiëren, maar unieke teksten schrijven. De overeenkomst is dat iemand valselijk beweert schrijver te zijn van een idee of tekst van een ander, namelijk de chatbot en niet genoemde auteurs.
AIgiarisme is niet makkelijk op te sporen, hoewel OpenAI, het bedrijf achter ChatGPT, werkt aan een watermerk in zijn teksten. Mogelijk wordt opsporing in de toekomst makkelijker, maar tegelijkertijd zullen de chatbots slimmer worden.
Bestraffen of gebruiken?
Speuren naar het gebruik van chatbots om het uit te bannen, lijkt mij een even heilloze exercitie als pogingen die men in het verleden deed om de rekenmachine of Google Search uit het onderwijs te weren. Interessanter is te bedenken hoe we deze techniek op een verantwoorde manier gebruiken in onderwijs en onderzoek.
Ik deel graag 4 aandachts- en discussiepunten:
1. Vaardigheden van de toekomst
De rekenmachine verminderde – tot verdriet van sommigen - het belang van hoofdrekenen en de spellingscontrole het belang van spellingsvaardigheden. Chatbots zullen wellicht het belang van goed en coherent schrijven verminderen. Andere vaardigheden worden belangrijker.
Al die informatie die met een druk op een toets beschikbaar is, vraagt om bronnenonderzoek en verificatie. De snelheid waarmee informatie oproepbaar is, vraagt om contemplatief lezen en nadenken over innovatieve toepassingen. Deze vaardigheden moeten studenten ontwikkelen en onze opdrachten moeten zich daar (nog meer) op richten.
We moeten de leerdoelen van schriftelijke opdrachten dus nog eens tegen het licht houden. Het is denkbaar dat we studenten toestaan om voor coherent en overtuigend schrijven een chatbot te gebruiken, maar dat we hun werk beoordelen op bronnenonderzoek, methodologie, reflectie, innovatieve toepassingen, aanbevelingen voor toekomstig onderzoek en moreel redeneren.2. Risico’s en privacy
Over de veiligheid van AI zijn zorgen, niet in de laatste plaats bij wetenschappers in dienst van OpenAI zelf, bekijk bijvoorbeeld Scott Aaronson’s lecture.
De Europese Commissie werkt aan regulatie, maar die wordt pas in 2024 verwacht. Het risico van AI in het onderwijs classificeert de EU als “hoog”, wanneer het gebruikt wordt voor selectie of keuzes die iemands carrière of leven kunnen beïnvloeden. Natuurlijk geldt dat zowel voor de levens van studenten als van de mensen met wie zij gaan werken en over wie zij professionele besluiten nemen, bijvoorbeeld in zorg en onderwijs.
Een groot risico is dataveiligheid. OpenAI waarschuwt geen privacygevoelige gegevens te gebruiken in opdrachten. De data worden gelezen door medewerkers om techniek te verbeteren en door chatbots als informatiebron.3. Regels en transparantie
We zullen studenten dus goed moeten informeren over wat wel en wat niet mag om beroepsverantwoordelijkheid te nemen. Het gebruik van chatbots bij het schrijven over opdrachten over casuïstiek mag om reden van privacy en beroepsethiek niet worden toegestaan.
Er zijn nieuwe regels nodig die ongetwijfeld wereldwijd snel zullen verschijnen. Het zou goed zijn hier als universiteit per direct mee aan de slag te gaan en studenten te informeren. Het is tenslotte dat schrijvers transparant zijn over door chatbots gegenereerde teksten, door te refereren zoals we dat ook doen bij gebruik van software.4. Open access publicaties
Hoe meer gedegen wetenschappelijke kennis Open Access toegankelijk is, hoe betrouwbaarder de informatie die chatbots kunnen verzamelen. Het is mooi en belangrijk dat veel universiteiten, waaronder de Universiteit Leiden, Open Access-publicaties faciliteren.
Volledige toegankelijkheid van wetenschappelijke kennis zou nog hoger op de internationale agenda moeten staan, omdat het ons beschermt tegen automatisch gegenereerde onzin.
Wanneer zetten we chatbots in en wanneer niet?
Het doel van educatie is dat studenten kennis verwerven die zij met anderen delen en toepassen op nieuwe situaties in hun beroepspraktijk. Het delen van kennis met anderen gebeurt deels schriftelijk. En laten we eerlijk zijn: daar zijn niet alle studenten even goed in.
Chatbots zouden wel eens een fantastisch middel kunnen zijn om kennis op een coherente, overtuigende en aansprekende manier te delen met anderen. Ze kunnen een uitkomst zijn voor slimme studenten met slechte schrijfvaardigheden, zoals de rekenmachine voor mij - hoogleraar met beroerde rekenvaardigheden - een uitkomst is. Hoe mooi is het als studenten en professionals hun lezers een goed geschreven tekst kunnen voorschotelen.
Daarvoor moet die tekst wel betrouwbare informatie bevatten. Vaardigheden die daaraan bijdragen, zoals bronnenonderzoek, verificatie, replicatie, opzetten en uitvoeren van goed onderzoek, worden des te belangrijker.
Op zeer korte termijn is het belangrijk in heldere regels vast te leggen wanneer chatbots wel of niet mogen worden ingezet en op welke manier daaraan gerefereerd moet worden. Daarbij is informatie over de risico’s, privacy en beroepscodes heel belangrijk, bijvoorbeeld bij opdrachten die casuïstiek bevatten.
Enkele suggesties voor opdrachten met chatbots
Ten slotte een paar suggesties voor opdrachten waarbij nieuwe vaardigheden geoefend worden en chatbots kunnen worden ingezet.
Vraag studenten:
- de bronnen van door chatbots gegenereerde tekst te achterhalen en de informatie te verifiëren. Welke informatie is uit de bron geselecteerd dan wel weggelaten? Zijn er belangrijke bronnen gemist?
- een eigen zoekstrategie naar wetenschappelijke bronnen te beschrijven, uit te leggen hoe ze de betrouwbaarheid ervan hebben onderzocht en welke afweging ze hebben gemaakt bij de selectie van bronnen
- een onderwerp elk door een chatbot te laten beschrijven en vervolgens de teksten met elkaar te vergelijken en daarop te reflecteren.
- te bedenken hoe gevonden resultaten in door chatbot(s) gegenereerde teksten gerepliceerd kunnen worden, door de methodologie van een nieuw onderzoeksproject of experiment te beschrijven.
- De hoofdlijnen uit een onderwerp of artikel te halen voor een specifieke doelgroep en te proberen met hulp van een chatbot een blog te schrijven waarin deze informatie compleet en coherent wordt overgebracht.
ChatGPT
Chat Generative Pre-training Transformer (ChatGPT) is een chatbot die werkt op basis van kunstmatige intelligentie. OpenAI is het bedrijf achter ChatGTP.
Ga naar ChatGPT
0 Comments