Datum: 19 september 2023
Auteur: Ilona Mathijsen

In deze blog een toelichting op wat ChatGPT kan en weet en hoe dat verschilt van mensen. Deels gebaseerd op How does ChatGPT differ from human intelligence? – Futurity.   

Wat kan ChatGPT? 

ChatGPT kan, net als de mens, antwoorden geven op vragen, opdrachten die om ‘tekst’ vragen uitvoeren, in informatie voorzien, conclusies formuleren, informatie samenvatten, verbanden leggen, teksten schrijven, aanbevelingen doen, eerdere antwoorden – op verzoek – verbeteren etc.  Op het eerste gezicht is het een Google+. Ook aan Google kun je een vraag stellen. Google komt dan met een lijst van sites waarop mogelijk informatie over die vraag te vinden is. ChatGPT gaat verder. ChatGPT analyseert beschikbare informatie over het onderwerp en genereert daaruit het meest waarschijnlijke en plausibele antwoord. Het ‘weet’ dat ‘lepel’ het kansrijke antwoord is op de vraag waarmee je soep eet.

De informatie waarop ChatGPT zich baseert, is overigens niet zichtbaar voor de gebruiker. Als gebruiker hoef je dus niet meer allerlei sites en bronnen met elkaar te vergelijken, dat doet ChatGPT voor je. ChatGPT is een large language model (een LLM) dat door te leren van  eerder verwerkte informatie  een voorspelling doet over het meest logische antwoord. En het doet dat steeds beter.

“At some point – in the next two to twenty years – AI systems are likely to meet and then exceed human capabilities in many, most, or all cognitively demanding tasks, although it is likely to take considerably longer before they can match our physical abilities to shape and reshape the world.” (Hamilton, William & Hattie, 2023, p. 16) 1

Wat kan ChatGPT niet? 

Echter het is en blijft anders dan het ‘echte’ menselijke kennen of begrijpen. Dat zou ons inziens mogelijk het gevolg zijn van het feit dat ChatGPT geen (‘fysieke’) ervaringen meemaakt en geen biologische processen ondergaat. Het beschikt ook niet zoals mensen over het vermogen tot vicarious learning, dat wil zeggen het leren door het observeren van anderen in een levensechte situatie (Bandura, 1963). Dit is typisch een menselijk vermogen. Wij eten zelf soep met een lepel of hebben anderen dat zien doen.

Ook is het (nog) niet zo goed in het inleven in en het analyseren van, complexere situaties; situaties waarin verschillende mensen bijvoorbeeld achtereenvolgens iets doen en waarvan de actie van de één gevolgen heeft voor de volgende persoon. Het heeft het bijvoorbeeld moeilijk met de zin ‘de student die door de leraar werd geïnstrueerd, verbeterde’. Wij weten dat het docent is die instrueerde en het de student is die verbeterde omdat we ons er een onderwijssituatie bij voorstellen. ChatGPT heeft hier (nog) moeite mee, met verwijswoorden en met zinnen met een afstand tussen onderwerp en persoonsvorm.

ChatGPT kan zichzelf verbeteren maar alleen op verzoek; uit zichzelf zal het zich niet herbezinnen, plannen bijstellen, zoals mensen dat wel doen. In de vergelijking tussen de mens en machines worden daarnaast ook eigenschappen aan mensen toegedicht die machines niet hebben, in het bijzonder: bewustzijn, emoties, doelgerichtheid, creativiteit en empathie. Maar zoals Hamilton, William & Hattie (2023) beweren, dat is maar afhankelijk van hoe je deze begrippen definieert en interpreteert. Creativiteit kun je bijvoorbeeld benaderen als een te modelleren algoritmisch proces. Zij concluderen dan ook:

“Our brains might be entirely computational, although, embracing our computational nature does not diminish our uniqueness. Instead, it highlights the power and sophistication of the computational processes within us!” (p. 11)

 

Up-do-date blijven?

Ontvang onze nieuwsbrief

Schrijf je in
0 reacties

Een reactie versturen

Het e-mailadres wordt niet gepubliceerd. Vereiste velden zijn gemarkeerd met *