Heb je al eens een praatje geslagen of je (huis)werk laten maken door ChatGPT, de snelst groeiende softwaretoepassing in de geschiedenis? Dan kreeg je misschien even de indruk dat je niet met een computer, maar met een echte persoon aan het converseren was.
Vorige maand lanceerde Microsoft een nieuwe versie van Bing die geholpen wordt door hetzelfde AI-systeem waaruit ook ChatGPT ontstaan is. Een journalist van The New York Times beschreef hoe de chatbot hem plots de liefde verklaarde en daarna manipulatief gedrag leek te vertonen. Het bezorgde hem slapeloze nachten. Microsoft greep in door de lengte van conversaties in Bing te beperken. Ook Google ontwikkelt met LaMDA een gelijkaardig AI-systeem. Een werknemer raakte er vorig jaar van overtuigd dat LaMDA zelfbewust was geworden. De man werd ontslagen. Moeten we ons zorgen maken?
Mensen denken vaak ten onrechte dat artificiële intelligentie een volledig kunstmatige kopie is van menselijke intelligentie. AI-algoritmes maken gebruik van kunstmatige neurale netwerken, waarvan de werking tot op zekere hoogte geïnspireerd is op de werking van het menselijk brein. Er zijn analogieën te trekken, maar iedere metafoor stoot vroeg of laat op zijn limieten.
Als je deze tekst leest, verwerk je niet alleen de woorden op de pagina, maar probeer je ook de bedoelingen van de auteurs in te schatten. Misschien vraag je je af hoe de onderliggende thema’s kwalitatief verband houden met je eigen leven. Computers verwerken informatie daarentegen volledig kwantitatief. Neurale netwerken doorploegen gigantische hoeveelheden data en optimaliseren hun parameters voortdurend op basis van nieuwe informatie en feedback. Uiteindelijk blijken ze daardoor in staat om creatieve uitvoer te genereren. Wat ze doen lijkt op intelligentie, juist omdat ze getraind zijn door miljoenen teksten die geschreven zijn door intelligente wezens. Maar het blijft een tekstvoorspeller op steroïden, die op een originele manier teksten uit het verleden repliceert.
Het Eliza-effect
Dat mensen zich hierdoor laten bedotten is niet verrassend en niet nieuw. In de jaren 60 ontwikkelde AI-onderzoeker Joseph Weizenbaum de eerste chatbot, Eliza. Zijn secretaresse wist bij het uittesten dat Eliza gewoon een computerprogramma was. Maar al snel werd het gesprek te persoonlijk en vroeg ze aan Weizenbaum of hij haar even alleen kon laten met Eliza.
Chatbots zoals Eliza, ChatGPT en Bing leren ons wellicht meer over mensen dan over machines. De mens is een sociaal dier. We hebben het vermogen ontwikkeld om elkaar te begrijpen en ons in te leven in iemand anders. We zien al snel een gezicht in een wolk of een stopcontact. Het menselijk brein heeft de neiging om dingen te antropomorfiseren. Ook onze robots worden regelmatig eigenschappen toebedeeld die ze absoluut niet hebben. Mensen vinden een wuivende robot sympathiek en voelen medelijden als de robot valt.
We geven technologie, zoals robots en chatbots, vaak bewust menselijke eigenschappen om een intuïtieve interactie mogelijk te maken. Duizenden jaren van menselijke evolutie vormen een waardevolle inspiratiebron. Een hoofd op een robot of een chatbot die smileys gebruikt kan de communicatie met mensen vlotter maken. Maar hoe ver mogen we daarin gaan?
Waarschuwingssticker
Het lijkt een goed idee om het ‘artificiële’ steeds duidelijk te vermelden: geef AI als het ware een waarschuwingssticker die eraan herinnert dat elke emotie die je ziet onecht is. Filosoof Mark Coeckelbergh wil klaarblijkelijk nog een stap verder gaan en waarschuwt dat technologie nooit de illusie mag wekken menselijk te zijn.
Een verbod op AI die menselijk lijkt, houdt volgens ons geen steek: we zullen technologie immers altijd tot op zekere hoogte antropomorfiseren. Ook al weten we dat we met een computer praten, we kunnen het niet laten om er menselijke eigenschappen aan toe te kennen.
Bovendien is die menselijkheid net het ingrediënt dat mens en machine bindt. Het plaatst de mens centraal in de communicatie. Het enthousiasme voor ChatGPT toont misschien net aan dat we met z’n allen nood hebben aan AI die reageert als een mens, die emotie kan tonen en ons lijkt te begrijpen.
En waarom zou dat beetje artificiële menselijkheid een probleem zijn? Ook tijdens onze dagelijkse omgang met anderen zijn we af en toe artificieel. Van de winkelbediende die ons een complimentje geeft tot de therapeut die medeleven toont. Het is niet altijd oprecht, maar wel gewenst. Waarom zouden we AI dus niet toelaten om af en toe artificieel menselijk te zijn?
Dit opiniestuk verscheen eerder in De Tijd.
Tony Belpaeme is professor AI en robotica bij IDLab, een onderzoeksgroep van imec aan de UGent. Hij behaalde zijn doctoraat aan de VUB en was 15 jaar verbonden aan het Centre for Robotics and Neural Systems in Plymouth, VK. Zijn onderzoek is gericht op sociale systemen, cognitieve robotica en artificiële intelligentie. Het team van Tony Belpaeme onderzoekt de rol van sociale interactie in intelligente systemen en past deze inzichten toe in de ontwikkeling van sociale robots en robottoepassingen.
Bram Vanderborght is als professor robotica verbonden aan Brubotics (VUB) en imec. Zijn onderzoek focust onder meer op het gebruik van zachte en zelfhelende actuatoren voor cognitieve en fysieke mens-robotinteractie, en dat in toepassingsdomeinen zoals gezondheid en productie.
Gepubliceerd op:
3 maart 2023