Inmiddels zijn chatbots en digitale assistenten vrij goed ingeburgerd in de zakelijke dienstverlening en in consumententoepassingen. Toch is er nog veel werk aan de winkel. Steven Latré, directeur van IDLab, een imec-onderzoeksgroep aan de Universiteit Antwerpen, geeft een doorkijk in de pijnpunten en hoe ze kunnen weggewerkt worden.
Alexa speelt porno voor een kleuter
Zo kwam er veel kritiek op Eugene Goostman, omdat zijn bedenkers er bewust voor hadden gekozen om hem te programmeren als een dertienjarige Oekraïense jongen. Een trucje wat handig uitkwam om een heel deel van de onvolkomenheden van hun programma op af te schuiven en daardoor de jury op het verkeerde been te zetten. Het internet staat ook vol met hilarische filmpjes van conversaties tussen consumenten en hun digitale assistent. Meest bekende waarschijnlijk een filmpje waarbij Alexa, de digitale assistent van Amazon, een reeks pornografische termen debiteert tegen een kleuter die een liedje probeert aan te vragen.
Veel critici zeggen, vaak niet geheel onterecht, dat machine learning momenteel nog een verregaande vorm van patroonherkenning is.
Met enkelvoudige vragen en antwoorden en een daaruit volgende logische reeks gevolgtrekkingen. De uitdagingen om uit deze Babylonische spraakverwarring te ontsnappen zijn beter te kunnen inspelen op vervolgvragen en om het belang van de context mee te kunnen nemen. Daardoor moeten AI-programma’s beter in staat worden om flexibel in te spelen op nieuwe en zelfs onbekende omgevingen en situatie.
Een koelkast in de woestijn
Deel één van het antwoord op deze uitdagingen zit in objectherkenning. Zo kan je een AI-programma leren wat een koelkast is door het een groot aantal plaatjes te laten zien van koelkasten en aanverwante apparaten.
Maar zet vervolgens een koelkast in de woestijn en de kans is groot dat het AI-programma niet in staat is het object correct te herkennen.
De kunst is dus om meer contextuele kennis te verwerken. Bijvoorbeeld door een koppeling te maken tussen verschillende inputsignalen en hun logisch verband. Zie ik iets wat op een wagen lijkt? Kan ik in de geluidsstroom dan ook een motorgeluid herkennen? En wat leer ik uit het geluid van de piepende remmen van de fietser die de auto nadert? Dergelijke kennis moet AI-systemen helpen hun omgeving beter te begrijpen en juiste voorspellingen te doen. En dan is er nog een stukje ‘common sense’. Als mens weten we dat de kans klein is dat een kleuter om porno vraagt. En – in het onwaarschijnlijke geval dat het toch zo zou zijn – dat we dan beter niet zomaar op dat verzoek ingaan.
Gezond verstand, heet dat dan. En daar heeft ieder mens in meer of mindere mate wel wat van. Ook AI-systemen willen we dat gaan aanleren.
Levenslang leren
Deel twee van de oplossing zit dan in het vermogen om opgedane kennis in een nieuwe context toe te passen. Denk aan industriële toepassingen. Een AI-oplossing die momenteel ontwikkeld is voor firma X, moet zo goed als volledig opnieuw geprogrammeerd worden als ook firma Y er gebruik van wil maken. Met nieuwe datasets etc. AI-programma’s zijn met andere woorden nog niet in staat om hun ervaring mee te nemen naar een nieuwe taak.
Zo kan een AI-programma heel goed zijn in schaken, maar moet het gegarandeerd afleggen tegen de mens zodra je één spelregel verandert.
Als mens kunnen we dit net heel goed. Als je van job verandert, word je net geprezen vanwege de ervaring die je voordien in een andere context hebt opgedaan.
Een AI-programma zal dus ook levenslang moeten gaan leren. En in staat zijn om zijn eigen redenering te begrijpen en inzichtelijk te maken. Op zo’n manier dat ook de mens het kan begrijpen. Een relevant, maar tragisch, voorbeeld zouden de recente crashes kunnen zijn van de Boeing 737-Max. Hoogst geavanceerde toestellen met een hoge graad van autonomie in het reageren op bepaalde situaties, maar die niet in staat zijn geweest om aan de piloot uit te leggen waarom ze op een bepaald moment een aantal ingrepen uitvoerden vanuit de voorgeprogrammeerde overtuiging het vliegtuig in de lucht te houden, en het feitelijk deden crashen.
In wat wij Human-like AI noemen, hebben we niet de ambitie om systemen te creëren die de mens gaan overtreffen qua intelligentie of communicatief vermogen.
Wel om een einde te maken aan de knullige stemcommando’s waarmee je nu vaak machines moet bedienen en aan de gesprekken met chatbots die steevast doodlopen op zinnen als “gelieve uw vraag anders te formuleren”. Om terecht te komen in een wereld waarin AI-systemen evolueren naar volwaardige gesprekspartners.
Meer weten?
- Website IDLab.
- Een YouTube filmpje van Alexa die porno opzoekt voor een kleuter.
- Linked filmje over hoe je AI persoonsherkenning kan misleiden.
Prof. Steven Latré, is geassocieerd professor aan de Universiteit Antwerpen en leidt er de imec onderzoeksgroep IDLab (85+ leden), die toegepast en fundamenteel onderzoek verricht op het gebied van communicatienetwerken en gedistribueerde intelligentie. Hij leidt de IDLab Antwerpse onderzoeksgroep (85+ leden), die toegepast en fundamenteel onderzoek verricht op het gebied van communicatienetwerken en gedistribueerde intelligentie. Zijn persoonlijke onderzoeksinteresses liggen op het gebied van machinaal leren en de toepassing ervan op draadloze netwerkoptimalisatie.
Hij behaalde een Master of Science diploma in informatica aan de Universiteit Gent, België en een Ph.D. in Computer Science Engineering aan diezelfde Hij is auteur of co-auteur van meer dan 100 papers die gepubliceerd zijn in internationale tijdschriften of in het kader van internationale conferenties. Hij ontving de IEEE COMSOC-prijs voor het beste doctoraat in netwerk- en servicemanagement 2012, de IEEE NOMS Young Professional Award 2014 en is lid van de Jonge Akademie België.
Gepubliceerd op:
10 mei 2019