De Zweedse AI-filosoof Nick Bostrom noemde AI ‘onze laatste uitvinding ooit’. Is AI de menselijke uitvinding die alle menselijke uitvinders overbodig maakt?
Zover zou ik niet durven gaan. De huidige generatieve AI-modellen (zoals Chat-GPT) maken doorgaans goede imitaties. Soms is het meer dan dat, maar je blijft de basisvormen waarop het model zich baseert duidelijk ontwaren. Ik noem ze wel eens ‘autocomplete op steroïden’: door telkens het meest logische woord te nemen dat volgt op een ander woord, worden zinnen gevormd. Terwijl creatieve ideeën net tot stand komen in onconventionele combinaties van methodes, is dit soort AI getraind om net erg conventioneel en voorspelbaar te werken. Out-of-the-boxdenken is aan dit type AI-modellen niet besteed.
Dus: is AI een uitvinder pur sang? Nee. Maar je zou je kunnen afvragen hoeveel uitvinders vanuit een écht creatief idee vertrekken? Hoe vaak valt er, bij wijze van spreken, een appel op je hoofd en bedenk je voor het eerst dat er zoiets bestaat als de zwaartekracht? Meestal gaat het om het samenbrengen of combineren van kennis uit verschillende onderzoeksdomeinen. En op het combineren van die informatie kan AI een turbo zetten. Waar een onderzoeker vroeger drie maanden over zou doen, ga je nu misschien nog een halve dag nodig hebben om aan de juiste zoekopdrachten of ‘prompts’ te puzzelen waarmee je relevante onderzoeksinzichten bij elkaar kan harken.
Ik ben er zeker van dat mijn kinderen zich later achter de oren krabben als ze horen dat ik onderzoekspapers één voor één moest gaan zoeken (en zelf lezen, stel je voor) in allerlei digitale databanken. Op dezelfde manier als ik mezelf, toen ik een doctoraat van de vorige generatie las, moeilijk kon voorstellen dat iemand die informatie in talloze bibliotheken was gaan opsnorren, fysiek. Het past dus in een trend, die explosie aan kennis die je op een dienblaadje ter beschikking krijgt. En AI kan een hulpmiddel worden om een idee sneller te materialiseren. Maar is het hele creatieve, intellectuele proces daarmee overbodig geworden? Dat denk ik niet.
Dus: de uitvinder van de toekomst kan maar beter de juiste prompts leren schrijven.
Absoluut! Voor een stuk verschuift het creatieve aspect naar de formulering van de zoekopdrachten. Dat wordt een echt ambacht en de gevolgen daarvan zie je nu al bij de meest geslaagde AI-producten: die komen tot stand doordat creatievelingen die AI als een extra tool in hun toolbox benutten. Het werkt het best als je al weet wat je min of meer als uitkomst wil – en AI inzet op z’n grootste sterktes.
Zo is de rekenkracht van AI extreem nuttig in die situaties die iets weghebben van een speld in een hooiberg zoeken. Zulke problemen kunnen miljoenen keren sneller opgelost worden, dankzij rekenkracht.
Denk bijvoorbeeld aan de speurtocht naar nieuwe geneesmiddelen en de werkzame moleculen die daarbij horen. Wat generatieve AI eigenlijk doet is rekenen met taal. AI verwerkt daarbij gigantisch veel meer data dan een mens zou aankunnen. Volgens hetzelfde principe kan AI ook rekenen in de taal van moleculen – en door die te combineren kom je via trial & error tot bepaalde kandidaat-geneesmiddelen. In een fysiek onderzoekslabo is zo’n proces langzaam, arbeidsintensief en daardoor ook duur. Door vooraf berekeningen in de computer te kunnen verrichten, kan je veel sneller en goedkoper een preselectie maken van medicijnen, die dan verder in het labo onderzocht kunnen worden. Met AI kunnen we digitaal voorspellen welke kandidaten goed genoeg zullen zijn. Eerlijk is eerlijk: ook die nieuwe geneesmiddelen zijn eerder het resultaat van rekenwerk, dan van pure creativiteit.
En wat met de hallucinaties van AI? Zijn dat dan geen uitvindingen? En: moeten we die niet net inperken?
Er is inderdaad veel te doen geweest over hallucinerende AI-chatbots, die fake news verzonnen hadden. Het is een fundamenteel probleem van generatieve AI: vanaf het moment dat zo’n systeem één stap zet, maakt het bijna per definitie een fout. Want: ChatGPT genereert één woord, maar het had er net zo goed vijf andere kunnen kiezen. Het volgende woord heeft weer een bepaalde foutenmarge. Laat je ChatGPT 100.000 woorden kiezen, dan is de kans dat het systeem compleet verkeerd zit, exponentieel groter dan wanneer je 10 woorden zou genereren. Dat wil ook zeggen dat, wanneer je blijft doorvragen, zo’n systeem zichzelf vastrijdt in het eigen redeneerproces of zelfs referenties verzint, iets wat we van een wetenschapper nooit zouden accepteren. Het bewijst nog eens dat zulke systemen niet écht intelligent zijn, en eigenlijk ook heel weinig creatief zijn. Moeten we die systemen dan maar afschrijven? Zeker niet, het is een handige tool, maar we moeten ze geen eigenschappen toedichten die ze niet hebben.
Een – mijns inziens terechte - kritiek die generatieve AI krijgt is dat er geen enkele manier bestaat om te verzekeren dat die ethische resultaten aflevert. Daar is in essentie nog geen oplossing voor. Je kan een paar woorden en thema's als no-gozone omschrijven, maar in de praktijk blijkt AI het er toch over te hebben. Wie écht te weten wil komen hoe een bepaald wapen te maken, kan dat via AI te weten komen. Dat lijkt vandaag moeilijk uit te sluiten.
Ook menselijke uitvindingen zijn niet altijd ethisch.
Uiteraard niet. En soms worden ‘neutrale’ uitvindingen in een andere context misbruikt om vernietigende dingen mee te doen. Maar het is terecht dat we strenger zijn voor computers dan voor mensen, omwille van de enorme rekenkracht die erachter zit.
We beleven momenteel AI-hoogdagen. Een soort van industriële revolutie die door alle geledingen van onze samenleving raast. Denk je dat AI in de nabije toekomst een belangrijkere rol kan spelen in het uitvinden der dingen?
Wat is de creatieve vonk die je nodig hebt? Wat maakt jou als mens creatief? Dat is nog een mysterie. De juiste vragen stellen: dat lijkt vandaag alleszins een cruciale eigenschap voor uitvinders en dat blijft ook zo in tijden van prompts. Maar om dat te kunnen doen, heb je een redeneerproces nodig. Je moet doelstellingen kunnen omzetten naar stapjes. En dat kunnen de generatieve AI-modellen zoals ChatGPT niet.
Generatieve AI lijdt aan een paradox die bekend staat als Moravec’s paradox: AI is ongelofelijk goed in complexe kwesties, maar vrij slecht in eenvoudige klussen. Een paper schrijven over een relatief complex onderwerp? Geen probleem! Een vaatwasmachine leegmaken? Dan komt een AI-robot stevig in de problemen, ook al is het iets wat een tienjarig kind perfect kan.
Volgens wetenschappers als Yann LeCun, die aan de wieg stond van deeplearning, hebben we modules van diverse types AI nodig, in plaats van één groot AI-systeem dat alles moet kunnen: een model dat goed is in perceptie (denk aan het snel herkennen van voorwerpen of mensen op een beeld), een model dat goed is in het genereren van content (generatieve AI), een model voor reinforcement learning (waarbij het systeem telkens beloond wordt als het de juiste keuze maakt – en op die manier een stappenplan leert) en een prompt-ingenieur. De bouwblokken om tot AGI (artificial general intelligence) te komen, zijn bijna volledig. Maar er zijn belangrijke uitdagingen: reinforcement learning is nog niet schaalbaar en AI vraagt nog veel te veel energie. De complexiteit van de AI-rekenkracht verhonderdvoudigt elke twee jaar. Een zoekopdracht door ChatGPT sturen verbruikt 25 keer zoveel stroom als een ‘normale’ Google-zoekopdracht. Het trainen van AI-modellen wordt hand over hand energie-intensiever. We zullen specifieke AI-chips en hardware moeten ontwikkelen die beter afgestemd zijn op software en vice versa. Met one size fits all-ontwerpen botsen we eerder vroeg dan laat tegen een muur om de explosie aan rekenkracht bij te houden.
Die AGI kan in principe ooit een opvolger van de menselijke uitvinder worden. Maar zijn we daar als maatschappij klaar voor?
Nee, dat zijn we niet. Er zijn heel wat ethische bekommernissen die vandaag nog onopgelost blijven. In z’n boek ‘Life 3.0’ beschrijft de Zweeds-Amerikaanse kosmoloog Max Tegmark wat er zoal kan gebeuren als AGI uitbreekt. Wanneer een computersysteem als objectief heeft ‘winst maximaliseren’ of ‘het model verbeteren’ maar geen enkele ethische afbakening kent, dan kunnen er benauwende dingen gebeuren.
Een ander aandachtspunt is het eigendomsrecht. Artificiële intelligentie kan een stemacteur gelijk welke jingle laten inspreken, zonder dat we nog een mens nodig hebben. Daar hebben we helemaal geen businessmodel voor klaar.
Uiteraard is het goed om ons bewust te zijn van die risico’s en het maatschappelijk debat te voeren over AI als intelligente uitvinder. Maar paniek is niet bepaald nodig: vandaag heeft de gemiddelde huiskat nog altijd een stuk meer gezond verstand en begrip van de wereld dan AI. En zolang dat zo is, blijven menselijke uitvinders aan zet. Al doen ze er toch goed aan om AI als waardevolle tool te gebruiken.
Dit artikel verscheen eerder in EOS magazine.
Steven Latré leidt het onderzoek naar artificiële intelligentie bij imec. Zijn belangrijkste expertise is het combineren van sensortechnologieën en chipontwerp met AI voor sectoren zoals de gezondheidszorg en slimme industrieën. Daarnaast is hij ook deeltijds professor aan de Universiteit Antwerpen.
Gepubliceerd op:
14 maart 2024