Stichting Ammodo, Voor kunst, architectuur en wetenschap

Frank van Harmelen

over hoe mens en machine succesvol kunnen samenwerken

Frank van Harmelen

Frank van Harmelen is hoogleraar Kunstmatige Intelligentie aan de Vrije Universiteit Amsterdam en zit in de adviescommissie voor de Ammodo Science Awards. Sinds 2020 is hij directeur van het Hybrid Intelligence Centre dat onderzoek doet naar AI-systemen voor de toekomst. ‘Hybride intelligentie draait om succesvolle samenwerking tussen mens en machine, waarbij het geheel meer is dan de som der delen.’

Hoe zou je de opkomst van AI omschrijven?

Artificiële Intelligentie (AI) is wat mij betreft het opwindendste vakgebied in de informatica. De geschiedenis ervan laat zich omschrijven als een soort achtbaanrit van grote verwachtingen en ambities die uitmondden in zowel mislukkingen als prachtige ontdekkingen. Sommige ontwikkelingen gingen sneller dan verwacht, andere juist veel langzamer. Zo voorspelden Amerikaanse onderzoekers in de jaren zestig vol zelfvertrouwen dat een computer binnen vijf jaar de wereldkampioen schaken zou kunnen verslaan. Uiteindelijk lukte dat pas in 1997, bijna veertig jaar later. Maar dat was nog niet de AI zoals we die tegenwoordig kennen.

Wat waren de belangrijkste ontwikkelingen?

In de jaren tachtig richtte het onderzoek zich vooral op de ontwikkeling van expertsystemen om menselijke specialisten te ondersteunen, zoals artsen bij het stellen van diagnoses. Deze modellen werden handmatig geprogrammeerd met duizenden beslisregels, vaak met directe input van experts. Vandaag de dag werken we op veel grotere schaal en beschikken we over systemen met honderden miljoenen regels en enorme medische databases, op basis waarvan AI advies kan geven. Tegelijkertijd brak in de afgelopen decennia machine learning door. Daarbij voer je geen regels in maar leert AI zelf patronen ontdekken. Dan geef je de computer grote hoeveelheden voorbeelden, bijvoorbeeld patiëntendossiers, en dan leert hij zelf welke medicijnen werken voor welke ziektes. Tegenwoordig zijn er dus twee AI-scholen: de kennisgebaseerde benadering, met miljoenen expliciete regels, en machine learning, waarbij computers leren van voorbeelden zonder instructies. De uitdaging ligt nu in het samenvoegen van deze twee benaderingen, wat in de praktijk ingewikkeld is door de verschillen in de onderliggende wiskunde en methodologie.

Hoe kon machine learning het afgelopen decennium zo’n vlucht nemen?

Dat was mogelijk door twee cruciale factoren: de beschikbaarheid van immense rekenkracht en toegang tot grote datasets. Met name grote hoeveelheden data zijn essentieel omdat machine learning afhankelijk is van een overvloed aan trainingsvoorbeelden. Het vertalen van Engels naar Chinees kan bijvoorbeeld niet volledig worden beschreven met regels, maar als je voldoende Engelse teksten en bijbehorende Chinese vertalingen hebt kan het systeem zelfstandig patronen herkennen. In het afgelopen decennium is ook deep learning ontstaan, waarmee computers complexe patronen in data kunnen ontdekken die voorheen niet zichtbaar waren. Dat heeft nieuwe toepassingen zoals gezichtsherkenning, automatische vertaling en zelfrijdende auto’s opgeleverd.

Je bent directeur van het Hybrid Intelligence Centre. Wat was de drijfveer achter de oprichting van dit centrum?

We zijn in 2020 van start gegaan dankzij een Zwaartekrachtpremie van twintig miljoen euro. Ons doel is om AI-systemen te ontwikkelen die effectief kunnen samenwerken met mensen, met als resultaat hybride teams waar menselijke en computerintelligentie elkaar aanvullen. Binnen het Hybrid Intelligence Centre werken zeven universiteiten samen, elk met drie of vier onderzoeksgroepen met eigen expertises. In totaal hebben we nu zo’n tachtig PhD-studenten dus daarmee beschikken we over echte slagkracht. In 2020 waren we pioniers met zulk grootschalig en interdisciplinair onderzoek naar hybride intelligentie. Goede ideeën worden vaak gelijktijdig ontwikkeld en inmiddels wordt er wereldwijd aan dit onderwerp gewerkt onder verschillende namen: in Duitsland noemen ze het Human Centric AI, en er is zelfs een Stanford Center for Human-Centered AI. Het besef groeit dat de toekomst van AI niet draait om het vervangen van mensen, maar om het ondersteunen, efficiënter maken en op een hoger niveau laten werken.

Hoe verschilt hybride intelligentie van de klassieke kunstmatige intelligentie?

De traditionele benadering van kunstmatige intelligentie richt zich voornamelijk op automatisering, dus het overnemen van menselijke taken. Maar het idee dat machine-intelligentie uiteindelijk gelijk zal zijn aan menselijke intelligentie, is inmiddels achterhaald. Menselijke en kunstmatige intelligentie verschillen aanzienlijk en zijn niet eenvoudig uitwisselbaar. Radiologen bijvoorbeeld zullen niet snel worden vervangen door computers, maar ze zullen in de toekomst wel moeten samenwerken met AI-systemen die suggesties doen om hun diagnostiek te verbeteren. In plaats van bezorgd te zijn over banen die worden overgenomen door AI, zouden we dus moeten verkennen hoe beide vormen van intelligentie elkaar kunnen aanvullen. Computers hebben perfect geheugen, zijn onpartijdig en kunnen patronen herkennen in grote datasets. Mensen kunnen daarentegen empathie tonen en subtiele contextuele informatie begrijpen. Hybride intelligentie draait om de samenwerking tussen mens en machine, waarbij het geheel meer is dan de som der delen.

Verandert hierdoor onze definitie van wat intelligentie is?

Intelligentie is een begrip dat steeds verandert en waar we steeds meer grip op krijgen. In de informatica was de oorspronkelijke definitie van intelligentie gebaseerd op de Turing-test, waarbij een computer als intelligent werd beschouwd als deze niet te onderscheiden was van een mens in een imitatiespel. Tegenwoordig vinden we het idee dat menselijke intelligentie als de maatstaf dient verouderd. Sterker nog, het idee dat we een definitie nodig hebben voordat we over intelligentie kunnen praten, beschouw ik inmiddels ook als achterhaald. Net zoals biologie geen eenduidige definitie van ‘leven’ heeft, bestaat er binnen de AI ook geen eenduidige definitie van intelligentie. Daarin schuilt juist de kracht, want zoals Einstein het zei: ‘Als we wisten wat we deden, zou het geen onderzoek heten.’ Mensen en computers bezitten verschillende vormen van intelligentie, en dat is prima. De definitie is het doel van de reis, niet het begin.

Wat is ervoor nodig om mens en AI beter te laten samenwerken?

We moeten allereerst zorgen dat beide vormen van intelligentie elkaar goed begrijpen. Dat is nog knap lastig, want machine learning leidt vaak tot een ‘black box’ waarbij het onduidelijk is hoe het systeem tot een antwoord komt. Een voorbeeld hiervan is AlphaGo, een AI-model dat het bordspel go won door zetten te doen die in eerste instantie onbegrijpelijk waren, maar vijftig zetten later van cruciaal belang bleken te zijn. Wanneer je aan de computer vraagt waarom hij een bepaalde zet deed, ontvang je geen netjes geformuleerd antwoord, maar een onbegrijpelijke lijst met getallen. Op dit moment is AI nog niet in staat om dat interne proces voor ons inzichtelijk te maken. Daarom wordt er momenteel intensief gewerkt aan de ontwikkeling van ‘explainable AI’, met als doel om AI begrijpelijker te maken voor mensen.

En andersom: wat zou AI van mensen kunnen leren?

Mensen hanteren onderling talloze onuitgesproken regels, zoals de manier waarop we gesprekken voeren: we stemmen af op onze gesprekspartner, laten de ander uitpraten, enzovoort. Deze ‘common sense knowledge’ is vanzelfsprekend voor ons, maar is voor een computer verre van logisch. Dit staat bekend als Moravec’ paradox: zaken die voor mensen intuïtief zijn, vormen juist een uitdaging voor computers, en vice versa. Dit schijnbaar eenvoudige menselijke gedrag dient als smeermiddel in sociale interacties en is een essentieel element in teamwork. Daarom wordt echt succesvolle samenwerking tussen mens en computer pas mogelijk wanneer computers zich ook aan deze sociale afspraken kunnen houden.

Hoe kan een AI-model dat menselijke gedrag aanleren?

Dat is een uitdaging. Er wordt onder andere gebruik gemaakt van machine learning, waarbij computers duizenden romans analyseren om menselijk gedragspatronen te herkennen. Daarin worden immers allerlei vormen van menselijk gedrag beschreven, van liefde tot conflicten en irrationaliteit. Dit proces lijkt op hoe kinderen de betekenis van gedrag leren door herhaling. Deze betekenissen zijn ook sterk afhankelijk van de cultuur, dus een AI-model gebaseerd op Chinese literatuur zal verschillen van een model gebaseerd op Westerse literatuur. Bovendien is menselijk gedrag contextafhankelijk, dus er is geen universele oplossing. Ons doel is om computers bewust te maken van hun context, zodat ze zelf hun gedrag kunnen aanpassen, net zoals mensen dat doen.

Zijn er al geslaagde hybride samenwerkingsvormen uit voortgekomen?

Zeker, we hebben bijvoorbeeld onderzoekers die experimenteren met robotica in het onderwijs, waar kleine robots in de klas kinderen ondersteunen in hun leerproces. Deze robots hebben eindeloos geduld en nemen repetitieve taken over, zoals het helpen van een kind bij het leren van de tafels, waardoor leraren meer tijd hebben voor individuele aandacht. Een ander interessant project richt zich op het gebruik van hybride intelligentie in microchirurgie. Hierbij assisteren digitale camera’s bij uiterst delicate operaties, zoals het herstellen van kleine zenuwen. Deze camera’s kunnen nu al reageren op gesproken commando’s, zoals ‘draai nu 10 graden naar rechts,’ waardoor de chirurg zeer nauwkeurig kan werken. Het doel is om in de toekomst een hybride samenwerking te realiseren, waarbij de camera een volwaardig lid van het operatieteam vormt en vanzelf begrijpt wat de chirurg nodig heeft, zoals het in- en uitzoomen op de juiste momenten. Dit betekent dat de technologie zich aanpast aan de mens in plaats van andersom.

Recentelijk heeft ChatGPT veel aandacht gekregen. Wat maakte de lancering juist nu mogelijk?

De lancering van ChatGPT in november 2022 heeft ons onderzoeksveld ingrijpend veranderd. Het algoritme voor het trainen van dit soort AI-modellen, waarbij machine learning wordt toegepast op grote hoeveelheden tekst, was al langer openbaar en bekend. Dankzij enorme investeringen in data, training en rekenkracht, en met de steun van bedrijven zoals Microsoft, heeft OpenAI, het bedrijf achter ChatGPT, de techniek naar het huidige niveau gebracht. Wat uit die gigantische schaalvergroting volgde wordt binnen de AI-gemeenschap ‘emergent gedrag’ genoemd: onvoorspelbaar gedrag dat niet bewust is geprogrammeerd. Zelfs de makers begrijpen nog steeds niet alles, aangezien ze het model trainen voor A en het ook geschikt blijkt voor B, zonder vooraf te weten wat B precies inhoudt. Dit onderstreept het ‘black box’-karakter van AI, waarbij er geen duidelijke verklaring is voor het gedrag van het systeem.

Hoe wordt ChatGPT getraind?

Een taalmodel zoals ChatGPT leert iets schijnbaar eenvoudigs: het correct plaatsen van woorden in zinnen, afhankelijk van de context. Het maakt hierbij gebruik van een kansverdeling voor mogelijk passende woorden. Stel bijvoorbeeld dat de zin begint met ‘De boer woont op het…’. Op dat punt kunnen verschillende woorden volgen, zoals ‘erf’, ‘land’, enzovoort. In dit voorbeeld heeft ‘erf’ een hogere kans om geselecteerd te worden omdat het een sterke associatie heeft met ‘boer’, terwijl bijvoorbeeld het woord ‘flat’ een zwakke associatie heeft en dus minder kans maakt. Door op die manier voorspellingen te doen over welke woorden in een zin kunnen worden geplaatst, genereert ChatGPT antwoorden. Interessant is dat het model niet altijd het woord met de hoogste kanswaarde kiest, anders zou het steeds dezelfde tekst genereren. In plaats daarvan gooit het een virtuele dobbelsteen om telkens willekeurig andere, maar toch redelijk waarschijnlijke woorden te kiezen, waardoor je op dezelfde vraag verschillende antwoorden krijgt.

Welke nieuwe risico’s gaan gepaard met deze ontwikkelingen?

Deze krachtige generatieve AI heeft veel nuttige toepassingen, maar ook onvoorspelbare gevolgen. Met name het fenomeen hallucinatie, waarbij het model misleidende informatie genereert, vormt een groot risico. ChatGPT is gebouwd om altijd antwoord te geven, vaak zijn die antwoorden plausibel maar soms zijn ze onjuist of zelfs onzinnig. In situaties waarin correcte informatie van levensbelang is, zoals bij medische vragen, kan het vermogen van ChatGPT om foute informatie te geven ernstige risico’s met zich meebrengen. Het gebrek aan een waarschuwing hierover is zorgwekkend, gezien het brede gebruik van deze technologie. Een ander risico betreft ethische kwesties, zoals het onbedoeld opduiken van menselijke vooroordelen in algoritmes. Het model is zo goed als de data waarop het is getraind. Dus als de data discriminerende elementen bevat, kunnen deze terugkomen in de output van ChatGPT, wat bijdraagt aan het versterken van stereotypes en discriminatie. Dit is een ernstig probleem waar wij als onderzoekers ons continu bewust van moeten zijn. Ten slotte is er het gebrek aan uitlegbaarheid, wat ik al eerder noemde: we begrijpen nog niet waarom het model sommige dingen wel weet en andere niet. De snelle implementatie van deze nieuwe technologie, ondanks de aanwezige risico’s, betekent dat we dringend moeten gaan nadenken over verantwoordelijk gebruik ervan.

Hoe zorgen we voor verantwoorde ontwikkeling van AI?

Er zijn momenteel veel conferenties over FAT AI (Fair Accountable Transparent AI) die de agency van AI bespreken. ChatGPT reageert tot nu toe alleen op vragen, zonder eigen initiatief. Experimenten met AI-varianten die wel agency vertonen, roepen de vraag op of regulering nodig is voor verantwoorde ontwikkeling. Vergelijkbare reguleringen bestaan al in andere wetenschapsgebieden, zoals de biologie met beperkingen op menselijke klonen en genetische modificatie van voedsel. Binnen het Hybrid Intelligence Centre hebben we hier ook aandacht voor. We werken samen met een ander Zwaartekrachtconsortium genaamd Ethics of Socially Disruptive Technologies (ESDIT), dat zich richt op ethische aspecten van disruptieve technologieën zoals robots en AI. Samen begeleiden we PhD-studenten die ethische richtlijnen voor Explainable AI ontwikkelen.

Welke ontwikkelingen verwacht je in de komende jaren?

Sinds november ben ik gestopt met het voorspellen van de toekomst, vooral omdat ik toen niet had kunnen voorzien dat ChatGPT in december zou verschijnen. Het AI-veld ontwikkelt zich razendsnel. In een maand tijd vindt nu meer vooruitgang plaats dan normaal gesproken in een jaar.

Je zit in de adviescommissie voor de Ammodo Science Award. Hoe heb je het selectieproces voor de Ammodo Science Award for fundamental research 2023 ervaren?

Het was leerzaam en inspirerend om te zien welke normen voor kwaliteit wetenschappers uit andere vakgebieden toepassen. Dit dwong mij om opnieuw na te denken over wat ik zelf als goede wetenschap beschouw. Bovendien was het een les in nederigheid, omdat alle kandidaten al vroeg in hun onderzoekscarrière indrukwekkend werk hadden verricht. Het selecteren van twee laureaten uit zo’n getalenteerde groep was een uitdaging. In november komen de adviescommissies opnieuw samen om de nominaties voor de Ammodo Science Award for groundbreaking research 2024 te bespreken. Ik zie nu al uit naar het selectieproces waarbij speciale aandacht besteed zal worden aan de kracht van samenwerking binnen de wetenschap.

Lees hier meer over de winnaars van de Ammodo Science Award for fundamental research 2023.

 

Foto’s: Florian Braakman