Niet-menselijke AI is misschien wel beter

Publish date:

Beter goed bedacht dan slecht gekopieerd?

Het vakgebied Kunstmatige Intelligentie (of Artificial Intelligence: AI) ontwikkelt zich razendsnel. Op dit moment gaan we richting een tweesprong op de AI-weg. De vraag is: Wat voor een AI gaan we gebruiken? Gaan we mensen nabootsen met AI of maken we gebruik van de eigen denkwijzen van AI?

Sinds het begin van de ontwikkeling van AI werden de algoritmes gezien als een soort model van ons menselijk denken. Als we met machines het menselijke denkvermogen kunnen nabootsen, zouden we snel menselijke intelligentie kunnen imiteren en misschien wel verbeteren. Een beroemd voorbeeld is de computer HAL uit de film «2001, A Space Odyssey». Deze intelligentie werd zelfbewust en probeerde zich te verdedigen tegen de mensen die hem wilden uitschakelen.

“I’m afraid I can’t do that, Dave”
(HAL in «2001, A Space Odyssey»)

Modern neurologisch onderzoek heeft echter uitgewezen dat machines helemaal niet zo denken als mensen. Kunstmatige intelligentie is geen goede simulatie van onze denkvermogen. Een simpel voorbeeld: wij leren op basis van kleine hoeveelheden data. Wanneer een kind vier keer een hond aangewezen krijgt, dan kan het toekomstige honden herkennen. In het begin misschien niet perfect, maar op den duur goed genoeg. Machine Learning heeft daarentegen vele duizenden plaatjes nodig van honden om maar enigszins accuraat honden te herkennen.

Computer als dommekracht

“De computer verslaat ons met het snel verwerken van data, maar komt niet in de buurt van onze subtiliteiten. […] Een computer is een dommekracht en heeft geen flauw benul van appels, maar kan er een aanwijzen als wij hem genoeg plaatjes van appels hebben aangereikt”, stelt Eric Postma, hoogleraar kunstmatige intelligentie aan Tilburg University.

Is dit gewoon jammer? Moeten we onze verwachtingen over Kunstmatige Intelligentie aanpassen, omdat AI mensen bij lange na niet kan imiteren of evenaren? Nee, dat hoeft helemaal niet. Het feit dat machines anders leren dan mensen, betekent niet dat de ene methode beter is dan de andere.

Omdat AI anders leert dan wij mensen, redeneert AI ook anders. Dat leidt soms tot verrassende resultaten. Google’s Deepmind zakte jammerlijk voor een schooltoets, terwijl we ons nog herinneren dat dezelfde software wel de wereldkampioen Go versloeg. Bij beeldherkenning, het beschrijven van wat er op foto’s staat, wordt door software ook vreemde conclusies getrokken. Hieruit blijkt dat het algoritme gewoon anders redeneert dan wij.

Perfecte, menselijke robots zijn nog ver weg

Als we een menselijke robot willen bouwen, die doet en redeneert als een mens, is er inderdaad nog een lange weg te gaan. Perfecte chatbots en zorgrobots zijn nog ver weg. Deze apparaten moeten immers menselijk overkomen. De computer of robot moet zo menselijk zijn, dat we het verschil niet meer merken. Daar staat dan weer tegenover dat een AI niet perfect menselijk moeten zijn om ons ermee te identificeren. Dat zegt meer over ons mensen dan over de perfectie van AI. We zijn bovendien lui van aard, zodat we graag ons denkwerk delegeren aan imperfecte machines.

Als we bepaalde menselijke taken willen mechaniseren door ze uit te besteden aan computers, moeten we eerst bedenken hoe we dat gaan doen. Als we een computerprogramma over een hypotheekaanvraag laten adviseren, bouwen we dan gewoon de bestaande beslisregels in? Of gaan we op zoek naar andere beslismethoden die nu niet doenlijk zijn? Gaan we de mensen vervangen door computers deze mensen na te bootsen? Of gaan we de taken op een nieuwe manier uitvoeren?

Ontwerpers moeten uiteindelijk een keuze maken tussen geautomatiseerde systemen die het meest accuraat zijn of die het meest op mensen lijken.”
(Louise Matsakis in Wired)

AI denkt anders

Als we AI gaan toepassen, moeten we openstaan voor andere wijzen van denken. AI redeneert anders en trekt ook andere conclusies. Zijn die dan fout? Dit lijkt bijna op de vraag die de leraar zichzelf stelt: als een leerling het goede antwoord geeft met een “verkeerde” methode, is het antwoord dan goed of fout? Als een algoritme een raar antwoord geeft, is dit dan een fout of redeneert de AI anders dan wij? En is die andere redeneerwijze dan intrinsiek verkeerd?

Wanneer we AI, en in het bijzonder Machine Learning, vragen om uit grote hopen data patronen te destilleren, moeten we niet raar opkijken dat allerlei nieuwe patronen of zienswijzen opduiken. Misschien is het wel onze eigen beperking om nieuwe maar onbekende denkwijzen a-priorisch af te wijzen, waardoor we de conclusie van AI afkeuren.

Stel, beeldherkenningsalgoritme herkent een hond op een foto. Het is voor 95% zeker dat het een hond is. Wij zien zonder twijfel dat het voor 100% een hond is. Dan kunnen we daarom lachen, maar ook misschien wel erkennen dat er een kans van 5% is dat het misschien toch iets anders is. Mensen zijn slechte intuïtieve statistici. De gerede twijfel van het algoritme is misschien niet fout , maar een opening naar een andere manier van denken.

Als we Kunstmatige Intelligentie inzetten voor het assisteren bij menselijke taken, moeten we niet proberen mensen na te bootsen. Als we ons blindstaren op een menselijke manier van denken, houden we geen rekening met de alternatieve manieren van denken van de computer. Denkwijzen die best wel eens accurater zouden kunnen zijn dan wij mensen ooit zouden kunnen verzinnen.