“Zal kunstmatige intelligentie een bedreiging gaan vormen voor de mensheid?”. Als AI zo ver gevorderd is dat het slimmer is dan mensen, wat zal er dan gebeuren? Zal AI zijn conclusies trekken en de mensheid gaan overheersen of zelfs uitroeien? Niet de minsten vrezen het laatste. Elon Musk en Bill Gates waarschuwen hiervoor en willen dat de overheid toezicht gaat houden op AI. Mark Zuckerberg denkt dat het zwaar wordt overdreven, terwijl anderen denken dat AI niet zover is of kan komen dat het een serieuze bedreiging gaat vormen.

Maar deze hele discussie gaat over zogenaamde “Strong AI”. “Strong AI” behelst het nabootsen van menselijk bewustzijn, denken en creativiteit, om maar enkele gebieden te noemen. De situatie rondom “Strong AI” is nogal wazig, omdat er weinig concrete vorderingen zijn gemaakt. Vooral in beperkte situaties zoals het spelen van de spellen Go en Jeopardy, bleek de computer beter dan de mens. Maar bij het oplossen van dagelijkse problemen is nog niet zo veel bereikt.

“Narrow AI”

Anders ligt het op het gebied van “Narrow AI” of “Weak AI”. Hier zijn er al veel toepassingen mogelijk. Dat zijn toepassingen die gebruikt kunnen worden op een nauw domein, zoals IBM Watson for Oncology alleen toepasbaar is voor diagnoses op het gebied van bepaalde soorten kanker. Of alle toepassingen praktisch of economisch zijn is een andere vraag (maar ja, wat is nu het maatschappelijke nut van een spelletje als Candy Crush?).

Maar veel AI is voor de gebruiker onzichtbaar. De AI in bijvorbeeld Google en Facebook werkt op de achtergrond. Ze wordt gebruikt om profielen op te stellen van de gebruikers en reclames gericht te presenteren. We weten niet welke rol AI hier precies in speelt, welke beslissingen hij neemt en hoe zijn beslissingen ons leven gaat beïnvloeden. Zonder te willen speculeren omtrent de bedoelingen van deze internetbedrijven, ligt hier wel een probleem bij de toepassing van AI. We weten eigenlijk niet hoe het precies werkt.

Omdat algoritmen bij kunstmatige intelligentie zelfstandig kunnen leren en werken, kunnen ze onvoorspelbaar zijn en onvoorspelbare gevolgen hebben. (Tai Wei Lim, National University of Singapore)

Verwarring op twee niveaus

Ten eerste weten veel beslissers in de IT niet wat AI kan, hoe het werkt en hoe het correct toe te passen. Er zijn meer dan 1000 leveranciers van AI-producten of AI-gerelateerde producten. Daarnaast vindt er “AI-washing” plaats, waarbij niet zo slimme IT-producten een AI-label van hun marketingafdeling opgeplakt krijgen. Verwarring alom.

Maar er is een andere vorm van verwarring die een groter probleem gaat vormen. De “Gartner 2017 AI development strategies survey” constateert dat het gebrek aan vakkrachten een belangrijke hindernis vormt voor het uitvoeren van AI-projecten. Wat ik zie, is dat daarom AI-projecten worden uitgevoerd door mensen die niet zo precies weten wat de mogelijkheden en beperkingen van AI zijn. We weten allemaal welke risico’s er zijn wanneer IT-projecten niet door vakbekwame mensen worden uitgevoerd. De kans op mislukking wordt groot. Of de kans op verkeerde implementaties met bugs en foute uitkomsten wordt groter.

Wie een AI-project gaat beginnen zonder te weten wat en hoe AI werkt, krijgt onvermijdelijk te maken met bovengenoemde projectrisico’s. Maar op een dag wordt geconstateerd dat het opgeleverde systeem wel veel fouten maakt (wat er met deze constatering gebeurt, of zou moeten gebeuren, laat ik nu even buiten beschouwing).

Foute AI-systemen

Met foute AI-systemen bedoel ik geen AI-systemen die moreel bedenkelijke beslissingen nemen. Met foute AI-systemen bedoel ik AI-systemen die verkeerde beslissingen nemen. Een zelfrijdende auto, die opzettelijk het publiek inrijdt, maakt een moreel bedenkelijke beslissing. Een zelfrijdende auto die zomaar de sloot inrijdt maakt een verkeerde beslissing. U begrijpt hopelijk waar ik heen wil (ik wil hier niet verder ingaan of iedere computergebaseerde beslissing opzettelijk is.)

Als een auto de sloot inrijdt, weten we dat er iets verkeerd is gegaan. Een berucht voorbeeld van uit de hand gelopen AI was de Microsoft Tay chatbot, die vorig jaar door het Microsoft AI-team werd opgericht Het duurde minder dan een dag voor de bot om racistisch te worden . Deskundigen zeggen dat het kan gebeuren met een AI-systeem wanneer hem slechte dingen worden aangeleerd. In het geval van Tay werd de AI gemanipuleerd door racistische en andere aanstootgevende taal, en aangezien het werd geleerd om te “leren” om dit gedrag te spiegelen, werd Tay na brede publieke verontwaardiging uitgezet.

Als informatie die aan een computer wordt gevoerd, bevooroordeeld is, zal de artificiële intelligentie ook bevooroordeeld zijn. (Jennifer Goforth Gregory, Intel)

Het verkeerde geleerd

Wat niet goed wordt begrepen, volgens een artikel in MIT Tech Review over hetzelfde onderzoeksproject, is waarom een algoritme misleid kan worden. Wat we weten is dat mensen hebben geleerd om te herkennen of er een beslissing nonsens is. Algoritmen die dezelfde soort beslissingen moeten nemen kunnen veel gemakkelijker gemanipuleerd worden. Ze hebben een veel kleiner, of geen, referentiekader waartegen ze beslissingen (moreel) kunnen afwegen.

Maar als AI gemanipuleerd kan worden, fouten kan maken en verkeerde dingen geleerd kan worden, moeten we wel in staat zijn deze fouten te herkennen en te verhelpen. En daarna de AI bestendig maken tegen manipulatie, leren fouten te herkennen door ze goede dingen te leren. Maar omdat het om lerende systemen gaat, veranderen de algoritmen tijdens het leerproces.

Helaas maken alle lerende systemen fouten, ze zijn onderdeel van het leerproces. We kunnen er niet van op aan dat wat eerst goed werkte, later ook nog goed werkt. Dat beslissingen die eerst correct waren, altijd correct zullen blijven. We zullen AI continu in de gaten moeten houden om te blijven kijken of hij wel de goede dingen blijft doen.

Blind vertrouwen in computersystemen is nooit goed, maar bij AI kan het niet eens. We zullen moeten blijven nagaan of de juiste beslissingen blijven nemen. Beslissingen die we ook moreel juist vinden: niet-discriminerende, maatschappelijk aanvaardbare en uitlegbare beslissingen.

Een beetje bang

Waar ik nu bang voor ben is niet “menselijke” AI die het zaakje gaat overnemen, maar fout geïmplementeerde AI. AI die niet continu wordt geleerd het goede te doen, die niet in de gaten wordt gehouden of waarvan de gebruikers geen idee heeft wat het doet of kan gaan doen. Traditionele computersystemen kunnen hier ook last van hebben omdat de complexiteit te groot is geworden.

Maar omdat AI een lerende systemen zijn en hun gedrag door de tijd heen wijzigen, kunnen ze foute dingen gaan doen die ze eerst niet deden. En als we dat niet in de gaten hebben, of willen hebben, kunnen slechte AI-systemen plotseling raar gaan doen. Ze kunnen gaan etnisch gaan profileren, foute medische diagnoses stellen of onze privacy schenden. Met alle persoonlijke consequenties van dien.

Deze blog is de uitgebreide versie van een blog post die in augustus 2017 op de AG Connect-blog is geplaatst.