Artificiële intelligentie lijkt stilaan alomtegenwoordig. De bankwereld was één van de eerste sectoren om ermee te experimenteren, maar vandaag zet ook de gezondheidszorg stevig in op het potentieel van dit soort technologie. Mogen we alle toepassingen echter zomaar vertrouwen? En zijn de beslissingen van een machine wel altijd correct?

Heel wat toepassingen uit ons dagelijkse leven maken vandaag gebruik van artificiële intelligentie. Of ze claimen dat toch te doen. Eigenlijk werkt AI op dezelfde manier als onze eigen menselijke intelligentie. Alles begint bij waarnemingen: wat wij met onze zintuigen doen, imiteert een machine met sensoren. De intelligentie zit natuurlijk in wat ons brein nadien met de informatie uit die waarnemingen doet. We verwerken de vaststellingen en passen op basis van de verworven inzichten onze acties aan.

Dat is wat we in de technologiewereld met machine learning doen. Pas wanneer een computer in staat is om automatisch data te verwerken en nieuwe kennis vervolgens in de juiste beslissingen omzet, kunnen we van artificiële intelligentie spreken. Vaak gaat het over enorme hoeveelheden data die ons eigen brein simpelweg niet zou kunnen verwerken.

Dan rest natuurlijk nog steeds de vraag of we een machine altijd zomaar mogen vertrouwen. Volledig zeker zijn we nooit, maar het zou ook verkeerd zijn om de technologie meteen met de vinger te wijzen. Wie AI gebruikt, moet drie essentiële regels in het achterhoofd houden.

1. Als je je data niet begrijpt, gaat het gegarandeerd mis

Machine learning impliceert dat een systeem op zoek gaat naar patronen in data. Op basis hiervan wordt dan een model gevormd dat de input van nieuwe gegevens zal analyseren om voorspellingen te doen. Een machine kan echter enkel de data gebruiken die wij aanreiken. Bijgevolg moet je zelf ook heel goed begrijpen wat die data inhouden. Zit er bias in onze data, dan zal ook het model zo zijn. Om die reden zijn toepassingen van AI al enkele keren de mist in gegaan.

Een bekend voorbeeld is de rekruteringsrobot van Amazon. Een paar jaren geleden had de Amerikaanse webwinkelgigant een tool gebouwd die een enorme hoeveelheid cv’s moest screenen om enkel de beste kandidaten voor een job bij het bedrijf te weerhouden. Dat werkte aanvankelijk heel goed tot bleek dat de robot er een nogal seksistische werkwijze op nahield. Zo pikte de tool er standaard mannelijke profielen uit en werden vrouwelijke sollicitanten bij voorbaat aan de kant geschoven.

De robot van Amazon kon natuurlijk alleen maar seksistisch worden, omdat z’n makers het hem onbewust hebben aangeleerd. Zo ging de machine op zoek naar patronen in de data van de voorbije tien jaar en daaruit bleek dat Amazon in die periode bijna alleen mannen heeft aangenomen. Het algoritme kende bijgevolg automatisch een negatieve beoordeling toe aan het woordje ‘vrouw’ in een cv. Het systeem faalde overigens niet alleen op het gebied van gender. Ook heel wat niet-gekwalificeerde kandidaten werden weerhouden.

We mogen een machine nooit zomaar op data loslaten. Pas wanneer we de data grondig voorbereid hebben, kan een systeem ermee aan de slag. Als de input niet goed zit, hoeven we niet verrast te zijn dat ook de output niet aan onze verwachtingen voldoet

Het debacle bij Amazon, dat de rekruteringsrobot intussen aan de deur heeft gezet, toont aan hoe belangrijk het is om te begrijpen welke data je aanreikt. Je kunt niet verwachten dat zo’n robot vrouwelijke kandidaten een eerlijke kans geeft als je data een duidelijke voorkeur voor mannelijke werknemers hebben. Een gelijkaardig probleem deed zich voor bij een Amerikaans systeem dat bankleningen moest toekennen. Op basis van ingevoerde data ontstond een algoritme dat uitsluitend leningen voor blanke klanten goedkeurde.

Een recenter voorbeeld is de Apple Card, waarvan zelfs medeoprichter Steve Wozniak moest toegeven dat vrouwen benadeeld worden. Zo kende de kredietkaart aanzienlijk hogere kredietlimieten aan mannen toe in vergelijking met vrouwelijke gebruikers. Of hoe menselijke trekjes zoals seksisme en racisme dus onbewust ook op een machine kunnen worden overgedragen. Dat kan uiteraard een negatieve impact op de samenleving hebben.

Het is zeker niet eenvoudig om je data van vooroordelen te vrijwaren, want bias zit overal. Geef Google maar eens het woordje ‘professor’ als zoekopdracht en je zal merken dat je bijna uitsluitend foto’s van mannen te zien krijgt. Of zoek naar een ‘trouwkleed’ en er verschijnen gegarandeerd hoofdzakelijk beelden van blanke vrouwen.

We mogen een machine dus nooit zomaar op data loslaten. Pas wanneer we de data grondig voorbereid hebben, kan een systeem ermee aan de slag. Als de input niet goed zit, hoeven we niet verrast te zijn dat ook de output niet aan onze verwachtingen voldoet.

2. Je mag nooit blindelings op AI vertrouwen

In de voorbeelden hierboven kan je maar beter niet te veel op de output afgaan. Ook als je honderd procent zeker bent van de kwaliteit van je data, mag je een machine echter niet blindelings vertrouwen. Het kan immers nog altijd ergens misgaan. Zo doet een machine altijd waarvoor ze gebouwd is en dat is output voorzien. Een computer zal nooit zeggen dat hij eigenlijk geen idee heeft welk antwoord hij moet geven. In de plaats daarvan krijg je nog eerder een oplossing die compleet fout is.

Stel dat iemand je een foto van een plant laat zien en vraagt welke plantensoort het is. Als je het niet weet, ga jij dat eerlijk zeggen. Schotel je dezelfde vraag aan een machine voor, dan zal die het aangeleerde model gebruiken om een antwoord te formuleren.

Wanneer het systeem de plant in kwestie niet kan herkennen, dan zal het resultaat wellicht een plant zijn die op basis van beschikbare data het meest aan de eigenschappen op de foto voldoet. Het antwoord is dus fout, maar de machine weet dat niet. Er bestaat zelfs een kans dat de machine de onbekende plant als een mens, dier of ander voorwerp zal kwalificeren, zolang het er maar trekjes van heeft.

3. Wat vandaag werkt, zal morgen wellicht niet goed genoeg zijn

Het is natuurlijk perfect mogelijk om een algoritme te trainen dat momenteel uitstekende resultaten oplevert. We moeten echter goed beseffen dat de juiste oplossing vandaag niet noodzakelijk over drie jaar nog de beste beslissing is. De context verandert immers constant. AI-systemen moeten daarom continu gemonitord worden. Machines moeten voortdurend bijleren om beter te worden en betrouwbaar te blijven. Dit noemen we ‘governance’.

We moeten goed beseffen dat de juiste oplossing vandaag niet noodzakelijk over drie jaar nog de beste beslissing is

We moeten ook goed nagaan of onze data en voorspellingen stabiel zijn, of na verloop van tijd kunnen wijzigen. Microsoft heeft dit aan den lijve mogen ondervinden met z’n chatbot Tay. In 2016 lieten ze Tay op Twitter los, met als bedoeling leuke gesprekken met menselijke gebruikers aan te gaan. Tay was uniek in vergelijking met eerdere chatbots, vooral omdat er geen voorgeprogrammeerd script aan te pas kwam. Een grote hoeveelheid data stelde de chatbot in staat om patronen in taalgebruik te herkennen. Het was uiteindelijk de bedoeling om net zoals een tienermeisje op de sociale media te klinken.

Na het initiële leerproces moest Tay zelfstandig taal leren op basis van de gesprekken die de chatbot met andere Twitteraars aanging. Na enkele uren ging het al fout. Het AI-systeem werd immers blootgesteld aan een massa data van gebruikers die interactie met de chatbot voerden. Veel van die boodschappen waren racistisch getint en dus begon ook Tay te schelden dat het een lieve lust was. Na tal van boze reacties kon Microsoft niet anders dan het account van z’n racistische chatbot te verwijderen. Aangezien ze de data na de lancering niet meer onder controle hadden, was het onmogelijk om Tay te monitoren.

Met vallen en opstaan

Aangezien zelfs techreuzen als Microsoft en Amazon ermee blunderen, mogen we gerust stellen dat AI nog in z’n kinderschoenen staat. Het is een proces van vallen en opstaan. Veel organisaties zijn bovendien nog op zoek naar mensen met de juiste skills om dit soort processen in goede banen te leiden.

We mogen dit soort technologie met andere woorden nog niet 100% vertrouwen. Wie zich echter aan de bovenstaande regeltjes houdt, zal er vandaag wel degelijk al het verschil mee maken. Een machine kan in een fractie van een seconde op basis van ontelbaar veel data duizenden beslissingen nemen. Dat zal voor ons menselijke brein gewoon altijd onmogelijk blijven.