Katleen Gabriels (Photo by Bart van Overbeeke)

Oogst ze aandacht of eye rolls bij techies? Moraalfilosofe Katleen Gabriels schrijft en doceert over de wenselijkheid van de ‘slimme’ (of nog niet zo slimme) technologie die ons leven wil regelen. In Nederland, waar de Belgische doceert, is de combinatie van technologie, filosofie en ethiek in dezelfde vakgroep helemaal ingeburgerd. “Vooroordelen naar filosofen en ethici zijn er best wel, maar het is belangrijk dat we samen richting geven aan technologische ontwikkelingen.”

Het boek ‘Regels voor robots. Ethiek in tijden van AI’ van Katleen Gabriels verscheen eind oktober 2019. “Het is min of meer het vervolg op Onlife, mijn boek over de ethische aspecten van het Internet of Things”, zegt Gabriels, die zich als moraalfilosofe specialiseert in computerethiek. “Net zoals ‘Onlife’ is ‘Regels voor robots’ geschreven voor het brede publiek.” Dat laatste boek is trouwens genomineerd voor de filosofieprijs Socrates Wisselbeker.

Filosofie voor computerwetenschappers

Artificiële Intelligentie is hot, maar daarom weten we er nog niet veel over. Wat kan het, wat nog niet en wat zal het nooit kunnen – of liefst nooit mogen kunnen? Het zijn filosofische vragen die Katleen Gabriels graag opwerpt. Geen toeval dat ze dit liever in Nederland dan in Vlaanderen doet. “Nederland heeft een sterke traditie in techniekfilosofie”, zegt Gabriels. “Ik doceerde aan de TU Eindhoven en nu aan de universiteit van Maastricht aan computer- en exacte wetenschappers. In Maastricht hebben we sinds dit academiejaar de opleiding Digital Society, een Engelstalige interdisciplinaire bachelor tussen humane, sociale en computerwetenschappen. De eerste in zijn soort in België en Nederland. Die studenten combineren leren programmeren met filosofische, historische en andere vakken. We startten met 75 studenten met maar liefst 20 verschillende nationaliteiten.”

(Photo by Lieven Dierckx)

Zelf studeerde ze filosofie in Gent en Helsinki. “Over techniekfilosofie hoorde je daar niks, over bio-ethiek wél. Op mijn beurt gaf ik aan de VUB dan wel techniekethiek en -filosofie, maar dat vak was alleen toegankelijk voor communicatiewetenschappers en filosofen, niet voor exacte wetenschappers. Nederlandse technische universiteiten hebben allemaal een vakgroep filosofie en ethiek.”

Bram Vanderborght, professor robotica aan de VUB, hamert op het belang van die vakken voor toekomstige ingenieurs, maar een verplichting zoals aan de TU Eindhoven is er nog niet voor eerstejaarsstudenten”, zegt Katleen Gabriels. “Bij onze noorderburen werd onlangs 27 miljoen euro vrijgemaakt voor fundamenteel onderzoek naar techniekfilosofie en -ethiek. Bovendien zijn er heel wat vacatures voor onderzoekers in het vakgebied. Die dertig jaar voorsprong halen we in België niet zomaar in.”

Elk ontwerp een morele keuze

Maar er is beterschap in zicht. In december 2019 werd het Kenniscentrum Data & Maatschappij gelanceerd: drie onderzoeksgroepen van de Universiteit Gent, de KU Leuven en de VUB sloegen er de handen voor in elkaar met de steun van de Vlaamse overheid. Het centrum kan adviseren rond juridische, ethische en maatschappelijke aspecten van artificiële intelligentie en datatoepassingen. Bedrijven, overheden en burgers kunnen er terecht.

Waarom is die academische inbreng zo belangrijk? “Vanuit de ondernemerskant hoor je alleen het hoeraverhaal over AI”, verduidelijkt Gabriels. “Wij hebben de taak om diepgaand onderzoek te voeren en niet om een kant te kiezen, want net als over internet kun je niet zeggen of AI goed of slecht is. De media smullen natuurlijk van de doemverhalen. Het idee dat robots de boel zullen overnemen, is fascinerend en verkoopt goed. Met mijn boek ‘Regels voor robots’ wil ik dat doemdenken doorbreken.”

Vanuit de ondernemerskant hoor je alleen het hoeraverhaal over AI. Wij hebben echter de taak om diepgaand onderzoek te voeren en niet om een kant te kiezen

Tegelijk zie je dat zelfregulering niet werkt, zeker niet als het gaat over privacy. Als een bedrijf een monopoliepositie verwerft, zal het zich minder makkelijk aan de regels houden. Dat zagen we al bij Google en Facebook. Maar die bedrijven kan je niet vergelijken met een Vlaamse kmo, dus het verhaal is genuanceerder.”

Een ontwerper heeft altijd te maken met morele keuzes en de sociale dynamiek die zijn ontwerp zal krijgen. Voorbeelden van morele dimensies in technologie zijn soms verrassend. Ken je het voorbeeld van een zwarte man die in een openbaar toilet zijn handen onder een handzeepsensor houdt en geen zeep krijgt? Met een wit doekje eronder werkt het wel. De lichtsensoren reflecteren enkel lichte kleuren”, zegt de moraalfilosofe. “Een gevolg van technologie die niet getest werd op een brede groep eindgebruikers. Jezelf als norm nemen bij het programmeren en alleen blanke eindgebruikers de technologie laten testen, is een ethisch probleem.”

Spijtoptanten worden pleitbezorgers

Is het boek dan een eyeopener voor techies? “Zeker van eerstejaarsstudenten krijg ik wel eens de vraag wat ze moeten met ethiek. Wat zij vaak nog niet doorhebben, is dat zij niet alleen functionele maar ook morele keuzes maken. Daarom verwijs ik vaak naar de ‘spijtoptanten’. Zij zijn nu net degenen die vragen om vakken ethiek. Tony Fadell ligt mee aan de basis van de iPod en iPhone. Hij erkent nu dat de smartphone een heel individualistisch ontwerp is. Als vader van drie tieners ziet hij dat zijn kinderen er helemaal door opgeslorpt worden. En heeft hij er intussen spijt van dat de iPhone werd ontwikkeld door twintigers zonder kinderen. Het brede palet aan eindgebruikers – waaronder kinderen – speelde geen rol bij het ontwerp. Ondertussen pleit Fadell voor een eed van Hippocrates voor ontwerpers.”

“Een ander voorbeeld zijn retweets. Volgens ontwikkelaar Chris Wetherell is de retweet feature ‘als een geladen wapen voor een kind van vier’. Ook hij verwijt zichzelf naïviteit. Hij was ervan overtuigd dat die retweetknop de stem van minderheden luider kon laten klinken, maar de knop draagt ook bij aan polarisering en fake news. Wetherell verwijt zichzelf dat hij die aspecten over het hoofd zag.”

“Veel exacte wetenschappers zoals de wiskundige Cathy O’Neil - bekend van haar boek Weapons of Math Destruction – zeggen dat ethiek en filosofie verplicht moeten worden voor toekomstige ontwikkelaars. Academici moeten ook veel meer het maatschappelijk debat opzoeken over deze thema’s.”

Ik zie een parallel met medische ethiek: als toekomstige ontwikkelaar moet je net zo goed rekening houden met privacyvragen als een arts

“Ik denk dat je die scheefgroei voor kan blijven door middel van een interdisciplinaire aanpak aan de basis van elke technologische innovatie”, stelt Gabriels. “Wij vertellen studenten dat wanneer je een robot ontwikkelt je de impact op al de eindgebruikers in kaart moet brengen, je data, de beveiliging,…”

“Sinds mijn boek 'Regels voor robots' verscheen, krijg ik massa’s vragen, van bedrijven tot culturele centra en van studenten tot professionals. De belangstelling stijgt. Daarin zie ik een parallel met medische ethiek: als toekomstige ontwikkelaar moet je net zo goed rekening houden met privacyvragen als een arts. Het privacyvraagstuk is nochtans heel basic: je betaalt altijd met je data bij een gratis platform. Tinder is misschien wel gratis, maar die data worden verkocht. Je krijgt er iets voor in ruil, maar het is een trade-off, je geeft iets op: je privacy. En ook je tijd en aandacht.”

(Photo by Karel Duerinckx)

Het gevaar van het machineoordeel

Het onderscheid tussen zwakke en sterke AI is een opmerkelijk onderscheid in het boek van Katleen Gabriels. “Sterke AI gaat om robots met zelfbewustzijn, wat natuurlijk interessant is voor een moraalfilosoof. Wanneer iemand uit vrije wil handelt, is die ook moreel en legaal aansprakelijk. Zwakke AI is alles wat we nu concreet hebben. Siri kan indrukwekkende dingen, maar het blijft nog heel beperkt.”

“Meningsverschillen zijn er ook: de Zweedse natuurkundige Max Tegmark vindt de tweedeling tekortschieten. Het DeepMind computerprogramma AlphaGo zou dan zwakke AI zijn, waar Tegmark niet mee akkoord gaat. Natuurlijk heeft zelfs AlphaGo géén EQ. Dat is vaak misleidend in het discours over artificiële intelligentie. En ook wat de futuroloog Ray Kurzweil vertelt over singulariteit is nog ver van ons bed.”

Mensen hebben recht op explainable AI. De maker moet kunnen uitleggen wat het systeem doet

“Vanuit mijn eigen onderzoek ben ik ook helemaal niet bezig met het EQ van computers”, geeft Gabriels aan. “Wel met welke beslissingen je mag delegeren aan machines. Mensen hebben recht op explainable AI. De maker moet kunnen uitleggen wat het systeem doet. In de discussie over killer robots – drones zijn een voorbeeld – stelt zich de prangende vraag of je beslissingen over leven en dood volledig mag overlaten aan een zelfstandig opererend systeem. De EU heeft een verbod op zogenaamde LAWs (Lethal Autonomous Weapons; nvdr), maar op VN-niveau is dat nog niet gelukt omdat een aantal landen tegen stemt. Nochtans bestaat er wél regulering rond kernwapens wereldwijd. In de discussie over zelfrijdend transport waarvoor de Duitse code in het leven werd geroepen, zit sterk de vraag vervat wat je wel en niet aan een AI-systeem mag overlaten.”

Journalistiek, politiek, onderwijs

Er is een grote nood aan goeie journalistiek, vindt Gabriels. “Denk aan de case van de robotrechter in Nederland, een pervers incassosysteem waar zelfs zorgverzekeraars aan deelnamen. Het geval is dankzij onderzoeksjournalistiek aan het licht gebracht. Het is hoe dan ook tegen de wet want er moet een menselijke rechter over oordelen.”

“Wat willen we dus uitbesteden aan zo’n systeem? Gezichtsherkenning, emotieherkennende software, Natural Language Processing, chatbots,… die systemen maken nog enorm veel fouten, dus veel commerciële toepassingen zijn voorbarig. Er moeten audits op gebeuren voor je zoiets inzet, net zoals je andere producten eerst laat testen. AI-onderzoek is nog géén echte wetenschap. Vooral de successen worden gepubliceerd en het zijn voorlopig nuttige tools. Een schaakcomputer is fantastisch, maar leverde geen wetenschappelijke doorbraak over intelligentie op.”

Academici hebben nog een lange weg af te leggen om mensen kritisch naar machine intelligence te leren kijken. Want de stelling dat technologie neutraal is en het de gebruiker is die beslist, klopt helemaal niét

Alles begint dus bij het technologieonderwijs uit zijn silo’s trekken, maar hoe ‘duur’ is het om interdisciplinair te gaan werken? Gabriels: “Aan de TU Eindhoven ontwikkelden studenten in groepjes een robot. Hun voortgang zetten ze op een wiki met referenties aan wetenschappelijke literatuur. Elke week verschenen ze voor een interdisciplinaire ‘jury’ die, elke vanuit zijn of haar eigen expertise, vragen stelde. Mensen uit verschillende faculteiten af en toe samenbrengen kost helemaal niks.”

De politiek moet ook wegen op de juiste afweging tussen publieke veiligheid en persoonlijke privacy”, vindt de Belgische moraalfilosofe. “Alleen zijn maar weinig politici mee met de ontwikkelingen. Een onafhankelijk instituut zoals Rathenau in Nederland, dat onafhankelijk van de overheid opereert, is dus geen luxe – bij ons hangt het VITO af van de Vlaamse overheid.”

“En academici hebben nog een lange weg af te leggen om mensen kritisch naar machine intelligence te leren kijken. Want de stelling dat technologie neutraal is en het de gebruiker is die beslist, klopt helemaal niét”, benadrukt Katleen Gabriels. “Technologie stuurt je juist heel hard. Is een bank in het park met tussenschotten zodat een dakloze er niet op kan liggen neutrale technologie? Of dat geluidje in de wagen dat je aanmaant om je gordel aan te doen? Is dat neutraal? Verre van.”