illustratie robothoofd met weegschaal en jurisdische boeken en hamer

Is een verdere ontwikkeling van AI nog ethisch verantwoord?

De doorbraak van artificiële intelligentie stelt de vraag op scherp in welke mate computers ooit autonoom zullen beslissen en de mens zelfs overbodig maken? Zelfs ondernemers en specialisten trekken in twijfel of het ethisch verantwoord is om nog verder te gaan met de ontwikkelingen. Ondernemen vroeg het aan experten professor Katleen Gabriels (Universiteit Maastricht), Jochanan Eynikel (ETION) en Frank Aernout (Nalantis).

Het algoritme moet correct aangestuurd worden met speciale aandacht voor minderheidsgroepen. (Katleen Gabriels)

Waarom is ethiek belangrijk in het beheer van artificiële intelligentie?

Katleen Gabriels
Katleen Gabriels (©Joris Hilterman)

Katleen Gabriels: “Omdat er grote onrechtvaardigheden zijn opgetreden als gevolg van een verkeerd gebruik van die technologie. Ik werk als professor en programmadirecteur Digital Society aan de Universiteit van Maastricht. In Nederland was er bijvoorbeeld het toeslagenschandaal waar de overheid rekende op een algoritme om fraude te detecteren in de sociale zekerheid. Een kleine groep Bulgaren bleek inderdaad actief het systeem te manipuleren om onrechtmatig steun op te strijken. Als reactie daarop is het algoritme aangepast, waardoor uiteindelijk alle mensen met een dubbele nationaliteit of met een exotische naam, extra in de gaten werden gehouden. Alles en iedereen werd op één hoop gegooid. Als je een fout maakte, of iets niet invulde, dan werd dat ook als fraude bestempeld. Heel wat mensen in een sociaal zwakke situatie kregen zo niet waar ze recht op hadden.

De oorzaak van dit overheidsfalen is het overdreven vertrouwen in de technologie. Het algoritme werd getraind op basis van bestaande en dus oude datasets. In die omstandigheden is het altijd al penibel om de toekomst te gaan voorspellen. Maar het is niet alleen nodig om te vertrekken van goede data om het algoritme te trainen; daarnaast moet het algoritme zelf correct aangestuurd worden met speciale aandacht voor de belangen van minderheidsgroepen.

Omdat die datasets zo belangrijk zijn, zie je dat de grote technologiebedrijven net investeren om meer gegevens te verzamelen. Een bedrijf als Alphabet, de groep achter Google, heeft intussen ook Fitbit en Waze overgenomen en krijgt op die manier steeds meer data van verschillende types in zijn bezit. Dat is begrijpelijk vanuit het oogpunt van dat bedrijf. Maar ik vind de concentratie van zoveel data in één hand, een evolutie die we met argwaan moeten bekijken.”

Gebruik het verleden niet om de toekomst te voorspellen. (Frank Aernout)

Frank Aernout
Frank Aernout

Frank Aernout: “Cathy O’Neil heeft daar al op gewezen in haar boek Weapons of math destruction. Dat werk is één grote waarschuwing om het verleden niet te gebruiken om de toekomst te voorspellen. Katleen verwees naar het toeslagenschandaal. De hr-tool van Amazon op basis van machine learning had ook al te kampen met vooringenomenheid tegen mensen van een andere kleur bij de aanwerving. Er zijn ook Amerikaanse banken die op basis van een blinde analyse van data beslissingen gingen nemen die ver van de realiteit stonden. In scholen kregen leraars plots een rating, weliswaar gebaseerd op allerlei data, maar in schril contrast met de maatschappelijke werkelijkheid. Ik vind het belangrijk om erop te wijzen dat al die toepassingen gebaseerd zijn op een specifieke toepassing van AI, namelijk machine learning. Die techniek is gericht op de statistische verwerking van veel data. En statistiek van data is uiteraard niet hetzelfde als het ‘begrijpen’ van die data! Maar er zijn ook andere technologieën en mijn bedrijf Nalantis focust daarop. Wij gaan uit van een semantische aanpak, wij analyseren de data, wij begrijpen de data. En dat maakt een groot verschil.

Zo hebben we voor een grote Belgische bank een toepassing ontwikkeld voor het analyseren van cv’s van kandidaten die volledig vertrekt van de gegevens in dat document en het goed begrijpen van de competenties van elk individu. We werken maximaal aan het uitsluiten van de bias die aan de basis lag van de genoemde mislukkingen. Daarnaast mikken we op een grote transparantie, waarbij elke stap in de besluitvorming controleerbaar is en kan aangepast worden indien nodig.

Wij hanteren bij Nalantis een hybride aanpak: analyse op basis van semantiek in combinatie met ‘machine learning’-technieken.”

Technologie is zowel in doel als in ontwerp niet neutraal. (Jochanan Eynikel)

Jochanan Eynikel
Jochanan Eynikel

Jochanan Eynikel: “Ik zie AI als de deeltjesversneller die alle processen potentieel kan verbeteren en versnellen. Dat is enerzijds positief als we daardoor tijd besparen, saai of gevaarlijk werk kunnen overlaten aan machines en ook zelf creatiever worden. Maar er is ook een keerzijde aan: door AI toe te passen, kunnen criminelen nog betere phishingberichten sturen bijvoorbeeld. Belangrijk daarbij is dat we niet vergeten dat technologie zowel in doel als in ontwerp niet neutraal is. Alleen kunnen we die morele dimensie niet altijd zien. Cathy O’Neil — naar wie Frank al verwees — vatte het samen in één zin: ‘een algoritme is een opinie verpakt in wiskunde’.”

Lees het volledige artikel in het septembernummer van Ondernemen.