Direct naar content

Artificial Intelligence: een koets zonder paard?

Onze verbeeldingskracht is vaak geketend aan wat we al kennen. Toen de eerste auto werd uitgevonden, zag deze eruit als een koets zonder paard. Het idee dat we ooit in een flitsende Tesla zouden rijden, zoals we deze vandaag de dag kennen, was in 1885 onvoorstelbaar. Op vergelijkbare wijze proberen we nu AI te begrijpen binnen de kaders van wat we al kennen. ChatGPT heeft namelijk best veel weg van Google. Welke vorm AI over enkele jaren aanneemt, is overgeleverd aan onze verbeeldingskracht. Joris Krijger, AI & Ethics Officer van de Volksbank én promovendus aan de Erasmus Universiteit op ditzelfde onderwerp, legde de link tussen de eerste auto en AI tijdens een sessie die hij gaf op Expoints Elevate, het klantevent van onze fusiepartner Expoints. Wij hebben zijn verhaal voor je samengevat.

Artificial intelligence
Britt Gommers 31 oktober 2024

Artificial Intelligence: de voorspellingsmachine

De laatste jaren heeft AI een hoop vlieguren gemaakt, waardoor het nu excelleert in begrijpend lezen, taalbegrip en handschrift-, spraak- en beeldherkenning. Op dit moment sneller en beter dan wij. Jij en ik zijn namelijk enkele minuten bezig met het lezen van een artikel. AI doet dit momenteel in enkele seconden. Maar waar AI uitblinkt in één van deze specifieke taken, kunnen mensen deze kennis toepassen op meerdere gebieden.

In essentie is AI een voorspellingsmachine. Het kan ons uitstekend helpen bij het maken van allerlei voorspellingen. Wat recent ontdekt is, is dat veel vraagstukken die ooit werden gezien als unieke uitdagingen voor de menselijke intelligentie, eigenlijk neer te brengen zijn tot voorspelproblemen. Zelfrijdende auto’s, bijvoorbeeld, hoeven niet alle verkeersregels te kennen. Door duizenden uren verkeersgedrag te observeren, kan AI voorspellen wat de beste handelingen zijn. Taalmodellen zoals ChatGPT werken op dezelfde manier: in plaats van regels te volgen, voorspellen ze op basis van eerdere teksten hoe die regels worden toegepast. AI maakt gebruik van datasets uit het verleden en kiest dan de meest logische uitkomst.

Impact van AI

Maar de impact van AI is mogelijk groter dan we vermoeden, omdat blijkt dat een hoop problemen voorspelbaar zijn. Uit cijfers wordt geschat dat AI 60% van de banen treft; bij 30% van de banen helpt AI ons het werk beter te doen, terwijl 30% wordt overgenomen door AI. Dit heeft grote gevolgen voor de organisatie van werk en de economie.

Vergroot bias

Het is zorgwekkend dat AI, zoals in het geval van Amazon, bestaande ongelijkheden of een bias kan versterken. Amazon gebruikte jaren geleden een AI-systeem om sollicitanten te screenen. Hoewel het model geen onderscheid maakte op basis van geslacht, werd het patroon uit het verleden – waarin voornamelijk mannen werden aangenomen voor technische functies – klakkeloos overgenomen. De AI zag simpelweg dat vrouwen in het verleden geen plek kregen en herhaalde dat. Het resultaat: het systeem versterkte onbewuste vooroordelen. Wat ze doen, is niet de toekomst voorspellen, maar de status quo automatiseren. Ze reproduceren en versterken de patronen uit het verleden.

Bovendien zijn er een hoop beroepen die door AI mogelijk worden weg geautomatiseerd. Groepen werknemers dreigen structureel zonder werk te raken doordat AI hun functies overneemt. Het probleem is dat AI deze werkloosheid niet zal oplossen. Het roept de vraag op of we ons economisch systeem moeten herzien, nu technologie ons dwingt fundamenteel na te denken over de verdeling van werk en inkomen.
Toch is er ook positief nieuws: er zijn wel degelijk bepaalde grenzen aan wat AI kan. Menselijk oordeel blijft onvervangbaar; bepalen wat wel of niet acceptabel is, of welke prioriteiten moeten worden gesteld, ligt buiten het bereik van AI. Daar zijn altijd mensen voor nodig. Ons beoordelingsvermogen is gevormd door onze geschiedenis, ethiek en menselijke natuur – iets dat AI niet kan nabootsen.

Dilemma’s door Artificial Intelligence

AI is in de wereld geroepen om problemen op te lossen en situaties te vergemakkelijken. Alleen zorgt AI er ook voor dat er dilemma’s ontstaan. AI-systemen hebben namelijk een zorgwekkende eigenschap: naarmate ze complexer worden, verliezen we het zicht op hoe ze tot hun beslissingen komen. Dit leidt tot een vreemde situatie waarin de mensen die deze systemen gebruiken vaak niet precies weten wat de algoritmes doen en hoe beslissingen worden genomen. Dit is riskant, zeker als we beseffen dat AI de neiging heeft om bepaalde groepen te benadelen, met name minderheden. Hier komen de eerste ethische spanningen naar voren.

Een bijkomend probleem is dat AI semi-autonoom is. Het leert zelfstandig en kan zelf bepalen hoe het taken uitvoert. Hierdoor vertrouwen we steeds meer taken toe aan deze systemen. Maar kunnen we de verantwoordelijkheid voor de gevolgen ook aan AI delegeren? Intuïtief zeggen we nee—de mens blijft verantwoordelijk. Maar dat betekent dat wij verantwoordelijk zijn voor de acties van een systeem dat we zelf niet volledig begrijpen. Dit dilemma wordt steeds nijpender naarmate AI meer taken overneemt.

Wat staat ons te doen?

Het vertalen van ethische principes naar de praktijk binnen AI blijkt een uitdaging. Hoewel al jaren bekend is dat AI-systemen gevoelig zijn voor bias, blijkt uit recente cijfers dat slechts 27% van de bedrijven actief bezig is met het aanpakken hiervan.

De focus bij het ontwikkelen van AI ligt vaak op technische oplossingen: data aanpassen, modellen bijstellen. Maar in de praktijk botsen ethische overwegingen vaak met harde organisatiedoelen zoals kostenbesparing, efficiëntie en het halen van KPI’s. Ethiek raakt daarmee snel ondergeschikt aan de wens om zo snel mogelijk te innoveren en de concurrentie voor te blijven.

Joris gebruikt hierbij het voorbeeld binnen ons eigen belastingstelsel, waarbij loonbelasting hoger is dan kapitaalbelasting. In de praktijk betekent dit dus dat het financieel aantrekkelijker is om AI in te zetten dan om mensen in dienst te houden. De huidige samenleving moedigt automatisering aan, zelfs wanneer dat ten koste gaat van werkgelegenheid. Als we AI eerlijker en rechtvaardiger willen maken, moeten we op drie niveaus aan de slag: in het ontwerp van AI-systemen, in de organisatiecultuur, en in de bredere economische omgeving waarin bedrijven opereren.

Binnen organisaties moet ethische reflectie een vast onderdeel worden van het werkproces, en niet alleen een gespreksonderwerp bij het koffiezetapparaat. Hebben we beleid voor verantwoord AI-gebruik? Is er iemand die toezicht houdt op de ethische aspecten van de systemen die we implementeren? Zijn er checks voordat AI-systemen worden ingezet?

AI-beleid binnen DataLeaf

De vraag of we bepaalde toepassingen van AI wel zouden moeten willen, moet een structureel onderdeel van bedrijfsvoering worden. Het is misschien wettelijk toegestaan, maar is het ook wenselijk? Naarmate AI steeds verder oprukt, moeten we deze vraag steeds opnieuw durven stellen.

Daarom hebben we binnen DataLeaf een beleid samengesteld met betrekking tot de inzet van AI voor onszelf en voor onze klanten. Om dit beleid te hanteren is een AI-team samengesteld waarbinnen afwegingen worden gemaakt om het gebruik van AI. Binnen dit team onderzoeken we hoe we AI op een ethische, veilige en transparante manier kunnen inzetten binnen onze organisatie. Met de snelle ontwikkelingen in AI is het essentieel dat we niet alleen nieuwe initiatieven omarmen, maar ook bestaande AI-tools zorgvuldig beheren. Deze tools moeten continu worden gemonitord, gevalideerd en periodiek onderworpen aan een risicoanalyse om te waarborgen dat ze correct en betrouwbaar blijven functioneren. Met deze aanpak streven we naar AI-oplossingen die niet alleen waarde toevoegen, maar ook voldoen aan hoge standaarden voor ethiek, veiligheid en transparantie.

Vervolgstappen

Kort samengevat: AI is een voorspellingsmachine met potentieel verstrekkende gevolgen. Het dwingt ons om na te denken over moeilijke keuzes, zoals: zijn we bereid privacy op te geven in ruil voor betere dienstverlening? En wat als een klant daarvoor kiest—moeten we hen dan beschermen tegen die beslissing, of is dat hun eigen verantwoordelijkheid?

Om AI verantwoord te integreren in de maatschappij, moet op drie niveaus actie worden ondernomen. Allereerst in gesprek met de ontwikkelaars: is er voldoende nagedacht over de ethische implicaties van het systeem? Vervolgens moet dit gesprek structureel onderdeel worden van het werkproces binnen organisaties. Tot slot, op politiek niveau, moet er nagedacht worden over de inrichting van onze samenleving en de rol die AI daarin speelt.

AI-modellen zijn altijd een vereenvoudiging van de werkelijkheid en zullen dus nooit volledig accuraat zijn. Ze zijn soms nuttig, maar de kernvraag is: wanneer zijn ze verantwoord om in te zetten? Dat is, bovenal, een ethische afweging.

Benieuwd wat wij voor jou kunnen betekenen?