Nieuws


15 februari 2022

Gevaar van AI, het is krachtig als een kernbom


De Big Tech-bedrijven zijn in een machtsstrijd verwikkeld waarin Artificial intelligence (AI) als wapen wordt ingezet. Die wapenwedloop moet stoppen, vindt ook de EU. Want wat als die superslimme computers dingen gaan doen die wij niet willen en niet meer in de hand hebben? Tijd voor ethiek bij AI-toepassingen, ook binnen HR en recruitment.

Categorie: Techniek algemeen
Geschreven door: HRTech Redactie

Gevaar van AI, het is krachtig als een kernbom

Liefde in technologie nodig

Steeds meer ex-topmensen van social media bedrijven als Facebook, Google en Twitter wijzen op de kracht - en het gevaar - van kunstmatige intelligentie, ook wel artificial intelligence (AI). Mo Gawdat geeft daarvan huiveringwekkende voorbeelden in zijn boek ‘Griezelig slim, de impact van kunstmatige intelligentie op ons leven’.

FD tech redacteur Sanne Kanis werd niet vrolijk van Gawdats boek en schetste een angstaanjagend beeld: Rond 2050 zal kunstmatige intelligentie een miljard keer zo intelligent zijn als nu. De mens is dan niet langer de slimste soort op aarde. Wij krijgen de positie van de aap, robots worden de slimme heersers.

Gawdat weet waarover hij praat. Hij was jarenlang de topman van Google X, de broedplaats van nieuwe technologie van de techgigant. De Egyptenaar weet als geen ander dat de ontwikkeling van AI niet meer stoppen is, want iedereen doet het, bedrijven en overheden. Maar Gawdat waarschuwt de wereld. De mensheid staat voor de cruciale keuze: “Gaan we AI creëren die slim onderhandelt en zorgt dat het geen oorlog wordt? Of gaan we moordrobots bouwen?” Zijn conclusie, na dertig jaar werken in de harde tech-wereld: ‘Er is veel liefde nodig om AI te beteugelen. Zonder liefde, of diep ethisch respect, wordt AI slimmer dan de mens, met alle gevolgen van dien.’

De kracht van een atoombom

Uit een ander boek, van een andere ex-topman van Google (Eric Schmidt), klinkt dezelfde dreigende taal. Mede-auteur Henry Kissinger trekt in dit boek The Age of AI zelfs de vergelijking tussen AI en een kernbom. In een artikel in FD wordt dit verder toegelicht.

De Amerikaanse oud-minister van Buitenlandse Zaken was ook winnaar van de Nobelprijs voor de Vrede voor zijn rol in het beëindigen van de Vietnamoorlog. Hij ziet overeenkomsten tussen supercomputers en nucleaire wapens. Beide technologieën zijn ingezet in de strijd tussen grootmachten (USSR vs. VS en Google, Apple, Amazon en Meta (Facebook) tegen elkaar). In de Koude Oorlog vochten het Westen en het Oosten om de wereldheerschappij, met als gevolg een potentiële totale vernietiging van de aarde door atoombommen. Zo vechten nu de Big Tech om de heerschappij van de online wereld, waarbij AI als wapen wordt ingezet. En als de superslimme computers ver voorlopen op ons (en op onze regelgeving) kunnen de techreuzen gewoon hun gang gaan en ontstaat een ‘technologische wapenwedloop’ die onbeheersbaar wordt. Om in Kissingers vergelijking te blijven: “Laat het over aan zelflerende en zelfdenkende computers en niemand weet met welke ‘strategie’ die autonome wapens zullen komen”.

De toepassing van AI is niet zo afschrikwekkend en gewelddadig als de atoombom, maar er zijn mogelijk wel desastreuze gevolgen, bijvoorbeeld voor onze democratie en het welzijn van de mens. De boodschap van de auteurs: de geschiedenis mag zich niet herhalen. Zorg ervoor dat er beperkingen komen, morele disciplines en regels, oftewel AI-ethiek. Want wat als de steeds snellere en slimmere computer - die nu al veel sneller en slimmer is dan wij zijn - autonoom gaat opereren? Wie heeft het dan nog in de hand?

Hersenspoelen

Gawdat pleit ervoor AI niet alleen in te zetten vanuit een ‘kapitalistisch gedachtengoed’ en zijn ex-collega bij Google, Schmidt, zegt hetzelfde. Hij spreekt in bovengenoemd artikel van ‘surveillancekapitalisme’, dat wordt uitgelegd als ‘data verzamelen, verkopen en gebruiken om zoveel mogelijk winst uit internetsurfers te persen’.

Opvallend dat beide grote namen uit de tech-wereld na hun carrière juist waarschuwen voor een wereld die zij mede gecreëerd hebben. Dat doet ook gedragsbioloog en psychiater Joel Dimsdale. Hij spreekt volgens een recent artikel in FD zelfs van ouderwets ‘hersenspoelen’ als algoritmes via social media worden ingezet als ‘dwingende overtuigingstechniek’ voor commerciële doeleinden.

Voor wie hersenspoelen te ver vindt gaan... neem het door marketeers zo geliefde funnel- of (pijplijn-) denken. Goed bedoeld, je biedt (potentiële) klanten relevante content, maar het leidt er in de praktijk toe dat mensen (alleen maar) die content te zien krijgen die in hun informatiebubbel wordt aangeboden en die hun overtuiging bevestigt. Dat is ook hoe complotdenkers via social media continu worden bevestigd in hun waanideeën.

EU wil macht Big Tech breken

De EU onderkent de risico’s van ongebreidelde groei en activiteiten van de zogenoemde Big Tech. Op 21 april 2021 heeft de Europese Commissie (EC) een voorstel ingediend over regelgeving voor digitale diensten en markten. De EU-ministers van Economische Zaken hebben eind november in Brussel een akkoord bereikt over deze voorstellen, die nu in Nederland in behandeling zijn in de Eerste Kamer.

De voorstellen betreffen de Digital Markets Act (DMA), die moet voorkomen dat de techgiganten een nog sterkere marktmacht krijgen. De grootste zoekmachines en social media platformen hebben een poortwachtersfunctie -  zij bepalen wie wel en niet toegang krijgt tot belangrijke diensten en informatie. En bij die functie horen verantwoordelijkheden, zo stelt de EU, die daarom met enkele verboden en verplichtingen komt.

Dat geldt ook voor de Digital Services Act (DSA), die zich vooral richt op ‘eerlijke’ informatievoorziening en consumentenbescherming. Hierbij moet je denken aan het kunnen verwijderen van berichten met onjuiste informatie, nepnieuws, en transparantie in de werking van algoritmen.

Het lijkt er op dat de EU-verordening over het gebruik van AI door nationale overheden zal worden overgenomen. Dat is goed nieuws, want hiermee kan een internationale standaard worden gezet. Net als met de GDPR-wetgeving (gegevensbescherming) die tot nieuwe nationale wetgeving heeft geleid, zoals de AVG in Nederland. En zelfs buiten de EU zoals in Australië en een aantal Aziatische landen. Als die AI-wetgeving er komt, blijft het wel de vraag hoe dat gaat uitwerken in de praktijk; wat wordt de reikwijdte, hoe moeten bedrijven dat organiseren en borgen? En dan is er natuurlijk nog de handhaving, waar we in Nederland een hoop gebrekkige voorbeelden van kennen.

AI in recruitment

Even naar het vakgebied recruitment. Want AI wordt toegepast voor het matchen van mensen aan werk, dus in recruitment en talent management software. Ook daarbij wordt gebruik gemaakt van algoritmes en machine learning. En terecht. Want het vinden van de juiste kandidaten voor de juiste vacature is een specialisme dat in deze krappe arbeidsmarkt veel vergt van recruiters. Alle (technologische) hulp is hierbij welkom. De recruitmenttechnologie kan, met name bij grote aantallen, ondersteunend zijn aan de recruiter. Door analyses van big data komt informatie naar boven die geen recruiter zelf zou kunnen vinden, ondanks al zijn (mensen)kennis en ervaring. En machine learning helpt enorm bij het nog sneller en slimmer matchen van kandidaten met vacatures.

Wordt het menselijke aspect in dit van oorsprong mensen-beroep overbodig? Als zelfs soft skills tegenwoordig beter gemeten kunnen worden door slimme tools dan door recruiters. (Denk aan Seedlink, dat dit doet door taalgebruik automatisch te analyseren)? Waarschijnlijk niet, technologie zal altijd alleen maar ondersteunend zijn voor de recruiter. Als het goed is blijft de recruiter de computer altijd de baas en zal de recruiter uiteindelijk altijd de beslissing moeten blijven nemen.

Discriminatie op de arbeidsmarkt

Prachtig allemaal, maar in de praktijk blijkt er ook een keerzijde te zijn. Discriminatie op de arbeidsmarkt komt helaas nog altijd voor en terecht worden uitzendbureaus die zich hieraan schuldig maken aan de schandpaal genageld. Beroemd voorbeeld is Amazon, dat een paar jaar geleden een AI-recruitmenttool inzette voor de werving en selectie van kandidaten. Het klonk zo mooi; je stopt honderd cv’s in een computer en die spuwt de vijf beste toptalenten uit. Die mensen neem je aan. De AI recruimenttool had zichzelf geleerd (machine learning), op basis van oude cv’s van de afgelopen tien jaar, dat er een voorkeur voor mannen is. De reden: de cv’s waren tot dan toe vrijwel uitsluitend van mannen omdat de IT-techwereld in het verleden nog sterker dan nu werd gedomineerd door mannen. Gevolg: bij het analyseren van cv’s van nieuwe sollicitanten voor nieuwe IT-functies werden alleen maar mannen geselecteerd en vrouwen uitgesloten. Ongewenste en onbedoelde discriminatie dus.

Het blijft een heikel punt bij werving en selectie. En als dat voortaan door computers wordt gedaan kan het zomaar voorkomen dat AI - onbedoeld - tot discriminatoire uitkomsten leidt. Met alle maatschappelijke gevolgen van dien, denk maar aan de Toeslagenaffaire bij de Belastingdienst. Het - door systemen - buitensluiten van mensen is een voorbeeld van een maatschappelijk ongewenst effect waar de ex-topmannen van Google niet voor niets voor waarschuwen.

Mensen verantwoordelijk houden

In dit webinar legt Thyronne Winter (Cornerstone OnDemand) uit dat hij met zijn team al lange tijd AI inzet voor talent management met data learning voor HR. Met als doel: ‘make better human decisions’. Oftewel, “AI biedt HR heel veel data om te ‘rationaliseren’ en dus betere beslissingen te nemen. AI is een geweldige tool voor HR. Hoe wil je anders duizenden cv’s analyseren, bepalen welke skill gaps er zijn binnen de organisatie?”

Maar ook Winter stelt dat discriminatie (en privacy) een issue is bij het gebruik van AI door HR. Het kan leiden tot ‘biased’ uitkomsten (vooroordelen), bijvoorbeeld op basis van gender (man/vrouw) of mensen met een migratie-achtergrond. Zijn boodschap: er is altijd een human factor en mensen blijven verantwoordelijk voor beslissingen, niet computers.  

En dat is precies waar de nieuwe EU-regelgeving voor moet gaan zorgen, als het aan Winter ligt. Zeker ook binnen HR en recruitment. Want het gebruik van HR-data wordt door de EU en landelijke overheden als 'hoog risico'-categorie aangemerkt waar het gaat om privacy en discriminatie door AI-toepassingen. Volgens Winter moet de aanstaande EU-regelgeving ervoor zorgen dat mensen altijd zelf verantwoordelijk blijven. Niet: ‘the computer said so’, maar ‘you said so by using the computer’. (Haal nog even de Toeslagenaffaire in herinnering, waar men zich verschuilt achter het systeem in plaats van zelf verantwoordelijkheid te nemen.)

Bij het gebruik van AI moet HR en recruitment volgens Winter altijd de overweging in acht nemen: kun je uitleggen waar de data vandaan komt en hoe je tot een beslissing bent gekomen? Kun je het gebruik van AI rechtvaardigen, de impact van AI op het proces beschrijven en aangeven hoe de risico’s zijn afgedekt? Niet alleen omdat dat ethisch verantwoord is, ook omdat dat ervoor zorgt dat je je houdt aan de nieuwe regelgeving die er hoe dan ook komt, zo verwacht Winter. “De autoriteiten zullen vroeg of laat op je de deur kloppen.”


Dossier: Privacy & HRTech
Alle relevante informatie rond 'Privacy & HRTech': artikelen, aanbieders, debinars en onze Privacy HRTech experts.

Deel dit artikel
Dit artikel is 1760 keer gelezen.

Reacties

 Laat een een reactie op dit artikel achter