Begin maart organiseerden we een MediaTalk over ethiek en kunstmatige intelligentie (ik gebruik de afkorting AI). Met een werkgroep van omroepen, kennisinstellingen en archieven zijn we bezig te ontdekken welke ethische richtlijnen we moeten ontwikkelen. Met de komst van Corona zijn de fysieke bijeenkomsten even verleden tijd, en gaan we over op videoconferencing. Dat verliep afgelopen maandag prima met twaalf deelnemers, en gaf de fieldlabdeelnemers een mooi ‘inzichtje’ in de werk- en slaapkamers van de andere conferencers.
Op de laatste MediaTalk vond ik dat we stil moesten staan bij dat AI verschillende verschijningsvormen kent. Soms hele goede, soms slechte, en soms lelijke. Waarom lelijke? Omdat ze het goede beogen, maar op een slechte manier, die even niet beter te doen is. Zoals veel van de Corona maatregelen.
The Good is een project van MediaMonks voor het Berlijnse openbaarvervoerbedrijf. “Es zahlt sich aus eine Frau zu sein”. Op de dag van de gelijke beloning op 18 maart 2019 kregen vrouwen die met het openbaar vervoer in Berlijn reisden 21% korting. Dat was namelijk het percentage dat zij gemiddeld minder betaald kregen dan mannen voor hetzelfde werk.
Gezichtsherkenning werd ingezet om automaten vrouwengezichten te laten herkennen zodat de korting toegekend kon worden. Het was geen kritische toepassing. Het zou hoogstens oncomfortabel zijn als je geslacht niet goed herkend werd, de boodschap leed er niet onder, de bedoeling was goed. Het laat echter wel zien, dat wil je zoiets echt besluiten laten nemen, de foutmarges erg laag moeten zijn, de algoritmes transparant, en er moet een beroep mogelijk zijn. Wat als er levensreddende of -bedreigende besluiten genomen worden op basis van dergelijke herkenning? Dan wil je wel zeker weten dat jij niet in de ‘computer says no’ categorie valt.
The Bad is een Amerikaans bedrijf dat sociale media afstruinen op zoek naar beelden van gezichten, en daar haar systemen mee traint. Prima, zou je denken, veel foto’s van gezichten op die social media, dus een prima bron toch? Maar niet voor AI. Clearview verzamelde alle beelden, trainde daar haar systemen op, en verkocht haar toepassingen aan winkelketens, sportorganisaties, maar ook aan de Amerikaanse justitie. En ook de Nederlandse politie lijkt een proefabonnement te hebben gehad. Maar hoe bevooroordeeld zijn de systemen die getraind zijn op deze data? Wie verifieert dat? Zijn ze onbevooroordeeld als Clearview zegt dat het zo is? Wat als mensen gek op carnavalsfoto’s staan? En dat is nog afgezien van of degene die de foto online heeft gezet zich heeft gerealiseerd dat die foto in een dergelijke database gebruikt kan worden. Wat als groepen het systeem misbruiken om bias in te bouwen?
The Ugly is weer een hele andere categorie. Je snapt dat het wringt, maar je snapt ook dat de omstandigheden het noodzakelijk maken. Als van die noodzakelijkheid maar geen permanente toestand gemaakt wordt, is dat te verteren. In China hebben ze om Corona in te dammen een app ontwikkeld die je vraagt welke symptomen je hebt, maar die ook bepaalt met wie je contact hebt gehad, en dat doet op basis van je GPS-coördinaten, en je mobiele data. De beoordeling resulteert in een groene, gele of een rode QR code. Alleen met een groene QR code op je telefoon mag je de straat op. De achterliggende algoritmes zijn niet inzichtelijk, de datavergaring tart alle Westerse waarden. Maar het lijkt wel effectief geweest te zijn, want nu eind maart worden er geen nieuwe Corona gevallen meer geconstateerd.
Ook in Europa wil Eurocommissaris Breton data van mobiele netwerken gebruiken om de verspreiding van Corona in kaart te brengen. Dat is in beginsel niet zozeer een AI kwestie, als wel een AVG kwestie. Maar zoals het NRC zegt: “Overal ter wereld, in Azië voorop, worden apps en telefoons ingezet om de verspreiding van het virus tegen te gaan en te controleren of burgers wel thuis blijven, zoals de regering hen opdraagt. Locatiedata en telecomdata spelen een centrale rol. De surveillancemethoden worden telkens verder opgerekt, ook in Europese landen.” Gebruik van data is nog te bevatten. Algoritmes ook. Maar wat als er AI in het spel komt? En niemand meer één-op-één oorzaak-gevolg relaties kan leggen? Dan wil je er zekerder dan zeker van zijn dat de data waarop de besluiten door AI worden gebaseerd aan alle vereisten voldoen. Niet alleen qua privacy, maar ook bias.
AI is net als al het menselijke. Het is niet zomaar goed of slecht, maar het hangt af van de implementatie, en de waarden van waaruit die implementatie plaatsvindt. AI is slechts zo ‘good, bad or ugly’ als de data en uitgangspunten waarmee ze gebouwd is.