30 november 2020
Data fieldlabs Data

12 tools voor verantwoord toepassen kunstmatige intelligentie

Verantwoord AI - Design Method Toolkit
Laatste update: 30 nov '20 - 13:13

AIIA, DEON en het Sienna Project zijn hulpmiddelen om verantwoord kunstmatige intelligentie (AI) in te zetten. In dit artikel zet AI-fieldlab deelnemer dr. Sieuwert van Otterloo (Hogeschool Utrecht) de twaalf tools die bekend zijn in ons fieldlab op een rij.

AI wordt al veel gebruikt en het aantal toepassingen groeit nog steeds. Zo kan AI worden ingezet voor adviezen, voorspellingen of het opsporen van problemen. Het is belangrijk dat AI verantwoord wordt ingezet, daarmee kunnen we automatische discriminatie en spookverhalen voorkomen. Gelukkig zijn er veel tools, frameworks en hulpmiddelen die hierbij kunnen helpen.

Overzicht AI-hulpmiddelen

Er is gezocht naar hulpmiddelen die in de beginfase van een AI-project gebruikt kunnen worden. Dit sluit aan bij het AVG-principe van privacy by design. Organisaties moeten tijdens het project zaken als privacy al meenemen. Verder is er een brede definitie van hulpmiddel gehanteerd: van bordspel tot boek of handleiding tot software-tool. Sommige hulpmiddelen zijn gericht op iedereen, anderen specifiek voor ontwerpers. De tools zijn alfabetisch gerangschikt.

1. AI Impact assessment

De AI impact assessment (AIIA) van ECP is een tien-stappen-proces waarmee organisaties inzichtelijk maken welke juridische en ethische normen een rol spelen bij de ontwikkeling en inzet van hun AI-toepassing. Een van de stappen van AIIA is om te controleren hoe betrouwbaar je databron is. Hieronder licht Daniël Frijters (ECP) met een voorbeeld toe waarom dit zo belangrijk is.

“Neem een AI-selectietool voor het screenen van sollicitanten. Het algoritme kan op basis van historische data leren welke kandidaten geschikt zijn voor een leiderschapsfunctie. Als niet wordt gekeken naar de betrouwbaarheid van de data, dan zullen vooral mannelijke kandidaten worden geselecteerd, omdat de selectietool op basis van de gebruikte historische data heeft geleerd dat vrouwen minder leiderschapsfuncties bekleden. Vrouwelijke kandidaten worden dus onbewust door het algoritme gediscrimineerd.”

Lees hier meer over AIIA of download direct de AI impact assessment.

2. Data Protection Impact Assessment

De Data Protection Impact Assessment (DPIA) is een onderzoek waarmee je vooraf de impact bepaalt van het verwerken van persoonsgegevens. Sinds de nieuwe privacyregels (AVG/GDPR) is het in bepaalde omstandigheden verplicht. Dit gaat om verwerkingen die een hoog privacyrisico opleveren voor de betrokkenen. Bijvoorbeeld: monitoring, zwarte lijsten, slim cameratoezicht en veel AI-applicaties.

Lees hier meer over DPIA of download direct de Data Protection Impact Assessment

3. Datalabel.org

Datalabel.org is een initiatief voor een bijsluiter bij het kopen of verkopen van data. Het kopen/verkopen van data is niet helemaal in lijn met Europese privacyregels, maar als het gebeurt moet het transparant gebeuren en daar kan het datalabel bij helpen.


4. DEDA (De Ethische Data Assistent)

DEDA is ontwikkeld door de Utrecht Data School in nauwe samenwerking met data-analisten van Gemeente Utrecht. Het bestaat uit een poster een handboek, die je in een workshop-setting gebruikt. Na afloop van de workshop heb je een ethische analyse waarmee je kan besluiten of een algoritme of app verantwoord is om te gebruiken.

Verantwoord AI | De Ethische Data Assistent
© De Ethische Data Assistent (DEDA), Utrecht Data School

Lees hier meer over DEDA of download direct de poster.

5. DEON

DEON is een checklist voor verantwoord gebruik van data in data science projecten. Alle mogelijke ethische issues worden op een praktische manier uitgelegd met voorbeelden. DEON is hier te vinden.

6. Design Method Toolkit

De Design Method Toolkit van de The Digital Society School bevat bekende design tools voor agile teamprojecten. Bijvoorbeeld: Actors Map, Emoji Story, Persona en Prototype for empathy. Per methode staat er omschreven hoe je deze kunt inzetten en wanneer en waarom dat interessant is en het resultaat dat je kunt verwachten.

Lees hier meer over de verschillende methoden.

7. Envisioning cards

Envisioning cards zijn kleine kaarten met een design-vraag of een stuk uitleg over mogelijk gebruik. De kaarten kunnen gebruikt worden voor het verbeteren van design-gesprekken of design-overleggen. De kaarten zijn gebaseerd op de methode value sensitive design.

Verantwoord AI - Envisioning cards
© 2011 University of Washington, vsdesign.org

Lees hier meer over Envisioning cards of download vijf voorbeeldkaarten.

8. Ethics guidelines for Trustworthy Artificial Intelligence

De Ethics Guidelines for Trustworthy Artificial Intelligence is een publicatie van een onafhankelijke deskundigengroep die door de Europese Commissie is opgericht. In het document staan formele regels die helpen bij het goed toepassen van AI. De publicatie is beschikbaar in 23 talen.

Lees hier meer over de publicatie of download de Nederlandse versie.

9. Ethics Inc ontwerp spel

Ethics Inc is een kaartspel mede ontwikkeld door de Hogeschool Utrecht. Aan de hand van een voorbeeldcasus of een eigen casus kun je een discussie voeren. Want wat is nu precies ethisch? En hoe ontwerp je AI-systemen die voldoen aan ethische richtlijnen? In dit coöperatieve spel ontwerp je samen ethisch verantwoorde AI-toepassingen.

Lees hier meer over het spel of download de Nederlandse versie.  Verder: er is een digitale versie in de maak.

10. Ethics and Algorithms Toolkit

Ethics Toolkit.ai is een toolkit ontwikkeld om overheden te helpen om de impact van het gebruik van algoritmes te begrijpen.

11. Responsible innovation (Microsoft)

Microsoft heeft de responsible innovation toolkit gepubliceerd, die developers moet helpen om negatieve impact van technologie op mensen te voorkomen. Een van de tools is Judgemt Call, een stakeholder-rollenspel.

12. Sienna-project

Een ethische code is een set van regels of principes. Het Sienna-project heeft een overzicht gemaakt van ethische codes voor inzet technologie. De volgende codes worden genoemd:

  • SHERPA Guidelines for Use and Developments of AI or big data system
  • ACM Code of Ethics and Professional Conduct
  • IEEE Code of Ethics
  • Asilomar AI Principles
  • The Montreal Declaration for a Responsible Development of Artificial Intelligence
  • Barcelona Declaration for the proper development and usage of artificial intelligence in Europe
  • Humanitarian UAV Code of Conduct & Guidelines
  • Mission Statement and Berlin Statement (Robotic weapons)
  •  Software Engineering Code of Ethics
  • Opinion 9/2016 EDPS Opinion on Personal Information Management Systems

Media Perspectives AI-fieldlabs

In juni 2019 hebben we vanuit Media Perspectives een aantal hogescholen en mediabedrijven samengebracht omdat we wisten dat zij bezig waren met kunstmatige intelligentie. In deze bijeenkomsten zijn we gaan kijken wat iedereen doet met AI en waar de uitdagingen en waar er samenwerkingskansen liggen. Daar vanuit zijn er drie fieldlabs ontstaan: spraakherkenning van de Nederlandse taal (1), content-analyse van video’s (2) en ethische richtlijnen van kunstmatige intelligentie (3). Lees hier meer over de AI-fieldlabs.