Kunstmatige intelligentie (AI) gaat een steeds belangrijkere rol spelen in de personalisatie van mediacontent en -distributie. Maar ook aan het voorspellen van kijkcijfers of het herkennen van video content wordt hard gewerkt. De meeste Nederlandse mediabedrijven zijn dan ook hard aan de slag met data en AI.
Hierbij is er veel aandacht voor het gebruik van privacy gevoelige data (mede door de AVG). Maar naast de vragen als kunnen we dit en mogen we dit? Klinkt steeds vaker de vraag: maar willen we dit eigenlijk wel? En beseffen we wat de lange termijn consequenties van onze keuzes zijn? En hoe stellen we zeker dat onze algoritmes transparant en eerlijk zijn?
Want algoritmen kunnen discrimineren; wanneer makers data verkeerd interpreteren of labelen of als er veel data mist dan heeft de machine een bias. Dit kan bijvoorbeeld leiden tot zelfrijdende auto’s die mensen met een donkere huidskleur minder goed herkennen of mannen die drie keer zoveel zeggen als vrouwen in Disney-films en scripts vol stereotyperingen.
Daarom is het volgens Muriël Serrurier Schepper en Frank Visser (Media Perspectives) belangrijk om ethische richtlijnen AI voor de mediasector op te stellen. In deze MediaTalk presenteren zij de uitkomsten van het AI-fieldlab ethische richtlijnen waaraan zij de afgelopen maanden samen met o.a. RTL, NPO, Beeld & Geluid, Regiolab en diverse kennisinstellingen hebben gewerkt.
Zij nodigen jou uit om niet alleen te luisteren maar, om ook input te leveren en je aan te sluiten bij dit initiatief, zodat het een gezamenlijke richtlijn wordt die door de gehele mediasector gesteund wordt.