10 maart 2022
Column Data Business Data

Column – Data: kind en badwater

Laatste update: 11 mrt '22 - 12:12

Data is het nieuwe goud. Maar voor wie? Jarenlang hebben de grote platformen de vrije hand gehad in het verzamelen van data. Ze hebben er hun hele verdienmodel op gebouwd. En nu worden er restricties opgelegd. Naast de GDPR komen er veel nieuwe Europese wetten en regels aan zoals de AI-verordening, de digital markets act (DMA), de digital services act (DSA), de data act, de data governance act (DGA) en de GAIA-act. En de Europese Commissie kijkt of er nog verder moet en kan worden ingegrepen. Maar daarmee worden er tenminste een paar kinderen met het badwater weggegooid.

Kind 1

Want wie zijn de bedrijven die last krijgen van de grotere privacyrestricties? Dat zijn juist niet de grote platformen waar de Europese Commissie beperkingen aan op wil leggen. Het zijn precies de Europese mediabedrijven die minder informatie krijgen. Zij zijn immers het eindpunt van de data-exploitatie en reclame-keten waar de grote platformen nu vrijwel volledige zeggenschap over hebben. Dus niet niet de platformen, maar de Europese mediabedrijven zijn de dupe.

We moeten data-exploitatie en privacy niet meer zien als elkaar uitsluitende factoren. Iedereen is voor privacy. Ook weldenkende Europese mediabedrijven willen liefst zoveel mogelijk ‘privacy by design’ toegepast zien. Maar beide factoren moeten met elkaar uitgelijnd worden om verdienmodellen voor content en datagedreven content mogelijk te maken. Het limiteren van het gebruik van data op een manier die de positie van Europese mediabedrijven verzwakt, is dan niet de juiste weg. Zeker niet als die maatregelen de platformen, als eigenaren van de first party data, veel minder hinderen.

Kind 2

Maar er is nog een belangrijker kind van de rekening. En dat is een wat minder zichtbaar kind. Dat is het kind van de Europese waarden en van bias in datasets. Het kind van de transparantie in algoritmes en van het leveren van verantwoord gepersonaliseerde content en diensten.

Als we ons overleveren aan internationale platformen – nu de Amerikaanse, straks de Aziatische – bouwen we geen eigen datasets op. En dus zal onze data bekeken worden door de ogen van andere culturen met andere waarden. Als we geen inzage hebben in de gebruikte algoritmen, hoe kunnen we dan beoordelen of personalisatie en aanbevelingen recht doen aan de persoon van de gebruiker? Voor entertainment content is dit vooral een commercieel probleem. Bij nieuws begint iedereen de noodzaak ven een verantwoorde personalisatie al te zien. Laat staan als het iemands functioneren in de maatschappij betreft.

  • De Belastingdienst constateerde na onderzoek dat een dubbele nationaliteit of buitenlandse naam reden is geweest om iemand op te nemen op de door haar illegaal aangelegde FSV-lijst. De Autoriteit Persoonsgegevens heeft gezegd dat hiermee de privacywet werd geschonden. Dat is ongetwijfeld zo, maar dat is niet waar het werkelijk om gaat. Alleen kijken naar privacy impliceert namelijk dat de vastgelegde burgers wellicht wel schuldig waren, maar dat ze om privacyredenen niet hadden mogen worden geregistreerd. Veel belangrijker hier is dat er verkeerde conclusies uit de data getrokken werden. De burgers op de FSV-lijst waren voor het overgrote deel helemaal niet schuldig.

De noodzaak van eigen data

Wat gebeurt er als deze oorzaak-gevolg-relaties op basis van gebiasde data (als dat een Nederlands woord is…) ondoorzichtig worden? Die relaties worden immers gelegd door voor ons gesloten bedrijven. Met het toenemende belang van data, AI en verantwoorde personalisatie is het van belang dat de personalisatie transparant plaatsvindt. We moeten waarborgen dat onze eigen Europese mediabedrijven toegang tot data houden. Die hebben zij nodig om een vitale media-industrie te blijven. We moeten niet ons Europese-waarden-kind met het badwater weggooien als gevolg van een restrictieve blik op privacy. Exploreer privacy by design beginselen en waarborg daarbij de vitaliteit en noodzaak van eigen unbiased data en transparante algoritmen.

Als Europa moeten we onze media hierin het verschil kunnen laten maken!

Aanvulling op 11-3-2022:

NRC publiceerde een interessant gerelateerd artikel: https://www.nrc.nl/nieuws/2022/03/10/bedrijven-omzeilen-cookie-wet-op-verschillende-wijzen-a4100104

Waarin verwezen werd naar deze brief van 73 Europese Lobbyorganisaties: https://cloud.edri.org/index.php/s/njWiRknKzggtHYZ

Dit artikel en deze brief bevatten interessante discussiepunten die vooral gericht zijn op privacy. Maar laten wederom zien dat het niet constructief is om personalisatie alleen vanuit ‘dark patterns’ en het negatieve te benaderen. Natuurlijk zijn ‘dark patterns’ slecht voor individuen en voor een maatschappij. Maar gepersonaliseerde aanbevelingen kunnen ook hele positieve kanten hebben. Toegesneden op iemands interesses, begrip van zaken, gebruikte taal, eventuele auditieve of visuele beperking, etc. etc.

Wordt vervolgd…

Lees eerdere columns van Frank:

mei 2021: Wat is moeilijker, schaken of aanbevelingen?

maart 2021: Data: de grondstof voor onderzoek en innovatie in AI voor media

december 2020: Watermarking en consent – direct contact tussen zender en kijker?

oktober 2020: Media moet mee met AI

mei 2020: Media Perspectives sluit media aan op AI

maart 2020: AI, the Good, the Bad, and the Ugly

november 2019: Innovatie

april 2019: De fenomenen 5G en edge computing