19 april 2016
Media Future Week Talent Tech

Scott Smith: Bots in de media

Dinsdag 19 april was Scott Smith te gast in de SWITCH op het Media park voor een Meet the Master over robotisering in de journalistiek. Wat zijn bots? Wat doen ze? Wat staat er op de agenda als je kijkt naar toepassingen met bots? En hoe zit het met de verantwoordelijkheid en eigenaarschap van producten die door bots gemaakt zitten? Een interessante sessie waarbij diverse antwoorden aan bod kwamen, maar ook nieuwe vragen gesteld werden.

Een oude test die vandaag de dag nog steeds gebruikt wordt als een indicatie of een bot geloofwaardig is, is de Turing Test. Je chat met een robot, maar heb je door dat het een robot is, of  is het geloofwaardig als mens? Oorspronkelijk was de Turing test overigens voor iets anders bedoeld. Eigenlijk praat je met iemand die achter een gordijn zit en wil je aan de hand van het gesprek wat kunnen achterhalen wat de identiteit van die persoon is (bijv man of vrouw). Ook al is de test meer dan 50 jaar oud, nog steeds geldt het als regel of een bot geloofwaardig is.

Wat doen bots?

Chatbots worden tegenwoordig steeds sneller en beter. Ze onthouden bijvoorbeeld onderwerpen waar je eerder over gechat hebt en brengen die later weer naar voren. Zo is het alsof de bot je echt kent. Maar: het blijft een code, zonder emotie. Toch? Scott geeft toe dat hij best gehecht raakte aan bots die hij heeft gemaakt en waar hij mee chatte…

Er zijn verschillende soorten bots. Bots die interessante (en soms rare) combinaties maken van verschillende headlines op twitter. Bots die systemen verstoren, zoals de Spotify bots die artiesten inzetten zodat hun muziek vaker beluisterd wordt. Bots die illegale dingen doen, zoals de Random Darknet Shopper, een bot die random dingen besteld op het internet. De onderzoekers die deze bot creëerden ontvingen de vreemdste dingen, waaronder illegale drugs! Bots kunnen een taal leren, context begrijpen en zich daaraan aanpassen, opschalen, ontwikkelen, vermenigvuldigen en zich verstoppen.

Activistische bots

Complexe technologie zit nu in een redelijk simpele code verstopt en dit kun je ook inzetten om mensen te activeren. Op social media kunnen bots bijvoorbeeld een onderwerp op de agenda zetten en daarna mensen de discussie laten voeren. Of iets in de gaten houden voor mensen. Een voorbeeld is Anonymous, die recruitment bots van Isis in de gaten hield en kraakte. Activisme op activisme.

Bots in de media

In de media worden bots gebruikt om simpele artikelen te schrijven, zoals financiële of sport berichtgeving. Maar wat je ook steeds meer ziet is de inzet van bots om nieuws in kleine stukjes te hakken en ze via een chatservice naar de gebruiker te brengen. Na elk nieuwsfeitje kun je kiezen om er meer over te lezen of naar het volgende nieuws over te gaan. De berichtgeving wordt uitgeserveerd als chatberichten. Het lijkt het werk van een bot, maar vaak komen er nog wel menselijke editors aan te pas om de nieuwsberichten op die manier te verpakken.

Scott ziet dat steeds meer mediabedrijven over gaan op het vertellen van een verhaal via chat. Facebook messenger die zich richt op nieuws en commerciële boodschappen. De ontwikkelingen gaan snel en Scott ziet dat veel bedrijven er maar mee aan de gang gaan, zonder goed na te denken over de gebruikerservaring. Hoe wil de gebruiker aangesproken worden? Silicon Valley heeft volgens Scott dichters nodig die zich bezig houden met de manier waarop je conversatie vormgeeft in bots. Wat dat betreft kunnen bots nog wat leren van toneelstukken en gedichten.

Waar liggen de grenzen?

En wil je weten dat je door een robot aangesproken wordt? Moet je het weten? Waar ligt de grens? Waar liggen de ethische grenzen en wanneer wordt er een overtreding begaan? Maakt het iemand uit als in de toekomst The Man Booker prize gewonnen wordt door een robot die een boek heeft geschreven?

En als je dan naar de boodschappen van bots kijkt, hoeveel is code en hoeveel is menselijk? En wie is er verantwoordelijk voor? Een bot die leert van eerder gebruik en daardoor racistisch wordt, wiens fout is dat? Mogen bots zelf beslissingen maken of moet er altijd een controle van een mens zijn?

Of gaan wij ons aanpassen aan het gedrag van robots? Je weet tenslotte nog steeds niet wat er achter het gordijn van de Turing Test staat.