© SIRE
Author profile picture

Ik ben fan van de ‘doe eens lief’-campagne van SIRE. Vooral de ‘cold facts’ in de campagne spreken tot de verbeelding: “146.571 scheldtweets met het woord ‘kanker’ in 2018”, “jaarlijks wordt 8% van de OV-medewerkers bespuugd”, “in 2018 is 53.265 keer het woord ‘klootzak’ getweet”, “100% van de scheidsrechters wordt uitgescholden”, en “72% van de weginspecteurs krijgt regelmatig de middelvinger”. Helaas is de campagne nodig; we zijn schijnbaar steeds minder aardig tegen elkaar. #doeslief

Misschien is er zelfs meer nodig dan een #doeslief-campagne? In een artikel dat gepubliceerd werd in ‘Artificial Intelligence and Society’ las ik over een robot die je kan helpen om aardiger te zijn naar andere mensen; de #doeslief-robot. Het is een interessante gedachte om robots zo te programmeren dat ze je helpen liever te zijn naar je omgeving, maar natuurlijk zitten hier wel wat haken en ogen aan. Verschillende ethici en tech-filosofen zullen bij een #doeslief-robot hun vraagtekens plaatsen. Een #doeslief-robot, hoe effectief ook, zoekt immers maximaal de grenzen van beïnvloeding op en heeft een paternalistisch trekje. Uit verschillende onderzoeken weten we dat mensen erg geneigd zijn om commando’s van robots op te volgen, zelfs wanneer deze vreemd of ongepast zijn. Uit mijn eigen onderzoek weet ik dat de conversatiestijl, en daarmee het karakter, van de robot van invloed is op de mate waarin die robot wordt vertrouwd. Mensen zijn dus erg gevoelig voor het gedrag, de stijl en de opmerkingen van een robot, dus extra voorzichtigheid is in deze context immer een noodzakelijkheid.

Hoe paternalistisch ook, wanneer mensen uit hen zelf niet aardig kunnen doen naar andere mensen, ben ik al snel geneigd te zeggen dat we daarbij alle hulp kunnen gebruiken die er is. Dus ook de hulp van de #doeslief-robot. Extra aandacht dient dan wel uit te gaan naar de design principes die achter de robot schuilen. Met andere woorden, welk kader, welke mindset en welk karakter geef je de robot mee? Mag hij je enkel vriendelijk coachen naar aardig gedrag, of mag hij ook boos op je worden wanneer je onaardig bent? En welk advies laat je de robot geven wanneer iemand anders onaardig is naar de persoon of de robot zelf? Laat je de robot enkel advies geven over het moment waarop je aardig zou kunnen doen naar de ander of mengt de robot zich ook in de inhoud van interactie?

Er zit een groot verschil tussen ‘doe eens lief’ en ‘doe eens wijs’. Misschien is het toch een stap te ver om een robot mensen te laten coachen naar vriendelijker gedrag, maar kunnen we wel robot-assistenten inzetten voor het voorkomen van onvriendelijk gedrag? Gewoon, een robot die je zo nu en dan helpt om even tot 10 te tellen. #doeswijs

Eveline van Zeeland is associate lector Smart Marketing en Strategie bij Fontys Hogescholen. Zij is auteur van Basisboek Neuromarketing en columnist voor Fontys BRON en voor Magazine Clou. Vanaf heden is zij tevens columnist voor Innovations Origins en geeft zij ons haar eigen sneak preview of the future. Lees hier een interview met haar.

Over deze column:

In een wekelijkse column, afwisselend geschreven door Eveline van Zeeland, Maarten Steinbuch, Mary Fiers, Carlo van de Weijer, Lucien Engelen, Tessie Hartjes en Auke Hoekstra, probeert Innovation Origins uit te vinden hoe de toekomst eruit zal zien. De zeven columnisten, af en toe aangevuld met gastbloggers, zijn allemaal op hun eigen manier bezig met oplossingen voor de problemen van onze tijd. Zodat Morgen Beter wordt. Hier alle eerdere afleveringen.