Interviews zonder babbelen

Upload filters werken, maar niet zoals u denkt

Ex-Facebook-medewerker Alexander Mäkelä lanceerde onlangs met behulp van Alberto Alemanno’s The Good Lobby een webboekje getiteld Social Media for Change – Ideas, Tools and Best Practices for Civic Engagement and Elections.

Ik ging met Alexander zitten om zijn achtergrond en ervaring in de sociale media te bespreken, maar ook om te onderzoeken hoe het boekje tot stand kwam en voor wie en waarvoor het bedoeld was. Dit is het eerste deel van twee artikelen over het interview.

DK: Kunt u mij een beetje vertellen over uzelf en uw reis tot op dit punt?

AM: Ik ben Fins-Zweeds, of liever Zweeds-Fins, in de zin dat mijn ouders beiden Fins waren, maar ik ben geboren en getogen in Zweden. Ter verduidelijking: ik behoor tot de Finse minderheid in Zweden en niet tot de Zweedse minderheid in Finland.

DK: Ja, ik stond op het punt om het te vragen. Dat moet verwarrend zijn voor mensen, als je ze voor het eerst ontmoet.

AM: Ha ha, ja. Over het algemeen kom ik uit een soort gemengde achtergrond en heb ik een internationale stempel op mij gedrukt, waardoor ik altijd meer in het algemeen naar de dingen heb gekeken. Ik heb Zweden zo snel mogelijk verlaten om in het Verenigd Koninkrijk, Canada en hier in België te studeren. Ik heb ook in verschillende steden gewerkt, zoals Parijs en Londen, waar ik veel heb rondgereisd tussen zeer internationale bruisende plaatsen.

Mijn eerste job was productontwikkeling bij de Body Shop, een bedrijf dat eigendom was van L’Oreal. We hebben het dus over make-up, parfum, body butters. Ik werkte aan business cases met marketinginzichten en daar kwam ik ook voor het eerst in contact met social media. Het is een zeer competitieve industrie en je trekt klanten aan door echt goede marketingcampagnes te doen. Dus het begrijpen van social media vanuit het oogpunt van de beïnvloeder. Hoe gebruik je banden op een bepaalde manier om emoties bij klanten te beïnvloeden. Hoe doe je een maand durende campagne in verschillende fases?

Uiteindelijk belandde ik in Brussel, zoals veel mensen dat doen. Ik heb stage gelopen bij de Europese Commissie en mijn master in Europees overheidsbeleid. Ik ben teruggekomen bij de Commissie en heb een tijdje effectbeoordelingen geëvalueerd om ervoor te zorgen dat deze op feiten gebaseerd blijven.

Toen vond ik deze vacature op Facebook, een droom die uitkwam, in die zin dat ik van jongs af aan geïnteresseerd was in technologie en sciencefiction. Toen ik opgroeide met Star Trek, was Silicon Valley altijd erg aantrekkelijk voor mij.

Ik was er een jaar lang als dekking voor zwangerschapsverlof, dus ik was niet ontslagen en besloot niet te vertrekken, de contractperiode was gewoonweg voorbij. Maar het was in ieder geval een ongelooflijk jaar. Ik werkte aan zaken als nepnieuws, haatdragende taal en verkiezingsintegriteit. Ik werd ook een van de belangrijkste mensen die werken aan beleidsmarketingmateriaal, binnen een bedrijf dat echt goed is in het maken van marketingmateriaal. Dat is zoiets, in een notendop.

DK: Waarom werkte Facebook aan beleidsmarketing?

AM: Ik maakte deel uit van het public policy marketing team. Dus om onze positie te bepalen ten aanzien van bepaalde kwesties, hebben we bijvoorbeeld marketingmateriaal gemaakt. Dit kan bijvoorbeeld geweldige diadecks zijn voor VP’s, pamfletten en dit soort dingen, maar met een social media touch, dus het lijkt wel op Instagram of Facebook.

DK: Het is ook interessant om te horen dat ze veel tijd investeren om problemen aan te pakken, zoals haatdragende taal, nepnieuws, enz.

AM: Facebook heeft veel aandacht gekregen en ik denk dat als je zo groot bent, je waarschijnlijk goed in de gaten moet worden gehouden. Er zijn veel problemen geweest. Het is het grootste social media platform ter wereld, wat is het, 2,2 miljard mensen die het gebruiken? Het is duidelijk dat niet iedereen goede bedoelingen heeft, dus sommige mensen gaan proberen hun racistische agenda’s te verspreiden, sommige mensen gaan proberen nepnieuws te verspreiden, zij het om te proberen mensen naar links en reclamebedrijven te leiden, waar ze gewoon worden gebombardeerd door advertenties. Je weet wel, ik heb het over die links zoals “Top 10 iets….” en je klikt erop en plotseling zijn er honderd advertenties. Tot op zekere hoogte kan dat ook worden beschouwd als nep nieuws, spammy type inhoud.

Om eerlijk te zijn, veel mensen zijn ook begonnen met het gebruik van sociale media voor verkiezingen en als bedrijf heeft Facebook echt begrepen dat het een sleutelrol heeft in de maatschappij en dat mensen het gebruiken voor goed en slecht. Het gaat erom die slechte situaties te verzachten en ervoor te zorgen dat geen enkele politieke actor een van de platforms in hun voordeel kan gebruiken, zodat er een gelijk speelveld ontstaat.

Het bedrijf heeft op al deze punten al het initiatief genomen of werkt samen met autoriteiten, bijvoorbeeld met de Europese Commissie. Het haatdragende werk dat we op Facebook hebben gedaan, was vooral gericht op het opleiden van ngo’s over hoe ze snel berichten over haatdragende inhoud kunnen plaatsen, hoe ze deze gemakkelijk kunnen vinden en identificeren en hoe ze ervoor kunnen zorgen dat ze over alle instrumenten beschikken die ze nodig hebben om ervoor te zorgen dat hun platforms zo gebruiksvriendelijk mogelijk zijn, wat heel belangrijk is. Je wilt niet op een platform, waar je haatdragende inhoud ziet.

Facebook werkte ook aan terrorismebestrijding. Met behulp van algoritmes en filters werd 99% van de inhoud van Al Qaeda en ISIS verwijderd voordat iemand het ooit opmerkte. Dat is het niveau van verfijning nu.

DK: Het is zeer interessant dat Facebook dat nu kan doen, omdat er in het Europees Parlement een grote controverse was over de richtlijn auteursrecht. Uploadfilters werden geduwd als oplossing om alle illegale inhoud uit te filteren, zoals de terroristische inhoud die u zojuist noemde, en het argument tegen hen was dat het heel moeilijk was om deze filters daadwerkelijk te maken en te implementeren. Kunt u mij wat meer voorkennis geven over de manier waarop Facebook dit heeft aangepakt?

AM: Als het gaat om het uploaden van filters, wil ik eerst zeggen dat het geen zilveren kogel is. Wat betreft de richtlijn auteursrecht leken veel mensen in het Europees Parlement en meer in het algemeen in Brussel te denken dat het uploaden van filters een magische remedie is voor alles, zonder te beseffen dat je er altijd een weg omheen kunt vinden, door gewoon je afbeelding of video een beetje aan te passen. Je kunt gewoon een of twee pixels enigszins herschikken en het zal genoeg zijn om het systeem voor de gek te houden. Het menselijk oog zal het verschil niet zeggen. Misschien als je een beetje inzoomt, kun je zien dat de verlichting een beetje uit is, of het contrast is iets anders, maar dit is genoeg om auto-detectiesystemen te omzeilen en niet iedereen kan zich meer geavanceerde filtersystemen veroorloven dan dat.

Als het gaat om het werk dat Facebook doet op het gebied van terrorismebestrijding, werkt het samen met veel andere bedrijven via GIFCT, het Global Internet Forum om terrorisme te bestrijden. Ze beschikken over een hashing-database die de hele sector bestrijkt. Het zet tags op specifieke inhoud die eerder is verwijderd. Ze werken ook samen met wetshandhavingsinstanties en nationale overheden en veel NGO’s en zelfs de academische wereld om ervoor te zorgen dat de filters echt begrijpen wat voor soort afbeeldingen, video’s of tekst moet worden verwijderd. Tegelijkertijd is het ook heel moeilijk in de zin dat je je moet afvragen: hoe maak je een onderscheid tussen iemand die kritiek heeft op een terroristische actie en iemand die deze actie prijst? Het is dus een continu proces…..

DK: U gebruikt daarvoor machinaal leren, neem ik aan?

AM: Ja en het zal in de loop der tijd beter worden, maar op dit moment zijn filters geen zilveren kogel in de betekenis van het woord. Ik denk dat het bij terrorismebestrijding succesvol is geweest, omdat er zo’n sterke samenwerking is geweest tussen de bedrijven met de nationale regeringen en de Europese Unie. Wat het auteursrecht betreft, ben ik er niet zo zeker van dat we dezelfde resultaten kunnen bereiken.

DK: De oplossing van Facebook voor terrorismebestrijding was dus in wezen transparant te zijn en samen te werken met zoveel mogelijk andere belanghebbenden, om ervoor te zorgen dat de filters niet tot censuur leiden.

AM: Ja en tegelijkertijd heeft Facebook ook meer dan 200 mensen in dienst, die specifiek werken met wetshandhaving op het gebied van terrorismebestrijding en er zijn ook duizenden content reviewers. Het zijn niet alleen A.I. systemen, er is ook een menselijk element bij betrokken.

Als het gaat om meer commerciële kwesties, zoals auteursrecht, nou ja, hoe bepaal je dan een inbreuk op het auteursrecht als je een content-reviewer bent? In dit scenario wordt het iets lastiger. Als het gaat om haatzaaiende taal of terroristische inhoud, is het meestal iets duidelijker. Er zijn enkele grijze zones, maar je kunt het veel gemakkelijker bepalen.

Dominik Kirchdorfer
Dominik is a European writer and entrepreneur of Austrian and Polish descent. His passion is storytelling and he wants to do everything in his power to give the story of Europe a happy ending. He is currently the President of the EFF - European Future Forum, as well as Editorial Coordinator for the EUREKA Network, Editor In-Chief of Euro Babble and Managing Editor of Italics Magazine. Twitter: @NikKirkham
http://www.nikkirkham.eu

Leave a Reply

Your email address will not be published. Required fields are marked *