Interviews sans bavardage

Les filtres de téléchargement fonctionnent, mais pas comme vous le pensez

Alexander Mäkelä, ancien employé de Facebook, a récemment lancé une brochure en ligne intitulée Social Media for Change – Ideas, Tools and Best Practices for Civic Engagement and Elections avec l’aide du lobby d’Alberto Alemanno.

Je me suis assis avec Alexander pour discuter de ses antécédents et de son expérience dans les médias sociaux, ainsi que pour explorer comment le livret a vu le jour et à qui et à quoi il était destiné. Ceci est la première partie de deux articles couvrant l’interview.

DK : Pouvez-vous me parler un peu de vous et de votre parcours jusqu’ici ?

AM : Je suis finnois-suédois, ou plutôt suédois-finnois, en ce sens que mes parents étaient tous deux finlandais, mais je suis né et j’ai grandi en Suède. Pour clarifier les choses, je fais donc partie de la minorité finlandaise en Suède, et non de la minorité suédoise en Finlande.

DK : Oui, j’allais demander. Ça doit être déroutant pour les gens, quand vous les rencontrez pour la première fois.

AM : Ha ha ha, oui. D’une manière générale, je viens d’un milieu mixte, j’ai laissé une marque internationale sur moi, ce qui m’a toujours poussé à regarder les choses plus globalement. J’ai quitté la Suède dès que j’ai pu, pour étudier au Royaume-Uni, au Canada et ici en Belgique. J’ai aussi travaillé dans différentes villes, comme Paris et Londres, me déplaçant beaucoup entre des lieux très internationaux.

Mon premier emploi a été le développement de produits chez The Body Shop, une entreprise qui appartenait à L’Oréal. Il s’agit donc de maquillage, de parfum, de beurres pour le corps. Je travaillais sur des études de cas avec des idées marketing et c’est aussi là que j’ai pris contact pour la première fois avec les médias sociaux. C’est une industrie très compétitive et vous attirez les clients en faisant de très bonnes campagnes de marketing. Comprendre les médias sociaux du point de vue de l’influenceur. Comment utiliser les liens d’une certaine manière pour influencer les émotions des clients. Comment faire une campagne d’un mois en plusieurs étapes ?

Finalement, j’ai fini à Bruxelles, comme beaucoup de gens. J’ai fait un stage à la Commission européenne et j’ai obtenu une maîtrise en politique publique européenne. Je suis revenu à la Commission et j’ai évalué les analyses d’impact pendant un certain temps, pour m’assurer qu’elles restent fondées sur des preuves.

Puis j’ai trouvé cette opportunité d’emploi sur Facebook, qui était un rêve devenu réalité, dans le sens où dès mon plus jeune âge, je m’intéressais à la technologie et à la science-fiction. Ayant grandi avec Star Trek, la Silicon Valley a toujours été très attirante pour moi.

J’ai été là en couverture de congé de maternité pendant un an, donc je n’ai pas été licenciée et je n’ai pas décidé de partir, la durée du contrat était tout simplement expirée. Mais ce fut une année incroyable en tout cas. J’ai travaillé sur des sujets comme les fausses nouvelles, les discours haineux et l’intégrité électorale. Je suis également devenu l’un des principaux responsables de l’élaboration du matériel de marketing des politiques, au sein d’une entreprise qui est vraiment douée pour créer du matériel de marketing. C’est un peu ça, en un mot.

DK : Pourquoi Facebook travaillait-il sur le marketing politique ?

AM : Je faisais partie de l’équipe de marketing des politiques publiques. Ainsi, par exemple, pour établir notre position sur certaines questions, nous avons créé du matériel de marketing, par exemple des diapositives pour les vice-présidents, des dépliants et ce genre de choses, mais avec une touche de médias sociaux, de sorte que cela ressemble à Instagram ou Facebook.

DK : C’est intéressant aussi d’entendre qu’ils investissaient beaucoup de temps pour s’attaquer à des problèmes tels que les discours de haine, les fausses nouvelles, etc.

AM : Facebook a fait l’objet de beaucoup d’attention et je pense que lorsque vous êtes aussi grand, vous devriez probablement faire l’objet d’un examen minutieux. Il y a eu beaucoup de problèmes. C’est la plus grande plateforme de médias sociaux de la planète, qu’est-ce que c’est, 2,2 milliards de personnes qui l’utilisent ? De toute évidence, tout le monde n’a pas de bonnes intentions, alors certaines personnes vont essayer de propager leurs agendas racistes, d’autres vont essayer de diffuser de fausses nouvelles, que ce soit pour essayer d’orienter les gens vers des liens et des fermes publicitaires, où ils sont simplement bombardés par les annonces. Vous savez, je parle de ces liens comme « Top 10 quelque chose quelque chose… » et vous cliquez dessus et soudain il y a une centaine d’annonces. Dans une certaine mesure, cela peut également être considéré comme de fausses nouvelles, de type spammy type de contenu.

Pour être juste, beaucoup de gens ont aussi commencé à utiliser les médias sociaux pour les élections et en tant qu’entreprise, Facebook a vraiment compris qu’il a un rôle clé dans la société et que les gens l’utilisent pour le bien et le mal. Il s’agit d’atténuer ces mauvaises situations et de veiller à ce qu’aucun acteur politique ne puisse utiliser l’une ou l’autre des plates-formes à son avantage, afin de garantir des règles du jeu équitables.

L’entreprise a déjà pris des initiatives dans tous ces domaines ou coopère avec les autorités, par exemple avec la Commission européenne. Le travail que nous avons fait sur Facebook était axé sur la formation des ONG pour qu’elles sachent comment afficher rapidement des avis sur le contenu de la propagande haineuse, comment le trouver et l’identifier facilement et comment s’assurer qu’elles disposent de tous les outils nécessaires pour que leur plateforme soit aussi conviviale que possible, ce qui est très important. Vous ne voulez pas aller sur une plateforme, où vous voyez du contenu haineux.

Facebook a également travaillé sur la lutte contre le terrorisme. À l’aide d’algorithmes et de filtres, 99 % du contenu d’al-Qaïda et d’ISIS a été supprimé avant même que quiconque ne le remarque. C’est le niveau de sophistication actuel.

DK : Il est très intéressant que Facebook soit maintenant en mesure de le faire, car il y a eu cette grande controverse autour de la directive sur le droit d’auteur au Parlement européen. Les filtres de téléchargement étaient la solution pour filtrer tout contenu illégal, comme le contenu terroriste que vous venez de mentionner et l’argument contre eux était qu’il était très difficile de créer et de mettre en œuvre ces filtres. Pouvez-vous me donner un peu plus d’informations sur la façon dont Facebook a abordé la question ?

AM : Quand il s’agit de télécharger des filtres, je voudrais d’abord dire que ce n’est pas une solution miracle. En ce qui concerne la directive sur le droit d’auteur, beaucoup de gens au Parlement européen et à Bruxelles en général semblent penser que les filtres de téléchargement sont un remède magique pour tout, sans se rendre compte qu’on peut toujours trouver un moyen de le contourner, en ajustant un peu son image ou sa vidéo. Vous pouvez simplement réarranger légèrement un ou deux pixels et ce sera suffisant pour tromper le système. L’œil humain ne fera pas la différence. Peut-être que si vous zoomez un peu, vous pouvez voir que l’éclairage est un peu éteint, ou que le contraste est légèrement différent, mais c’est suffisant pour contourner les systèmes d’auto-détection et tout le monde ne peut pas se permettre des systèmes de filtrage plus sophistiqués que cela.

En matière de lutte contre le terrorisme, Facebook coopère avec de nombreuses autres entreprises dans le cadre du GIFCT (Global Internet Forum to Counter Terrorism). Ils ont une base de données de hachage à l’échelle de l’industrie. Il met en quelque sorte des balises sur des contenus spécifiques qui ont été supprimés auparavant. Ils collaborent également avec les services de détection et de répression, les gouvernements nationaux et un grand nombre d’ONG et même les milieux universitaires pour s’assurer que les filtres comprennent vraiment quel type d’images, de vidéos ou de texte devrait être supprimé. En même temps, c’est aussi très difficile dans le sens où il faut se poser la question suivante : comment faire la distinction entre quelqu’un qui critique un acte terroriste et quelqu’un qui en fait l’éloge ? Il s’agit donc d’un processus continu…

DK : Vous utilisez l’apprentissage machine pour cela, je suppose ?

AM : Oui et ça va s’améliorer avec le temps, mais pour l’instant, les filtres ne sont pas une solution miracle dans tous les sens du terme. Je pense que la lutte contre le terrorisme a été couronnée de succès, parce qu’il y a eu une coopération étroite entre les entreprises et les gouvernements nationaux et l’Union européenne. En ce qui concerne le droit d’auteur, je ne suis pas sûr que nous puissions obtenir les mêmes résultats.

DK : La solution de Facebook pour lutter contre le terrorisme consistait donc essentiellement à faire preuve de transparence et à coopérer avec le plus grand nombre possible d’autres parties prenantes, afin de s’assurer que les filtres ne finissent pas par pratiquer la censure.

AM : Oui et en même temps, Facebook emploie également plus de 200 personnes, qui travaillent spécifiquement avec les forces de l’ordre dans la lutte contre le terrorisme et il y a aussi des milliers de réviseurs de contenu. Il n’y a pas que les systèmes d’I.A., il y a aussi un élément humain.

Lorsqu’il s’agit de questions plus commerciales, comme le droit d’auteur, comment déterminer une violation du droit d’auteur si vous êtes un réviseur de contenu ? Dans ce scénario, cela devient un peu plus délicat. Lorsqu’il s’agit de discours haineux ou de contenu terroriste, c’est habituellement un peu plus clair. Il y a quelques zones grises, mais vous pouvez le déterminer beaucoup plus facilement.

Dominik Kirchdorfer
Dominik is a European writer and entrepreneur of Austrian and Polish descent. His passion is storytelling and he wants to do everything in his power to give the story of Europe a happy ending. He is currently the President of the EFF - European Future Forum, as well as Editorial Coordinator for the EUREKA Network, Editor In-Chief of Euro Babble and Managing Editor of Italics Magazine. Twitter: @NikKirkham
http://www.nikkirkham.eu

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *