No Babble Interviews

Los filtros de carga funcionan, pero no como crees.

El ex-empleado de Facebook Alexander Mäkelä lanzó recientemente un folleto en línea titulado Social Media for Change – Ideas, Herramientas y Mejores Prácticas para el Compromiso Cívico y las Elecciones con la ayuda de The Good Lobby de Alberto Alemanno.

Me senté con Alexander para discutir sus antecedentes y experiencia en los medios sociales, así como para explorar cómo surgió el folleto y para quién y para qué fue escrito. Esta es la primera parte de dos artículos que cubren la entrevista.

DK: ¿Puede hablarme un poco de usted y de su viaje hasta este punto?

AM: Soy finlandés-sueco, o más bien sueco-finlandés, en el sentido de que mis padres eran finlandeses, pero yo nací y crecí en Suecia. Así que, para aclarar, formo parte de la minoría finlandesa en Suecia, no de la minoría sueca en Finlandia.

DK: Sí, estaba a punto de preguntar. Eso debe ser confuso para la gente, cuando los conoces por primera vez.

AM: Ja ja, ja, sí. En general, vengo de un entorno mixto, que me ha dejado una huella internacional, lo que me ha llevado a mirar siempre las cosas de una forma más global. Dejé Suecia tan pronto como pude, para estudiar en el Reino Unido, en Canadá y aquí en Bélgica. También trabajé en diferentes ciudades, como París y Londres, moviéndome mucho entre lugares muy internacionales y vibrantes.

Mi primer trabajo fue el desarrollo de productos para Body Shop, una empresa que era propiedad de L’Oreal. Así que estamos hablando de maquillaje, fragancia, mantecas para el cuerpo. Estaba trabajando en casos de negocios con ideas de marketing y ahí es donde me puse en contacto por primera vez con los medios sociales. Es una industria muy competitiva y usted atrae clientes haciendo campañas de marketing realmente buenas. Así que entender los medios de comunicación social desde el punto de vista del influenciador. ¿Cómo se utilizan los bonos de cierta manera para influir en las emociones de los clientes? ¿Cómo se hace una campaña de un mes de duración en diferentes etapas?

Eventualmente, terminé en Bruselas, como mucha gente hace. Hice un período de prácticas en la Comisión Europea e hice un máster en política pública europea. He vuelto a la Comisión y he evaluado las evaluaciones de impacto durante un tiempo, para asegurarme de que siguen basándose en pruebas.

Entonces encontré esta oportunidad de trabajo en Facebook, que era un sueño hecho realidad, en el sentido de que desde muy temprana edad me había interesado por la tecnología y la ciencia ficción. Crecer con Star Trek, Silicon Valley siempre fue muy atractivo para mí.

Estuve allí durante un año como cobertura de licencia de maternidad, así que no me despidieron ni decidí irme, el plazo del contrato simplemente había terminado. Pero fue un año increíble en todo caso. Trabajé en cosas como noticias falsas, discursos de odio e integridad electoral. También me convertí en una de las principales personas que trabajan en material de marketing de políticas, dentro de una empresa que es muy buena en la creación de material de marketing. Eso es todo, en pocas palabras.

DK: ¿Por qué Facebook estaba trabajando en marketing de políticas?

AM: Formo parte del equipo de marketing de políticas públicas. Así que, por ejemplo, para establecer nuestra posición en ciertos temas, creamos material de marketing, por ejemplo, esto podría ser increíble para VP’s, folletos y este tipo de cosas, pero con un toque de medios sociales, por lo que se parece a Instagram o Facebook.

DK: También es interesante escuchar que estaban invirtiendo mucho tiempo para abordar cuestiones como la incitación al odio, las noticias falsas, etc.

AM: Facebook ha estado bajo mucho escrutinio y creo que cuando eres así de grande probablemente deberías ser escudriñado. Ha habido muchos problemas. Es la plataforma de medios sociales más grande del planeta, ¿qué es, 2.200 millones de personas que la utilizan? Obviamente, no todo el mundo tiene buenas intenciones, así que algunas personas van a tratar de propagar sus agendas racistas, otras van a tratar de difundir noticias falsas, ya sea para tratar de dirigir a la gente a enlaces y granjas publicitarias, donde son bombardeadas por anuncios. Ya sabes, estoy hablando de esos enlaces como “Top 10 algo algo…” y haces clic en él y de repente hay un centenar de anuncios. Hasta cierto punto eso también puede ser considerado noticias falsas, tipo de contenido spammy.

Para ser justos, mucha gente también ha empezado a utilizar los medios sociales para las elecciones y, como empresa, Facebook ha comprendido realmente que tiene un papel clave en la sociedad y que la gente lo utiliza para bien y para mal. Se trata de mitigar esas malas situaciones y asegurarse de que ningún actor político pueda utilizar ninguna de las plataformas a su favor, garantizando que haya igualdad de condiciones.

La empresa ya ha tomado la iniciativa en todas estas cuestiones o está cooperando con las autoridades, por ejemplo, con la Comisión Europea. El trabajo de incitación al odio que hicimos en Facebook se centró mucho en la formación de las ONG sobre cómo publicar rápidamente anuncios sobre el contenido de la incitación al odio, enseñándoles a encontrarla e identificarla fácilmente y a asegurarse de que disponían de todas las herramientas necesarias para garantizar que sus plataformas fueran lo más fáciles de usar posible, lo que es muy importante. No quieres ir a una plataforma, donde ves contenido odioso.

Facebook también trabajó en la lucha contra el terrorismo. Con la ayuda de algoritmos y filtros, el 99% del contenido de Al Qaeda e ISIS se eliminó antes de que nadie se diera cuenta. Ese es el nivel de sofisticación actual.

DK: Es muy interesante que Facebook pueda hacerlo ahora, porque hubo una gran controversia en torno a la Directiva sobre derechos de autor en el Parlamento Europeo. Los filtros de carga estaban siendo empujados como la solución para filtrar todo el contenido ilegal, como el contenido terrorista que acaba de mencionar y el argumento en su contra era que era muy difícil crear e implementar estos filtros. ¿Puedes darme un poco más de información interna sobre cómo Facebook enfocó esto?

AM: Cuando se trata de cargar filtros, en primer lugar me gustaría decir que no es una bala de plata. En términos de la Directiva de Derechos de Autor, mucha gente en el Parlamento Europeo y en Bruselas en general, parecía pensar que los filtros de carga son la cura mágica para todo, sin darse cuenta de que siempre se puede encontrar una forma de evitarlo, simplemente ajustando un poco la imagen o el vídeo. Puede simplemente reordenar uno o dos píxeles ligeramente y será suficiente para engañar al sistema. El ojo humano no notará la diferencia. Tal vez si acercas el zoom un poco, puedes decir que la iluminación está un poco apagada, o que el contraste es ligeramente diferente, pero esto es suficiente para evitar los sistemas de autodetección y no todo el mundo puede permitirse sistemas de filtrado más sofisticados que ese.

Cuando se trata de la labor antiterrorista que realiza Facebook, coopera con muchas otras empresas a través de la GIFCT, el Foro Mundial de Internet para la Lucha contra el Terrorismo. Tienen una base de datos de hash para toda la industria. Es como si pusiera etiquetas en un contenido específico que ya ha sido eliminado. También están trabajando con las fuerzas del orden y los gobiernos nacionales, así como con muchas ONG e incluso con el mundo académico, para asegurarse de que los filtros entienden realmente qué tipo de imágenes, vídeos o textos deben ser eliminados. Al mismo tiempo, también es muy difícil en el sentido de que hay que preguntarse: ¿cómo distinguir entre alguien que critica una acción terrorista y alguien que la elogia? Por lo tanto, se trata de un proceso continuo….

DK: ¿Asumo que usas el aprendizaje automático para eso?

AM: Sí, y va a mejorar con el tiempo, pero ahora mismo los filtros no son una bala de plata en ningún sentido de la palabra. Creo que con la lucha antiterrorista ha tenido éxito, porque ha habido una cooperación muy estrecha entre las empresas con los gobiernos nacionales y la Unión Europea. En cuanto a los derechos de autor, no estoy tan seguro de que podamos conseguir los mismos resultados.

DK: Así que, básicamente, la solución de Facebook para la lucha contra el terrorismo debía ser transparente y cooperar con el mayor número posible de partes interesadas, a fin de garantizar que los filtros no acaben practicando la censura.

AM: Sí, y al mismo tiempo, Facebook también emplea a más de 200 personas, que trabajan específicamente con las fuerzas del orden en la lucha contra el terrorismo, y también hay miles de revisores de contenido. No se trata sólo de sistemas de I.A., sino también de un elemento humano.

Cuando se trata de cuestiones más comerciales, como los derechos de autor, ¿cómo se determina una infracción de los derechos de autor si se es un revisor de contenido? En este escenario se vuelve un poco más difícil. Cuando se trata de discursos de odio o de contenido terrorista, suele ser un poco más claro. Hay algunas zonas grises, pero se pueden determinar mucho más fácilmente.

Dominik Kirchdorfer
Dominik is a European writer and entrepreneur of Austrian and Polish descent. His passion is storytelling and he wants to do everything in his power to give the story of Europe a happy ending. He is currently the President of the EFF - European Future Forum, as well as Editorial Coordinator for the EUREKA Network, Editor In-Chief of Euro Babble and Managing Editor of Italics Magazine. Twitter: @NikKirkham
http://www.nikkirkham.eu

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *