Interviste senza balbettare

Caricare i filtri funziona, ma non come pensi tu

L’ex dipendente di Facebook Alexander Mäkelä ha recentemente lanciato un opuscolo web intitolato Social Media for Change – Idee, strumenti e migliori pratiche per l’impegno civico e le elezioni con l’aiuto di The Good Lobby di Alberto Alemanno.

Mi sono seduto con Alexander per discutere del suo background e della sua esperienza nei social media, oltre ad esplorare come è nato l’opuscolo, per chi e per cosa è stato concepito. Questa è la prima parte di due articoli sull’intervista.

DK: Puoi raccontarmi un po’ di te stesso e del tuo viaggio fino a questo punto?

AM: Sono finlandese-svedese, o piuttosto svedese-finlandese, nel senso che i miei genitori erano entrambi finlandesi, ma sono nato e cresciuto in Svezia. Quindi, per chiarire, faccio parte della minoranza finlandese in Svezia, non della minoranza svedese in Finlandia.

DK: Sì, stavo per chiedere. Questo deve essere fonte di confusione per le persone, quando le si incontra per la prima volta.

AM: Ha ha ha, sì. In generale, provengo da una sorta di sfondo misto, che mi ha lasciato un segno internazionale, il che mi ha portato a guardare sempre le cose in modo più globale. Ho lasciato la Svezia il prima possibile, per studiare nel Regno Unito, in Canada e qui in Belgio. Ho anche lavorato in diverse città, come Parigi e Londra, spostandomi molto tra luoghi molto vivaci e internazionali.

Il mio primo lavoro è stato lo sviluppo del prodotto con la Body Shop, un’azienda che era di proprietà di L’Oreal. Stiamo parlando di make up, profumi, profumi, burri corporei. Stavo lavorando a casi di business con intuizioni di marketing ed è anche qui che ho avuto i primi contatti con i social media. Si tratta di un settore molto competitivo e si attraggono i clienti facendo ottime campagne di marketing. Quindi capire i social media dal punto di vista dell’influencer. Come usare i legami in un certo modo per influenzare le emozioni dei clienti. Come si fa a fare una campagna della durata di un mese in diverse fasi?

Alla fine sono finito a Bruxelles, come fanno molte persone. Ho fatto un tirocinio presso la Commissione Europea e ho fatto il mio master in politica pubblica europea. Sono tornato alla Commissione e ho valutato le valutazioni d’impatto per un po’ di tempo, per garantire che rimangano basate su prove.

Poi ho trovato questa opportunità di lavoro su Facebook, che è stato un sogno che si è avverato, nel senso che fin da piccolo mi sono interessato alla tecnologia e alla fantascienza. Crescendo con Star Trek, la Silicon Valley mi ha sempre affascinato molto.

Sono stata lì per un anno come copertura per il congedo di maternità, quindi non sono stata licenziata né ho deciso di andarmene, la durata del contratto era semplicemente in aumento. Ma è stato comunque un anno incredibile. Ho lavorato su cose come notizie false, discorsi di odio e integrità elettorale. Sono diventato anche una delle persone principali che lavorano sul materiale di marketing politico, all’interno di un’azienda che è davvero brava a creare materiale di marketing. In poche parole, questo è un po’ come questo.

DK: Perché Facebook stava lavorando al policy marketing?

AM: Facevo parte del team di marketing delle politiche pubbliche. Così, ad esempio, per stabilire la nostra posizione su alcuni temi, abbiamo creato materiale di marketing, ad esempio, questo potrebbe essere un incredibile slide deck per i VP, opuscoli e questo tipo di cose, ma con un tocco di social media, quindi sembra Instagram o Facebook.

DK: E’ anche interessante sapere che stavano investendo molto tempo per affrontare questioni come i discorsi di odio, notizie false, ecc.

AM: Facebook è stato sottoposto a molti controlli e penso che quando sei così grande probabilmente dovresti essere controllato. Ci sono state molte questioni. È la più grande piattaforma di social media del pianeta, cos’è, 2,2 miliardi di persone che la utilizzano? Ovviamente, non tutti hanno buone intenzioni, quindi alcune persone cercheranno di diffondere le loro agende razziste, altre cercheranno di diffondere notizie false, sia per cercare di indirizzare le persone verso link e fattorie pubblicitarie, dove sono solo bombardati da annunci pubblicitari. Sai, sto parlando di quei link come “Top 10 qualcosa di qualcosa…..” e si fa clic su di esso e improvvisamente ci sono un centinaio di annunci. In una certa misura che può anche essere considerato notizie false, spammy tipo di contenuto.

Per essere onesti, molte persone hanno anche iniziato ad usare i social media per le elezioni e come azienda, Facebook ha capito che ha un ruolo chiave nella società e che le persone lo usano nel bene e nel male. Si tratta di mitigare queste cattive situazioni e fare in modo che nessun attore politico possa utilizzare una qualsiasi delle piattaforme a proprio vantaggio, assicurando che ci sia un campo di gioco equo.

La società ha già preso l’iniziativa su tutti questi aspetti o sta cooperando con le autorità, ad esempio, con la Commissione europea. Il lavoro sui discorsi sull’odio che abbiamo fatto su Facebook si è concentrato molto sulla formazione delle ONG su come pubblicare rapidamente avvisi sui contenuti dei discorsi sull’odio, insegnando loro come trovarlo e identificarlo facilmente e per garantire che avessero tutti gli strumenti necessari per garantire che le loro piattaforme fossero il più possibile facili da usare, il che è molto importante. Non si vuole andare su una piattaforma, dove si vedono contenuti odiosi.

Facebook ha lavorato anche sulla lotta al terrorismo. Con l’aiuto di algoritmi e filtri, il 99% dei contenuti di Al Qaeda e ISIS sono stati rimossi prima che qualcuno se ne accorgesse. Questo è il livello di sofisticazione attuale.

DK: E’ molto interessante che Facebook sia ora in grado di farlo, perché c’è stata questa grande controversia sulla direttiva sul diritto d’autore in seno al Parlamento europeo. I filtri di upload sono stati spinti come soluzione per filtrare tutti i contenuti illegali, come i contenuti terroristici che lei ha appena citato e l’argomento contro di loro era che era molto difficile creare e implementare effettivamente questi filtri. Può fornirmi maggiori informazioni interne su come Facebook si è avvicinato a questo problema?

AM: Quando si tratta di caricare i filtri, vorrei prima di tutto dire che non si tratta di una pallottola d’argento. Per quanto riguarda la direttiva sul diritto d’autore, molte persone al Parlamento europeo e più in generale a Bruxelles sembrano pensare che i filtri di caricamento siano una cura magica per tutto, senza rendersi conto che si può sempre trovare una via d’uscita, semplicemente modificando un po’ l’immagine o il video. Si può semplicemente riorganizzare leggermente uno o due pixel e sarà sufficiente per ingannare il sistema. L’occhio umano non noterà la differenza. Forse se si ingrandisce un po’, si può notare che l’illuminazione è un po’ spenta, o il contrasto è leggermente diverso, ma questo è sufficiente per aggirare i sistemi di rilevamento automatico e non tutti possono permettersi sistemi di filtraggio più sofisticati di questo.

Quando si tratta del lavoro antiterrorismo che fa Facebook, collabora con molte altre aziende attraverso il GIFCT, il Global Internet Forum to Counter Terrorism. Hanno un database di hashing a livello industriale. Si tratta di una specie di tag su contenuti specifici che sono stati rimossi in precedenza. Lavorano anche con le forze dell’ordine, i governi nazionali e molte ONG e persino il mondo accademico per assicurarsi che i filtri capiscano realmente che tipo di immagini, video o testi dovrebbero essere rimossi. Allo stesso tempo è anche molto difficile, nel senso che ci si deve chiedere: come si distingue tra chi critica un’azione terroristica e chi la loda? Quindi è un processo continuo…..

DK: Lei usa l’apprendimento automatico per questo, presumo?

AM: Sì e migliorerà nel tempo, ma al momento i filtri non sono una pallottola d’argento in nessun senso della parola. Penso che con l’antiterrorismo abbia avuto successo, perché c’è stata una cooperazione così forte tra le imprese con i governi nazionali e l’Unione europea. In termini di diritti d’autore, non sono così sicuro che possiamo ottenere gli stessi risultati.

DK: Quindi, fondamentalmente, la soluzione di Facebook per l’antiterrorismo è stata quella di essere trasparente e di cooperare con il maggior numero possibile di altri soggetti interessati, al fine di garantire che i filtri non finiscano per praticare la censura.

AM: Sì e allo stesso tempo, Facebook impiega anche più di 200 persone, che lavorano specificamente con le forze dell’ordine nella lotta al terrorismo e ci sono migliaia di revisori di contenuti. Non si tratta solo di sistemi di A.I., ma anche di un elemento umano.

Quando si tratta di questioni più commerciali, come il diritto d’autore, beh, come si determina una violazione del diritto d’autore se si è un recensore di contenuti? In questo scenario diventa un po’ più difficile. Quando si tratta di discorsi di odio o di contenuti terroristici, di solito è un po’ più chiaro. Ci sono alcune zone grigie, ma si può determinare molto più facilmente.

Dominik Kirchdorfer
Dominik is a European writer and entrepreneur of Austrian and Polish descent. His passion is storytelling and he wants to do everything in his power to give the story of Europe a happy ending. He is currently the President of the EFF - European Future Forum, as well as Editorial Coordinator for the EUREKA Network, Editor In-Chief of Euro Babble and Managing Editor of Italics Magazine. Twitter: @NikKirkham
http://www.nikkirkham.eu

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *