FOTO24 VIDEO24 2

Facebook allena l'intelligenza artificiale con la "marijuana" per difendere la privacy

Nel quartier generale londinese, abbiamo incontrato Nicola Bortignon, un giovane ingegnere italiano che vive in perfetto equilibrio tra machine learning e Ai

Come contare le stelle nel firmamento, è un compito praticamente impossibile quello del Community Integrity Team di Facebook. Nella sede di Rathbon Square a Londra, a fianco della celebre Oxford Street, mille ragazzi ogni giorno proteggono la privacy dei 2.45 miliardi di utenti attivi del social network più famoso del mondo. Tra loro anche un giovane ingegnere italiano, Nicola Bortignon. Un passato da Google in California, qualche anno da Spotify in Svezia per poi approdare nel quartier generale londinese di Facebook.

Al terzo piano, tra cartelli motivazionali e aree svago, Bortignon coordina un team di cinquanta persone con l’obiettivo di "migliorare l’intelligenza artificiale permettendole di distinguere qualsiasi tipo di contenuto, interazioni comprese" . E secondo l’ultimo report di Facebook, sulla gestione delle criticità in alcune delle aree che destano particolare preoccupazione, come account falsi, bullismo o propaganda terroristica, la sinergia tra Ai e moderatori in carne e ossa, funziona.

Facebook

"Quello che facciamo è individuare le debolezze della piattaforma e cercare di risolverle da un punto di vista tecnico". Su Facebook "solo nel trimestre luglio-settembre 2019 sono stati individuati 1,7 miliardi di account falsi e 1,9 miliardi di casi di spam".  Con il mio team prosegue Nicola "vogliamo preservare il senso di sicurezza e dignità dell’intera community".

Una mole di dati davvero intensa e a volte gli ingegneri del Community Integrity Team sono costretti ad allenare la macchina con un po’ di marijuana. Si perché gli utenti di Facebook, nel corso degli anni, hanno utilizzato il social per svariati motivi, tra cui la spaccio. Per fermare la vendita di droga, dal 2014 è iniziato un processo di miglioramento dell’intelligenza artificiale. Inizialmente l’algoritmo individuava le parole chiave, poi si è passati al machine learning con immagini di piante di marijuana. Oggi siamo arrivati al punto che tra due foto in primissimo piano e molto simili tra loro, la macchina riesce addirittura a distinguere quale delle due raffiguri i broccoli a vapore.

Facebook

Ma l’intelligenza artificiale, pur sembrando perfetta, non lo è ancora. Negli anni, non sono mancati errori di censura ingiustificata da parte di Facebook, soprattutto con i nudi nel mondo dell’arte, o come nel caso delle “Sardine”. La pagina del movimento infatti era stata oscurata per alcune ore e poi rimessa online.

"Offriamo ad ogni utente la possibilità di dirci quando prendiamo la decisione sbagliata - interviene Nicola - il processo delle macchine è automatico e considerando il volume di decisioni che prendono ogni giorno, a volte capita che facciano degli errori. Per questo abbiamo attivato le procedure d’appello contro rimozioni o segnalazioni fatte in violazioni delle community guidelines".

Facebook

Nel caso di un appello infatti ci sarà un secondo check del contenuto da parte di un moderatore umano. Per ridurre gli errori al minimo, il lavoro viene svolto da tre team che si confrontano tra loro: uno che si occupa di scrivere le regole della community, uno di sviluppare la tecnologia e allenare le macchine che andranno a rimuovere i contenuti in violazione e uno fatto dai revisori umani. Una sinergia perfetta ma sembra che nonostante la tecnologia umana sia sufficiente, la presenza umana per intervenire dove l’intelligenza artificiale non arriva, rimane ancora un aspetto fondamentale.

Espandi