Scovare truffatori e molestatori rispettando la privacy degli utenti: il paradosso che gestisce Facebook (foto)

Vincenzo Ronca

Facebook ha appena riferito importanti dettagli su uno dei suoi più recenti e sviluppati algoritmi di rilevazione delle truffe e degli abusi sul suo social network, in particolare per quelli che avvengono via chat.

L’argomento è tra i più spinosi: da una parte è sempre più chiara l’esigenza di un maggior controllo di queste piattaforme per proteggere gli utenti più deboli, come i minori o quelli meno esperti e più vulnerabili a truffe e fake news; dall’altra rimane fondamentale non perdere di vista la protezione della privacy e dei dati personali degli utenti. Facebook sembra essere riuscita nell’impossibile, ovvero nel far convivere questi due aspetti.

LEGGI ANCHE: miglior smartphone compatto del 2020, la nostra selezione

Un portavoce di Facebook ha riferito, in una lunga intervista a Wired, che l’azienda è riuscita a mettere a punto degli algoritmi di machine learning in grado di analizzare i metadati, attenzione non i dati personali, delle conversazioni chat su Facebook Messenger in modo da evidenziare situazioni potenzialmente pericolose: tra queste ci sono probabili truffe e molestie a minori. Il tutto senza accedere in alcun modo al contenuto della conversazione.

Facebook ha profuso tutti i suoi sforzi nel riuscire a rilevare queste situazioni potenzialmente pericolose non intaccando in alcun modo le procedure di crittografia end-to-end implementate sulla sua piattaforma di messaggistica: la crittografia fa sì che nemmeno la stessa Facebook possa accedere al contenuto delle conversazioni.

E allora come ci riesce? L’azienda ha fornito alcuni esempi, comprensibili anche visivamente attraverso le immagini presenti in galleria: considerando un ipotetico adulto che invia diverse richieste di amicizia a minori nello stesso arco di tempo e considerando che alcune di queste richieste hanno generato delle richieste di assistenza, come la segnalazione di spam o di account sospetti, il caso viene bollato come potenziale molestatore. Lo stesso accadrebbe se un utente richiedesse l’amicizia ad un altro usando nome e immagine del profilo di uno dei suoi amici: in tal caso Facebook avviserebbe il destinatario della richiesta della strana coincidenza.

Dunque, il risultato pratico degli algoritmi di riconoscimento di Facebook corrispondono a degli avvisi forniti ai destinatari di ipotetici casi di truffa e molestie. Questi avvisi sono essenzialmente degli avvertimenti, che gli utenti possono raccogliere o meno. Lo Stanford Internet Observatory ha suggerito a Facebook di sviluppare ulteriormente questi algoritmi, spingendosi a segnalare alle autorità di polizia probabili casi di abusi o truffe.

Il suggerimento non è isolato: attualmente negli Stati Uniti è in corso un forte dibattito attorno a un disegno di legge per introdurre delle eccezioni alle procedure di crittografia in casi particolari. Ricorderete i casi in cui Apple si rifiutò di sbloccare gli iPhone di terroristi nonostante le pressioni delle autorità statunitensi. Facebook ha comunque fatto sapere che al momento non intende prevaricare il limite che separa l’azienda dai contenuti personali che i suoi utenti si scambiano sulla sua piattaforma.

La novità consistente negli avvisi di potenziali abusi e truffe è in fase di introduzione sull’app Android e iOS di Facebook e di Messenger. Fateci sapere cosa ne pensate e se sareste a favore di un maggioreraggio d’azione” di questa feature.