Il sistema, come spiega Mashable, non è tutto automatico, ma gran parte del lavoro è comunque fatto dal software, che comincia la scansione delle chat alla ricerca di contenuti speciali, tipo scambio di informazioni personali o presenza di termini volgari. L’attenzione del software, poi, si concentra di più su alcune caratteristiche: chat tra persone che non hanno una lunga storia di amicizia sul social network, che non hanno amici in comune e utenti che abbiano una grande differenza d’ età. Il sistema inoltre è in grado di focalizzare l’attenzione su alcune formule di adescamento riscontrate in passato in casi di pedofilia. Se qualcosa non va, ecco che il messaggio arriva alla sicurezza di Facebook, la quale a sua volta decide se proseguire o meno avvertendo la polizia.
Una tecnologia, che a detta di Sullivan, avrebbe un tasso di errore (falsi positivi) piuttosto basso, anche se non è chiaro se le chat analizzate siano mantenute in memoria da qualche parte oppure no. A tutto questo, poi, il social network di Zuckerberg associa delle restrizioni per i minori di 18 anni, i cui diari e post sono tenuti fuori dalle ricerche pubbliche e le cui chat e messaggi sono limitati ad amici e amici di amici.
Ma Facebook non è l’unica azienda del Web a scansionare chat e contenuti per contrastare i crimini sessuali e aumentare il sistema di sicurezza nei confronti dei minorenni. Un problema avvertito in modo particolare negli ultimi tempi, con la diffusione degli smartphone tra bambini e adolescenti, che diventano così meno controllabili dai genitori, e il proliferare di sistemi di localizzazione, che invece li rende più facilmente individuabili.
In genere, le aziende Web si affidano a sistemi simili a quello di Facebook, in parte automatici, in parte controllati dall’uomo, spesso con la bilancia che pende a favore del controllo del software. Se infatti il sistema opera in modo da monitorare gli utenti, e magari bloccare temporaneamente quelli sospetti, il lavoro manuale si riduce al minimo. Ovvio che invece, se si sceglie di limitare il controllo automatico, l’investimento in quello di personale dovrà essere maggiore.
Spesso le aziende poi scelgono di affidarsi a società specializzate nei sistemi di sicurezza che effettuino per loro questi controlli, come Metaverse Mod Squad di Sacramento (California), o Crisp Thinking, di base in Usa e Uk. Quest’ultima, che lavora per servizi di intrattenimento online di Lego e Electronic Arts, per esempio, ha adottato un sistema in grado di bloccare specifici contenuti (parole o stringhe che rappresentino numeri di telefono), ed è in grado di classificare i contenuti in un sistema di ranking di pericolosità. Così se un messaggio, in base a dei parametri prestabiliti (come tentativi di connettere più persone contemporaneamente), si trova in cima alla lista sarà uno dei primi ad essere analizzato dai moderatori.
Ma il sistema, qualunque esso sia, non è immune da falle. Gli errori, in un senso (censura ingiustificata) o nell’altro (qualcuno che riesce a farla franca) non sono esclusi, senza contare che un minorenne, così come un adulto, potrebbero mentire sulla reale età e quindi sfuggire ai controlli. Ma anche quando l’età dichiarata sia la reale, e magari un adolescente si veda censurato o limitato nella libertàdi espressione in un sito, potrebbe scegliere semplicemente di migrare altrove.
Fonte Wired