Su Bing, bambino pornografia non solo è facilmente accessibile, ma viene consigliato agli utenti. Un nuovo rapporto pubblicato giovedì da TechCrunch ha rivelato che il motore di ricerca di Microsoft risulta illegale immagini di sfruttamento minorile nel suo risultati di ricerca.
Con l'aiuto della società di sicurezza online AntiToxin, TechCrunch ha lanciato un indagine dal 30 dicembre 2018 al 7 gennaio nel potenziale problema di pornografia infantile di Bing dopo aver ricevuto una soffiata anonima.
I ricercatori hanno scoperto che la ricerca di termini comuni relativi alla pornografia infantile, come "porn kids", "porn CP" (CP è l'abbreviazione di "pornografia infantile") e "bambini nudi di famiglia" hanno provocato immagini illegali su Bing. Il rapporto descrive le immagini come "immagini che qualsiasi professionista o principiante può determinare come di ragazzi e ragazze minorenni che posano in nudità parziale/completa, oltre a prendere parte a vari atti sessuali".
E anche cercare parole e frasi apparentemente innocenti può portare a foto offensive. Ad esempio, quando i ricercatori hanno cercato la popolare app di chat video per adolescenti "Omegle Kids", Bing ha suggerito automaticamente "Omegle Kids Girls 13", che conteneva pornografia infantile nei risultati, insieme a contenuti espliciti nelle immagini simili scatola.
Tutte le ricerche sono state eseguite su un computer desktop con la funzione "Ricerca sicura" disattivata. Il rapporto rileva che query simili su Google non hanno prodotto altrettanto immagini di sfruttamento o contenuti grafici.
Zohar Levkovitz, CEO di AntiToxin dice questo tipo di abuso su un motore di ricerca così diffuso come Bing è inaccettabile. "Parlando da genitori, dovremmo aspettarci che le aziende tecnologiche responsabili raddoppino e addirittura triplichino per garantire che non aggiungano tossicità a un ambiente online già pericoloso per i bambini".
Allora come succede una cosa del genere? "Indicizziamo tutto, come fa Google, e facciamo il miglior lavoro possibile per esaminarlo", spiegato un portavoce di Microsoft interrogato da TechCrunch. “Usiamo una combinazione di PhotoDNA e moderazione umana, ma questo non ci porta a perfezionarci ogni volta. Ci impegniamo a migliorare sempre".
Dopo essere stato informato del problema, Bing ha assicurato agli utenti che è stato corretto e che ora le persone avranno più opzioni per segnalare le immagini illegali, inclusa una categoria di "abuso sessuale su minori".
Vicepresidente capo Jordi Ribas ha dichiarato, “Abbiamo agito immediatamente per rimuovere [le immagini], ma vogliamo anche prevenire altre violazioni simili in futuro. Siamo concentrati sull'imparare da questo in modo da poter apportare qualsiasi altro miglioramento necessario".
Puoi trovare il rapporto completo di TechCrunch e AntiToxin qui.
