Nel fine settimana, Youtube l'attivista Matt Watson ha colpito la prima pagina di Reddit con un video su a inquietante fenomeno che ha scoperto sulla piattaforma di hosting video di Google, il secondo motore di ricerca più grande al mondo. Watson ha dimostrato come poteva fare clic su contenuti YouTube normali e appropriati verso video suggestivi di giovani ragazze. Sebbene molti di questi video, che mostrano preadolescenti che indossano bikini e si masturbano nelle loro camere da letto, non erano esplicitamente sessuali, la maggior parte era stata commentata da utenti con apparentemente pedofilia intento. Alcuni commenti hanno mostrato timestamp per momenti specifici in cui le ragazze erano in posizioni compromettenti. Alcuni commenti contengono link a video privati non in elenco. Queste clip di YouTube sono state monetizzate tramite annunci per aziende come Grammarly e la stessa Google.
Poco dopo Il video di Watson, che lo ha mostrato esprimere orrore per il fenomeno, scalato la classifica Reddit,
Questo era qualcosa, ma come Forbes, Mashable, Business Insider, e Il New York Times tutto sottolineato, non era una soluzione a un apparente problema algoritmico, umano o di apprendimento automatico.
È interessante notare che molti video visualizzati da Watson avevano commenti disabilitati, il che suggerisce che i gestori di contenuti di YouTube hanno notato la serie di commenti e hanno cercato di rendere più difficile per i pedofili operare sul loro posto. Ma tutti quegli sforzi confermati erano la consapevolezza del problema irrisolto.
In effetti, è chiaro che il problema risale almeno al 2017. Nello stesso mese in cui il “Elsagate” è esplosa la polemica, la gente aveva iniziato a dare l'allarme su commenti strani, implicitamente sessuali, sui video di bambini piccoli, realizzati per i bambini. I principali inserzionisti come AT&T ha smesso di spendere per gli annunci sul sito quando la BBC ha riferito che i commenti inappropriati sui video monetizzati di bambini spesso includevano timestamp per secondi lunghi di posizioni allusive e link a video non in elenco e gli inserzionisti non hanno ripreso a spendere fino a quando il problema non è stato "risolto". Sopra 21 febbraio AT&T, che aveva appena ricominciato a fare pubblicità sulla piattaforma a gennaio, ha dichiarato che avrebbe smesso di spendere per gli annunci sulla piattaforma. Hasbro, Nestlé e Disney hanno tutti seguito l'esempio.
Elsagate non è la stessa cosa di un giro di pedofilia, ma i problemi sono collegati. Le content farm hanno sfruttato le parole chiave e posizionato automaticamente gli annunci in base al coinvolgimento del canale e scadente filtro AI e ha creato cartoni animati che utilizzavano personaggi senza licenza di bambini popolari franchising. Alcuni di questi “fattorie di contenuti” - vale a dire, le aziende che hanno creato questi video - hanno sede in luoghi come Ho Chi Minh City, Vietnam. Non erano educativi o adatti ai bambini, ma proliferavano su YouTube come video monetizzati.
Youtube hanno cambiato le loro linee guida per la monetizzazione dopo i doppi scandali del 2017. Oggi, i creatori di video devono avere almeno 1.000 iscritti e aver visto i propri video per 4.000 ore. Questi regolamenti sono stati messi in atto solo dopo Elsagate e ora la società afferma che tutti i video monetizzati saranno rivisti da esseri umani reali, non AI, al fine di frenare la pubblicazione di pubblicità inappropriata (pensa: un annuncio di Google che esegue il prerolling di un video di una ragazza adolescente che mangia un lecca-lecca che ha avuto oltre 1 milione visualizzazioni).
Ecco perché così tanti video di bambini hanno i commenti disabilitati sotto i video. I 10.000 revisori umani di YouTube, incaricati di rivedere le 400 ore di filmati caricati su YouTube ogni minuto, hanno anche il compito di esaminare sul coinvolgimento con detti video e sulla disattivazione di commenti inappropriati, collegamenti a video non in elenco o timestamp dei bambini in modo allusivo posizioni.
Ho creato un nuovo account YouTube dopo aver scoperto che i miei algoritmi erano così radicati che era difficile trovare contenuti inappropriati e ho cercato la stessa cosa che Watson ha cercato: "bikini haul". Nel giro di 12 clic ero in una strana tana di coniglio di video di wrestling per bambini e serate di ragazze routine. Mi sono imbattuto in un video di oltre 30 minuti e ho trovato questo:
Alle 21:25, la ragazza nel video si è allontanata dalla telecamera e, solo per un lampo di secondo, il suo cavallo era in vista.
Mi sono anche imbattuto in una sfilza di video di modelle di ragazze chiaramente sotto i 18 anni. I commentatori hanno notato quanto fossero belle le modelle e quanto fossero belle in mutande, nonostante si trattasse di bambini. Non condividerò i video perché sono inappropriati; ma il fatto è che non solo questi commenti dovrebbero essere monitorati a lungo, ma forse non dovrebbero essere affatto sul sito web. Nessuna azione è stata intrapresa contro quei commenti o il video stesso di minorenni che indossano biancheria intima.
E un'altra ragazza ha pubblicato un video della sua routine notturna, dopo la doccia. La ragazza, la cui pagina YouTube si chiama "L'esperienza Fortnite di Makenzie” e che sembra non avere più di 13 anni, sposta accidentalmente il suo asciugamano in un modo che mostra il lato del suo torso nudo al minuto 2:47.
Ovviamente, questo video non avrebbe mai dovuto essere caricato. La ragazza in esso è chiaramente prepuberale e indossa un asciugamano, spiegando la sua routine notturna. Questo video ha circa 51.000 visualizzazioni. Il resto dei suoi video ha tra le otto e le 150 visualizzazioni. Allora, perché sta succedendo questo? Sa perché 51.000 persone hanno visto questo video e nessuno dei suoi video Fortnite o divertenti video di artigianato? Capisce che ci sono persone là fuori che non stanno guardando questo perché non si preoccupano davvero della sua routine notturna ma vogliono vedere una bambina in un asciugamano? Forse. Forse no. È una ragazzina. Qualcuno dovrebbe monitorare più da vicino il suo utilizzo di Internet, ma anche questo è difficile. Ed è lì che YouTube dovrebbe entrare, ma non l'ha fatto. Questo è un contenuto inappropriato anche se non è apertamente sessuale a causa del modo in cui è probabile che venga consumato. Questa non è roba stuzzicante a meno che tu non sia il tipo di persona che la trova specificamente stimolante.
Sebbene questi video non siano stati monetizzati per gli annunci, chiaramente non erano nemmeno monitorati da esseri umani o dall'intelligenza artificiale, almeno non in modo efficace. Alcuni dei video non dovrebbero essere affatto su YouTube ma avere milioni di visualizzazioni. Se i commenti e la moderazione dei contenuti sono inefficaci come sembra, i bambini continueranno a essere oggetto di interesse sessuale sulla piattaforma, che continuerà a essere uno strumento per i predatori.
Poiché YouTube diventa un luogo in cui sempre più bambini consumano video e un luogo in cui mettono in mostra le loro creazioni, i responsabili del piattaforma deve decidere se la moderazione debba essere perseguita nell'interesse di una negabilità plausibile o nell'interesse della protezione figli. Se l'azienda arriva a quest'ultima conclusione – e speriamo che lo faccia – dovrà riconsiderare sia il proprio personale che il proprio software. Se non lo fanno, dovrebbero riconsiderare il ruolo che vogliono svolgere su Internet.