Cosa può fare YouTube per proteggere i nostri bambini?

click fraud protection

A febbraio, YouTuber Matt Watson ha pubblicato un video che espone la facilità con cui è stato in grado di entrare in un ambiente generato algoritmicamente tana del coniglio e trova comunità di pedofili commentanti che sfruttano video altrimenti normali di figli. A volte, questi stessi commentatori hanno pubblicato collegamenti a video non in elenco o hanno pubblicato informazioni di contatto WhatsApp per ciò che era, presumibilmente, messaggi di gruppo favorevoli alla pedofilia, ma spesso hanno pubblicato timestamp di bambini in posizioni compromettenti in detto video.

Le scoperte di Watson hanno ancora una volta infiammato la conversazione sulla moderazione e la responsabilità di YouTube. Molti dei video che ha trovato erano monetizzati in modo programmatico con annunci, il che significa che YouTube stava facendo soldi con i contenuti che, anche se poteva non disturbare di per sé, veniva sfruttato in click e visualizzazioni da chi aveva ulteriori motivi. I video stessi non erano il problema, per la maggior parte. Molti erano bambini che facevano cose normali da bambini: lottare con i loro fratelli, mostrare i loro giocattoli raccolte, ma i commenti e i modi in cui erano collegati tra loro erano sospetti e, alla fine, inquietante.

Lo scandalo, che arriva appena un anno dopo che YouTube ha riconosciuto per la prima volta questi anelli di commento e dopo YouTube per bambini Lo scandalo #ElsaGate, in cui le persone hanno trovato video inquietanti su una piattaforma realizzati pensando ai bambini e alla loro sicurezza, ha coinvolto YouTube in un dibattito in cui molti si sono chiesti: YouTube ha cambiato qualcosa? E se sì, perché il problema stava proliferando? Potrebbe essere riparato?

YouTube ha risposto disabilitando i commenti su milioni di video presi di mira da predatori e sottolineando che dispone di un team di 10.000 dipendenti di moderatori di commenti e contenuti umani e un sistema di apprendimento automatico il cui compito è setacciare i video e segnalare qualsiasi cosa offensiva. Ma è abbastanza? C'è un modo per YouTube di fare ammenda con i genitori preoccupati? O l'algoritmo dell'azienda è andato troppo oltre?

Per capire cosa si può fare per riparare la piattaforma, se possibile, Paternoha parlato con Jonas Keiser, affiliato al Berkman Klein Center for Internet & Society, ricercatore associato presso l'Alexander von Humboldt Institute for Internet & Society e DFG Research Fellow. Keizer è un esperto di algoritmi di YouTube e della proliferazione di comunità dannose. Gli abbiamo parlato dell'algoritmo di YouTube, di come vengono creati questi problemi e di cosa YouTube può fare per migliorare.

La tua ricerca si concentra sulle campagne di troll di estrema destra su Youtube e su come si diffondono tali comunità. Ci sono somiglianze tra quelle comunità e queste comunità pedofile appena scoperte che condividono collegamenti nelle sezioni dei commenti?

Non farei questo confronto. Con l'estrema destra, abbiamo tentativi più evidenti ed evidenti di formare una comunità e di connetterci con altri canali. Seguono le proprie tendenze di argomenti che ritengono importanti e questo non accade su un canale ma su diversi. È fatto molto deliberatamente attraverso le loro stesse azioni. Le teste parlanti di estrema destra vanno ai reciproci spettacoli e si danno a vicenda una legittimità di primo piano.

Allo stesso tempo, attraverso la loro attività e l'attività degli utenti, influiscono anche sull'algoritmo di YouTube in un modo che, su YouTube, i video politici e i canali politici, indipendentemente dall'ideologia che guardi, porteranno spesso all'estrema destra canali.

Quindi, le comunità pedofile sembrano essere molto di più che i canali e i video non erano necessariamente la comunità lì, ma piuttosto i commenti online, che, da quello che ho letto, hanno creato questo strano, invisibile, molto inquietante fenomeno.

Per chi non lo sapesse, come funziona l'algoritmo di YouTube?

YouTube algoritmo ruota intorno all'idea che manterrà gli utenti coinvolti. In quel contesto, ciò significa ovviamente visualizzare i video, commentare, mettere mi piace o condividere. Rimanere sulla piattaforma è l'obiettivo più importante. Per rimanere sulla piattaforma, riceverai consigli sulla tua home page, sulle pagine dei video e sui canali stessi. Questi sono tutti costruiti attorno all'idea che gli utenti dovrebbero rimanere sulla piattaforma. La domanda è, ovviamente, come fa YouTube a creare un algoritmo che lo fa?

Ci sono molti punti dati diversi che entrano in quell'algoritmo. Ad esempio: cosa è attualmente di tendenza sulla piattaforma? Che cosa hanno guardato altre persone con gli stessi interessi? Quali sono i video più cliccati? Dove si sovrappongono persone simili nei commenti degli utenti? Quel genere di cose. L'idea principale è che l'algoritmo impari cosa attrae e mantiene gli utenti sulla piattaforma.

In termini di moderazione dei contenuti e dei commenti su YouTube, come viene impostata tale moderazione? Pensi che sia una risposta sufficiente alle minacce su Internet?

Solo in una certa misura. Il problema con la moderazione nel modo in cui la maggior parte delle grandi piattaforme di social media lo fa è che è costruito attorno alle persone che segnalano contenuti. Quindi, in pratica, se nessuno lo segnala e non è chiaramente contro le regole che sono identificabili attraverso l'apprendimento automatico, come parolacce o qualcosa del genere che potrebbe essere filtrato algoritmicamente - altri commenti sono ovviamente molto più difficili da identificare così a l'uomo ha bisogno di guardarlo. Ma se nessuno segnala il contenuto, YouTube non sa che esiste, solo perché ci sono così tanti contenuti sulla piattaforma. Evidenzia l'importanza degli utenti. Si discute, indipendentemente dal fatto che sia una cosa buona o cattiva, che gli utenti siano messi nella posizione che devono impegnarsi per evidenziare a YouTube ciò che è offensivo per loro.

A livello di video, ora sono state implementate altre forme [di moderazione], quindi c'è un ridimensionamento dei contenuti che potrebbero includere le notizie principali. Se cerchi notizie, otterrai prima quelle che YouTube considera fonti più affidabili. Hanno sperimentato le caselle informative attorno a determinati video di cospirazione. Queste sono tutte, in un modo o nell'altro, forme di moderazione dei contenuti.

Il modo in cui YouTube si affida ai buoni samaritani per segnalare cose che potrebbero essere problematiche o offensive sembra simile al modo in cui che Reddit è anche in gran parte controllato dai moderatori della community, sebbene Reddit non sembri avere questo problema allo stesso scala.

Il confronto ha senso, ma è molto diverso. Ogni subreddit è una community che sostanzialmente dice quale forma di contenuto è consentita. Nel contesto della scienza SubReddit, ad esempio, puoi vedere quando i moderatori si assicurano che le regole vengano seguite, mentre altri subreddit sono molto laissez-faire. Il numero di post sui subreddit non può essere paragonato al numero di video caricati in una determinata ora su YouTube. Alcuni di questi forum sono interessati all'autocontrollo. Il lavoro è fondamentalmente in outsourcing agli utenti e il presupposto è che finché ci sono persone abbastanza motivate per fare quel lavoro, va bene, ma non è così su YouTube. Questi forum non esistono allo stesso modo.

In termini di questi recenti commentatori e dei recenti scandali di YouTube Kids come #ElsaGate, in cui i troll stavano cucendo video terribili nei contenuti per bambini. C'è un modo per attirare l'attenzione su di loro che non si basi semplicemente sulla buona volontà dell'utente medio di YouTube?

YouTube ha lentamente, molto lentamente, preso la giusta direzione. Non ci sono, ma stanno capendo che le persone cercheranno notizie su YouTube, quindi secondo me ha senso curare quali canali verranno visualizzati.

Nel mio lavoro, è sbalorditivo per me che YouTube tratti sostanzialmente i contenuti politici allo stesso modo della musica pop. Nelle ultime settimane, hanno lentamente capito che c'è una differenza.

Ad esempio, con movimento anti-vaxing, hanno affermato che non avrebbero più necessariamente consentito determinati video. Penso che sia importante. In un contesto politico, l'idea di "solo guardare la gente" non è quello che vuoi. Questo è ciò che desideri per la musica, i giochi o altre forme di intrattenimento, ma quando si tratta di informazioni.

Penso che per i video e i consigli di canale, dove questa logica continua, che mira ad avere persone sulla piattaforma, non importa per quale motivazione, sia problematico.

Quindi, quali soluzioni, se ce ne sono, suggerisci per affrontare i recenti scandali dei commenti di YouTube?

Da quello che ho letto, la community esisteva principalmente attraverso i commenti, che poi hanno avuto un grande effetto sui consigli di YouTube, quindi quei video erano collegati, ovviamente in un modo piuttosto malato. Penso che questa sia un po' come la parte problematica. Come fai, come piattaforma, a essere consapevole? Sei consapevole che sta succedendo qualcosa che non dovrebbe andare avanti? E, perché ovviamente non dovrebbero essere gli utenti certi, attivi e consapevoli a capire queste cose, ma per fortuna ci sono.

La domanda è: "Come funzionano gli algoritmi in quel contesto e lo consentono?" La mia percezione è che ci sia una differenza tra gli utenti che hanno commentato e le persone che hanno caricato video. Penso che potrebbe essere più facile disconnettersi; ma penso che l'opzione migliore sarebbe investire molto negli esseri umani per moderare i contenuti sospetti, ed essere molto consapevoli di cercare di capire cosa costituisce sospetto per quanto riguarda gli algoritmi.

Esiste una versione di YouTube che esiste, nella tua mente, che non deve funzionare su questi algoritmi che potrebbero collegare tra loro comunità potenzialmente pericolose? O è intrinseco alla piattaforma stessa?

Non credo sia intrinseco alla piattaforma. Penso che sia intrinseco al modello di business. Potresti benissimo pensare a una community di video che è forse simile a Reddit, ad esempio, che si concentra su determinati contenuti o determinati argomenti e in cui è possibile pubblicare video al riguardo.

Questo è il problema. Se YouTube abbandona l'algoritmo che mantiene le persone sulla piattaforma, allora questo è un problema di profitto. YouTube vuole continuare a guadagnare.

Penso che sia giusto. Molte delle discussioni che stiamo avendo attualmente su come funzionano le piattaforme e perché, ad esempio, alcuni contenuti vengono trattati in modo più favorevole di altri e perché, la disinformazione o le teorie del complotto sono in grado di prosperare, ha a che fare con il modello di business e l'idea che tutto con i clic viene premiato. Ci sono idee per avere piattaforme che non sono costruite attorno a questo. Ma quelli non guadagnerebbero tanti soldi.

YouTube accusato di aver raccolto dati su milioni di utenti minorenni

YouTube accusato di aver raccolto dati su milioni di utenti minorenniYoutubeNotizia

Youtube, il Google piattaforma video, è stato accusato di aver estratto i dati personali di milioni di ragazzini che utilizzano il sito. Oltre 20 gruppi di advocacy e privacy si sono uniti per pres...

Leggi di più
Guarda questa incredibile dimostrazione della sezione C di Playdough su YouTube

Guarda questa incredibile dimostrazione della sezione C di Playdough su YouTubeYoutubeMedicoSezione CesareoYoutube Ragazzi

Plastilina può essere uno strumento estremamente educativo per praticamente qualsiasi cosa. Ma è mai stato usato per dare un raccapricciante, anche se geniale e adatto ai bambini, tutorial su come ...

Leggi di più
Scherzi di papà: perché fare scherzi a tuo figlio è stupido e pericoloso?

Scherzi di papà: perché fare scherzi a tuo figlio è stupido e pericoloso?Scherzi Di PapàSocial MediaPericolosoYoutubeScherziCultura Degli Scherzi

Amo Internet perché posso ordina la cena senza parlare a chiunque e anche perché ora il traffico è a Buona cosa. Lo odio a causa di cultura dello scherzo. Gli scherzi esistono, ovviamente, da quand...

Leggi di più