Newsletter

Gli algoritmi aiutano a creare nuovi maschilisti?

Con la crescita del numero dei gruppi misogini online, ci si pone la domanda: la colpa di tutto ciò è soltanto degli esseri umani o (anche) della tecnologia?

“Avere un QI molto, molto basso, intorno ai 70, che è il limite tra la sanità mentale e il ritardo mentale (sic) è imprescindibile se vuoi essere femminista”, dice uno youtuber in un suo video, in cui spiega perché le femministe, le quali secondo lui si comporterebbero “come cagne in calore” (sic), siano le responsabili del disprezzo da parte delle donne verso gli uomini.

Questo specifico canale, con 37mila seguaci, è dedicato alla diffusione dello stile di vita MGTOW. MGTOW è un acronimo per “Men Going Their Own Way” (“Uomini che vanno per la loro strada”, NdT), una linea di pensiero maschilista basata sull’idea secondo la quale gli uomini devono evitare matrimoni e relazioni a lungo termine, così come le madri single, scappando dalla trappola delle donne che vogliono soltanto approfittare di loro e dei loro soldi.

Questa è soltanto una delle “linee di pensiero” che riunisce uomini online per infamare e criticare le donne e il femminismo. Questi uomini costruiscono argomentazioni che, molto spesso, arrivano a essere discorsi violenti. “Red pill”, “incels” e “masculinistas” sono altri esempi di gruppi del genere. Oltretutto esistono altri canali su YouTube, gruppi sui social e dibattiti all’interno dei forum online sul tema.

Sono contenuti che prima erano limitati ai forum anonimi, molti dei quali sul “deep web” (Internet senza tracce) e che oggi, però, possono essere facilmente trovati su Youtube e sui social. Sono discorsi chiaramente violenti e non, come quello sopracitato, che però si prestano comunque ad infamare e a oggettivare le donne.

Ci siamo chiesti, dunque, se la crescente diffusione di tali contenuti sia, in certa misura, colpa di internet e degli algoritmi che orientano, al suo interno, i contenuti misogini. Revista AzMina ha sentito degli esperti in materia per capire meglio la questione.

Internet è un riflesso della società

Prima di iniziare, è importante tenere a mente che l’aumento dei casi di machismo non è limitato alla rete. “Questi movimenti sorgono in internet, in un primo momento, come riflesso di un fenomeno sociale”, afferma Mariana Valente, direttrice di InternetLab, centro di ricerca sui diritti umani e politici in internet. “Il fattore misogino dietro è una caratteristica sociopolitica. Non è qualcosa che sta succedendo soltanto su internet. Ci sono degli studi in cui è possibile constatare una visibile resistenza da parte dei giovani verso il discorso femminista”, sostiene.

Secondo la ricercatrice, ciò ha a che vedere con la difficoltà di comprensione, da parte degli uomini, dei cambiamenti sociali che hanno un impatto diretto su coloro che possiedono una posizione privilegiata. Anche la mancata comprensione dei sentimenti che potrebbero derivare da questa difficoltà e da questi cambiamenti potrebbe essere un problema, ci dice Tatiana Lionço, docente della Universidade de Brasília e psicologa di formazione. “Credo che questo sia dovuto a una mancanza di comprensione di due fattori: di tutte le disuguaglianze presenti nella nostra società (da parte di chi non è oppresso, NdT) e della necessità di nuovi protagonismi identitari che storicamente non hanno mai potuto esprimersi. Questi uomini reagiscono come se fossero loro gli oppressi”, spiega. E questa reazione prende una forma violenta.

Su Internet questi uomini pieni di angoscia trovano altri uomini che condividono gli stessi sentimenti e discorsi e che, molte volte fuori dalla rete, non hanno spazio per lo sfogo. Due sono i fattori che aiuterebbero alla crescita dell’hate speech online: piattaforme chiuse, come questi gruppi online che condividono le stesse idee, e la possibilità dell’anonimato all’interno di essi.

La radicalizzazione del discorso

È importante notare che “l’odio digitale” misogino è strutturato su più livelli. I più comuni e accessibili sono discorsi come quelli dello youtuber citato all’inizio dell’articolo o contenuti ancora più indiretti, in cui possono venir presentati all’interno di testi e video su argomenti religiosi, videogiochi o sulle relazioni sentimentali. I discorsi più estremi, che incitano alla criminalità e alla violenza, di solito rimangono più limitati.

La ricercatrice Yasodara Córdova ha partecipato a uno studio dell’Università di Harvard sull’hate speech online e afferma che il contenuto più misogino online è all’interno di una bolla, all’interno delle chan (ovvero i siti imageboard, NdT). “Direi che ciò avviene all’interno della macroarea ‘religione’. Quando parliamo di social media, ad esempio, parliamo di un contesto più ampio e di un pubblico più ampio e ‘disperso’.”

Le chan sono i forum online in cui è possibile rimanere anonimi. Secondo indagini della Polizia brasiliana, la strage a una scuola a Suzano (nei pressi di San Paolo, NdT) nello scorso marzo è stato pianificato su alcuni di questi forum online.

Alcune chan sono facili da trovare come 4chan, che oggi però ha una politica di moderazione dei contenuti. Altre, invece, rimangono nel deep web (internet senza tracce) e quindi ci vuole un po’ di conoscenza digitale per poterci navigare. Proprio grazie a ciò, sono spazi più adatti a discorsi di natura più violenta e addirittura criminale.

La questione, d’altronde, è come il contenuto reso disponibile su internet “comune” possa portare a una radicalizzazione del discorso machista – come un primo passo che fa venire voglia di ricercare questi spazi più radicali.

Le ricerche di Yasodara mostrano che Youtube è una piattaforma in cui la spinta alla radicalizzazione è molto facile, grazie alla funzione di riproduzione automatica. Secondo la studiosa, le piattaforme si focalizzano su come mantenere l’internauta all’interno del sito a guardare i video. “Youtube connette i canali tra loro e fa una specie di ponte tra i sottogruppi. Dunque, se ti piace guardare video di incidenti stradali, Youtube ti presenterà altri canali e tu entrerai a fare parte di questa subcultura”.

È quello che lei definisce “effetto tana del coniglio”: la piattaforma identifica gli interessi dell’utente e gli suggerisce dei contenuti ad hoc così da assuefarlo a quel contenuto e ciò lo porta ad approfondire quel tema ogni volta di più. Lo studio al quale ha partecipato Yasodara ha identificato, inoltre, che tale meccanismo algoritmico favorirebbe non solo la radicalizzazione online riguardante l’estrema destra, ma anche l’allargamento delle reti di pedofilia in Brasile

E dove entrano gli algoritmi?

Chi fa i suggerimenti dei video all’utente è, appunto, un algoritmo. Gli algoritmi sono comandi che gli essere umani programmano perché le macchine seguano e realizzino compiti in modo automatico. Sono loro a decidere cosa appare e cosa non appare nella tua timeline di Facebook o ancora nei risultati di Google.

“C’è una visione per cui le tecnologie sarebbero neutrali, però in realtà, queste tecnologie sono create da esseri umani, i quali non sono neutrali”, spiega Silvana Bahia, coordinatrice di Olabi, un’organizzazione sociale che lotta per la democratizzazione della tecnologia. “Nel processo di sviluppo delle tecnologie, ad esempio, gli umani scelgono quali banche dati le macchine useranno e quali parametri di decisione utilizzeranno”. La coordinatrice ricorda che queste persone che lavorano con la tecnologia sono solitamente uomini e bianchi.

Inoltre, molti degli algoritmi si basano anche sulle azioni intraprese dagli stessi utenti. È il cosiddetto “machine learning”, nel quale la tecnologia si avvale del comportamento di chi la usa, cosicché le volte seguenti la macchina sarà ancora più precisa. Secondo Mariana Valente, “se l’algoritmo impara da determinati termini di ricerca degli utenti e in base a cosa cliccano dopo i risultati, si potrebbe creare un circolo vizioso. Perché dopo, quando le altre persone faranno la stessa ricerca, avranno quello stesso risultato stereotipato”.

Un ottimo esempio è Google e i risultati della ricerca per “lesbiche”. Fino a poco più di un mese fa se si facesse questa ricerca sulla piattaforma, il risultato sarebbe stato maggiormente relativo alla pornografia. Ad agosto, Google ha riconosciuto che effettivamente c’era un errore nell’algoritmo e l’ha corretto. Oggi, chi ricerca “lesbica” incontrerà contenuti giornalistici e informativi sulla diversità e sull’orientamento sessuale.

È importante far emergere anche che, oltre al funzionamento (non chiaro, NdT) degli algoritmi, c’è anche la problematica dell’uso fatto da essi (dalle piattaforme, NdT). “Nel caso di Youtube, se non esistessero i video, l’algoritmo non avrebbe modo di suggerire contenuti all’utente. Ciò che ci possiamo chiedere è: perché la quantità di alcuni video suggeriti è più grande rispetto ad altri? In qualche modo, l’estrema destra ha imparato a usare l’algoritmo a suo favore e questo è altresì conseguenza di un machismo strutturale”, afferma Yasodara Córdova.

Córdova spiega che la predominanza maschile nell’area della tecnologia fa sì che gli uomini abbiano una maggiore facilità nel capire il funzionamento degli algoritmi e quindi imparano a usarli a loro favore. Come esempio cita il sito Folha Política, famoso in Brasile per diffondere bufale e che usava diversi canali su Youtube per pubblicare lo stesso video (pubblicato precedentemente su Folha Politica, NdT), di modo che il video arrivasse a più persone.

Oltre a ciò, siccome la maggior parte di questi algoritmi sono codici chiusi, le esperte sottolineano che non è possibile sapere se di fatto c’è, alla base degli algoritmi, qualche forma di machismo o pregiudizi riprodotta dagli stessi numeri.

E quando i ragazzi ne diventano partecipi?

In questo scenario in cui il contenuto maschilista è prodotto da persone e consigliato dagli algoritmi, il pubblico a cui bisognerebbe badare in rete sono i bambini e gli adolescenti. La scrittrice e attivista femminista nordamericana Joanna Schroeder ha notato questo processo da vicino, attraverso i propri figli.

“Stavo osservando i miei figli che sparavano termini solitamente riconducibili all’estrema destra e ripetevano cose come ‘femminazi’. Ci ho parlato, spiegando loro cosa non andasse e loro hanno capito quale fosse il problema. Mi hanno spiegato che avevano imparato parte di questi commenti su Youtube, Instagram e attraverso i meme”, ha raccontato a Revista AzMina.

Schroeder sostiene che dietro esiste una logica per far sì che questi contenuti arrivino ai ragazzi. Secondo l’attivista, all’inizio loro entrano in contatto con le battute e i meme maschilisti, razzisti e pieni di pregiudizi, diffusi online. Dopo, nel riprodurre questi contenuti in pubblico, sono recriminati e ne provano vergogna. Poi, entrano in contatto con nuovi meme e video che parlano di “come le persone siano troppo sensibili” o “oggi non si può più dire niente”. “Questa narrativa fa sì che i ragazzi lascino da parte la sensazione di vergogna e la trasformino in rabbia. Rabbia contro chi? Donne, femministe, liberali (in opposizione ai conservatori nel contesto americano, NdT), neri, gay, ecc”, racconta.

Anche se la narrativa di Joanna fa riferimento a un altro Paese, alcune madri osservano che qualcosa di simile stia succedendo anche in Brasile. R.P., che ha preferito non identificarsi, ha raccontato che un giorno suo figlio dodicenne ha fatto dei commenti maschilisti durante un pasto in famiglia e, dopo, ha capito che lui l’aveva imparato con i videogiochi e video che guarda online.

“Credo che Youtube sia la piattaforma più problematica, perché i nostri figli hanno accesso libero per accedere a contenuti non regolamentati. Pensiamo che guardino video su Minecraft, ma quello che succede in realtà è che loro cliccano su video suggeriti e arrivano a dei canali vlog. E se sono arrivati a certi gruppi, l’algoritmo continuerà mostrando loro contenuti ogni volta più radicali”, dice Joanna. Ciò è allineato ai risultati della ricerca di Yasodara.

Secondo Joanna, da Youtube ai forum e alle reti più radicali potrebbe essere un attimo. “Magari, su dei canali, qualcuno dice che Youtube è piuttosto censurato e che ‘la verità’ è condivisa nei forum. Ed è così che finiscono nei gruppi suprematisti, omofobi, anti-trans e anti-donne.”

E cosa fare a riguardo? Tutte le madri ed esperte consultate sostengono che la soluzione sia un misto tra controllo genitoriale e conoscere cosa stiano guardando e facendo i figli online, attraverso un rapporto basato sul dialogo e sulla fiducia. “Loro hanno bisogno di libertà combinata alla sorveglianza per poter imparare a essere responsabili. Loro sanno che, se violano la nostra fiducia, perdono l’accesso ai loro dispositivi”, conclude Joanna.

È possibile un controllo dei contenuti web?

Un dibattito enorme che passa per la libertà di esprimersi. Una cosa è controllare le attività dei figli online. Un’altra è la questione del controllo sui contenuti online, molto più complessa.

“Ciò è motivo di grande preoccupazione anche da parte delle femministe: chi garantisce che non diventerà una censura generalizzata, una volta che si limiterà l’accesso a un certo discorso? Ed è giusto essere preoccupati. L’altro giorno, a tal proposito, sul podcast del fondatore di 8Chan, ho sentito che la chan è stata usata per l’organizzazione di sparatorie di massa. Lui stesso sosteneva che uno prima o poi deve capire quando smettere, che toccherebbe imporre dei limiti alle persone”, sostiene Mariana Valente, di InternetLab.

Tatiana Lionço, che lavora con l’analisi dell’hate speech online, sta studiando come poter arrivare a un algoritmo che identifichi l’incitamento all’odio. Crede anche che ci debba essere una legislazione che regolamenti questa tematica. “Finché non ci sarà una caratterizzazione di cosa è l’hate speech, non ci saranno elementi sufficienti per poter intervenire più velocemente. La grande questione è: come regolamentare l’hate speech senza imbattersi nella censura? Credo che la strada sia definire (legalmente, NdT) l’hate speech”, spiega. Lei crede che con questa definizione sia possibile identificare il contenuto pubblicato e prendere la dovuta iniziativa: sia la punizione o la rimozione.

Alcune piattaforme si sono mosse in questa direzione. Facebook, ad esempio, lavora per rimuovere contenuti considerati come “hate speech”, attraverso un’azione mista di algoritmi programmati per identificare questi contenuti con denunce analizzate da persone formate per capire il contesto dietro il contenuto pubblicato.

Youtube ha informato AzMina di possedere le norme e le linee guida della community che definiscono quello che non può essere pubblicato online. Ma sul documento non è specificato com’è fatta quest’analisi dei contenuti. È altrettanto vero che l’incitamento all’odio è tra i tipi di contenuti che violano tali norme e la piattaforma incentiva la denuncia dei video contenenti l’hate speech e la loro rimozione.

Fonte
Magazine: Revista AzMina
Articolo: “Os algoritmos estão ajudando a criar novos machistas?”
Autrice: Helena Bertho
Data: 8 ottobre 2019
Traduzione a cura di: Bruna A. Paroni

Commenti (0)

Lascia un commento

Your email address will not be published. Required fields are marked *