Se l’algoritmo è discriminatorio

Fate un esperimento: cercate su Google immagini la parola “scolaro” o “studente”; poi, cercate “scolaretta” o “studentessa”. Per la maggior parte di voi, i risultati saranno vistosamente diversi: nel primo caso, le immagini raffigureranno perlopiù un bambino con gli occhi grandi, con uno zaino o un libro; nel secondo caso, le foto vi mostreranno una ragazza con le treccine, un reggiseno bianco e una gonna corta scozzese. Quindi, è il momento di chiedere: “Ok Google, tutto bene?”.

Come funziona un algoritmo

Facciamo un passo indietro. Il motore di ricerca, così come i social network e le altre piattaforme digitali, si avvalgono di un algoritmo – o più algoritmi messi insieme – per migliorare le esperienze degli e delle utenti. Ma come funzionano esattamente? In termini estremamente semplici, l’algoritmo è una successione di azioni che raccolgono un insieme di dati iniziali che, passando attraverso un esecutore o un processore, vengono trasformati in un risultato finale. In altre parole, gli algoritmi, raccogliendo i dati che noi immettiamo, come ad esempio le parole di ricerca su Google, i likes su Facebook e Instagram, la nostra localizzazione attuale, dopo averli elaborati, propongono agli utenti contenuti affini ai loro interessi. Perci , la sensazione di sentirsi spiatə dal proprio telefono non è poi così lontano dalla realtà, solo che il lavoro per la “spia” è abbastanza facile: siamo noi stessə a urlare a squarciagola in un megafono quello che vogliamo ci venga offerto.

Ma spesso, anche se nel nostro immaginario l’algoritmo è come un super computer inaccessibile, tecnologico e complicato, ci dimentichiamo un fattore fondamentale: altro non è che l’invenzione di una persona.

La discriminazione dell’algoritmo

L’algoritmo che ci facilita la vita, mostrandoci solo una piccolissima percentuale di risultati rispetto alla grande massa aggrovigliata di informazioni che ha a disposizione, non è né neutrale né estraneo al pregiudizio. Il motivo stesso della creazione di un algoritmo non è neutrale, poiché pu essere stato progettato per creare un valore per una certa azienda in termini di capitale oppure per registrare preferenze politiche da inserire nei programmi dei candidati e per altri innumerevoli motivi. Ma, al di là dello scopo per cui è stato creato, esso è lo specchio della mente dei suoi creatori e dei suoi users, che, semplicemente utilizzandolo, accrescono la quantità di dati a cui l’algoritmo pu attingere per affinare i suoi risultati. E, in termini concreti e reali, tutto ci si traduce in pregiudizi, discriminazioni e stereotipi.

Nel 2015, l’algoritmo di Google Photos ha etichettato la foto di due ragazzə di colore come “gorilla” e, a seguito di questo evento, Big G ha inviato una schiera di espertə per risolvere il problema che, alla fine, si concluse con l’eliminazione del tag “gorilla” fino a nuovo ordine per evitare accuse di razzismo.

Uno studio più recente, condotto nel 2020 da AlgorithmWatch e l’European Data Journalism Network, l’algoritmo di Instagram allora in uso avrebbe privilegiato, in termini di visibilità, le foto di persone semi nude. La ricerca, che ha preso in analisi più di 2400 foto, ha dimostrato come le donne che postano foto con parti del corpo più visibili abbiano il 54% di probabilità in più di apparire nella home degli utenti della piattaforma. Il colosso social si difese da queste accuse asserendo che erano i gusti degli utenti a determinare i risultati forniti dall’algoritmo. Sempre AlgorithmWatch ha dimostrato tramite un esperimento come un termometro nelle mani di una persona bianca fosse individuato come un congegno elettronico, secondo il riconoscimento delle immagini; nelle mani di una persona nera, invece, lo identificava come un’arma.

Sempre nel 2020, una ricerca condotta in Germania ha messo in luce come il ranking delle donne rispetto agli uomini fosse meno lusinghiero per Google. Infatti, l’algoritmo ha collegato alle immagini di donne termini estetici come “acconciatura”, “sorriso” “capelli neri”, mentre agli uomini sono stati collegati sostantivi attinenti alle professioni, come “politico” o “uomo d’affari”.

Il digitale, così, si dimostra essere una naturale prosecuzione della realtà: dove il sessismo, il razzismo e la diseguaglianza di genere nella vita reale vogliono le donne relegate a ruoli di accudimento, meramente accessori, e le persone di altre etnie come inclini a commettere crimini o inferiori, nel mondo tecnologico si rischia di rafforzare questi ruoli, offrendo agli e alle utenti immagini stereotipate da cui si ha la sensazione di non poter sfuggire ma solo, e inevitabilmente, aderire.

Le bolle di filtraggio costruite dagli algoritmi

Una delle conseguenze di questi preconcetti assimilati dall’algoritmo è l’inevitabile, apparente, mancanza di vie d’uscita. Ci che costruiamo nel mondo reale trova conferma nel digitale, rafforzando le idee che abbiamo nella realtà e dando il via a un circolo vizioso. In altre parole, la selezione minuziosa che l’algoritmo effettua per decidere cosa mostrarci in base ai nostri interessi non ci fa uscire dalla nostra realtà, impedendoci di entrare in contatto con situazioni a noi estranee. Ci che vedremo saranno solamente dichiarazioni in linea con le nostre idee, dati che confermano le nostre credenze, ricerche che rafforzano il nostro punto di vista, relegandoci in una bolla di filtraggio. Questo concetto, sviluppato dall’attivista di Internet Eli Pariser nel 2011, ipotizza l’esistenza di piccoli ecosistemi di informazioni soddisfatti dagli algoritmi. E, se il nostro cervello impigrito pu trovare questa idea allettante, in realtà ci stiamo abituando a un isolamento intellettuale poiché si negano possibilità di dialogo, polarizzando le nostre opinioni e irrigidendo le nostre posizioni.

Come aggirare gli algoritmi non neutrali

Come facciamo, quindi, se ci che ci viene offerto sui social e, più in generale, su Internet, è un disco rotto che riproduce la canzoncina della discriminazione che non vogliamo più sentire?

Lasciamoci guidare dalla nostra curiosità: è una bussola più affidabile dell’algoritmo, che potrebbe ostacolare le nostre ricerche più ampie. Non solo sui social ma anche su Internet, consultiamo un numero maggiore di siti d’informazione, che possano darci un punto di vista diverso dal nostro.

Poi, sui social, non accontentiamoci sempre di ci che ci viene proposto: per combattere la discriminazione di genere iniziamo a seguire attivistə diversə, che possano offrire spunti di riflessione che esulano dalla nostra comfort zone. Magari, in un futuro lontano, ascoltando voci differenti, l’algoritmo sarà così confuso da colpirsi da solo!

Elena Morrone

Rispondi

Inserisci i tuoi dati qui sotto o clicca su un'icona per effettuare l'accesso:

Logo di WordPress.com

Stai commentando usando il tuo account WordPress.com. Chiudi sessione /  Modifica )

Google photo

Stai commentando usando il tuo account Google. Chiudi sessione /  Modifica )

Foto Twitter

Stai commentando usando il tuo account Twitter. Chiudi sessione /  Modifica )

Foto di Facebook

Stai commentando usando il tuo account Facebook. Chiudi sessione /  Modifica )

Connessione a %s...