AttualitàTechnology

Filter Bubble e algoritmi: il costo della personalizzazione

Internet e personalizzazione stanno costruendo un legame più forte che mai. Quello che prima era un luogo dove ognuno, in modo anonimo, poteva essere chi voleva, oggi è un posto dove regnano profilazione e personalizzazione dell’esperienza. Quest’ultimi a loro volta ci racchiudono all’interno di una bolla, detta bolla di filtraggio, capace di sottrarci a risultati e contenuti potenzialmente importanti. La domanda che sorge spontanea è: alla luce di tutto questo, le autorità stanno prendendo dei provvedimenti concreti per proteggerci?

Filter Bubble

Il termine Filter Bubble (bolla di filtraggio) si deve a Eli Pariser, che lo menziona per la prima volta nel suo libro “The Filter Bubble: What the Internet Is Hiding from You” e lo descrive come «quell’ecosistema personalizzato dell’informazione creato dagli algoritmi».

Come è noto ormai a tutti, sulle piattaforme social e ricerche online esistono degli algoritmi creati per personalizzare l’esperienza di ogni utente, Nulla viene lasciato al caso: gli algoritmi filtrano le informazioni e propongono i contenuti ritenuti più in linea con le preferenze e le idee dell’utente, mentre tutto il resto viene tagliato fuori.

Per offrire risultati sempre più su misura, gli algoritmi acquisiscono maggiori informazioni ogni volta che un utente effettua una ricerca online o nel caso di social media, ogni volta che interagiamo con un contenuto. L’algoritmo non farà altro che immagazzinare quelle informazioni e proporci dei contenuti simili a quelli con cui interagiamo di solito.

Fonte immagine: socialmediamarketing.it

Dalle bolle di filtraggio all’eco chamber

Abbiamo visto come la bolla di filtraggio si trasforma in un ambiente chiuso, dove ogni utente ha una visione limitata sui contenuti e i risultati possibili. La conseguenza diretta di questo fenomeno è sicuramente ritrovarsi in una “eco chamber” (in italiano, camera dell’eco), ovvero in una situazione dove le nostre idee e credenze vengono rafforzate ed amplificate (similarmente ad un eco) grazie alla ripetizione di idee uguali all’interno di un sistema.

Stiamo parlando quindi di una diffusione rapida e univoca, verso i riceventi, di informazioni e idee uguali fra loro. E dato che stiamo parlando di un ambiente chiuso, le idee che vengono amplificate non potranno fare altro che aumentare e sovrastare punti di vista diversi.

Tutto questo ha effetti non poco importanti. Le persone, sapendo di godere di un certo sostegno da persone che la pensano come loro, saranno maggiormente portate a esporre il proprio pensiero. Ma non solo. Proprio per questa ragione, molti esprimeranno le proprie idee con toni molto più estremi ed accesi: ecco che un altro effetto, inevitabilmente, è la polarizzazione dell’opinione pubblica.

I provvedimenti delle autorità USA

Sugli argomenti appena descritti sono stati e sono, tutt’ora, aperti molti dibattiti e proposte di intervento. Negli ultimi mesi sono stati introdotti dei nuovi disegni di legge per richiedere ai colossi del digitale, come Facebook e Google, di permettere agli utenti di accedere a contenuti che non siano stati filtrati da algoritmi, determinando così una maggiore trasparenza sulle informazioni.

In particolare, nel Congresso USA è stato depositato un disegno di legge chiamato Filter Bubble Transparency Act”. Questa proposta imporrebbe alle grandi piattaforme online, che superano un milione di utenti e 50 milioni di dollari di entrate annue, di dare la possibilità alternativa agli utenti di optare per una versione del proprio servizio che non sia basata sul sistema degli algoritmi.

Inoltre, per promuovere maggiore trasparenza. le piattaforme sarebbero obbligate a notificare agli utenti se le stesse siano regolate da algoritmi che possano determinare il modo in cui le informazioni vengono fornite. Secondo quanto afferma Ken Buck, rappresentante repubblicano, «i consumatori dovrebbero avere la possibilità di interagire con le piattaforme Internet senza essere manipolati da algoritmi segreti guidati da dati specifici dell’utente».

Oltre a ciò, è stato presentato anche il Justice Against Malicious Algorithms Act”, che mirerebbe a modificare la sezione 230 del “Communications Decency Act”. La sezione 230, la famosa legge da ventisei parole, fornisce alle piattaforme online l’immunità rispetto ai contenuti pubblicati dagli utenti e consente alle stesse di regolare quali contenuti possano essere o meno diffusi. In particolare, lo scopo della proposta di legge sarebbe limitare la diffusione dei discorsi d’odio sul web, gli hate speech, dichiarando le piattaforme responsabili nel momento in cui propongono in modo consapevole o incauto dei contenuti dannosi.

Alla luce di tutto ciò, resta da capire se tali provvedimenti potranno poi effettivamente placare questi fenomeni e darci il diritto a una maggiore trasparenza sui contenuti a cui accediamo, ogni giorno, sul web.

Elisa Santangelo

Classe 1998, sono laureata nella magistrale Comunicazione Digitale dell'università di Pavia. Nei miei articoli parlo di attualità e ricopro il ruolo di Social Media Manager per Inchiostro.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *