19 February 2017
    informazione_web_biennale_democrazia

    Come funziona l’informazione sul web

    Come funziona l’informazione sul web è stato modificato: 2015-03-30 di Paolo Morelli

    Fabio Chiusi, Sara Bentivegna e Antonio Casilli, a Biennale Democrzia, hanno parlato della selezione delle informazioni sul web.

    Quello che vediamo attraverso il nostro browser, nonostante ciò che possiamo pensare, non lo scegliamo noi, ma degli algoritmi, cioè dei processi automatici che vengono eseguiti dalle piattaforme che noi utilizziamo per recuperare informazioni. Vale per Google come per Facebook e per tutto ciò che fa da “filtro” ai dati sul web. L’informazione su Internet funziona grosso modo così, perché esistono talmente tanti contenuti che sarebbe impossibile, per una persona, trovare qualcosa.

    L’incontro.
    Se ne è parlato durante l’ultima giornata di Biennale Democrazia, che si è chiusa ieri, 29 marzo, a Torino. All’incontro, dal titolo “Social network, chi decide cosa vediamo?”, sono intervenuti Fabio Chiusi, giornalista freelance, Sara Bentivegna, ordinaria di Teorie e Tecniche della Comunicazione presso l’Università “La Sapienza” di Roma, e Antonio Casilli, professore associato presso il Paris Institute of Technology.

    «Abbiamo molta fiducia nella mentalità degli algoritmi – ha spiegato Fabio Chiusi – ed esistono diversti studi che dimostrano la loro influenza sulle nostre scelte. Nel 2012, ad esempio, Facebook ha condotto uno studio su un campione di 1.600.000 utenti, ai quali sono state mostrate, nei rispettivi newsfeed (il flusso di notizie che vediamo quando apriamo Facebook, ndr), più notizie di attualità del solito. Il risultato? Si sono presentati al voto il 3% di elettori in più». Gli esperimenti condotti dalla piattaforma di Mark Zuckerberg, di solito a nostra insaputa, sono molteplici, e spesso dimostrano che in base agli stimoli che riceviamo tendiamo ad agire in una certa maniera. Ci sono le condizioni per una potenziale manipolazione.


    «Non solo ci troviamo di fronte a un’offerta sterminata di contenuti
    – ha aggiunto Sara Bentivegna – ma siamo noi stessi dei produttori. Le tecnologie che ci permettono di filtrarli sono al tempo stesso fonte di libertà e di controllo». Il punto è che noi utenti non conosciamo interamente i criteri con i quali vengono selezionate le informazioni quando le cerchiamo, perciò non possiamo essere certi del fatto che siano le informazioni migliori per noi. «La manipolazione – ha continuato la professoressa – ha cambiato apparenza rispetto al passato, ma oggi si ripropone. Quando interagiamo con informazioni sui social network, ci stiamo interfacciando con un prodotto che è stato scelto per noi». Nelle intenzioni, infatti, c’è la volontà di proporre agli utenti ciò che a loro piace, ma l’effetto è quello di ridurre la varietà di informazioni per confinare ogni singola persona in un ambiente chiuso dove non ci sono contraddizioni.

    «C’è una tendenza a interagire con persone simili a noi – ha spiegato Bentivegna – ma questo si traduce in una polarizzazione degli utenti sui social media». Parliamo e discutiamo solo con chi la pensa come noi, perdiamo quindi l’abitudine al confronto. Una tendenza intensificata dall’attività degli algoritmi – lo ricordiamo: ci offrono quello che vogliamo, non quello che può esserci utile – che sono stati descritti da Antonio Casilli, il quale ha spiegato, a grandi linee, come funzionano le ricerche su Google e Facebook. «Oggi in Francia – ha raccontato – si studiano algoritmi in grado di identificare potenziali terroristi, sulla scia degli attentati a Charlie Hebdo. La questione, però, è che non sarà possibile sapere come funzionino questi algoritmi, con quali criteri identifichino i soggetti pericolosi». E se, un giorno, i soggetti pericolosi diventassimo noi?

    Come uscirne?
    «Gli algoritmi
    – ha concluso Fabio Chiusi – non sono mai neutrali, ma riflettono la mentalità di chi li scrive, o le idee di chi li fa scrivere. Quello che mi spaventa, però, è che gli utenti si radicalizzino sulle proprie idee perché non vengono loro mostrate delle idee differenti». Una tendenza sicuramente accentuata dai social network, ma che fa parte della natura umana. Un algoritmo, però, difficilmente potrà risolvere questo problema. Spetta ai singoli utenti costruire dei percorsi personali di approfondimento, indipendenti dalle notizie che compaiono su Facebook (ad esempio). A questo punto, però, la domanda è un’altra: chi ha voglia di farlo?

    Print Friendly

    Giornalista, collabora da diversi anni con testate online e cartacee. Si è occupato, in passato, di televisione e radio. Segue l'evoluzione del giornalismo, soprattutto attraverso gli strumenti dati dal web. Lavora come addetto stampa per enti culturali.

    Seguici su Facebook

    Resta aggiornato su Twitter