Come vi fanno sentire le notizie su Internet?

facebooksmall

di Alfredo Lopez

Quella che suona come una domanda frivola, del genere di quelle che vi potrebbero essere poste in un bar dopo qualche bicchiere, è in realtà profonda e forte. Se il contenuto di Internet può influenzare i vostri sentimenti, la manipolazione di tale contenuto può esercitare un potente controllo sociale.

Così, per una settimana nel 2012 Facebook, in collaborazione con la Cornell University e l’Università della California di San Francisco, ha deciso di indagare tale possibilità.  Ha revisionato il contenuto visto da un gruppo scelto di 689.000 dei suoi utenti, sovraccaricando i contenuti con notizie positive per alcuni utenti e negative per altri e poi ha studiato i loro commenti a loro insaputa.

Alla fine Facebook ha imparato molto. Secondo una sintesi dello studio “per quelli che avevano avuto ridotto il contenuto positivo nei loro flussi di notizie, una percentuale più elevata di parole negli aggiornamenti di stato d’animo delle persone è stata negativa e una percentuale inferiore positiva. Quando la negatività è stata ridotta, si è presentato lo schema opposto.”

E quando la notizia dello studio è stata diffusa la settimana scorsa, Facebook ha affrontato un immediato e potente contraccolpo di attivisti e utenti inorriditi (e oggi anche di un paio di governi) che hanno sollevato degli interrogativi significativi. Un’impresa ha il diritto di usare i propri clienti come cavie da esperimento a loro insaputa? E’ addirittura etico cambiare l’alimentazione dei contenuti per qualche motivo?

Ma il tema più importante sta dietro tali domande. Facebook ha ovviamente ritenuto che andasse bene ; conduce continuamente ricerche sui propri utenti. E la sua intuizione circa i risultati si è dimostrata corretta. E dunque che cosa significa quando una delle maggiori società d’informazione della terra, il centro dell’esperienza informativa di molte persone, si esercita su come programmare le persone mediante menzogne?

L’esperimento è stato condotto dal Data Science Team di Facebook, il reparto della società per la raccolta e l’analisi dei dati degli utenti. Facebook utilizza parte di tali dati per la pubblicità e le vendite ma vende anche tali dati ad altre pubblicazioni e riceve finanziamenti per la ricerca da università e gruppi di esperti. Il lavoro di ricerca è impressionante. Si tratta di persone che sono state in grado di stabilire quanti utenti visitavano il Brasile per la Coppa del Mondo (e anche provenendo da quali paesi) prima che qualcuno salisse su un aereo. Stanno anche sviluppando dati complessi sui luoghi migliori per vivere da scapoli negli Stati Uniti per un articolo del Wall Street Journal.

Anche se la maggior parte delle persone ne ha sentito parlare la settimana scorsa, questo studio è stato in realtà pubblicato in marzo sui Verbali dell’Accademia Nazionale delle Scienze ed è stato stimolato da una domanda che si sono posti i dirigenti di Facebook: quanto influisce il contenuto di un flusso d’informazione sul modo in cui le persone pensano, si sentono e si esprimono? E’ in effetti una domanda eccellente e che val la pena di approfondire. E Facebook, che dispone sui suoi server di una quantità di dati personali superiore a ogni altra istituzione al mondo, è stato l’indagatore perfetto.

Facebook ha un canale giornalistico che è diventato popolare tra i molti dei suoi utenti. Applicando una lista di termini “positivi e negativi” i ricercatori di Facebook hanno filtrato il contenuto delle notizie. Se qualche contenuto aveva un tono positivo (in base a tali termini) sarebbe stato eliminato per alcuni utenti. Lo stesso è stato fatto con il tono negativo per il resto degli utenti. Questa attività è durata una settimana e ha registrato giorno per giorno il contenuto delle reazioni degli utenti e di altri commenti, rilevando che il contenuto positivo letto produceva reazioni positive e che valeva anche il contrario.

Gli utenti non ne hanno mai saputo nulla.

Illegale? E’ dubbio, perché le famigerate “condizioni del servizio” di Facebook gli consentono di raccogliere e utilizzare dati personali a suo giudizio. E’ proprietario dei nostri dati quando sono inviati su una pagina di Facebook e può farne tutto ciò che vuole.

Immorale? Oscenamente. Non si modifica ciò che la gente legge come notizia e poi si raccolgono le reazioni senza dirglielo. E’ il peggior trattamento da “cavie da laboratorio” che una società può praticare ai suoi membri in rete e un uso orribile del contenuto su cui le persone, almeno teoricamente, si basano nella loro vita quotidiana.

Ma quel che più conta è il modo in cui lo stesso Facebook tratta la controversia. Secondo Adam Kramer (uno degli scienziati di Facebook impegnato nello studio) “… l’impatto reale sulle persone nell’esperimento è stato l’impatto minimo per rilevare statisticamente (le loro reazioni)”. La dichiarazione ufficiale della società ha affermato di aver utilizzato “protezioni appropriate per le informazioni delle persone”.

‘Insincero’ è un termine gentile per definire questo. L’”impatto reale” è che una società in rete, che ha rapporti estesi con molti governi, ha sperimentato come manipolare efficacemente le reazioni delle persone. Ciò che dovremmo chiedere a Facebook non è quanto ci sia voluto o quante persone siano state coinvolte. La domanda più importante è perché questa società lo abbia fatto.

Non c’è una risposta delicata. Apparentemente le “protezioni appropriate” non hanno protetto gli utenti dallo stesso Facebook. Non conta come Facebook ridimensiona la situazione per renderla più facile da ingoiare; resta veleno. La società ha raccolto informazioni su come controllare il nostro terreno più profondo e potente: i nostri sentimenti e il nostro pensiero. Lo ha fatto perché, alla fin fine, poteva farlo e perché non c’era nulla riguardo alla vita e ai diritti delle persone che glielo impedisse.

Stanno facendo quello che i nazisti si impegnarono così tanto a fare. E’ la moralità da “1984” che ha prodotto un termine, “orwelliano”, per descrivere la visione da incubo del suo autore che è diventata la realtà in così tante parti del nostro mondo. E’ la manipolazione mentale di uno stato di polizia, il genere che opera una sorveglianza a tappeto sui propri cittadini, manda in carcere per decenni chi raccoglie informazioni e mantiene sezioni ben finanziate di disinformazione (chiamate ‘uffici stampa’) per coprire i propri crimini internazionali e sviare l’attenzione da quelli che compie in patria. Suona famigliare?

Non importa quanto sia popolare o quanto bella alcuni trovino la storia della sua fondazione, così spesso narrata (e costantemente rivista); Facebook è un mostro, una parte della mostruosa macchine in sviluppo nel paese per garantire che non ci opponiamo all’oppressione cui siamo quotidianamente sottoposti.

Fonte: This Can’t Be Happening

Traduzione di Giuseppe Volpe per Z Net – Lo spirito della resistenza è vivo

5 luglio 2014