Categorie
Life&Mind

LA SCOPERTA, E LA RISPOSTA DI MENLO PARK

Facebook e l’esperimento sugli utenti
«Dispiaciuti per l’ansia causata»

Il social network ha sottoposto 689mila utenti, inconsapevoli, a una ricerca sociale. Esponendoli a contenuti ‘emotivi” fortemente positivi e negativi. Per valutare le reazioni

di Martina Pennisi(Reuters)(Reuters)shadow 

Don’t be evil è il motto scelto da Google per convincerci a sottostare tacitamente alle sue regole mentre ci muoviamo fra le pagine della Rete. Lui decide cosa farci vedere e come, compresa la priorità ai servizi che eroga rispetto a quelli dei concorrenti, e noi sostanzialmente ci fidiamo del fatto che si tratti della selezione più giusta e imparziale possibile. Don’t be evil è l’accordo non scritto che di fatto sigliamo ogni volta che entriamo in una piattaforma digitale con i nostri dati personali, le nostre fotografie e le nostre esternazioni quotidiane. Non essere cattivo, la traduzione italiana: non approfittartene anche se gli elastici termini di servizio veri e propri te lo consentono. Facebook nelle ultime ore ha fatto un passo un po’ più ardito in questa direzione. 

L’esperimento

L’esperimento, in realtà, risale al gennaio del 2012. Pubblicato sulla rivista Proceedings of the national academy of sciences  e firmato dalla squadra di Data science del social network, in collaborazione con le università della California e Cornell, ha esposto 689mila utenti a contenuti per la maggior parte positivi, in un primo caso, e soprattutto negativi, nel secondo. Farlo dal dietro le quinte di Facebook è un gioco da ragazzi: l’algoritmo che regola quotidianamente gli aggiornamenti che vediamo scorrere nel newsfeed si basa già su una serie di principi, totalmente automatizzati, stabiliti per dare priorità a uno o all’altro contenuto in base agli amici con cui entriamo più spesso in contatto o alla popolarità di uno stato o di una foto. Nel caso specifico la gerarchia è stata modificata con uno scopo preciso e con l’ausilio del software Linguistic inquiry and word count, a cui è stata affidata la selezione dei termini associabili ai due sentimenti in 3 milioni di post. I risultati hanno mostrato come, innanzitutto, limitare la condivisione di emozioni sia in un senso sia nell’altro porti a una riduzione ulteriore di contenuti di questo tipo e che sentimenti positivi ci portano ad esprimerne di altrettanto ottimisti mentre vedere amici e conoscenti di cattivo umore ci condiziona in questo senso. Emozioni espresse incoraggiano la condivisione e l’umore altrui ha effetti diretti sul nostro, in parole povere. Facebook ha agito nella piena legalità, essendoci fra i termini di servizio l’accettazione a partecipare a ricerche, e ha confermato quanto in parte già riscontrato in precedenza con, ad esempio, il tasto Io voto.

Condizionamenti

Secondo Nature, nel 2012 340mila persone (in più) si sono recate alle urne negli Stati Uniti dopo aver visto su Facebook i loro contatti fare altrettanto. Ci facciamo condizionare e ci lasciamo trascinare, secondo lo studio in esame, a dire il vero, in modo davvero contenuto: la percentuale di variazione del comportamento è stata nell’ordine del decimo di punto percentuale. Comunque interessante per chi con la comunicazione pubblicitaria o quella politica vuole provare a orientare le nostre scelte e il nostro pensiero e sempre meno sorprendente pensando al numero di persone, ormai siamo ben oltre il miliardo, che sceglie di comunicare con il social network di Menlo Park. Interessante e per certi versi preoccupante. A far rizzare i capelli in testa a molti in questo è stata però la fonte dell’esperimento stesso: sono stati i ricercatori di Facebook a manipolare l’algoritmo per orientare le reazioni e studiarne poi gli effetti. Lo hanno fatto senza chiedere il permesso ai 700mila coinvolti nonostante, lo ripetiamo, le condizioni lo permettano. 

Risultati

Nel comunicato stampa  di annuncio dei risultati viene inoltre precisato che «i ricercatori non hanno avuto accesso ai contenuti degli stati analizzati», con una metodologia non condivisa da tutti anche a livello scientifico, e le voci iniziali su un coinvolgimento del Governo statunitense sono state smentite. Adam D. I. Kramer, membro della squadra di analisi dei dati di Facebook e fra gli autori della ricerca, ha risposto alle polemiche sottolineando come l’obiettivo primario della ricerca fosse «rendere migliore il servizio» e che «nessun post è stato nascosto». «Sono dispiaciuto per l’ansia causata», ha aggiunto. In sostanza: lo abbiamo fatto (anche) per voi e non c’è motivo per smettere di fidarsi della bontà di Facebook, a fronte di risultati che ne confermano il potenziale in termini di condizionamento sociale. Don’t be evil, dicono a Mountain View.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *

Questo sito usa Akismet per ridurre lo spam. Scopri come i tuoi dati vengono elaborati.

Home
Mission
Servizi
Prestazioni
Donazione
Tutti i servizi
TheCoach
Life&Mind
Pensadestro
Contatti