miércoles, 30 de julio de 2014

El experimento de Facebook

Por Martín Bonfil Olivera
Dirección General de Divulgación de la Ciencia, UNAM
Publicado en Milenio Diario, 30 de julio  de 2014

Las redes sociales virtuales, como Facebook y Twitter, son herramientas que nunca antes habían existido en la historia humana. Resulta natural que apenas estemos descubriendo su verdadero poder y alcance, y aprendiendo a manejarlas sin que causen problemas.

Como permiten la comunicación de manera instantánea con cualquier parte del mundo, facilitan la interacción entre individuos y grupos. Esto facilita que ocurran fenómenos como la dispersión viral de información, o que ciertos datos puedan llegar a la persona menos indicada. De ahí muchos de los problemas personales o sociales que suelen causar: disputas, despidos, divorcios, conflictos familiares, en el trabajo y hasta entre naciones.

¿Qué tanto pueden las redes sociales influir en el comportamiento, la manera de pensar y hasta el estado de ánimo de sus usuarios? Quizá recuerde usted varios estudios que han señalado que el uso intenso de Facebook podría tener un efecto depresivo (por ejemplo, porque al constantemente
ver las fotos de momentos aparentemente perfectos de felicidad que publican nuestros contactos –las fotos siempre embellecen las cosas– la comparamos la realidad de nuestra vida, que entonces parece más bien gris).

En junio pasado un investigador de la empresa Facebook, Adam Kramer, junto con Jamie Guillory y Jeffrey Hancock, de la Universidad de Cornell, publicaron en la revista de la Academia Nacional de Ciencias de los Estados Unidos (PNAS) un estudio que ha causado gran alboroto.

Para entenderlo, debe usted saber que las publicaciones de sus “amigos” que puede ver en Facebook no son todo lo que ellos publican: la red social emplea un algoritmo para filtrar el contenido que se espera resulte “más importante e interesante” para usted. Por ejemplo, si usted frecuentemente ha dado “like” (me gusta) al contenido que publica cierta persona, Facebook le mostrará más contenido que provenga de ella; si ha compartido contenidos que abordan ciertos temas, es probable que Facebook le muestre más publicaciones similares.

Para mejorar su algoritmo, los técnicos de Facebook realizan constantemente pruebas. El su artículo, Kramer y sus colegas reportan una de ellas. Consistió en manipular durante una semana (11 al 18 de enero de 2012), mediante un proceso al azar, las publicaciones y comentarios que recibían 689 mil usuarios de la red (de habla inglesa) para hacer que vieran con más frecuencia notificaciones con contenido positivo o negativo (identificado mediante la presencia de palabras “positivas” o “negativas” en una lista predeterminada de uso común en este tipo de estudios). A continuación, se vio si las publicaciones que hacían los propios usuarios tendían a volverse más positivas o negativas, respectivamente. (El proceso consistió en dividir a los usuarios en dos grupos, positivo y negativo, y a continuación alterar la probabilidad de que vieran contenido de tipo positivo o negativo de un 10 hasta un 90%, según su número de identidad de Facebook.)

El resultado fue que en efecto, el tono emocional de lo que uno lee en Facebook influye en el tono de lo que uno publica, aunque de manera minúscula: quienes veían más contenido positivo, hacían más publicaciones positivas, y viceversa. Esto comprueba que el fenómeno conocido como “contagio emocional”, bien estudiado en interacciones humanas directas, puede también ocurrir a través del contacto impersonal de las redes sociales. Un hallazgo interesante.

Sin embargo, muchos analistas y usuarios de Facebook expresaron su indignación ante lo que consideraban un uso poco ético –abuso de confianza, intromisión en la intimidad– por parte de la empresa (a pesar de que las condiciones de uso de la red estipulan que la información de los usuarios puede ser usada con fines de investigación). Llegó a haber acusaciones de que el experimento podría, por ejemplo, haber empeorado el estado de personas deprimidas y quizá hasta haber causado algún suicidio, y se lo comparó con el infame experimento de Tuskegee, en Alabama, EUA, en que investigadores médicos estudiaron entre 1932 y 1972 a cientos de afroamericanos infectados de sífilis y no les ofrecieron tratamiento con antibióticos, a pesar de estar disponible, porque deseaban estudiar el desarrollo de la enfermedad, y permitieron así que muchos infectaran a sus parejas sexuales y que murieran.

En general, el sentimiento es que cualquier manipulación psicológica es inaceptable, y que todo experimento que use humanos debe contar con la aprobación explícita de los participantes (como ocurre en la investigación científica en el mundo real).

Confirmo que las redes sociales virtuales son un nuevo mundo, todavía en gran parte desconocido, por el que aún no sabemos movernos con confianza. Lo curioso es ver que no sólo los usuarios, sino las propias redes se meten en problemas, al tratar de entenderse a sí mismas.

¿Te gustó? ¡Compártelo en Twitter o Facebook!:

Contacto: mbonfil@unam.mx

Para recibir La ciencia por gusto cada semana
por correo electrónico, ¡suscríbete aqui!

1 comentario:

Luis Martin Baltazar Ochoa dijo...

Tocayo, al principio lo que relatas no me pareció invasivo ni poco ético, me pareció lo mismo que tu comentaste: un experimento interesante. Pero ya leyendo el remate del inserto, con las objeciones y la indignación de los que no estuvieron de acuerdo, veo que tienen un principio de razón. No se debe experimentar con seres humanos sin pedirles consentimiento. Yo diría que si se permitiera, luego el experimentar estaría muy cerca del siguiente paso que es manipular… ¿Qué tal un gobierno que quisiera manipular unas elecciones y a travez de facebook aumentara lso pensamientos positivos, para que la gente estuviera de buen animo? Es bien sabido que las personas que están de muy buen animo y satisfechas con su actualidad, votan dando continuidad al orden establecido.
Solo por eso, por no tener que ver si es una investigación sin malicia o si es una manipulacion maliciosa, mejor el candado: nada de moverle a las redes, sin avisar al usuario y contar con su consentimiento. Sería bueno que así fuera y pudiéramos confiar.