El dilema ético de analizar a los usuarios en Internet y las redes sociales

Los datos personales que recolectan las compañías se transformaron en una mina de oro, pero su análisis estuvo bajo la lupa tras un experimento que hizo Facebook



No Banner to display

Los datos personales que recolectan las compañías se transformaron en una mina de oro, pero su análisis estuvo bajo la lupa tras un experimento que hizo Facebook




Los estudiosos están muy entusiasmados con la posibilidad de aprovechar los vastos tesoros de los datos personales recogidos por Facebook, Google, Amazon y varias empresas nuevas, los cuales, dicen, podrían transformar la investigación en el ámbito de las ciencias sociales.

Mientras que antes eran obligados a realizar meticulosas entrevistas personales, los científicos ahora pueden sentarse frente a una pantalla y jugar instantáneamente con las experiencias digitales de millones de usuarios de Internet. Es la frontera de las ciencias sociales; experimentos con personas que quizás ni siquiera saben que son objeto de estudio, y que mucho menos prestan su consentimiento de manera explícita.

«Esta es una nueva era», dijo Jeffrey T. Hancock, un profesor de ciencias de la comunicación e información en la Universidad de Cornell. «Lo comparo un poco con el momento en el cual la química obtuvo el microscopio».

Pero la nueva era ha generado cierta controversia. El profesor Hancock fue co-autor del estudio de Facebook en el que la red social silenciosamente manipuló las actualizaciones recibidas por casi 700.000 personas para conocer cómo estos cambios afectaban sus emociones. Cuando la investigación fue publicada en junio, la indignación no se hizo esperar.

Ahora el profesor Hancock y otros investigadores universitarios y corporativos piensan en la forma de crear pautas éticas para este tipo de investigación. En su primera entrevista desde que el estudio de Facebook se hizo público, el profesor Hancock dijo que contribuiría al desarrollo de estas pautas al liderar una serie de debates entre académicos, investigadores corporativos y agencias gubernamentales, como la Fundación Nacional de Ciencia.

«Como parte del avance en esta área, tenemos que generar participación», dijo. «Esta es una conversación social gigante que debe ocurrir».

Los académicos del Instituto de Tecnología de Massachusetts (MIT, por su acrónimo en idioma inglés) y de la Universidad de Stanford planean realizar paneles y conferencias sobre el tema, y varias revistas académicas trabajan en temas especiales dedicados a la ética.

Microsoft Research, una división casi independiente de la compañía de software, es una voz destacada en la conversación. Organizó un panel de expertos el mes último sobre la investigación de Facebook con el profesor Hancock y ofrece una herramienta de software a los académicos para ayudarlos a sondear rápidamente la opinión de los consumidores sobre la ética de un proyecto en su etapa inicial.

La Comisión Federal de Comercio, que regula las empresas en temas como la privacidad y el trato justo de los usuarios de Internet, también tiene previsto participar. Aunque la agencia se negó a comentar específicamente sobre el estudio de Facebook, las cuestiones más amplias están vinculadas con aquellos principios que son importantes para la presidente de la agencia, Edith Ramírez.

«Los consumidores deben estar en el asiento del conductor cuando se trata de sus datos», dijo Ramírez en una entrevista. «Ellos no quieren que les falte información y no quieren ser sorprendidos por cómo se la utiliza».

Facebook, que ha pedido disculpas por su experimento, se negó a hacer más comentarios, aunque dijo: «Estamos conversando con los académicos y la industria acerca de cómo mejorar nuestro proceso de investigación».

Gran parte de la investigación realizada por las empresas de Internet se lleva a cabo internamente y es dirigida a los ajustes de productos, como por ejemplo para conocer si la gente prefiere leer noticias o ver videos de gatos en Facebook o cómo hacer que los resultados de búsqueda de Google sean más precisos.

Pero cuestiones sociales más amplias también se estudian, a menudo en colaboración con instituciones académicas, y los científicos están ansiosos por realizar investigaciones aún más ambiciosas.

El experimento de Facebook sobre las emociones se llevó a cabo con este propósito. Ideado por un científico de datos de la empresa, Adam D. I. Kramer, pero diseñado y analizado con la ayuda del profesor Hancock y de otro investigador académico, Jamie E. Guillory, este experimento fue creado con la intención de arrojar luz sobre cómo las emociones se propagan a través de grandes poblaciones. Facebook cambió deliberadamente el número de mensajes positivos y negativos recibidos en la lista de actualizaciones de los usuarios durante una semana, en enero de 2012, y luego observó cómo los cambios afectaron el tono emocional de los mensajes posteriores de los usuarios de Facebook.

En otro experimento muy conocido, Facebook envió recordatorios de voto a los 61 millones de usuarios estadounidenses el día de las elecciones en el año 2010. Algunos usuarios también vieron una lista de sus amigos que ya habían votado, y los investigadores descubrieron que este empujón social específico hizo que más de esas personas fueran a las urnas. Asimismo, el estudio hizo que algunos sugirieran que Facebook tenía el poder de influir en los resultados electorales.

Este tipo de estudios plantea preguntas fundamentales. ¿Qué tipo de experimentos son tan invasivos que necesitan consentimiento previo o su divulgación inmediata después de los hechos? ¿De qué manera pueden las empresas asegurarse de que sus clientes tienen una idea clara de cómo se puede utilizar su información personal? ¿Quién decide cuáles deberían ser las reglas?

Las actuales leyes federales que rigen la investigación sobre seres humanos, destinada a la investigación médica, generalmente requieren el consentimiento de los objetos de estudio, a menos que el daño potencial sea mínimo. Pero muchos académicos de las ciencias sociales afirman que las leyes federales no contemplan la investigación a gran escala sobre los usuarios de Internet y proporcionan una guía inadecuada para ello.

Para los proyectos de Internet realizados por investigadores universitarios, las juntas de revisión institucional pueden llegar a ser útiles para aprobar los proyectos. Sin embargo, los investigadores corporativos como los de Facebook no se enfrentan a este tipo de revisión formal.

Sinan Aral, un profesor de la Facultad de Administración Sloan, del Instituto de Tecnología de Massachusetts, quien ha llevado a cabo experimentos sociales a gran escala con varias empresas de tecnología, dijo que las nuevas normas deben formularse cuidadosamente.

«Tenemos que encontrar la manera de pensar acerca de estas reglas sin enfriar la investigación que tiene el potencial de hacernos avanzar kilómetros y kilómetros por delante de donde estamos

hoy en la comprensión de las poblaciones humanas», expresó. El profesor Aral planea llevar a cabo un panel de debate sobre la ética en una conferencia en el MIT sobre la experimentación digital, en octubre. (El profesor también lleva a cabo análisis de datos para The New York Times Company.)

Algunos científicos han debatido estos temas desde hace varios años, pero las discusiones entraron en ebullición desde que se realizó el experimento de Facebook.

«Es el estudio del cual todos estamos hablando», señaló Lucy Bernholz, una profesora visitante en el Centro Stanford sobre Filantropía y Sociedad Civil, quien está organizando una conferencia para septiembre sobre la ética de la información digital, abordando así el tema de qué límites deben fijarse para su uso.

Mary L. Gray, una investigadora de Microsoft Research y profesora asociada en la facultad de Medios de la Universidad de Indiana, quien ha trabajado mucho sobre la ética en la ciencia social, dijo que con demasiada frecuencia los investigadores que realizan experimentos digitales trabajan de manera aislada, con poca orientación externa.

Ella y otros investigadores de Microsoft Research han pasado los últimos dos años trabajando en la creación de un comité de asesoramiento ético y de un programa de capacitación para orientar a los investigadores en los laboratorios de la empresa, los cuales están trabajando con sujetos humanos. Ella ahora está trabajando con el profesor Hancock para transmitir este pensamiento al mundo más amplio de la investigación.

«Si todos supiéramos lo que se debe hacer, nunca lastimaríamos a nadie», dijo ella. «Realmente no tenemos un espacio donde podamos tener estas conversaciones».

La Dra. Gray aboga por un criterio simple para los investigadores: Si tienes miedo de pedirles a tus sujetos de estudio su permiso para realizar la investigación, es probable que haya un problema ético más profundo que se debe considerar.

Para el profesor Hancock, las soluciones podrían incluir un proceso de consentimiento para proyectos que implican grandes cambios en la experiencia de un usuario de Internet, y un sistema

de retroalimentación para informar a los usuarios acerca de los estudios más pequeños que hay detrás de los hechos.

Las empresas no van a participar voluntariamente en cualquier cosa que limite su capacidad de innovar rápidamente, expresó, por lo que cualquier proceso tiene que ser «eficaz, liviano, rápido y responsable».

Si bien hay quienes afirman que los riesgos del estudio de Facebook eran obvios, el profesor Hancock dijo que los investigadores no se dieron cuenta de que la manipulación de la fuente de noticias, incluso modestamente, haría que algunas personas se sintieran violadas.

Aprendió lo contrario de los cientos de correos electrónicos con expresiones de angustia y de enojo que recibió después de la publicación de su trabajo. «Ellos decían: ‘Usted no puede manipular mis emociones. Es como si me estuviera manipulando a mí. Es control mental'».

Fuente: Lanacion.com.ar