Usuarios, derechos y protestas: se puede “sabotear” la big data ?
Usan nuestras huellas digitales para construir grandes riquezas conformando un mercado publicitario global y específico que conoce quizá más de nosotros que lo que sabemos nosotros mismos. Algunas reflexiones sobre lo que podemos hacer a manera de protesta, nota publicada en el portal del MIT
Cada día, tu vida deja un rastro de migas de pan digitales que los gigantes tecnológicos utilizan para rastrearte. Envías un correo electrónico, pides algo de comida, transmites un programa. Obtienen valiosos paquetes de datos para construir su comprensión de sus preferencias. Esos datos se introducen en algoritmos de aprendizaje automático para segmentarte con anuncios y recomendaciones. Google cobra sus datos por más de 120 000 millones de dólares al año de ingresos publicitarios.
Cada vez más, ya no podemos optar por no participar en este acuerdo. En 2019, Kashmir Hill, entonces reportera de Gizmodo, intentó eliminar a cinco grandes gigantes tecnológicos de su vida. Pasó seis semanas siendo miserable, luchando por realizar funciones digitales básicas. Los gigantes tecnológicos, mientras tanto, ni siquiera sintieron picazón.
Ahora los investigadores de la Universidad Northwestern están sugiriendo nuevas formas de corregir este desequilibrio de poder tratando nuestros datos colectivos como una moneda de cambio. Los gigantes tecnológicos pueden tener algoritmos de lujo a su disposición, pero no tienen sentido sin suficientes datos adecuados para entrenar.
En un nuevo documento que se presentará en la conferencia de la Fairness, Accountability, and Transparency de la Asociación para la Maquinaria Informática la próxima semana, investigadores, incluidos los estudiantes de doctorado Nicholas Vincent y Hanlin Li, proponen tres maneras en que el público puede explotar esto en su beneficio:
Huelgas de datos, inspiradas en la idea de huelgas laborales, que implican retener o eliminar sus datos para que una empresa de tecnología no pueda usarlos, dejando una plataforma o instalando herramientas de privacidad, por ejemplo.
Intoxicación por datos, que implica aportar datos sin sentido o dañinos. AdNauseam, por ejemplo, es una extensión de navegador que hace clic en cada anuncio que se le sirve, confundiendo así los algoritmos de segmentación de anuncios de Google.
Contribución consciente de datos, que implica dar datos significativos al competidor de una plataforma que desea protestar, como subir sus fotos de Facebook a Tumblr en su lugar.
La gente ya usa muchas de estas tácticas para proteger su propia privacidad. Si alguna vez ha utilizado un bloqueador de anuncios u otra extensión de navegador que modifica los resultados de su búsqueda para excluir ciertos sitios web, ha participado en la huelga de datos y ha reclamado alguna agencia sobre el uso de sus datos. Pero como Hill descubrió, acciones individuales esporádicas como estas no hacen mucho para que los gigantes tecnológicos cambien sus comportamientos.
¿Y si millones de personas se coordinaran para envenenar bien los datos de un gigante tecnológico? Eso podría darles algo de influencia para hacer valer sus demandas.
Puede que ya haya habido algunos ejemplos de esto. En enero, millones de usuarios eliminaron sus cuentas de WhatsApp y se trasladaron a competidores como Signal y Telegram después de que Facebook anunciara que comenzaría a compartir datos de WhatsApp con el resto de la empresa. El éxodo causó que Facebook retrasara sus cambios de política.
Esta misma semana, Google también anunció que dejaría de rastrear a las personas a través de la web y segmentar los anuncios. Si bien no está claro si esto es un cambio real o solo un cambio de marca, dice Vincent, es posible que el mayor uso de herramientas como AdNauseam contribuyera a esa decisión al degradar la eficacia de los algoritmos de la empresa. (Por supuesto, en última instancia es difícil de decir. “La única persona que realmente sabe la eficacia con la que un movimiento de apalancamiento de datos impactó un sistema es la empresa de tecnología”, dice.)
Vincent y Li piensan que estas campañas pueden complementar estrategias como la defensa de políticas y la organización de trabajadores en el movimiento para resistir a la gran tecnología.
“Es emocionante ver este tipo de trabajo”, dice Ali Alkhatib, investigador del Centro de Ética de Datos Aplicados de la Universidad de San Francisco, que no participó en la investigación. “Fue realmente interesante verlos pensando en la visión colectiva u holística: podemos meternos con el pozo y hacer demandas con esa amenaza, porque son nuestros datos y todo entra en este pozo juntos”.
Todavía hay trabajo por hacer para que estas campañas sean más generalizadas. Los informáticos podrían desempeñar un papel importante en la fabricación de más herramientas como AdNauseam, por ejemplo, lo que ayudaría a reducir la barrera para participar en tales tácticas. Los responsables políticos también podrían ayudar. Las huelgas de datos son más eficaces cuando se refuerzan con fuertes leyes de privacidad de datos, como el Reglamento General de Protección de Datos (RGPD) de la Unión Europea, que da a los consumidores el derecho a solicitar la eliminación de sus datos. Sin dicha regulación, es más difícil garantizar que una empresa de tecnología le dará la opción de limpiar sus registros digitales, incluso si elimina su cuenta.
Y algunas preguntas aún quedan por responder. ¿Cuántas personas necesita una huelga de datos para dañar el algoritmo de una empresa? ¿Y qué tipo de datos serían más eficaces para envenenar un sistema en particular? En una simulación que involucra un algoritmo de recomendación de películas, por ejemplo, los investigadores encontraron que si el 30% de los usuarios iban a la huelga, podría reducir la precisión del sistema en un 50%. Pero cada sistema de aprendizaje automático es diferente, y las empresas los actualizan constantemente. Los investigadores esperan que más personas en la comunidad de aprendizaje automático puedan ejecutar simulaciones similares de los sistemas de diferentes empresas e identificar sus vulnerabilidades.
Alkhatib sugiere que los académicos también deberían investigar más sobre cómo inspirar la acción colectiva de datos. “La acción colectiva es muy difícil”, dice. “Conseguir que la gente siga adelante con la acción en curso es un desafío. Y luego está el desafío de cómo mantener a un grupo de personas que son muy transitorias, en este caso podrían ser personas que están usando un motor de búsqueda durante cinco segundos, para verse a sí mismas como parte de una comunidad que realmente tiene longevidad”.
Estas tácticas también podrían tener consecuencias aguas abajo que necesitan un examen cuidadoso, agrega. ¿Podría el envenenamiento de datos terminar agregando más trabajo para los moderadores de contenido y otras personas encargadas de limpiar y etiquetar los datos de capacitación de las empresas?
Pero en general, Vincent, Li y Alkhatib son optimistas de que el apalancamiento de datos podría convertirse en una herramienta persuasiva para dar forma a cómo los gigantes tecnológicos tratan nuestros datos y nuestra privacidad. “Los sistemas de IA dependen de los datos. Es solo un hecho sobre cómo funcionan”, dice Vincent. “En última instancia, esa es una manera en que el público puede ganar poder”.