- Las infracciones de datos poco éticas y los escándalos de abuso de privacidad han despertado una conciencia renovada sobre los datos personales que entregamos, a quién y con qué propósito.
- Pero ¿cómo afectan las tecnologías, los mercados y las economías basadas en datos a la autonomía, la representación y la privacidad de ciudadanos como Sorine?
Conoce a Sorine
Es el año 2030 y Sorine busca un ibuprofeno en su bolso. Apenas quedan unas pocas paradas hasta llegar a casa después del primer día en su nuevo empleo como diseñadora gráfica. Con una mano en su vientre, Sorine saca un analgésico y, agradecida, se acomoda en un asiento que acaba de quedar vacío en el tranvía sin conductor. «¡De nuevo esos días del mes!», piensa cansada, iniciando sesión con su cuenta de Facebook en la aplicación de seguimiento de su periodo para registrar la fecha y algunos síntomas. Calambres, fatiga, irritabilidad, antojo de comida salada. Sorine vuelve a navegar por Instagram durante el resto del trayecto hasta casa y le llama la atención una receta saludable.
Finalmente, cuando llega a su piso compartido, Sorine saluda a sus compañeras de cuarto y comienza a preparar la cena, poniendo YouTube de fondo. Mientras espera a que el agua hierva, Sorine revisa su correo electrónico. Sorprendida al ver el nombre de la aplicación que utiliza para hacer el seguimiento del periodo, abre el mensaje para descubrir que su cuenta está en peligro. Alarmada y molesta, Sorine elimina rápidamente la aplicación de su teléfono y más tarde decide buscar una aplicación de períodos más segura. De momento, es hora de comer.
Acurrucada en el sofá frente a su portátil, el siguiente vídeo en la cola de Sorine es interrumpido de inmediato por una voz femenina, irritante y molesta. «¡Sorine, comparte tu mágica noticia esta primavera, como lo hizo @finally_a_mom, usando nuestra nueva prueba digital de embarazo! ¡Obtén un resultado totalmente fiable en palabras!» Los calambres abdominales de Sorine son reemplazados por una sensación de abatimiento. ¿Ese anuncio acaba de hablarle de compartir una «mágica noticia»? Entrecerrando los ojos, Sorine agarra su teléfono y vuelve a revisar el correo electrónico. Acaba de enterarse del robo de datos, ¿cómo ha podido suceder tan rápido? ¿Quién más tiene sus datos en este momento?¿Qué más saben?
Sorine no puede asegurar que sus datos personales de salud no serán vendidos a las compañías de seguros. Ya han sido transferidos a los vendedores, lo sabe porque en sus vídeos de YouTube y mientras navega por Instagram siguen apareciendo anuncios de pruebas de embarazo. Pero si llegaran a manos de su empresa, ¿podría peligrar su nuevo trabajo?
Cuestionando la responsabilidad: una crisis de confianza
Sorine debería tomarse un calmante. Después de todo, ¿qué podría pasar si una empresa conociera información sobre los síntomas de su ciclo menstrual? No tiene nada que ocultar, no tiene motivos para preocuparse. ¿No es cierto?
El problema del argumento de «nada que ocultar» es que el resultado de la suma de muchos datos benignos individuales se transforma en algo mucho más siniestro. De hecho, no son los datos sobre el ciclo menstrual de Sorine lo que persiguen estas compañías, sino más bien los «desechos digitales» que deja atrás cuando lee artículos o ve vídeos de vida saludable, publica sobre su nuevo trabajo o incluso busca recetas. Estos metadatos se usan para elaborar inferencias que combinadas crean un perfil de Sorine, su «gemela digital», cuyo posible comportamiento se analiza y etiqueta cuidadosamente. Las empresas que apuestan por cómo se comportará la «Sorine digital» en ciertos mercados se están beneficiando de Sorine sin su conocimiento o consentimiento. Son estos usos secundarios de los metadatos sobre los que Sorine, y todos los que utilizamos aplicaciones, plataformas y servicios online «gratuitos», no tenemos ningún control.
Reconsiderando el recurso
Entonces, ¿qué puede hacer Sorine ahora que su confianza digital se ha visto comprometida? Parece que simplemente haciendo clic sobre los botones «No quiero ver más esto» «Este anuncio no me interesa» o «¿Por qué estoy viendo esto?» no se resuelve el problema de la venta sin su consentimiento. Incluso si al principio no se produjo una violación de los datos, este tipo de extracción de datos y análisis predictivos «salvajes» son una práctica común en la industria, tal como ha demostrado un reciente caso de IBM, y ciudadanos como Sorine cuentan con pocos recursos para hacerles frente. A veces, los resultados pueden ser sensibles, poco éticos e incluso traumáticos, como en el caso de la periodista Gillian Brockell, que continuó recibiendo anuncios de productos para bebés recién nacidos después de dar a luz a un niño sin vida.
Sorine podría simplemente dejar de usar aplicaciones como la del seguimiento del periodo o incluso dejar las redes sociales por completo mediante una especie de «desintoxicación digital». Esto es más fácil decirlo que hacerlo, como descubrió un periodista después de pasar seis semanas tratando de abandonar por completo a los «cinco temibles» gigantes tecnológicos (Google, Apple, Facebook, Amazon y Microsoft). Sorine también podría intentar «pasarse» a equivalentes alternativos de cada plataforma, pero eso tampoco parece justo. Tenemos que agradecer eso al efecto de red, como señaló Sarah Jeong después de haber cambiado Twitter por su primo descentralizado de código abierto, Mastodon:
«No estás en Mastodon porque tus amigos no están en Mastodon. Tus amigos no están en Mastodon porque tú no estás en Mastodon. Y yo tampoco estaría en Mastodon si no le hubiera prometido a mi editor que escribiría un artículo al respecto.»
Pero hay más. ¿Por qué se ve obligada Sorine a limpiar el desorden que provocaron la aplicación de seguimiento del periodo y Facebook? ¿Quién es realmente el responsable de las posibles consecuencias de que los datos de Sorine sean revelados y vendidos sin su consentimiento? ¿De verdad depende de ella descubrir y controlar exactamente qué datos está regalando y comprender cada detalle de si la compensación vale la pena?
En busca de una política de privacidad centrada en las personas
Podríamos intentar conseguir una mejor regulación en forma de leyes de privacidad de datos más sólidas como el Reglamento General de Protección de Datos (RGPD) para proteger a personas como Sorine y Gillian. El RGPD fue diseñado para dar a los ciudadanos europeos un mayor control de sus datos e imponer multas a las empresas que no lo cumplieran. Mientras asistimos al nacimiento de un interés público sin precedentes en lo que respecta a leyes de privacidad digital, especialmente con la exposición cada vez mayor de escándalos de privacidad y violaciones de datos, estas leyes se centran, principalmente, en los datos recopilados por las corporaciones y mediados a través de contratos.
«Esta hiperconcentración en la protección de datos desvía nuestra atención del hecho de que las personas son las que necesitan protección», argumenta Tyler Elliot Betillyon, escritor y defensor de la educación tecnológica. Cuando se trata de la propia idea de la privacidad, los críticos hablan sobre la necesidad de pensar mucho más allá de las nociones tradicionales de privacidad y consentimiento y tener en cuenta cómo afecta la tecnología a la autonomía, el poder y a los individuos. Esto es especialmente válido para las poblaciones vulnerables, cuya «expectativa de privacidad está muy influenciada por la cantidad de poder económico o político» que tienen, según Virginia Eubanks, autora de «La automatización de los prejuicios».
“Esta hiperconcentración en la protección de datos desvía nuestra atención del hecho de que las personas son las que necesitan protección”
Los datos son solo una de las muchas vías para abusar de la privacidad de las personas, y la regulación gubernamental es solo una de las piezas del rompecabezas. Incluso las leyes de privacidad perfectas en papel no pueden garantizar resultados verdaderamente efectivos. Si bien el RGPD es un paso importante hacia este cambio, tardó 7 años en hacerse realidad. Además, el RGPD no obliga directamente a los fabricantes de productos, servicios y aplicaciones a llevar a cabo la protección de datos de manera sistemática. Mientras tanto, las organizaciones públicas, privadas y de la sociedad civil deben participar en el diseño de sistemas digitales para llenar el vacío de regulación que siempre va por detrás del avance tecnológico. El coste por violar la privacidad del usuario ha sido esencialmente cero desde el inicio de Internet, y mercados enteros se han construido sobre la misma idea. Esto debe cambiar, pero su naturaleza global y profundamente técnica hace que la mayoría de los abogados y legisladores no sean capaces de presentar una legislación que proteja a las personas en lugar de a los propios datos. Entonces, ¿cómo debería ser?
Privacidad desde el diseño: mis datos, mis reglas
Imagine un escenario futuro donde en la sociedad y en los negocios se hubiese establecido una nueva y necesaria comprensión de la privacidad y la ética de los datos. Donde las organizaciones utilizasen la privacidad desde el diseño en sus productos y servicios para recopilar la menor cantidad de datos posible, el mínimo necesario. Donde ciudadanos como Sorine pudiesen visitar una plataforma consolidada no solo para ver qué empresas habrían recopilado sus datos, sino que también pudiesen cancelar y borrar las transacciones no deseadas. Aunque desde un punto de vista técnico resulte abrumador, este tipo de herramienta desempeñaría un papel importante en la lucha contra el seguimiento encubierto, la recopilación y la venta de metadatos y otras prácticas poco éticas de manejo de datos. También habría una opción para ver de manera visual a dónde han ido a parar los datos, el valor de haber sido compartidos o vendidos, junto con la capacidad de buscar recursos e incluso compensaciones impuestas por un consejo global de ética de datos similar a la Agencia Europea de Seguridad de las Redes y de la Información (ENISA), que actuaría como una oficina de protección al consumidor para cuestiones de ética y privacidad de datos.
Los legisladores con visión de futuro están dando los primeros pasos para hacer realidad este escenario en diferentes lugares del mundo. Véase el ejemplo de la ciudad de Nueva York, la primera ciudad de los Estados Unidos en aprobar una ley de transparencia de algoritmos. Esta legislación histórica aborda el problema de la «caja negra» de la explicación (o falta de ella) al enfocarse en la transparencia de los datos, no solo haciendo que los datos estén disponibles públicamente sino interpretando las decisiones tomadas usando los datos para que los afectados puedan comprender y encontrar recursos para las consecuencias. Además de aprobar normas de privacidad más estrictas, el gobernador de California está estudiando el concepto de una política de «dividendo digital» que permitiría a los consumidores compartir la riqueza creada con sus datos.
Usar los datos de la manera «correcta» no se trata de qué es técnicamente posible, sino más bien deseable desde el punto de vista de la sociedad. Dada la casi imposibilidad de hacer algo en Internet sin dejar una sombra o rastro digital, los derechos de los ciudadanos y los consumidores recogidos y ratificados en los acuerdos «offline» deben ser igualmente aplicables y exigibles en el mundo online. Aun así, los esfuerzos para preservar completamente la privacidad e implementar soluciones de datos éticos requerirán un pensamiento más profundo y más ideas, y no simplemente ajustar la regulación o esperar que las empresas tecnológicas se «autorregulen».
A medida que aumenta la conciencia de los consumidores sobre cuánto valemos para las empresas que recopilan y reclaman la propiedad de nuestros datos, es necesario que en la era digital concibamos la privacidad de una manera distinta. Quizás podamos encontrar caminos más efectivos que recorrer colaborando con expertos que entiendan lo suficiente como para abordar los problemas de ética y privacidad de los datos junto con los legisladores de la esfera política de manera apropiada. Los pasos principales para dar forma a una mejor sociedad digital del futuro serán la construcción de nuevas comunidades y modos de investigación, su conexión con el interés público, y la acción de impulso.
Historia de Sorine presentada por Digital Future Society
Aunque Sorine es una persona inventada, su historia surgió de un taller del think tank de Digital Future Society, un grupo de académicos, investigadores, legisladores, emprendedores, líderes corporativos y expertos de la sociedad que se han unido en un espíritu de colaboración para explorar el impacto de la tecnología en la sociedad.
Trabajando bajo el tema de la confianza y la seguridad digital, este grupo de trabajo particular ha estado explorando el panorama ético de los datos (y metadatos) centrándose en la privacidad y buscando soluciones prácticas que van más allá del acceso, la propiedad y el consentimiento, especialmente en un mundo posterior al RGPD. En los próximos meses, el grupo de trabajo publicará un informe que detalla qué deben tener en cuenta los legisladores para diseñar y hacer cumplir las normas de ética y privacidad de los datos y sugiere acciones concretas para hacer frente a los desafíos éticos de manera efectiva, especialmente cuando se trata de grupos marginados como las familias con pocos recursos, pequeñas empresas y los excluidos digitalmente.
Más información
¿Desea saber más sobre este tema? Visita los siguientes recursos:
Articles
- Why good digital privacy legislation is so hard to get right – OneZero
- What tech giants really do with your data – BBC
- Your digital identity has three layers, and you can only protect one of them – Panoptykon Foundation
Videos
- Data with Destiny – The Economist
- Nothing to hide? The truth about data and digital privacy – World Economic Forum
- Monologue of the algorithm – Panoptykon Foundation
Podcasts
- The Ethics of Tech – NPR Weekend Edition
- The Privacy Paradox – Note to Self
Books
- The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power by Shoshana Zuboff
- The End of Trust – McSweeney’s 54, produced in collaboration with the Electronic Frontier Foundation
Tools
- The Electronic Frontier Foundation has created a set of free privacy protection tools designed to make your experience of the internet safer.
- Switching.social – ethical, easy-to-use and privacy-conscious alternatives to social media and other platforms
- Data detox kit – an 8-day guide to help users take control of their digital footprint