Microchip con la palabra Big Data escrita

¿Dónde están los límites del Big Data?

La propiedad intelectual de los datos es un tema de candente actualidad

Cuando hablamos de límites, seguramente lo primero que os venga a la cabeza son límites técnicos, límites predictivos o límites económicos. Pero no, en esta ocasión, hablamos de un límite que solemos olvidar: el ético. ¿Hasta dónde puede llegar el análisis masivo de datos?

Hablemos de nuestra realidad más cercana, España. Y digo esto, porque esta visión de lo que voy a desarrollar, no es lo mismo analizarla en nuestro marco social y cultural, que en un marco anglosajón, por ejemplo. En un país que se califica a sí mismo de “Estado social y democrático de Derecho” (artículo 1 de la Constitución), no puede haber conductas que no sean éticas, pero que sean, a la vez, lícitas. Por lo tanto hablamos de ley y ética a la par. Por ello, sugiero que hablemos de cuatro elementos que son frecuentemente olvidados y que deben estar presentes ante el auge de este fenómeno del big data: la propiedad intelectual del dato, privacidad, discriminaciones y beneficiarios del uso del dato.

La propiedad intelectual de los datos es un tema de candente actualidad. Las empresas, que son las que ahora mismo están explotando los datos personales y colectivos, son las más beneficiadas por esta implosión de generación de datos. Son las que han ayudado a que los datos sean generados (una estrategia muy inteligente), y encima los han gestionado, mejorado y enriquecido. Por lo tanto, uno podría pensar que la “propiedad intelectual del dato” (un término que comenzaremos a escuchar pronto), es de ellas. ¿Pero es esto así?

Esta era digital que altera modelos de negocio un día y leyes y regulaciones al otro, seguramente cambie esta óptica. Se escudan en que hemos dado nuestro permiso para que esto sea así. ¿Pero cuán conscientes somos de ello los consumidores y usuarios? ¿Nos explicaron para qué iban a usar los datos? ¿De qué nos sirve que nos digan que guardarán en las cookies nuestros datos si luego no nos dicen qué harán con ellos? ¿Cuáles son los límites de los “datos personales”? ¿Dónde está la frontera de lo “privado y lo público”? Son todo cuestiones difíciles de responder. Debiéramos comenzar a enfocar este problema desde la óptica de derechos y responsabilidades.

Es importante recordar la sentencia de Mayo del 2014, que reconoce el “derecho al olvido” en buscadores. Esto es, que deben borrar contenidos inadecuados o no relevantes. Esto, deja entrever que nuestra identidad es una combinación de atributos permanentes y dinámicos. Las situaciones personales evolucionan, y se deben ajustar en esta era digital de permanente cambio. Por ello, cuando hablamos de privacidad, no solo hablamos de garantizar el anonimato (cuestión bastante difícil), sino también de reconocer su naturaleza temporal y cambiante, y que por lo tanto, debe ser modificada cuando proceda para respetar la misma.

Mano tocando una pantalla con datos
Las empresas son las que ahora mismo están explotando los datos personales y colectivos | Getty Images

En cuanto a las discriminaciones, nos referimos a lo que el determinismo de los algoritmos nos puede conducir. Esto es especialmente crítico cuando aplicamos el Big Data en sectores como la educación, la salud o los servicios sociales y profesionales. ¿Qué pasaría si un algoritmo decide que a un paciente es mejor no medicarle, a un estudiante no renovarle su matrícula por su patrón de comportamiento o no defender una causa como abogado por las pocas probabilidades de éxito que hay? Los datos no son objetivos per se. Son creaciones del ser humano. Damos sentido y significado a los mismos a través de nuestras interpretaciones, por lo que siempre deberemos complementar las capacidades computacionales con las nuestras cognitivas.

El Big Data, como toda tecnología, es éticamente neutra. Sin embargo, su utilización no lo es. Su uso actual tiene su fundamento en el utilitarismo, que nos indica que debemos proceder con aquello que causa el mayor bienestar a más personas. Como señalan Abelardo Pardo y George Siemensen en un artículo, en la era digital, definimos la ética como la sistematización del comportamiento correcto o incorrecto en espacios virtuales para todos los stakeholders. Y, esto, hasta ahora, se ha dejado un poco de lado.

Se han analizado muchos datos de consumidores, de clientes, de pacientes, de asegurados, etc., que han beneficiado enormemente a las compañías, pero poco a los propios generadores de datos. Y esto, creemos, debe cambiar, y hacer un enfoque inclusivo para que el beneficio sea para todos.