La transformación digital de gobiernos y empresas: datos y privacidad, los riesgos que no conocemos…

Fondos se destinaron a empresas de participación pública (Sapem), PyMEs y a cooperativas.

Internet te conoce mejor que tu propia familia o amigos. Casi sin darnos cuenta, cada día generamos miles de datos personales que se suben a Internet: dónde hemos estado, a quien le hemos enviado un mensaje, qué música hemos escuchado o qué búsquedas hemos hecho. Todo queda registrado, incluso aquellas conversaciones o información que quisiéramos que permanecieran en la privacidad de nuestro historial. La transformación digital de gobiernos y empresas avanza a una velocidad increíble, pero ¿qué pasa con esos datos y la privacidad? ¿sabes los riesgos?

A juicio de  Akira Sato, Profesor de la Universidad Makenzie, en gestión de riesgos, ingeniero y CEO en InFormaSeg «gestionar los riesgos corporativos no es solo saber dónde tenemos riesgos, sino también fortalecer nuestras debilidades, es decir, tengo una cantidad de capital para invertir en mitigación de riesgos, pero si no sé dónde están puedo hacer una inversión incorrecta y cuesta caro porque fallaste en proteger lo que necesitabas para extender la protección donde no la necesitabas, es decir, te equivocas dos veces, entonces conocer el riesgo es más que proteger, es un proceso de ahorro y mejora continua.»

Lo cierto es que toda la información procesada y agregada en los servidores de las compañías cuyos productos digitales usas son utilizadas por las compañías  para generar un modelo virtual de quién eres. Al conocer tu perfil, las compañías pueden ofrecerte servicios personalizados y más valiosos para ti, como mostrarte anuncios relacionados con tus intereses, adelantarse a tus pasos o segmentar aún más tus decisiones de compra.

Gracias al volumen masivo de datos y los avances como la inteligencia artificial, estos procesos se han vuelto extremadamente eficaces, pero ¿realmente sabemos qué datos tienen las empresas y los gobiernos sobre nosotros y cómo los están usando?

En el caso de América Latina y el Caribe, los gobiernos están experimentando una transformación digital a un ritmo acelerado. Un claro ejemplo es la ciudad de Río de Janeiro, que en 2010 creó un centro de operaciones, único en su momento, donde integraba datos de 30 agencias que operan a lo largo de toda la ciudad. ¿El objetivo? Tener más y mejor información para ser más efectivos en la toma de decisiones. Otro ejemplo es el de Colombia, donde el Ministerio de Educación y las instituciones de educación superior implementaron un proceso para determinar las causas del abandono escolar de los estudiantes universitarios.

Sin embargo, los gobiernos que todavía no han implementado estas innovaciones no deben caer en la tentación de adoptarlas rápidamente, sin haber considerado los riesgos que conllevan. “Los ciudadanos realmente no saben las implicaciones de dar sus datos”, dice Cristina Pombo, asesora del sector social del Banco Interamericano de Desarrollo (BID). “Está bien que queramos personalizar los servicios, pero hagámoslo de manera responsable, y no recolectemos datos solo por hacerlo”.

¿Cuáles son los principales riesgos éticos?
1. Privacidad

El derecho a la privacidad es reconocido por muchas constituciones de la región. No solo se trata de garantizar la seguridad y la legalidad de los datos, sino que los encargados de recolectarlos y procesarlos deben solicitar el consentimiento de los usuarios, y en caso de que se vayan a compartir, garantizar el anonimato para evitar el mal uso por parte de terceros.

Por ejemplo, la mala gestión de un partido político mexicano en 2016 provocó que los datos personales de 93.4 millones de personas mayores de 18 años —como nombre, apellido, dirección y otros— estuvieran expuestos sin protección en Internet durante meses.

2. Inequidad

La capacidad predictiva de la inteligencia artificial se basa en aprender de datos históricos. Estos datos suelen ser imperfectos y, en ocasiones, reflejan los sesgos de las propias personas que los recolectaron. Si no queremos que los modelos sean discriminatorios, es necesario identificar y corregir estos sesgos.

En Estados Unidos, por ejemplo, una herramienta que usaban los jueces para estimar el riesgo de reincidencia estaba asignando casi el doble de probabilidades a individuos de raza negra . Esto ocurría porque el modelo estaba basado en datos históricos de encarcelamientos que tenían en cuenta, entre otros factores, el color de piel.

3. Opacidad

Se debe informar a los ciudadanos sobre qué datos se recogen, cómo se almacenan, analizan o qué decisiones se toman y en base a qué factores, y si fuera necesario, permitir auditar los algoritmos.

Un caso que está generando mucha discusión es el tema del reconocimiento facial. La tecnología está lejos de ser perfecta y, en ocasiones, identifica a personas incorrectamente. En ciudades como San Francisco, en Estados Unidos, han decidido prohibir el uso de esta tecnología por parte de la policía. En Chile, la Policía de Investigaciones ha puesto en práctica un sistema de reconocimiento facial para prevenir la delincuencia a través de cámaras instaladas en lugares públicos, pero no indica qué pasará cuando se identifica como autor de un delito a una persona que no lo cometió.

Un nuevo contrato social

Los gobiernos pueden tratar y manejar algunos de los datos personales de la población como la información tributaria o las propiedades. Sin embargo, cuando se trata de modelos predictivos o de políticas de gran impacto, es necesario que exista un contrato social que genere confianza entre quienes proporcionan los datos y quienes los manejan.
 
“Nuestro objetivo es abrir un debate para reflexionar sobre el uso ético de los datos, con el objetivo de tener modelos aplicados en beneficio de los ciudadanos”, comenta César Buenadicha, especialista líder de BID Lab, el laboratorio de innovación del Banco Interamericano de Desarrollo. “Debemos velar de que todo esto se haga para un bien social y siempre teniendo en cuenta a los más desprotegidos”.

Un buen ejemplo a seguir es el de la Unión Europea. En 2018 entró en vigor el Reglamento General de Protección de Datos —o GDPR por sus siglas en inglés—  que establece seis principios básicos sobre el manejo de datos personales. Hoy, este reglamento se ha convertido en un estándar mundial.

A diferencia de Europa, en la actualidad no existen estrategias nacionales o regionales en América Latina y el Caribe para el uso responsable de datos en el sector público y de cómo generar una relación de confianza con la ciudadanía.

El Sector Social del BID ha analizado marcos de referencia ya existentes alrededor del mundo sobre la gestión responsable de los datos. De esta investigación se ha creado un manual que no solo sintetiza las mejores prácticas, sino que ofrece una hoja de ruta para una gestión responsable de datos por parte del sector público.

Fuente:  BID 

*Las opiniones son de exclusiva responsabilidad de quienes las emiten y no representan, necesariamente, el pensamiento de MasContainer.

Relacionadas: Akira Sato de InFormaSeg y la gestión de los riegos de una empresa