El debate sobre las nuevas tecnologías como la inteligencia artificial, el Big Data, los algoritmos y las herramientas digitales, así como sus implicaciones y consecuencias para nuestra sociedad, es hoy en día fundamental para los ciudadanos, empresas y responsables políticos. Para todos los que trabajan en el sector de la tecnología o de la innovación (o, en realidad, para todos aquellos que navegan por Internet), la inteligencia artificial está por todas partes, desde el momento que hacemos una búsqueda con Google hasta cuando compramos un libro en Amazon.

Durante los últimos años, la inteligencia artificial está encontrando salidas en casi todas las industrias del planeta, desde la medicina y las finanzas hasta el entretenimiento y la legislación. Este tipo de tecnología, también conocida como uno de «los nuevos medios» promete, según muchos, un impacto positivo en el día a día de los ciudadanos, pudiendo mejorar desde la cadenas de producción hasta el ejercicio del voto. Sin embargo, para otros, esta tecnología disruptiva (porque podría producir «una ruptura brusca») podría ocasionar graves problemas para nuestra democracia tal y como hoy la conocemos, ya que su desarrollo podría poner en riesgo algunos derechos fundamentales como, por ejemplo, los relativos a la privacidad.

El aumento de la toma de decisiones automatizada, es decir, de la inteligencia artificial, en las actividades diarias de diferentes sectores ha provocado un intento de hacer que los algoritmos en los que se basa dicha tecnología sean más explicables y que sus implicaciones sean más transparentes. La explicabilidad de los algoritmos es un concepto que va de la mano con la transparencia de los mismos, lo que, en otras palabras, significa que los usuarios deben estar informados, de manera clara y accesible, sobre los riesgos y beneficios de usar una herramienta digital determinada, como Uber, Google Search o Facebook.

Durante los últimos años, una de las principales motivaciones de los responsables político para alcanzar la explicabilidad y transparencia de los algoritmos ha sido la discriminación, por ejemplo, de precios, que los ciudadanos pueden sufrir debido a la toma de decisiones automatizada. En este contexto, el artículo 22 del Reglamento General de Protección de Datos (GDPR) de la Unión Europea, que entró en vigor el 25 de mayo de 2016 y fue implementado el 25 de mayo de 2018, pretende proteger a los ciudadanos de las mala praxis de las empresas que utilizan inteligencia artificial y limitar el poder de las mismas, exigiendo más control, mas transparencia y más explicabilidad para los ciudadanos.

Ya que los algoritmos son mecanismos inventados por humanos, es necesario entender que pueden cometer errores técnicos, pero también relativos a injerencias puramente humanas como, por ejemplo, falta de objetividad o parcialidad. De esta forma, la implementación de transparencia en los algoritmos no solo sería beneficiosa para los usuarios, en el sentido de que aumentaría la su autonomía y su capacidad para decidir, sino que también podría ayudar a las empresas y a sus desarrolladores a resolver, reconocer y ajustar problemas tecnológicos.

Por otro lado, nadie sabe realmente cómo los algoritmos más avanzados hacen lo que hacen, lo que es un problema para muchas empresas que se consideran incapaces de proporcionar explicaciones y/o transparencia sobre los resultados obtenidos gracias a las decisiones automatizadas de sus herramientas y que en este sentido, no entienden cómo cumplir con esta obligación impuesta por GDPR.

Para otras empresas, el conocimiento de los usuarios sobre el funcionamiento de sus algoritmos trae consigo un riesgo comercial significativo, sobre todo para aquellas compañías que procesan datos de los ciudadanos. Esto produce un desafío legal para muchas empresas que tendrán que buscar el equilibrio entre sus intereses económicos y los intereses públicos de sus usuarios.