La inteligencia artificial evoluciona de forma más o menos silenciosa, aplicándose a nuestras vidas en campos como la aviación, la medicina o las finanzas sin que apenas seamos conscientes de ello. Sin embargo, cada cierto tiempo, una noticia especialmente llamativa nos recuerda que las máquinas «inteligentes» son una realidad con la que convivimos desde hace tiempo.

El pasado mes de octubre nos sorprendimos con una publicación que se hizo rápidamente viral: Sophia, un robot humanoide desarrollado por la compañía Hanson Robotics, se convertía en el primer robot con ciudadanía de un país, en concreto Arabia Saudí.

Sin duda un golpe de efecto marketiniano para dar más visibilidad a la Cumbre de Inversión Futura celebrada en Riad aunque, como era previsible, rápidamente se volvió en contra de los organizadores dada la precaria situación del país respecto a los derechos humanos y el papel de la mujer en la sociedad.

Realmente, si nos tomamos al pie de la letra la conversión de Sophia a la categoría de ciudadana, miles de preguntas y debates éticos se abren ante nuestros ojos. ¿Sophia podría casarse con un humano? ¿Y adoptar? ¿Tendría derecho a votar en las elecciones? ¿Desconectarla deliberadamente podría considerarse un asesinato? ¿Podría elegir por si misma a qué destinar el dinero obtenido en sus actos públicos?

Esto nos recuerda a películas como la injustamente denostada IA de Spielberg o la mítica Blade Runner. En ambas los seres dotados de inteligencia artificial son capaces de infiltrarse entre los humanos reales aunque todavía existan ciertos matices que los «delatan» ante la sociedad y los convierten en «ciudadanos de segunda clase».

Curiosamente, en la ficción, estos personajes pocas veces se quedan en terrenos neutros, o bien parecen tener más corazón que los propios humanos o bien su muestran una maldad a prueba de bomba.

En el caso de Sophia en principio nos encontramos ante una inteligencia artificial programada para ser amable e ingeniosa pero también nos hemos encontrado casos inquietantes como Tay, de Microsoft, que una vez programado se lanzó a Twitter para «conversar» de forma fluida con jóvenes de 18 a 24 años y acabó volviéndose racista, antisemita y homófobo en menos de un día. En este caso la solución fue drástica: desconectar la inteligencia artificial de forma inmediata, lo que traducido significa básicamente «matar» a Tay. Por suerte o por desgracia nadie había decidido nombrarle ciudadano de ningún país ni otorgarle derecho alguno, así que simplemente desapareció sin dejar rastro.