La ética en Inteligencia Artificial

La Inteligencia Artificial es el intento de imitar la inteligencia humana usando un robot o un software. Actualmente, está presente en muchos ámbitos de nuestro día a día. Por ejemplo, es la IA la que hace posible que asistentes de voz como Alexa, Siri o Cortana nos cuenten un chiste.  Los filtros que se utilizan para salir más favorecidos en las fotos para las redes sociales también cuentan con esta tecnología. Las listas de reproducción musicales de Spotify, que salen según nuestras preferencias también son posibles debido a la IA. Google Maps, las recomendaciones de productos que salen en Amazon, así como nuestros móviles también cuentan con Inteligencia Artificial. Pero, esta tecnología, además de facilitarnos algunos aspectos de nuestra vida, también genera verdaderos quebraderos de cabeza a los científicos.

En 1985, el jurista Judith Jarvis Johnson publicó en la revista ‘The Yale Law Journal’ algunas cuestiones que estaban en el aire desde principios del siglo XX. El jurista planteó lo complejo que resultaría para la Inteligencia Artificial encontrar una solución a un dilema humano complejo. Así, planteó el siguiente problema: una persona conduce un coche sin frenos y el camino se bifurca en dos. En un lado, se encuentran cinco personas y en el otro camino una sola. ¿Sería lícito matar a una persona para salvar a cinco? Ante un dilema como este, la mente humana tendría que encontrar una solución atendiendo a criterios éticos y, aun y todo, la respuesta no sería sencilla. Algunos pensarán que salvar a cinco personas es más ético que salvar a una única persona. Pero, ¿y si esa persona es algún conocido o familiar? Entonces quizá nuestro criterio cambiaría.

Asimismo, se vio la necesidad de que la Inteligencia Artificial estuviera dentro de un marco de comportamiento moral, así como de establecer unas reglas de juego para poder desarrollar esta tecnología en representación de la humanidad y bajo unos códigos éticos y morales. Los empresarios y programadores Elon Musk y Sam Altman crearon OpenAI, una asociación sobre Inteligencia Artificial con el objetivo de identificar dilemas éticos y prejuicios.

Años más tarde, en 2017 el Parlamento Europeo realizó un informe sobre robótica llamado ‘Código Ético de Conducta’ y en 2018 se publicó el primer borrador de la ‘Guía Ética para el uso responsable de la Inteligencia Artificial’, dirigida a los creadores de la IA y que recoge los principios morales a través de los cuales se debería regir esta tecnología. La Guía indica que se deben respetar los derechos fundamentales, que no se debe restringir la libertad humana o que se debe asegurar que la IA está centrada en el ser humano, entre otros principios.

Lo cierto es que la ética en la Inteligencia Artificial aún sigue siendo un debate abierto. Algunas compañías ofrecen formación a las personas que se dedican a formar a las máquinas para que estas cuenten con una inclusión de la ética en los algoritmos que rigen la IA. Pero no solo las empresas están concienciadas sobre los principios de la ética en esta nueva tecnología. Entidades, organismos y asociaciones trabajan para que se regulen principios éticos.

La semana pasada, se presentó en Madrid la primera guía de buenas prácticas para el uso de la IA elaborada en España, que se hizo con la colaboración del observatorio del impacto social OdiseIA, PwC, Google, Microsoft, IBM, Telefónica y la Secretaría de Estado de Digitalización e Inteligencia Artificial. La guía, elaborada por un equipo de más de 30 profesionales, tiene como objetivo generar un ecosistema donde las organizaciones pueden integrarse para compartir y conocer buenas prácticas en el uso de la IA. Según Armando Martínez, socio responsable de tecnología PwC en España, “el uso ético y responsable de la IA es una obligación para cualquier compañía y, en los próximos años, con la aplicación de regulación específica, no existirá la posibilidad de no prestar atención a este tema. Creemos que la aportación de la guía es fundamental para generar comunidad y articular un espacio en el que entre todos contribuyamos desde diferentes puntos de vista al desarrollo de un marco sólido y apoyado en el uso de buenas prácticas”.

Compartir en:
X