Una de las metas más ambiciosas del ser humano es la de desarrollar máquinas cuyo comportamiento sea lo más parecido posible al de la raza humana. Ya se han dado algunos pasos importantes, como la creación de inteligencia artificiales capaces de realizar procesos de manera similar a como los haría un humano. Sin embargo, el verdadero problema viene a la hora de las cuestiones sociales, morales, culturales o motivacionales. O dicho de otra manera, cómo se debe relacionar inteligencia artificial y ética.
Ética e inteligencia artificial: una problemática compleja
La ética en la inteligencia artificial es una rama de la ética que surge a raíz de la creación de máquinas pensantes y robots inteligentes. Resulta un tema de gran complejidad por la propia naturaleza de las máquinas o inteligencias artificiales que, el contrario que el ser humano, no son capaces de razonar por sí mismas cuestiones relacionadas con la ética o la moral.
El funcionamiento de la psicología humana es muy complejo y tiene numerosas artistas derivadas del entendimiento y adopción de numerosos esquemas sociales y culturales adquiridos a lo largo del tiempo. Pero, ¿sería posible hacer que una inteligencia artificial pudiera entender todas estas aristas y recovecos a través de simples algoritmos?
Cabe destacar que la ética aplicada a la inteligencia artificial se puede dividir en dos vertientes. Por un lado está la roboética, que se refiere a la labor y comportamiento de los seres humanos encargados de diseñar inteligencias artificiales. Por otro, está la ética de las máquinas, que se refiere al comportamiento moral de los AMAs o agentes morales artificiales.
Por otro lado, hay investigadores que también han puesto sobre la mesa el concepto de los derechos del robot. ¿Qué derechos deberían asistir a una inteligencia artificial, en el caso de que fuera dotada con comportamiento basados en la ética y la moral? ¿Deberían los robots tener derecho a su propia existencia? O como máquinas pensantes, ¿deberían tener derecho también a la libertad de pensamiento, expresión o igualdad ante la ley?
Desde luego que lo expuesto en el párrafo anterior son cuestiones muy complejas y que darían para años de debate (de hecho siguen y seguirán siendo motivo de discusión a corto, medio y largo plazo). Pero volvamos a la cuestión central planteando un ejemplo.
Imaginemos que una persona persona ha perdido el control del vehículo y solo tiene dos opciones: girar a la izquierda y atropellar a una persona, o girar a la derecha y atropellar a cuatro. En el caso de que hubiera un mínimo lapso de tiempo para que el cerebro pudiera sopesar la decisión correcta, dicha decisión estaría influenciada por códigos éticos y morales adquiridos. Por ejemplo, casi todo el mundo estaría de acuerdo en que es preferible atropellar a una persona que atropellar a cuatro. Además, sería capaz de evaluar otras cuestiones morales, como si entre las víctimas hay niños o personas conocidas, lo cual influiría en la toma de decisiones.
Sin embargo, planteemos el mismo dilema para una inteligencia artificial. Sin entrar a valorar en cómo ha sido programada, lo normal sería que dicha inteligencia artificial se pusiera a trabajar con algoritmos que determinasen cuál sería la mejor opción para el conductor en caso de accidente. Por ejemplo, valoraría la dirección del vehículo o la distancia de frenado, pero no valoraría las cuestiones éticas que hemos mencionado en el anterior párrafo.
El papel de la ética humana en la inteligencia artificial
Como ya hemos mencionado, la roboética hace referencia al papel del ser humano a la hora de programar inteligencias artificiales con comportamientos éticos. Los dilemas que presenta esta cuestión son muchos y muy variados.
Por ejemplo, imaginemos un aparato médico dotado de inteligencia artificial. ¿Qué autonomía debería tener a la hora de tomar decisiones acerca de un paciente? ¿Quién sería el responsable en caso de una negligencia médica provocada por la inteligencia artificial, la propia máquina, el médico o la persona que la programó?
O si nos vamos a cuestiones de derecho y aplicaciones de leyes, el papel humano también es fundamental para que la inteligencia artificial cuente con la información necesaria para aplicar las medidas de forma justa. Por ejemplo, se ha dado el caso de inteligencias artificiales cuyas decisiones estaban influenciadas por sesgos racistas, a causa de la información introducida por el ser humano en sus bases de datos.
Del mismo modo, ¿podría una inteligencia artificial ser capaz de entender y procesar concepto como la piedad, el arrepentimiento, las segundas oportunidades o las circunstancias personales, sociales y culturales de una persona antes de juzgarla?
En la relación entre inteligencia artificial y ética tampoco es baladí el tema de cómo puede incluir la irrupción de inteligencias artificiales avanzadas en el comportamiento del ser humano hacia las máquinas. Por ejemplo, en un mercado laboral donde un gran porcentaje de puestos de trabajo han sido eliminados porque ahora los realizan máquinas inteligentes. ¿Sería ético por parte del hombre proceder de esa manera para con sus semejantes? ¿Qué consideración ética tendrían los trabajadores afectados con las máquinas que les han quitado el empleo?
¿Las máquinas pueden tener una ética propia?
De momento, la idea de que una inteligencia artificial pueda tener una ética propia forma parte de la ciencia ficción. La capacidad para realizar operaciones complejas, aprender en base a la experiencia (machine learning), alcanzar niveles de aprendizaje profundo (deep learning) o entender el lenguaje humano (language processing), sigue limitando el funcionamiento de la inteligencia artificial al ámbito del conocimiento, pero no al ámbito ético, moral o emocional.
En cualquier caso, hay numerosos ejemplos de investigadores y filósofos que han estudiado las posibles consecuencias que podría tener el desarrollo de una inteligencia artificial súper-avanzada, independientemente de que ésta pudiera comprender valores éticos y morales.
Una de estos investigadores, Nick Bostrom, señala que una superinteligencia podría ser capaz de extinguir la raza humana. Esta inteligencia artificial súper avanzada podría desarrollar sus propios planes y decidir, por sí misma, que los valores morales o éticos del ser humano no son relevantes para el ejercicio de sus funciones. Incluso, podría ser capaz de desobedecer las órdenes con las que haya sido programada, si ello resulta más beneficioso para su objetivo. Dicho de otra manera, una inteligencia artificial de este calibre podría ser incontrolable aunque se le introdujeran conceptos éticos, y podría dar lugar a consecuencias involuntarias e impredecibles.
Roboética y principios de la ética aplicados a la inteligencia artificial
La consideración inseparable de los conceptos inteligencia artificial y ética cobra cada vez más fuerza a medida que se diseñan máquinas inteligentes más complejas. En este sentido, hay diversas guías y tratados que han empezado a abordar la importancia de establecer un criterio moral a la hora de programar sistemas dotados con inteligencia artificial.
Básicamente, muchos de los principios clave se siguen extrayendo de las conclusiones a las que se llegaron en oros trabajos, como es el caso de las Leyes de la Robótica de Isaac Asimov. Estas leyes plantean la necesidad de establecer unos principios básicos en la relación de la máquina con el ser humano. El más importante de estos principios sería que la inteligencia artificial debe estar programada para no hacer daño a las personas.
Guía ética para el uso responsable de la Inteligencia artificial
Uno de los ejemplos que demuestran el interés de regular la relación entre inteligencia artificial y ética es la elaboración por parte del parlamento europeo de la Guía Ética para el uso responsable de la Inteligencia Artificial. El documento ha sido elaborado con la cooperación de 52 expertos en la materia, los cuáles han promulgado una serie de principios y estándares morales que deberían cumplir los programadores de inteligencia artificial.
- La inteligencia artificial ha de estar enfocada en el ser humano y sus problemáticas. Su objetivo de trabajo nunca puede ser otra inteligencia artificial.
- Los sistemas de inteligencia artificial han de estar programados para prestar especial atención a los grupos más vulnerables o desfavorecidos, caso de las personas con discapacidad, los menores de edad o aquellos que vivan en entornos de riesgo.
- La inteligencia artificial ha de estar programada para comprender y respetar todos aquellos derechos fundamentales del ser humano, así como para cumplir la legislación aplicable en los diferentes países.
- Debe ser fiable y robusta, garantizando la máxima seguridad en su aplicación, minimizando al máximo los fallos de seguridad y los problemas de operativa. Para ello, es imprescindible comprobar su funcionamiento en entornos de prueba hasta que se pueda garantizar su uso seguro en un entorno real.
- Además, la inteligencia artificial ha de funcionar de forma transparente. Se ha de informar sobre cuales son sus metas, y nunca se podrá emplear con otros fines distintos a los que fue desarrollada, y menos aún de forma secreta u opaca.
- Por último, y en respeto a los derechos fundamentales del ser humano, la inteligencia artificial ha de respetar en todo momento la libertad humana, no pudiendo tener una autonomía propia que impida a la persona ejercer la suya.
Declaración de Barcelona para un desarrollo y uso adecuados de la inteligencia artificial en Europa
En España también se ha estudiado el tema de la ética e inteligencia artificial. Es el caso de la iniciativa llevada a cabo por a Fundación Biocat, en colaboración con la Obra Social la Caixa, y que ha dado lugar a la Declaración de Barcelona para un desarrollo y uso adecuados de la inteligencia artificial en Europa.
En dicho documento se detallan 6 puntos fundamentales a la hora de unir inteligencia artificial y ética:
- Prudencia: hay que ser conscientes de que todavía existen muchas problemáticas y frentes abiertos a la hora de implementar la inteligencia artificial. Por tanto, a la hora de resolver todas estas cuestiones científicas y técnicas es fundamental tener en cuenta el sentido común.
- Fiabilidad: los sistemas de inteligencia artificial han de ser robustos y fiables. Toda inteligencia artificial debe ser evaluada en entornos de prueba y garantizar un óptimo funcionamiento antes de plantear su uso en un entorno real.
- Rendición de cuentas: Las personas afectadas por las decisiones que toma una inteligencia artificial han de ser informadas sobre las razones y procesos que han llevado a dicha decisión, además de las vías para realizar reclamaciones en caso de que las consecuencias sean contrarias a sus intereses.
- Responsabilidad: toda persona tiene derecho a saber si el responsable de las decisiones que le afectan es un ser humano o una inteligencia artificial.
- Autonomía limitada: es necesario establecer reglas que limiten la aplicación de los sistemas de inteligencia artificial, de manera que el ser humano sea capaz de controlarlos y aplicarlos cuando sea conveniente.
- Papel del ser humano: uno de los principios más importantes y a la vez más complejos será determinar el papel que juegan las personas afectadas por la puesta en marcha de una inteligencia artificial.
El enfoque de la cognición situada
Uno de los criterios que están siendo clave a la hora de unir los conceptos de inteligencia artificial y ética es el enfoque de la cognición situada.
¿Pero, qué significa la cognición situada? Se trata de ubicar a las máquinas en entornos reales, para que puedan tener experiencias que les permitan desarrollar un sentido común en base al aprendizaje.
En realidad, se trata de un enfoque que también está relacionado con la robótica, pues requiere de un “cuerpo” para que estas experiencias resulten efectivas. Es decir, se necesita de un sistema perceptivo y otro motor para que el sistema pueda observar su entorno e interactuar con él.
La cognición situada requiere integrar complejos desarrollos a la hora de programar la inteligencia artificial, en concreto, lenguajes que sean capaces de decodificar información sobre objetos, personas, situaciones y acciones concretas, así como sus relaciones entre ellos.
Esto plantea del reto de la creación de nuevos algoritmos que permitan a las máquinas inteligentes razonar y aprender sobre cualquier tema, en entornos donde se requiera el empleo de la percepción visual, el razonamiento, sentido común, comprensión del lenguaje o la mímica y la toma de decisiones en base a información incompleta.
Conclusión
La cuestión ética es una de las más complicadas a las que se enfrentan la inteligencia artificial. Las causas principales son dos. Por un lado, la propia naturaleza de estos sistemas y la dificultad de crear algoritmos basados en nociones éticas o morales; por otro, el papel del ser humano a la hora de definir estos valores éticos y morales, que también son objeto de duda y debate según la lógica y el razonamiento humano.
Así que, de momento, los robots con sentimientos y capaces de razonar con sentido común y no solo en base a datos objetivos, de momento solo forman parte del imaginario colectivo producto de películas y libros. Pero, ¿quién sabe cuándo aparecerá la primera máquina capaz de razonar realmente de forma humana?