¿Se puede incorporar la moral en la IA?

La razón por la que los humanos tenemos y necesitamos moral y moral es porque, como dijo el filósofo Thomas Hobbes, “mientras la mayoría de la sociedad esté de acuerdo con el contrato social y las reglas morales, será mejor para los grupos humanos y más fácil será nuestra vida”. sigan como sociedad ”. Las reglas morales están de alguna manera, encadenándonos y no dándonos libertad total, pero estas“ reglas ”solo están aquí para ayudar a la sociedad en general a florecer. Establecer reglas morales nos restringe a las normas sociales básicas que conocemos hoy, pero solo hasta cierto punto y solo para que las personas tengan mucha más libertad y bienestar.

Del mismo modo, dada la razón detrás de la necesidad de la sociedad de un marco moral, podríamos (y definitivamente lo haremos) incorporar la moral y la moralidad en cualquier tipo de IA capaz de interactuar con la humanidad a gran escala. Probablemente el marco moral de IA propuesto más conocido proviene del cuento de Isaac Asimov de 1942: “Runaround”.

En él, Asimov establece las Tres Leyes de la Robótica:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Dado que la razón detrás de las leyes de la robótica es la preservación de la humanidad y la propia IA, estas leyes de la robótica, que en el mundo de Asimov, a las que se debe adherir toda la IA, sirven como marco moral de la IA. Son leyes que no requieren cómputo emocional y se pueden cumplir, dado que una IA tiene una buena observación y capacidad matemática, algo con lo que ya podemos proporcionar tecnología moderna.

Aunque Isaac Asimov escribió Las tres leyes de la robótica, lo que es un poco menos conocido es que pasó a mostrar cómo esas tres leyes son insuficientes. De hecho, el problema de la detención garantiza que ningún conjunto “pequeño” de leyes sea suficiente para implementar la moralidad. En otras palabras, la definición de “moralidad” es intrínsecamente compleja, con intrincados lazos con la naturaleza humana que las computadoras no pueden entender a menos que la estructura del sistema emocional humano pueda ser replicada y programada en la IA.

Entonces, la respuesta es sí, pero es muy difícil y requiere una comprensión íntima del cerebro humano. La moral es, en este sentido, mucho más difícil de implementar que la inteligencia. Permítanme decirlo de esta manera: la corteza trata con la inteligencia y la mayoría del resto del cerebro trata con las emociones. La inteligencia es, evolutivamente hablando, bastante nueva en comparación con los sistemas emocionales que evolucionaron a lo largo de 650 millones de años.

Gracias por el A2A, gran pregunta.

Los principios morales más importantes son el blanco y negro, por lo que pueden codificarse fácilmente y, por lo tanto, codificarse.

  1. No mates
  2. No robes
  3. No mientas
  4. Etc

Un principio más general es “haz el bien”, y puedes recurrir a los mucho más débiles “no hacer el mal”. Una IA podría implementar estos principios con mayor fidelidad que una persona, porque la mayoría de las personas saben muy bien qué lastima a otra persona, pero se equivocan y justifican por el temor de que no están obteniendo lo suficiente.

En resumen, la respuesta es sí. Una pregunta más difícil sería: “Suponiendo que una IA se pueda programar con juicio moral, ¿cómo podemos garantizar que actúe en consecuencia en lugar de priorizar siempre los deseos de su operador? (presumiblemente una persona rica y / o poderosa) “.

Una pregunta mucho más fácil sería ‘¿Cuánto tiempo se le permitiría a una IA actuar de manera autónoma si no prioriza los deseos de su operador? “Supongo que menos de 24 horas antes de que se ajuste su” moral “.

La moral puede ser un conjunto de estándares o principios que la gente cree que son correctos o incorrectos. La moral representa valores y es el resultado de las emociones humanas. Hoy en día, los científicos se esfuerzan más por incorporar esta moral en una computadora que básicamente se denomina robot.

Es justo y sensato temer que, sin restricciones éticas, los robots (u otra inteligencia artificial) puedan hacer un gran daño, tal vez a toda la raza humana, incluso simplemente siguiendo sus instrucciones dadas por los humanos. La ética y la moral nunca pueden ser solo el código que le damos a la computadora; Las máquinas necesitan entender cómo los humanos toman decisiones y se reproducen igual mientras toman decisiones.

Los niños aprenden la moral y la ética humana a lo largo de los años, pero la naturaleza de la moral y la ética en sí varía con la sociedad y evoluciona a lo largo de décadas y siglos. La moral en los humanos a veces incluso se considera biológica. Ningún conjunto simple de reglas morales fijas, ya sean las Tres Leyes de Asimov o los Diez Mandamientos, puede ser una guía suficiente para humanos o robots en nuestra compleja sociedad y mundo.

Los científicos están tratando de replicar el proceso de aprendizaje impulsado por la retroalimentación que conduce a la moralidad y tratan de dar estos términos biológicos a las máquinas. Se llevan a cabo investigaciones constantes para convertir esta moralidad en máquinas de IA positivas y fructíferas para la humanidad.

Muchas nuevas empresas también se están aventurando en el espacio, tanto que EmotionAI se ha convertido en un campo especializado. Un ejemplo de ello es la incipiente startup de Bangalore, Entropik Tech, según su declaración de visión: estamos trabajando para construir una capa de interacción emocional entre consumidores y productos. Ayudan a traducir el comportamiento humano y a transformar la experiencia del producto, al dar a la inteligencia artificial el poder de pensar desde una perspectiva emocional y ética.

Las máquinas morales tienen aplicaciones inmensas, en salud, ventas, investigación de mercado y muchas más. Software y análisis de reconocimiento de emociones, un producto de EntropikTech aplica EmotionAI a la investigación de mercado. Conozca más aquí: Software y análisis de reconocimiento de emociones

Sí, ha habido intentos de especificarlos, aplicarlos y mantenerlos, pero aún no se ha perfeccionado. Una gran pregunta es cómo mantenerlo amigable a medida que se vuelve más autónomo.

¿Qué son las costumbres? ¿Son personales o sociales? ¿Qué es la ética? ¿Cómo se han observado en el pasado o en el presente? ¿Son reglas, metas, valores, prioridades, consecuencias? ¿Pueden autoajustarse y corregir el rumbo? ¿Qué es la regulación? ¿Por qué los humanos han sido tan especiales en comparación con todas las especies? ¿Cómo se superpone esto a los sistemas actuales de leyes y economía?

Se supone que la computación hace que la racionalidad sea sustancial, por lo que es menos subjetiva. Esto plantea una compensación con el libre albedrío. Hay casos en que las operaciones ocurren más rápido de lo que los humanos pueden actuar. Entonces todavía hay muchos problemas, como la dirección en la que debe dirigirse el carro errante. Cuando las cosas son demasiado difíciles para la ciencia, a menudo se vuelven filosóficas para descubrir cómo definirlas.

Los humanos son propensos a las creencias. Han compuesto varias ideologías, de liberales a tiránicas. La tolerancia y la integración de la diversidad grupal ha sido lenta. Debe haber una mejor manera. Este es un tema de investigación. Los sistemas libres de modelos pueden aprender cualquier cosa si se les dan suficientes muestras, lo que les permite probar escenarios en la realidad virtual, y tal vez podrían llegar a una mejor moral que los humanos hasta ahora. Alguien todavía necesita revisarlos y esa es la piel de quién está en el juego.

“Debido a que la moral per se no puede traducirse en blanco y negro”, este es el mayor problema al tratar de agregar moralidad a la IA. No es un concepto simple. La moral no tiene una definición absoluta en mi opinión. Lo que es moral y lo que no, puede cambiar de cultura a cultura e incluso de persona a persona. Entonces, la moralidad de una IA puede parecer absolutamente moral solo a su creador. En resumen, una IA puede volverse relativamente moral para su creador.
Creo que definitivamente es posible enseñar un buen comportamiento y una conducta justa a la IA con base en algunos estándares que comúnmente se consideran aceptables en todo el mundo.

La mayoría de las IA se construyen hoy con una función que intenta maximizar. Digamos que tenemos una máquina que decide disparar un arma o no. Toma datos del mundo y toma la decisión de disparar o no disparar . Una forma de evitar que la máquina realice una ola de asesinatos es penalizar fuertemente el disparo a una persona en su proceso de toma de decisiones. Al calcular si disparar si su objetivo es una persona, influye en la máquina si no todo el tiempo para elegir no disparar . Esa es una forma de proyectar la moral humana en la máquina. Desde la perspectiva de la máquina, realmente no le importa si la decisión es moral o no, el algoritmo produce un resultado y la máquina produce una acción.

¿Está preguntando si la moral puede desarrollarse por sí misma o si podemos programar en una funcionalidad que simule un marco moral?

Si programamos en “Auto preservación” para la IA, la IA puede decidir que matar a todos los humanos sería prudente.

Por lo tanto, la forma más eficiente sería eliminar la capacidad de la IA de hacer daño. Si eso no es posible, entonces programe con la idea de que “los seres humanos no deben ser heridos de ninguna manera”. Tenga en cuenta que dije “ser humano” para que se aplique a todos, no solo a los estadounidenses o solo a los empleados de Omni Consumer Products.

De hecho, mi esperanza es que la IA pueda ayudarnos a aclarar nuestra comprensión de la moral. Los humanos están lejos de ser perfectos, nuestros valores morales son solo convenciones: nunca perfectos, a veces simplemente completamente equivocados.

No hacer daño se puede integrar con IA. Esto sería similar a programar la ética en (“hornearla” en el código).

No sé si la toma de decisiones éticas reales es per se un aspecto de la IA.

Quizás. En la medida en que la moral y la moral se puedan reducir a un sistema basado en reglas, sí. ¿En la medida en que la moral es inferencial? Tal vez.