¿Puede la inteligencia artificial tener moral?

Si la moral se entiende como un conjunto de reglas de comportamiento aceptable / encomiable dentro de un marco de interacción, entonces técnicamente sí. Se puede codificar activamente.

Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley . Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley . Isaac Asimov.

Si al hacer esta pregunta te refieres a la posibilidad de que una IA futurista desarrolle un sentido de moralidad, entonces debe estar dentro de esa IA para comprender el proceso teórico del juego del que emerge esa moralidad. Además de tener la capacidad de cambiar algunos de sus propios códigos.

Dejaría algunas de las consecuencias de las IA de ciencia ficción como un ejercicio para otros.

En las personas, la moral encarna un marco teórico basado en la compasión , es decir, en el reconocimiento de que Tú y yo somos objetos similares. Como ejemplo, no te lastimo porque lastimarte duele, y tu dolor es de las mismas cosas que el dolor con el que estoy más familiarizado.

Es un concepto difícil porque Tú y yo presentamos fenómenos tan diferentes. Todos somos solipsistas natos; La compasión y la moral vienen después de un largo período de observación e hipótesis, y luego solo de manera incompleta.

No veo ninguna razón particular por la que las máquinas no puedan hacer esta identificación, tal vez incluso más perfectamente que los humanos con todos nuestros prejuicios. Para ser un verdadero sistema moral (en oposición a una lista de principios recibidos) tendría que obtenerse como todo conocimiento, a través de las fuerzas opuestas de conjeturas y críticas.

¡Sí, por supuesto! De la misma manera que enseñamos moral a nuestros hijos, podemos hacer exactamente lo mismo con una máquina de IA. A partir de muchos ejemplos de entrenamiento etiquetados, podemos tener un modelo estático utilizando una inclinación profunda supervisada. Las máquinas también podrían aprender dinámicamente usando una metodología de aprendizaje de refuerzo, donde los humanos pueden dar retroalimentación directa (recompensa / castigo) sobre una determinada acción que una máquina realiza para que pueda seguir aprendiendo una política óptima para la mejor recompensa futura posible.