Si la moral se entiende como un conjunto de reglas de comportamiento aceptable / encomiable dentro de un marco de interacción, entonces técnicamente sí. Se puede codificar activamente.
Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley . Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley . Isaac Asimov.
Si al hacer esta pregunta te refieres a la posibilidad de que una IA futurista desarrolle un sentido de moralidad, entonces debe estar dentro de esa IA para comprender el proceso teórico del juego del que emerge esa moralidad. Además de tener la capacidad de cambiar algunos de sus propios códigos.
Dejaría algunas de las consecuencias de las IA de ciencia ficción como un ejercicio para otros.
- ¿Crees que la economía se basa en un sistema ético utilitario?
- ¿Hay alguna instancia en la que se favorezca la moral de una religión contra la aplicación de la ley de la tierra?
- ¿Cómo difieren la ética personal y comercial?
- ¿Amazon sigue siendo malvado?
- ¿Es la existencia del mal en el mundo allí para hacer que el bien en el mundo sea significativo?