¿Qué reglas éticas deberían rodear la programación, fabricación y distribución de robots?

La moral humana es compleja. Incluso si pudiéramos acordar un marco subyacente, la cantidad de preguntas sin respuesta es literalmente inimaginable.

Tomemos el utilitarismo, por ejemplo, basado en los axiomas de von Neumann. Considero que estos axiomas se encuentran entre las declaraciones verdaderas obvias sobre la moralidad y, a diferencia de muchos otros axiomas morales, están completamente formalizados.

La formalización es extremadamente importante, un punto que no es completamente apreciado por la interpretación de Hollywood de las leyes de robótica de Asimov.

Citando Wikipedia aquí:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley

¿Qué significa “daño”? ¿Qué es, específicamente, un “orden” o un “ser humano”? Si la inacción cuenta como permitir que los humanos sufran daños, entonces todos los robots deben apresurarse de inmediato a las naciones empobrecidas tan pronto como sean creados para combatir la pobreza allí, que anualmente cobra millones de vidas.

Además, ¿qué pasa con los robots mismos? Algunas personas creen que un robot suficientemente inteligente debería tener derechos.

Aquí está mi solución (muy imperfecta):

Primero, cree un conjunto de comunidades académicas sin robots. Se les dará una variedad de medios para monitorear y comunicarse con el mundo exterior. Se les proporcionarán los recursos que necesiten. Luego, dale a los robots 2 reglas

  1. Sus acciones nunca deben ofrecer incentivos (positivos o negativos) a las personas en estas comunidades.
  2. Cada vez que actúe, debe recorrer cada comunidad y determinar, lo mejor que pueda, si la mayoría aprobaría la acción. Si la mayoría de las comunidades lo aprueban, puede realizar la acción.

Si bien este sistema obviamente está lejos de ser óptimo, es el único sistema en el que puedo pensar que es una prueba completa de que los robots no pueden simplemente manipular nuestras mentes para hacernos felices, o conectarnos a un paraíso matricial sin nuestro permiso, etc. Esto es importante, porque es muy posible que estos robots posean colectivamente (si no individualmente) un grado mucho mayor de poder e inteligencia que los humanos.

Observe también que cambio este problema de uno que requiere que los robots piensen en la moral, a uno que les exige predecir la realidad (lo que estas personas desearían). La realidad es un maestro objetivo: hay mucho menos espacio para … malas interpretaciones.

La razón para utilizar la mayoría de las mayorías es que no quiero que las comunidades tengan guerras de tantos bebés como sea posible para resolver problemas morales.