1. Como dijo Todd Gardiner, la declaración 1 es demasiado genérica. Hay que digitalizar una gran cantidad de historia y experiencia humana para que los robots entiendan qué es realmente el “daño”. En muchos casos, el daño puede ser beneficioso a largo plazo. Si el robot detiene a un corredor de maratón después de que él / ella comienza a mostrar signos de fatiga, o detener un combate amistoso en un dojo de artes marciales podría ser ejemplos de esto.
2. La segunda ley definitivamente entrará en conflicto cuando un humano le ordena a un robot que lo proteja de otra persona con la intención de matar a la primera persona. En los casos en que la restricción no es posible, ¿qué lado toma el robot si ambas partes le ordenan al robot que mate al otro? Incluso si se decide quién es posible, un robot no puede dañar / matar. La aplicación de la ley se convertiría en una ocupación estrictamente humana.
3. En casos de salvar personas, la primera y la segunda ley también entrarían en conflicto. Si el robot puede determinar que una persona dañará a otras personas después de la convalecencia, ¿tratará / no tratará a esa persona? Los resultados de este dilema tienen dos posibilidades:
a. Acción: las personas se lastiman
si. Inacción: la persona se lastima.
¿En qué parámetros lo pesa el robot? ¿Qué pasa si es un comandante del ejército? ¿Tendrá el robot lealtad al país en el que reside?
También hubo un artículo reciente: Las matemáticas del asesinato: ¿Debería un robot sacrificar su vida para salvar a dos? donde se exploran las consecuencias éticas de estas leyes cuando un robot conduce. Si todos los conductores humanos fueran reemplazados por sus homólogos robóticos, entonces, en caso de accidente, si un robot se desviara de un acantilado y provoca la muerte del conductor, o no interfiere, lo que podría provocar la muerte de más personas en ¿la autopista? Estadísticamente, se preferiría la primera opción, pero uno debe recordar que el robot es propiedad del propietario (suponiendo que el gobierno no haga que los controladores robóticos sean obligatorios sino aprovisionados por el propio gobierno) y, por lo tanto, idealmente sería la directiva principal del robot para proteger al dueño a toda costa.
4. La ley cero de la humanidad es nuevamente, demasiado subjetiva para ser codificada. La humanidad es una colección de comportamiento que ha sobrevivido y ha conducido al crecimiento de la humanidad: amor, amabilidad e inteligencia social. Estos valores “se sienten bien”, pero lo que es más importante, han llevado directamente a una mejor supervivencia de las personas y a una sensación general de bienestar que resulta en menos delincuencia. Tener un robot realmente entienda que no se trata de codificarlo, sino de permitir que la computadora aprenda por experiencia e historia (podría estar equivocado aquí, pero este es el único método que conozco que podría funcionar al final).
- ¿Cuáles son los diferentes tipos de ética en los negocios? ¿Cómo se comparan?
- ¿Es ético ocupar asientos de avión vacíos?
- ¿Qué haría si un botón frente a usted transfiriera $ 10 millones a su cuenta bancaria, a expensas de matar a 10 personas / extraños al azar? Hay 7.125 mil millones de personas en el mundo (una probabilidad de 1 / 7.250.000.000 de que seas uno de los diez).
- Si una persona es inmoral a nivel profesional, ¿es más probable que sea inmoral a nivel personal?
- Cuando Recursos Humanos realiza una investigación en el lugar de trabajo, ¿qué se considera inmoral? ¿Hay comentarios negativos y / o compañeros de trabajo que hablan mal en la lista?
5. La elaboración de tales leyes sería un proyecto de aprendizaje automático en curso (el juego de palabras aquí es sutil y, sin embargo, no lo es) en el que se fusionan varios códigos de moralidad y se incorporan en un maestro rutas estadísticas de alta frecuencia sobre comportamientos culturalmente aceptables. código de conducta (debería patentar eso). Incluso la moral humana es altamente subjetiva y ese sesgo se infiltraría en el proyecto si se permitiera a un grupo crear / sembrar este proyecto. Es este sesgo el que está presente en las 3 leyes, y será el mismo durante su implementación (lealtad, cadena de comando, parámetros, etc.)
Entonces, como parte de una trama de ciencia ficción, estaban bien pensados, permitiendo margen de maniobra para el conflicto y, en general, una buena lectura, pero a medida que avanzamos cada vez más cerca de la singularidad, creo que se hace más evidente que los datos que se alimentan la singularidad, y no la codificación real de esta entidad, determinará de qué lado está.