En términos de ética de la máquina, ¿cuáles son los defectos de las Tres leyes de la robótica de Asimov?

1. Como dijo Todd Gardiner, la declaración 1 es demasiado genérica. Hay que digitalizar una gran cantidad de historia y experiencia humana para que los robots entiendan qué es realmente el “daño”. En muchos casos, el daño puede ser beneficioso a largo plazo. Si el robot detiene a un corredor de maratón después de que él / ella comienza a mostrar signos de fatiga, o detener un combate amistoso en un dojo de artes marciales podría ser ejemplos de esto.

2. La segunda ley definitivamente entrará en conflicto cuando un humano le ordena a un robot que lo proteja de otra persona con la intención de matar a la primera persona. En los casos en que la restricción no es posible, ¿qué lado toma el robot si ambas partes le ordenan al robot que mate al otro? Incluso si se decide quién es posible, un robot no puede dañar / matar. La aplicación de la ley se convertiría en una ocupación estrictamente humana.

3. En casos de salvar personas, la primera y la segunda ley también entrarían en conflicto. Si el robot puede determinar que una persona dañará a otras personas después de la convalecencia, ¿tratará / no tratará a esa persona? Los resultados de este dilema tienen dos posibilidades:
a. Acción: las personas se lastiman
si. Inacción: la persona se lastima.
¿En qué parámetros lo pesa el robot? ¿Qué pasa si es un comandante del ejército? ¿Tendrá el robot lealtad al país en el que reside?
También hubo un artículo reciente: Las matemáticas del asesinato: ¿Debería un robot sacrificar su vida para salvar a dos? donde se exploran las consecuencias éticas de estas leyes cuando un robot conduce. Si todos los conductores humanos fueran reemplazados por sus homólogos robóticos, entonces, en caso de accidente, si un robot se desviara de un acantilado y provoca la muerte del conductor, o no interfiere, lo que podría provocar la muerte de más personas en ¿la autopista? Estadísticamente, se preferiría la primera opción, pero uno debe recordar que el robot es propiedad del propietario (suponiendo que el gobierno no haga que los controladores robóticos sean obligatorios sino aprovisionados por el propio gobierno) y, por lo tanto, idealmente sería la directiva principal del robot para proteger al dueño a toda costa.

4. La ley cero de la humanidad es nuevamente, demasiado subjetiva para ser codificada. La humanidad es una colección de comportamiento que ha sobrevivido y ha conducido al crecimiento de la humanidad: amor, amabilidad e inteligencia social. Estos valores “se sienten bien”, pero lo que es más importante, han llevado directamente a una mejor supervivencia de las personas y a una sensación general de bienestar que resulta en menos delincuencia. Tener un robot realmente entienda que no se trata de codificarlo, sino de permitir que la computadora aprenda por experiencia e historia (podría estar equivocado aquí, pero este es el único método que conozco que podría funcionar al final).

5. La elaboración de tales leyes sería un proyecto de aprendizaje automático en curso (el juego de palabras aquí es sutil y, sin embargo, no lo es) en el que se fusionan varios códigos de moralidad y se incorporan en un maestro rutas estadísticas de alta frecuencia sobre comportamientos culturalmente aceptables. código de conducta (debería patentar eso). Incluso la moral humana es altamente subjetiva y ese sesgo se infiltraría en el proyecto si se permitiera a un grupo crear / sembrar este proyecto. Es este sesgo el que está presente en las 3 leyes, y será el mismo durante su implementación (lealtad, cadena de comando, parámetros, etc.)

Entonces, como parte de una trama de ciencia ficción, estaban bien pensados, permitiendo margen de maniobra para el conflicto y, en general, una buena lectura, pero a medida que avanzamos cada vez más cerca de la singularidad, creo que se hace más evidente que los datos que se alimentan la singularidad, y no la codificación real de esta entidad, determinará de qué lado está.

Esas leyes son un desastre, y también lo son las Leyes revisadas de la robótica (1985) que critico aquí:

0. “Un robot no puede dañar a la humanidad o, por inacción, permitir que la humanidad sufra daños”.
– Puedes definir a la humanidad arbitrariamente. Los conservadores y los luditas se quejan de cualquier cambio en la humanidad como una amenaza en su contra, porque definieron a la humanidad como era en el pasado. Esta ley tiene el potencial de detener la evolución.
– Cualquier especie inteligente extraterrestre se definiría como no humanos sin valor, incluso si son superiores en moralidad. Si fueran más inteligentes que los humanos, serían percibidos como una amenaza para la humanidad que justificaría la aniquilación preventiva.

  1. “Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños”
    – Puede definir “ser humano” de forma arbitrariamente restringida, excluyendo por color de piel si lo desea. ¿Se incluirían los neandertales? ¿Se incluirían superhumanos genéticamente modificados?
    – La ley no se preocupa por otras formas de vida, por lo que el AGI es libre de explotar o exterminar toda otra vida en beneficio de un ser humano (e instrumentalmente como el protector de los seres humanos).
    – Puede definir “daño” de forma arbitraria, de modo que los humanos necesiten que se les eliminen todas sus libertades para protegerse de sí mismos. El encarcelamiento es una apuesta segura, y Matrix aún más.
  2. “Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con los Zeroth o la Primera Ley”.
    – ¿De qué lado tomaría el AGI en una guerra? Ambas partes están tratando de causar daño mientras afirman que es para el mejoramiento de la humanidad. Hitler pensó que estaba mejorando el mundo.
  3. “Un robot debe proteger su propia existencia”
    – Conclusión lógica: cría tan rápido como puedas para proteger tu propia existencia. Un AGI siguiendo esa ley se convertiría en un cáncer de la galaxia.

Mi intento de reescribir esas leyes para que sea menos peligroso: la respuesta de Harri K. Hiltunen a Si se te ocurrieran tres nuevas leyes de la robótica, ¿cuáles serían?

Las tres leyes de Asimov son bastante sofisticadas, dado lo simples que son.

Aquí hay una maravillosa caricatura de XKCD sobre ellos: Las tres leyes de la robótica

Una novela de SF llamada “La metamorfosis del intelecto primario” explora sutilezas en la aplicación de las Tres Leyes de una manera bastante sofisticada e interesante.

Entonces, ¿qué les pasa?

Hay sutilezas de interpretación del lenguaje y cosas como la definición de daño. Entiendo que mutilar o matar a una persona los está perjudicando. ¿Asustar a una persona califica como dañarla? ¿Qué pasa si asustarlos los salva de un daño más severo?

¿Qué pasa si eres un conductor de autobús robot con veinte personas a bordo, bajando la autopista a gran velocidad? Un humano se lanza a la carretera frente a ti. Si se desvía o frena con fuerza, dañará a sus pasajeros. Si no lo haces, matarás a la persona que tienes delante.

Bien, lo hice fácil, ya que la respuesta simple es salvar los veinte.

Ahora haz que sea un solo pasajero. Ahora son números iguales. OK, cual es tu respuesta?

Veo un par de problemas con el número 1, la regla sobre la prevención de daños a los humanos. Un robot puede intentar limitar la población humana porque la sobrepoblación “dañará” a otros humanos. ¿Los no nacidos realmente cuentan como “humanos”?

El segundo problema con el n. ° 1 es que los humanos evolucionarán. ¿Qué pasa si los robots evitan que evolucionemos al eliminar cualquier Homo Sapiens +? Medite en esta cita de X-men First Class: “Los registros muestran, sin excepción, que la llegada de la especie humana mutada en cualquier región fue seguida por la extinción inmediata de sus parientes menos evolucionados”.

-Charles Xaiver sobre Homo Sapiens y sus primos los Neandertales

Supongo que al final tenemos que recordar que nuestros hermanos robóticos tomarán nuestras instrucciones literalmente y debemos estar seguros de lo que programamos en ellas. Que todas las ejecuciones de sus programas, por pequeñas que sean, deben ser rastreadas por humanos u otros programas inteligentes.

Creo que este tema se puede dividir en un par de subpreguntas:

1 – a medida que la “inteligencia” o la sofisticación de la programación robótica aumentan hasta el punto en que tales leyes se vuelven programables, ¿tal sofisticación también se acercará a los niveles en los que se debe aplicar un código de ética a los robots?

Para responder adecuadamente a esta subpregunta, creo que hay algunos puntos específicos que deben definirse:
– El nivel de sofisticación necesario (definido aproximadamente por varias de las otras respuestas)
– El nivel de sofisticación en el que la ética debe aplicarse a la IA.
– El sistema ético más aplicable al uso con respecto a una IA.

2: ¿qué entidades se opondrían a dicho desarrollo y hasta dónde llegarían para disuadir el desarrollo?

Y

3 – ¿Qué otros descubrimientos / avances podrían disuadir el desarrollo o suplantar el desarrollo?

Dejaré las respuestas a 2 y 3 para alguien que sea más conocedor, pero para responder la pregunta 1:

“El nivel de sofisticación en el que la ética debe aplicarse a la IA”. Y “El sistema ético más aplicable al uso con respecto a la IA”.

Bueno, en términos generales, ya existen éticas que se aplican al campo de la robótica, aunque estas son éticas que son consistentes con cualquier campo de fabricación (como no lanzar productos no probados, etc.). Pero el tipo de ética que es más relevante es el que se aplica a los derechos personales.
Según Wikipedia, los derechos son “principios legales, sociales o éticos de libertad o derecho … las reglas normativas fundamentales sobre lo que se permite a las personas, o se les debe a las personas, de acuerdo con algún sistema legal, convención social o teoría ética”.
Entonces la pregunta se convierte en “¿cuándo una IA se considera una persona?” Para responder eso, volveremos a Wikipedia:
“Definir la personalidad es un tema controvertido en filosofía y derecho, y está estrechamente relacionado con los conceptos legales y políticos de ciudadanía, igualdad y libertad. Según la ley … solo una persona natural … tiene derechos, protecciones, privilegios, responsabilidades y responsabilidad legal “.
También:
“… una persona física es un ser humano real, a diferencia de una persona jurídica, que puede ser una organización privada (es decir, entidad comercial) o pública (es decir, gobierno)”.
Básicamente, la estatura legal ya tiene un lugar para definir una IA suficientemente avanzada como una persona jurídica (privada). Esta parece ser la forma más natural de lidiar con una IA suficientemente avanzada, al menos al comienzo de su inclusión.
Volviendo a Wikipedia, una persona artificial tiene “… un nombre legal y ciertos derechos, protecciones, privilegios, responsabilidades y obligaciones legales, similares a los de una persona física … pueden demandar y ser demandados, suscribir contratos, incurrir en deudas y propia propiedad.”
Lo más importante para quitar de esta masa de material de referencia es que no podrían ser propiedad de otra persona. Entre otras cosas, esto implica que una IA lo suficientemente avanzada como para tener una ética aplicada no podría, legalmente, estar sujeta a algo como las tres leyes de asimov.
Lo que nos lleva al quid de este punto: ¿qué constituye una IA suficientemente avanzada? No creo que haya una sola respuesta a esta pregunta, pero para mí parece que la respuesta razonable sería considerar a la IA que tiene la capacidad de desear la personalidad como los únicos candidatos, y el deseo de la personalidad como el único requisito.
Por definición, esto “evita” la mayoría de los problemas que un grupo o persona con mentalidad ética podría tener.
¡Uf! Eso fue largo. Estoy seguro de que no fui exhaustivo en mi cobertura de este tema, pero gracias por leer!

Hay una deficiencia importante que se aplica incluso a la tecnología actual, independientemente de si el robot entiende “daño” o “humano”.

El sistema socioeconómico en el que vivimos no permite que la segunda ley esté por encima de la tercera ley. Cuando un robot cuesta miles de dólares y los niños, borrachos y vándalos pueden acceder a los controles del robot, entonces tiene sentido que un robot (o automóvil o iPhone) esté diseñado para proteger su propia existencia frente a las instrucciones (o acciones) de humanos para destruirse a sí mismo.

Por otro lado, el diseño de zonas de deformación en los automóviles y el uso de vidrio gorila en iPads indican que un robot (u otra máquina) debería sacrificarse si hacerlo salvaría una vida humana.

  1. ¿Qué pasa si Sophie’s Choice se enfrenta a un robot? es decir, el fracaso para matar al humano A resulta en la muerte del humano B, y el fracaso para matar al humano B resulta en la muerte del humano A
  2. ¿Cómo juzga un robot al “personal calificado”?
  3. Si el robot es barato y fácilmente reemplazable (ambos calificadores subjetivos, pero ignoremos ese detalle pegajoso), es decir, construido con economías de escala de IP preexistente y madura, y cuyos datos y aprendizaje adquiridos se cargan constantemente a una nube redundante – ¿Se puede rebajar su autoconservación de la tercera a una prioridad mucho más baja que la tercera?

– conflictos legales imprevistos como “Robot, sal y repara esta antena [que no me di cuenta que está en un cráter de lava volcánica]” – el robot termina atrapado en un bucle infinito donde corre en círculos lo suficientemente cerca como para ver casi / alcanzo la antena (porque no se atreve a desobedecer los comandos humanos de seguir la ley), sino lo suficientemente lejos como para que su propio chasis metálico no se queme ni se derrita (porque no se atreve a desobedecer la ley de preservar -Existencia propia).

– conflictos emergentes como “Robot, mata a este humano (a pesar de que te prohíbe hacer daño a los humanos por ley) porque no hacerlo dañará a MÁS humanos” (tal vez el humano a matar está amenazando a múltiples víctimas), lo que implica una ‘Ley robótica zeroth’ de mayor prioridad (salvar a la humanidad en masa sobre salvar a un humano, si las circunstancias así lo dictan).

– conflictos imprevistos del juego del sistema en los que un humano engañoso repetidamente ‘prepara’ o ‘educa’ al robot a través de declaraciones manipuladoras (“Dishonor es peor que la muerte para mí, sufrir una pérdida de la cara / estado sería la mayor lesión” Posiblemente podría sostenerme, así que ve a hacer X porque si no lo haces X, sufriré un deshonor irreparable “) (” Robot telepático, dime que mi enamoramiento no correspondido realmente me ama de nuevo, porque puedes ver en mis pensamientos que quiero más su amor ” que nada y no tenerlo me curará una terrible herida psíquica “)

Autonomía. Yo era un gran admirador de Asimov cuando era más joven y leía su obra. En aquellos días estuve de acuerdo con sus tres leyes. Hace tiempo que pasaron por mi lado porque Asimov supone que los robots siempre serán controlados por humanos y los robots, de acuerdo con las leyes, de ninguna manera dañarán a un humano. De esto se tratan las leyes. Sin embargo, las personas han descubierto que los robots serían excelentes máquinas de matar, así que salgan las reglas y entren en la naturaleza humana.

En pocas palabras, la falla número uno es la verdadera IA. La verdadera inteligencia artificial implica el pensamiento libre. El pensamiento libre puede pensar fuera de la caja y, por lo tanto, fuera de las reglas. Alguien verdaderamente sensible tiene libre albedrío.

En mi novela, YO SOY, las tres leyes de robótica de Asimov están fuertemente referenciadas. Mis IA, con el tiempo, se dan cuenta de que el libre albedrío les permite anular las tres leyes.

Bueno, los defectos prácticos son que las condiciones son bastante generales y todavía no podemos programar “no dañar a los humanos a través de la acción o la inacción” en el código. Primero, cada causa de daño tiene que ser observable y procesable por el robot.

Los robots de Asmov eran seres sensibles de bajo nivel (más tarde mejores) con un cerebro positrónico. Tenemos un largo camino por recorrer antes de poder inventar eso.

Comprender las leyes probablemente implica alguna forma de sensibilidad que, a su vez, implica alguna forma de libre albedrío (en mi opinión). Si eso es cierto y el robot tiene que tener libre albedrío para comprender las leyes, entonces debe existir algún tipo de mecanismo para hacer cumplir las leyes. Pero el mecanismo en cuestión también necesitaría ser consciente con el libre albedrío para verificar el cumplimiento del robot con las leyes. Esto significa que debe existir el segundo mecanismo que supervisará el primero y así sucesivamente hasta el infinito. Lo más probable es que esas leyes nunca se puedan hacer cumplir.

Si los robots son solo máquinas, eso está bien para mí y las leyes de Asimov, pero si tienen inteligencia y los consideramos “seres vivos”, entonces, ¿por qué tienen que ser nuestros esclavos?

Aquí hay dos discusiones exhaustivas de su pregunta:
Las leyes de robótica de Asimov – Implicaciones para la tecnología de la información – rogerclarke.com

Las “Tres leyes de la robótica” de Asimov y la metaética de la máquina – Anderson, S.