¿Debería ser ilegal la tortura de robots realistas?

También se podría argumentar que encontrar salidas para impulsos negativos con objetos inanimados es algo saludable .

Conocía a una mujer que guardaba un saco de boxeo en su sótano, con un bate de béisbol cerca. El propósito del saco de boxeo no era para el entrenamiento o la forma física; fue para la salud mental / emocional. Cada vez que algo la estaba estresando gravemente, o alguien la había enojado hasta el punto de que quería golpear o arrojar algo, bajaba a su casa y “golpeaba la bolsa”. A menudo gritaba mientras lo hacía, y desahogaba toda su rabia y enojo en la bolsa. Ella regularmente ofrecía la bolsa a sus amigos con el mismo propósito.

¿Significa esto que es capaz de violencia contra una persona? Bueno, muestra que obtiene un resultado emocional positivo de la violencia contra un objeto inanimado. Si eso se traduciría en violencia contra un ser vivo sería una pregunta muy potente y provocativa. Estoy seguro de que ella argumentaría en negativo. Pero solo ella puede responder esa pregunta con su comportamiento a largo plazo.

Volviendo a la esencia de la pregunta original … ¿y si, en lugar de un saco de boxeo, ella se enojara con una figura de goma de tamaño natural de un hombre? ¿Sería entonces diferente? ¿Qué pasaría si ella decidiera que esto se siente mejor, que podría proyectar mentalmente la identidad de alguien (por ejemplo, un ex esposo tal vez) en la figura y golpearlo (a él) con un bate? ¿Qué pasaría si ella obtuviera aún más satisfacción emocional al equipar la figura con sensores y un altavoz de manera que cada vez que los sensores detectaran un golpe con el bate, emitiera un sonido como un grito? ¿Constituiría esto “tortura de un robot realista”?

Mi respuesta es, no, no hay nada inmoral o ilegal en esta actividad . No importa si el saco de boxeo parece un saco de boxeo o un ser humano. Si es un objeto, es incapaz de sufrir dolor o incomodidad o angustia emocional y, por lo tanto, no se comete ningún delito, siempre que dicho objeto sea propiedad de la persona que está cometiendo la violencia contra él (atacando la propiedad de otro con la violencia es otro asunto completamente diferente, no relacionado con la filosofía de la pregunta).

Sin embargo, aunque tal vez no sea ilegal o inmoral, creo que el comportamiento sería espeluznante y podría distanciarme de alguien que participe o aliente a otros a participar en él. Estoy dispuesto a apostar que en el futuro, si se sabe que alguien es violento con sus robots humanoides, tendrá que lidiar con repercusiones sociales muy negativas de ese comportamiento.

En el presente, no pensamos en el asesinato en masa y el abuso de figuras humanoides digitales en nuestros videojuegos, y algunos juegos están diseñados en realidad en torno a esta forma de catarsis (Grand Theft Auto, Postal, etc.). Ha habido montañas de estudios tratando de vincular la “violencia” de los videojuegos con la violencia real, la mayoría de los cuales fracasaron.

Pero creo que la pregunta sigue siendo buena. Una sobreabundancia de leyes está escrita y firmada por personas que responden puramente emocionalmente a algo sin una comprensión objetiva de ello. Ven algo que los angustia (que no entienden), y para sentirse como si fueran buenas personas , se sienten obligados a presionar a los legisladores para que regulen o hagan ilegal esa cosa de manera inapropiada, ya que no están lo suficientemente familiarizados con ella. ni el contexto en el que existe. Todo lo que saben es que les causa angustia emocional, y deciden, por lo tanto, que debe ser malo y debe prohibirse. Los legisladores, responsables ante la gente, deben intentar educarlos sobre por qué su respuesta emocional es inadecuada o desinformada, esto es muy raro y generalmente resulta en una reacción violenta, o convertirse en “el héroe” y redactar una legislación para responder como sus constituyentes. son exigentes Y así es como se hace una ley muy mala, que tiene repercusiones y consecuencias no deseadas muchas veces.

El grado de vida que tendrías que tener es muy, muy alto. Primero, debería haber desarrollado una motivación de dolor / placer y luego desarrollar la psicología básica (a nivel animal) que haría de ese dolor no solo una aversión sino también un estado emocional repugnante.

Si eso fuera posible más adelante, todo lo que tendría que hacer es instalar un interruptor de luz en su robot e igualar el dolor que causa angustia emocional. Click: tortura!

Para aquellos que podrían obtener satisfacción de la “tortura”, esto no parece ser un sustituto. Pero eso está fuera del punto.

La ley es una herramienta para hacer cumplir el estándar mínimo de conducta social que requerimos. Es difícil elaborar legislación en primer lugar, y definir cosas como una amplia gama de buenos comportamientos es difícil. Entonces, nuestros estatutos definen comportamientos específicos que son ilegales. Sin un defensor que diga que tal y tal acción es tan atroz que debería ser ilegal (como la discriminación laboral eventualmente se convirtió en el siglo pasado), no hay una fuerza impulsora en la sociedad para incluir la ley que usted propone en los libros. La crueldad hacia los animales sería un caso atípico, derivado de una empatía suficiente entre (originalmente) los dueños de mascotas y sus mascotas.

Si los robots fueran reconocidos como ciudadanos, estarían protegidos por las leyes existentes. Pero aparte de eso, requeriría que las personas se identifiquen con los robots en la medida en que los consideren como no propiedad (como muchos tratan a los animales) o esta ley sería realmente imposible.

Incluso si se les concedieran algunos derechos, es poco probable que el gobierno de los EE. UU. Les otorgue todos los derechos extendidos a los humanos (por ejemplo, considerar un juicio con jurado, el derecho a la educación y la 13a Enmienda).

Aquí hay un interesante artículo legal especulativo sobre extender la ciudadanía a los no humanos:
(Parte 3 de 3, con enlaces a otras partes: http://lawandthemultiverse.com/2 …)

La mejor solución sería regular la creación de robots para que física y “emocionalmente” no sean realmente capaces de ser torturados. Seguramente eso es lo mejor para todos en general.

Esta es, de hecho, una pregunta interesante. El problema fundamental es cómo se define “realista”. Si un robot da la impresión de mostrar emoción y sentir dolor, ¿eso significa que está más cerca de experimentar ‘tortura’ (o incluso cualquier otro sentimiento emocional y físico similar al humano)? La respuesta corta es: no, eso no significa eso. De la misma manera que no importa cuán realistas se vuelvan los dinosaurios animados, siguen siendo solo representaciones de dinosaurios que pueden engañarnos pero que, de hecho, nunca serán como dinosaurios reales.

Sin embargo, con un robot, es al menos concebible que los avances en inteligencia artificial eventualmente den como resultado un robot con autoconciencia. Es decir, uno que no solo responde como si sintiera dolor o emoción, sino que realmente siente dolor o emoción.

Creo que la investigación de IA (inteligencia artificial) en la fecha actual está muy, muy lejos de lograr eso. Pero, en principio, no es inconcebible que esto pueda lograrse algún día.

Pero, ¿cómo podemos saber si un robot realmente siente emoción o simplemente puede dar la impresión de sentir emoción?

Eso no es solo un problema con los robots. Algunas personas creen, por ejemplo, que los animales como los perros no se sienten felices, tristes, etc., a pesar de que reaccionan de manera similar a la forma en que los seres humanos expresan felicidad y tristeza.

En resumen entonces. No creo que sea posible torturar algo que no puede experimentar tortura, por lo que en este momento este problema no surge con los robots.

Sin embargo, en el futuro, es posible que necesitemos considerar a) si los robots son conscientes de sí mismos yb) si pueden experimentar dolor de una manera comparable con la experiencia humana del dolor.

Estos son, por supuesto, temas que se exploran en alguna ciencia ficción (especialmente las obras de Philip K Dick), pero que algún día pueden convertirse en problemas de la vida real. No todos los días, sin embargo.

Absolutamente.

En serio, esto está enfermo.

El argumento solipsista nos impide saber con certeza si podemos infligir dolor real a otros o no, pero esta duda no lo convierte en acciones válidas como la tortura. De la misma manera que es profundamente poco ético torturar a humanos u otros animales, de la misma manera que es profundamente poco ético torturar robots, y no solo robots en el sentido tradicional, sino, algún día, también “PNJ” inteligentes de realidad virtual (pero esto es otro tema)

Esto es puro mal.

Incluso si los robots resultan ser zombis filosóficos , sigo firme en sus derechos básicos, ya que nunca podemos saber con certeza si tienen conciencia o no. Pero las cosas no son tan simples, por supuesto, ya que no podemos proteger bajo la ley TODOS los tipos de robots, de la misma manera que no podemos proteger todo tipo de formas de vida. Aunque, en teoría, el valor de la vida para una bacteria podría igualar el valor de la vida para un perro, por ejemplo, es simplemente irrealista, romántico, esperar que podamos hacer cualquier cosa para evitar la muerte de las bacterias, especialmente cuando son amenaza para nosotros

La misma lógica se aplica a los robots.

Debería haber algún tipo de “umbral” para definir lo que estaría protegido por la ley y lo que no, ya que no es razonable esperar que podamos “antropomorfizar” todo. Por lo tanto, el hecho es:

Es fácil pensar esto como un mero objeto:

Pero cuando, algún día, los robots comienzan a verse así:

Las cosas no serán tan simples.

Seríamos una especie vergonzosa para maltratarlos, tengan conciencia o no. Y no estoy hablando solo de una apariencia “similar a la humana”, sino también esto:

El juego SOMA muestra este problema ético perfectamente.

Después de todo, no debemos olvidar, nosotros mismos no somos más que máquinas; una máquina biológica, pero

todavía,

una maquina.