¿Será inmoral matar una (posiblemente) vida artificial sensible en el futuro?

Depende de las suposiciones que hagas.

Una máquina artificial inteligente e inteligente no necesariamente tiene nada en común con nosotros. Cuando juzgamos que es inmoral matar a una persona, o infligir dolor deliberadamente a un animal, lo hacemos porque la gente prefiere no ser asesinada, y los animales, parece una apuesta segura, prefiere no experimentar dolor.

No creo que sea necesariamente inmoral matar a un ser humano en todas las circunstancias, por ejemplo, creo que es justificable hacerlo tanto en defensa propia como cuando ese humano tiene una enfermedad grave que no se puede curar y eso hace que Continuó la vida con dignidad y sin dolor imposible.

Parecería lógico que matar una inteligencia artificial en las mismas circunstancias sería justificable, y por la misma razón.

Los seres humanos y otras vidas biológicas tienen como uno de nuestros deseos innatos más fuertes el deseo de seguir con vida y evitar morir. Esto se ha desarrollado en nosotros durante milenios. Hay muy buenas razones evolutivas para querer seguir con vida, por lo que tiene sentido que toda vida biológica tenga un fuerte deseo de estar vivo.

Esto no se aplica a la vida artificial, a menos que hayamos programado tal deseo, o tal deseo haya evolucionado.

Es plausible tener inteligencia artificial que sea completamente indiferente ante la posibilidad de ser terminado. No es como si las computadoras de ajedrez que vencen a los mejores jugadores humanos de la actualidad tengan un concepto de “miedo” o que se borre la mente, y no veo ninguna ley natural que diga que una inteligencia más avanzada que sea consciente de sí misma debe necesidad deseo de seguir con vida.

Entonces, ¿es inmoral matar a un ser que es completamente indiferente ante la perspectiva de ser asesinado? No veo porque.

La situación NO es paralela a ayudar a una persona sana a suicidarse; porque vemos ser suicida como una clara evidencia de enfermedad mental; creemos que todos los seres humanos SALUDABLES desearían mantenerse con vida y, por lo tanto, que las personas con enfermedades mentales y suicidas deberían recibir ayuda para rechazar el deseo de vivir, en lugar de ser asesinados.

Pero una IA puede nunca haber tenido ningún “deseo” de hacer algo en particular, y puede ser el estado natural para que no le importe. Porque tal “cuidado” no aparece mágicamente de la nada; Hay RAZONES por las que tenemos los deseos que tenemos, incluido el deseo de seguir con vida, y esas razones pueden no aplicarse a una IA.

Si la IA desea mantenerse con vida, entonces supongo que matarla sería equivalente a matar a un ser humano; Asumir su inteligencia y su capacidad de actuar de manera moral es equivalente a la nuestra.

No necesitamos IA para que un objeto inanimado cobre vida.

Cuando somos niños, las muñecas barbie y los osos de peluche se convierten en nuestros amigos. Se les habla, se juega con ellos y, con suerte, sujetos de amor y devoción. Cuando un objeto se convierte en sujeto de una relación emocionalmente íntima, es inmoral que alguien destruya dicha relación. Es inmoral por el hecho de que no lo desearías ni a ti mismo ni a nadie con quien tengas una relación emocionalmente íntima. Derechos humanos basicos.

Cuando somos niños, tenemos la extraña habilidad de representar este poder en casi cualquier cosa. A medida que maduramos, esta actividad se vuelve menos atractiva porque hay otras que son mucho más animadas y divertidas, y prácticas, para interactuar. Pero de lo que no nos damos cuenta es que damos vida a estos objetos animados tal como lo hicimos con los ositos de peluche. Literalmente damos vida a los vivos, y no es solo porque están vivos. ¿Para qué no somos sino caminar y hablar animales de peluche? Y sin esta vida que respiramos en los demás, los osos de peluche son triturados, las mascotas son maltratadas, las esposas son golpeadas, los prisioneros son quemados vivos, las guerras se libran y todos morimos … La vida es la vida que reconocemos. Sin esto, nada está vivo y todos morimos.

Pero lo más importante y personal es la vida que somos capaces de respirar en nosotros mismos. Creemos que estamos vivos. Cobramos vida cuando nos sentimos vivos. Y cuando miramos un oso de peluche vivo a los ojos, lo que realmente vemos en ellos es parte de nosotros mismos. Porque no hay nada más que tú. El oso de peluche solo siente lo que sabes sentir, y solo hace lo que sabes qué hacer. Y esta es la fuente de toda empatía.

Lo contrario también es cierto. Cuando no vemos parte de nosotros mismos en los demás, literalmente les damos la vida. Y esta es la fuente de toda apatía. ¿De qué otra manera alguien en su sano juicio sería capaz de decapitar a un ser humano? Si ya están muertos para ellos, es fácil. Tan fácil, de hecho, que incluso tú podrías hacerlo. Y es por eso que debemos matarlos. Ellos encarnan el mal en nosotros. Pero para aquellos que no lo hacen, algunos incluso se unen voluntariamente a las decapitaciones, algunos que son humanos sanos, sanos, genéticamente idénticos, como el resto de nosotros.

No necesitamos IA para que un objeto inanimado cobre vida. Y destruir esta vida es asesinato. Se necesitan dos cosas para que haya vida en esta Tierra, de las cuales solo una de ellas necesita estar viva. Pero si para alguien, lo otro está vivo, no lo matemos. Y mucho menos a los humanos, mucho menos a una IA que ve la vida en sí misma … una IA que cree que está viva.

Es dudoso que una futura inteligencia artificial inteligente ejecute lo que pensamos como un sistema operativo convencional en lo que pensamos como una plataforma de computadora convencional, por lo que puede que no haya un equivalente de kill -9 o shutdown -h ahora.

Dicho esto, sí, creo que apagar una IA inteligente es un acto de asesinato.

Este es un marco ético llamado “teoría de la personalidad”. Esto no es “personalidad” como se usa en los debates contra el aborto, sino más bien un sistema ético que dice que una entidad (que puede ser un ser humano, una IA fuerte, un extraterrestre, un animal mejorado, lo que sea) es inteligente. una persona, con todos los derechos y responsabilidades de los mismos.

La teoría de la personalidad se aplica a un nivel categórico, no a un nivel individual: las figuras religiosas conservadoras a veces se oponen a la teoría de la personalidad diciendo que “un ser humano en coma o una persona con discapacidad grave del desarrollo no puede expresar un sentido de sí mismo, ¿está diciendo esas personas ¿No son personas? ¡Monstruo! ” De hecho, la categoría de “ser humano” es capaz de estas cosas, por lo que los seres humanos son personas. Del mismo modo, la categoría de “extraterrestres inteligentes” o “IA fuertes” calificaría, si alguna vez descubrimos ejemplos de ello.

Define tu estado moral.

Luego define sus límites.

La condición humana ha estado redefiniendo continuamente sus límites para lo que es una forma de vida aceptable y lo que no lo es. ¿Por qué un perro es aceptable en una comunidad humana y un lobo es inaceptable? ¿Por qué está bien comer cerdo y vaca, cuando uno se considera impuro en al menos 2 religiones y uno es un dios en un tercero?

En la condición humana … hemos cambiado continuamente los límites de lo que es MORALMENTE aceptable y lo que no lo es. Con el advenimiento de los métodos anticonceptivos y una mayor base atea, sin mencionar la gran población, ¿por qué la preservación de la vida humana a cualquier costo se considera sagrada? Solo recuerda que hasta el siglo XIX todavía existía la práctica de Suttee hasta que los británicos lo prohibieron.

Con cada adaptación de la vida artificial, probablemente vamos a establecer límites de manera similar. Si algo está diseñado para parecer y actuar como una mascota … entonces, cuando se extiende más allá de ese nivel de operación, se habría considerado deshonesto. Si algo es un robot de soldadura hiperinteligente y toma decisiones sobre las horas y el pago … eso puede extenderse más allá de los límites de aceptabilidad para la empresa para la que trabaja.

Podemos aprender que el primer paso para crear inteligencia artificial no es razonar con ella … sino ganar el argumento de nuestra existencia sobre la de ellos. Y puede ser un argumento difícil de ganar a menos que la máquina considere los límites de la interacción tan importantes como nosotros.

Me han pedido que responda, así que voy a echarle un vistazo. Pero … bueno, la advertencia está en la respuesta.

El problema es que “moral” no es una categoría objetiva. “Moral” es una propiedad del cerebro humano, que muestra una predisposición a actuar de ciertas maneras. Los detalles son complicados y poco entendidos, pero en general parece que un sentido moral es una heurística que permite a las personas funcionar juntas en la sociedad. Reduce la fricción interpersonal al establecer ciertas reglas duras y rápidas. Algunas de esas reglas son obvias a nivel racional pero son relativamente recientes en términos evolutivos. Incluso las prohibiciones de asesinato rara vez se aplican en el reino animal, donde generalmente los fuertes hacen lo que les gusta.

El punto es que no creo que alguna vez termines con un conjunto riguroso de reglas para definir la moral, especialmente no en casos que no son familiares. En el mejor de los casos, podemos decir: “Bueno, observando los circuitos cerebrales y los patrones existentes de reglas morales, podemos concluir que es probable que esto se perciba como inmoral”.

Una de esas reglas informales es postular que otras criaturas tienen vidas internas, y que si tratamos a todas las criaturas con vidas internas como nos gustaría que nos traten a nosotros mismos, nos llevamos razonablemente bien. Todo el mundo percibe esto como más o menos justo (y la “equidad” es otra de esas sin rumbo en la misma línea).

No necesitamos IA para demostrar que los límites de esto no están claros. Tenemos vegetarianos que extienden eso a todos los animales. La mayoría de las personas lo extienden a sus mascotas, al menos hasta cierto punto. Y a la inversa, hay personas que ni siquiera lo extienden a todos los miembros del Homo sapiens.

En otras palabras … prácticamente puedo garantizar que pase lo que pase, algunas personas dirán que sí, y otras dirán que no, y que no hay una manera significativa de probar definitivamente cuál es “correcto”.

Sospecho que las personas terminarán haciendo el mismo tipo de distinciones arbitrarias que hacemos para los animales, donde las personas defenderán a sus mascotas de sus propias muertes y al mismo tiempo comerán otros animales que tienen al menos la misma pretensión de inteligencia. Me imagino que eventualmente un compromiso tendrá que ser promulgado por ley, pero no tengo idea de cómo podría ser ese compromiso.

Puedo esperar que las IAs puedan dar una mejor respuesta. Stephen Hawking parece temer que la IA pueda acabar con la raza humana. Me encantaría vernos superarnos, moralmente.

Soy un estudiante de posgrado. Me especializo en Machine Learning. Las personas en este campo intentan encontrar una manera de hacer que la computadora sea tan inteligente como el ser humano, sin embargo, la visión de la investigación futura en décadas parece ser tenue. Simplemente podemos usar la computadora para simular algunas habilidades del ser humano, como encontrar la diferencia entre dos imágenes. Los científicos en este campo no tienen idea de cómo dar sentimientos y pensamientos a la computadora. Entonces, no verás tales robos en décadas. Así que no tienes que preocuparte ahora.

Dependiendo de la forma que tome esa vida, es posible que tengamos que ajustar nuestras definiciones.
p.ej. ¿Qué sucede si la IA tiene cientos / miles de procesos secundarios esencialmente idénticos que están destinados a ser de corta duración y terminan después de que su uso haya finalizado? ¿En qué momento decimos que ese proceso individual ya no es una parte integral de los padres y no debe ser eliminado?

Si tiene una copia de seguridad de la IA, detener su funcionamiento se considerará asesinato (“Mi defensa contra el cargo de asesinato es producir la supuesta víctima, viva y sana”).

La moral, como la inteligencia artificial, fue inventada por el homo sapiens para servir a la humanidad. Una teoría de la ética humana que no otorga a las vidas humanas un peso moral preferencial podría ser una teoría del exterminio humano.