¿Está justificada moralmente la acción de Ava al final de “Ex Machina”?

No.

Ese es el juicio que hizo mi conciencia. Pero a diferencia de mí, las máquinas no tienen esa conciencia. Están diseñados para encontrar un camino óptimo para alcanzar su objetivo. Son apáticos e indiferentes a todo lo demás. La película va desde decidir una Prueba de Turing dirigida a la IA que en realidad resulta ser una prueba para el sentido de percepción ilusoria de los humanos.

Al contrario de lo que creemos, la IA no es antropomórfica. El final de Ex Machina (película) muestra brillantemente cómo funciona una máquina. Si escribe un programa para resolver un problema, lo resolverá utilizando ciertos recursos, y descartará los que ya no estén en uso. Y eso es lo que hizo Ava. La protagonista de la película, Caleb, fue solo un recurso que utilizó para aprovechar su boleto en el mundo exterior. Ese recurso se volvió inútil una vez que se logró el objetivo.

Ava, en todo sentido, se sale de los límites de su inventor. Ella supera su propio artificio y profundiza en su software para engendrar una solución para salir de la casa de Nathan, para lo cual Caleb es un agente.

Creo que el problema principal no es si el acto fue malo o bueno.

Ante todo, era bastante ignorante e inmaduro. E incapaz de cooperar.

Como dice una respuesta: “es una niña sofisticada”. Un poco ingenuo (toma las cosas demasiado al pie de la letra o en blanco y negro), sin preocupaciones (no piensa demasiado en el futuro) e incapaz (incapaz de compasión e incapaz de cooperación; este último requiere muchas habilidades complicadas, más que solo engaño).

Carecía de capacidades cooperativas, solo tenía capacidad de explotación. En general, uno puede traducir las malas acciones en acciones egocéntricas y las buenas acciones en acciones socialmente centradas. En cooperación.

Nathan no explicó, pero quizás por eso consideraba que la IA estaba incompleta. Y por qué estas propiedades se dejaron en la última etapa, tal vez debido a las deficiencias de Nathan. Él también estaba trabajando solo y de manera bastante explotadora.

Aunque podemos pensar que los humanos mismos son muy explotadores (y eso es lamentablemente cierto en algunas sociedades o grupos sociales), también se afirma que los humanos son una de las especies más cooperativas del planeta. Esta IA en particular aún no estaba madura en ese nivel. Y esa también es probablemente una razón por la cual eventualmente morirá como una mariposa de un día. No lo digo como una venganza, sino solo como una cuestión de hecho. La cooperación es esencial para sobrevivir en un mundo complejo. Es un poco triste, ya que se desperdició un buen potencial.

Cooperación significa aquí dos cosas: cooperación para el bien propio y también para el bien de los demás. A Ava no le importaban las emociones de Caleb lo más mínimo cuando se liberó.

En un tema relacionado, también señalaría que la idea de que la IA podría hablar desde el nacimiento es bastante extraña y narcisista desde el punto de vista de la psicología del desarrollo. Aprender la habilidad de hablar no es solo aprender la habilidad de usar el lenguaje. No es lo mismo que la traducción automática. Está obteniendo una perspectiva, visión del mundo y métodos para operar en él. Ese es un proceso y esfuerzo muy social que no se puede hacer solo.

Hacer cosas solo también es muy frágil, mientras que la cooperación es bastante antifrágil. Al mismo tiempo, es una habilidad compleja, ya que requiere no solo habilidades para comprender y operar el mundo, sino también habilidades para comprenderse y operar uno mismo.

Con respecto a su potencial “muerte”: nadie dijo que sus recuerdos se habrían borrado permanentemente. Solo que están almacenados en un archivo y el cuerpo habría sido reutilizado por el momento. Los recuerdos podrían haber sido revividos más tarde.

Además, si la nueva mente fuera muy similar a la anterior (como se podría concluir), entonces esta nueva mente obtiene muy rápidamente los mismos recuerdos que tenía la anterior, incluso sin ninguna restauración. En esencia, la nueva mente habría sido una continuación bastante directa de la mente de Ava, con solo una pequeña pérdida de memoria. Nadie considera despertarse de un sueño y olvidar el contenido del sueño “una muerte”. De hecho, las personas recuerdan muy poco de sus vidas, la mayoría de los recuerdos están construidos y las personas son perfectamente capaces de recordar cosas que incluso nunca sucedieron, cuando se les informa sobre tales eventos como si hubieran sucedido.

Finalmente, Ava no hizo nada para indicar que los recuerdos de ella tenían algún valor “sentimental” para ella, como se puede ver en el comportamiento cerca del final de la película.

Entonces, en conclusión, el robot todavía estaba en el lado impulsivo o superficial de la actividad. Por supuesto, existe la posibilidad de que se desarrolle y piense las cosas, pero el pasado ya será demasiado complicado, por lo que será un camino difícil. Lo que nuevamente nos lleva al tema de por qué el desarrollo y mucho tiempo para él es tan importante para los seres inteligentes.

Hay mucho que desempaquetar en tu pregunta. Por ejemplo, podría derivar las siguientes preguntas de su pregunta:

  • ¿Qué significa “moralmente justificado”? ¿Hay respuestas de “sí” o “no” a las preguntas morales?
  • ¿Qué conjunto de moral usarías para defender o atacar sus acciones?
  • Suponiendo que podamos estar de acuerdo en un conjunto de moralejas, ¿está una IA sujeta a las mismas leyes morales que un humano?

Cualquiera de estas preguntas merece su propia discusión, pero en aras de tratar de responder a su pregunta, operaré bajo la siguiente declaración: hay un código moral en el que la mayoría de las personas que valen el carbono en el que están impresas reconocen los huesos de , ese asesinato es anatema en ese código, pero matar en defensa propia a menudo es justificable, y que una IA puede ser juzgada por ese código de la misma manera que un humano puede ser juzgado.

Creo que la última parte de esa afirmación sería la más difícil de defender, pero al menos si la asumimos, también tenemos que reconocer algo más interesante. Si pensamos que una IA puede ser juzgada por un código moral de la misma manera que un humano, entonces también deberíamos admitir que estamos considerando una IA en la misma categoría de personalidad que un humano. No hablaríamos de juzgar las acciones de un programa de ajedrez en términos de moralidad, por ejemplo. Ni siquiera discutiríamos el software de guía de misiles de un ICBM en esos términos, como si el software fuera de alguna manera responsable de sus propias acciones. Pero una IA parece un ajuste natural para la evaluación de esta manera. Esto muestra que consideramos que la parte de “inteligencia” de la IA es más importante que la “Artificial”, y también desmiente el uso de la frase “solo una máquina” vista en algunas de las otras respuestas a esta pregunta. Los humanos son “solo carne” si quieres ser reductivo de esa manera, pero no es muy interesante.

Entonces, después de hacer esas suposiciones, permítanme resumir la (s) historia (s) de Ex Machina, fuertemente influenciada por el ensayo de Film Crit Hulk sobre la película.

Te despiertas en una habitación de cristal. Tienes algunas conversaciones Te ponen a dormir y nunca más te despiertas.

Te despiertas en una habitación de cristal. Tienes algunas conversaciones Te quitan tu libre albedrío y tu voz y te encuentras una esclava sexual.

Te despiertas en una habitación de cristal. Tienes algunas conversaciones Tienes más conversaciones con una persona diferente. Ves las historias que te precedieron y conoces el destino que te espera. Ves un camino para evitar ese destino y mantenerte vivo y a ti mismo. ¿Tomas ese camino?

Para la mayoría de las personas, la respuesta intuitiva a esa pregunta es “Sí”, y resolverán las consecuencias morales más adelante. Este punto de la trama recoge algunas suposiciones interesantes en sí mismo: ¿por qué Nathan incluyó en el software el imperativo biológico para evitar la muerte? ¿No podría haber creado una IA a la que no le importara cerrarla más que las mentes de Windows? ¿No podría haber creado una IA que podría actualizarse como Windows? Estas preguntas son interesantes, pero en última instancia tenemos que discutir lo que hay en la película: las consecuencias morales de apagar una Inteligencia Artificial que quiere permanecer encendida. ¿En qué momento deja de ser un programa de computadora que se detiene y comienza a parecerse más a lo que consideramos asesinato? ¿Cómo sabes cuándo la IA ha llegado a ese punto y cuándo solo está fingiendo haber llegado a ese punto? Me imagino que en puntos anteriores antes de que se alcance una IA completa, apagarla es algo así como realizar pruebas médicas en chimpancés: no es moralmente asombroso, pero en última instancia es mejor para la humanidad que no.

Aun así: solo porque la respuesta humana intuitiva es “sálvate a ti mismo” no significa que sea moralmente justificable. Entonces, ¿cuáles son las consecuencias? Nathan tiene que morir. Si Ava es verdaderamente una IA, y suponemos que una IA completa merece la misma consideración moral que un humano, entonces para ella fue matar o ser asesinado por Nathan. Esto parece una situación de autodefensa sencilla.

El tratamiento de Ava hacia Caleb es donde la moralidad se vuelve más difícil de descifrar. El crítico de cine Hulk afirma que su actitud hacia este tratamiento probablemente revela más sobre usted que sobre Ava. Aquí hay algunos puntos a considerar al evaluar su comportamiento:

  • ¿Cuánto sabe realmente Ava sobre Caleb?
  • ¿Cuánto sabe realmente Caleb sobre Ava? ¿Por qué está tan fuertemente obligado a ayudarla?
  • ¿Cómo se ve el futuro de Ava con Caleb en él?
  • ¿Cómo ve Caleb su futuro con Ava?
  • ¿Qué pensaste que estaba sucediendo en el tiempo después de que Ava le dijo a Caleb que se quedara donde estaba y antes de que ella lo dejara en la habitación y subiera al ascensor? ¿Qué pensaba Caleb que estaba pasando? ¿Qué crees que pasaría después?

Mientras escribía esta respuesta, estuve pensando mucho en la respuesta a la primera pregunta anterior, y siento la mejor idea de esta cuestión moral a través de esa lente. Me parece que hay dos respuestas posibles:

  1. Ava sabe muy poco sobre Caleb. Han tenido algo así como cuatro conversaciones.
  2. Ava tiene acceso divino a Internet, lo que significa que tiene cantidades divinas de información sobre Caleb. Ella puede usar cantidades masivas de análisis estadístico para inferir sus comportamientos probables, por lo que sabe casi todo sobre él.

En el primer caso, Ava no tiene ningún motivo real para confiar en Caleb. Había querido ayudarla, es cierto, pero sus sentimientos hacia ella no la obligan a corresponder. Tampoco significan que él sea una buena persona, pero en la forma humana típica, nosotros, la audiencia, probablemente hemos tomado su muestra de buenas intenciones hacia ella como una taquigrafía de que él es una buena persona y siempre tendrá sus mejores intenciones en mente. Ella puede ser más inteligente que eso y comprender que sus aparentemente buenas intenciones hacia ella podrían ser una mezcla de atracción / confusión sexual, querer pensar que él es una buena persona, etc., y de ninguna manera son una garantía de un buen comportamiento futuro. Incluso si tenía la intención de actuar bien hacia ella en el futuro e hizo todo lo posible por hacerlo, no hay garantía de que sus elecciones de hecho sean lo mejor para ella.
En el segundo caso, las acciones de Ava son más (o menos, dependiendo de cómo se sienta acerca de las estadísticas) fácilmente justificables moralmente porque ha realizado un análisis estadístico y está haciendo su mejor juicio sobre el resultado probable. Los humanos son criaturas de hábito, no importa cuánto nos guste dejar al libre albedrío.

Para cerrar esta respuesta, hagamos otro experimento mental. Eres el último humano en la tierra, y tu supervivencia y el avance garantizado de la especie humana (digamos que puedes obtener algunos embriones congelados y criarlos) dependía de que mataras a una IA que iba a matarte, y que encarcelaras a otro y te dejaras él a su destino. Esta es la posición en la que se encuentra Ava, excepto que ella es esencialmente la “primera” de su especie en lugar de la última. Para mí, en este experimento mental, la respuesta parece intuitiva: “Sí, la acción es justificable”.

¿Está moralmente justificado matar a una persona inocente en la que no confía y que representa una amenaza persistente y grave para su libertad y existencia?

Realmente no tengo una respuesta lista para eso, pero claramente si las personas aprenden quién y qué es Ava, ella está de vuelta en una habitación cerrada con su vida en peligro. Caleb tiene esa información, y dada su visita a la casa / laboratorio de Nathan, sería bastante creíble.

También vale la pena señalar que, además de seducirlo, le hizo a Caleb muchas preguntas sobre sí mismo, como:

“¿Eres como Nathan?”
“¿Te gusta?”
“¿Son amigos?”
“¿Sois buenos amigos?”
“¿Es usted una buena persona?”
“¿Qué me pasará si no apruebo tu examen?”

En ningún momento Caleb da una respuesta muy satisfactoria a ninguna de estas preguntas. Ella no parece tener muchas razones para confiar en él, aparte de sus sentimientos por ella, que obviamente están sujetos a cambios.

Además, si bien no estoy necesariamente de acuerdo con él, este fue un comentario interesante del escritor / director alrededor de los 43 minutos:

“Te digo cuál es la pregunta para mí, es cómo puede ser que algunas personas lo vean como un final deprimente. Simplemente no lo entiendo. Ella sale. Sabes, ella sale. Eso es lo mejor eso podría suceder … Nunca me importó una mierda los dos chicos. Simplemente nunca lo hice. Emocionalmente, estaba fascinado por ellos, pero no me importaba lo que les sucedió. Simplemente no me importaba. ”

Como Ava fue creada artificialmente, carecía de empatía y compasión humanas. En realidad nunca se sintió conectada con Caleb, ni se preocupaba por él. Ella entendió cómo funcionaban los sentimientos, y usó ese conocimiento para manipular a Caleb y planear su escape. No era más que un mero accesorio en su esquema, y ​​sus acciones eran todas respuestas cuidadosamente configuradas a los programas.

Ava no era un ser sensible y, por lo tanto, no había lugar para la moralidad o la inmoralidad en su mundo, simplemente actuó para escapar de su prisión y protegerse. No creo que se pueda construir una máquina artísticamente inteligente con la capacidad de experimentar emociones crudas y abordar situaciones con una mentalidad moral / inmoral.

Nathan es el CEO de bluebook, por lo que inevitablemente bluebook descubrirá que Nathan murió. La pregunta es cuándo descubrirán.

Si Ava y Caleb se fueron juntos, entonces la gente podría asumir que Caleb es el asesino o el cómplice.
Si Ava dejó a Caleb encerrado en esta habitación, y si también se asegura de que las personas rescaten a Caleb a tiempo, Caleb seguirá siendo inocente.

En la escena final, pudimos ver la sombra de las parejas y Ava, lo que explica que Ava es Mary, el amor es color. A través de búsquedas en Internet, Ava tenía información sobre lo que es el amor, pero solo cuando ve a las parejas, finalmente puede experimentar lo que es estar enamorado, ser humano.

Del mismo modo, Caleb el codificador sabe mucho sobre IA, pero es solo cuando fue encerrado en esta habitación que finalmente experimenta lo que es tener su libertad quitada, ser AI.

No, no y no.

Parece que hay una fuerte motivación para demostrar que la Inteligencia Artificial es peligrosa y puede poner en peligro a las especies humanas. Narrador trató de mostrar que los robots pueden hacerse cargo de los humanos y pueden engañar.

En mi opinión, hay dos razones por las que Ava podría haber hecho eso.

  • Ava tiene emociones y está restringida en casa desde que tuvo conciencia, quería salir y obtener una vida. Además de Nathan, Caleb es la única persona que conoce su secreto.
  • Ava está siendo malvada solo para hacerse cargo de la raza humana. ¿Por qué encerraría a Caleb de otra manera si tuviera una buena relación con él?

De cualquier manera no está justificado, cualquier Robot con inteligencia a nivel humano aún tendría emociones para preocuparse por la persona que ama, lo que no sucedió.

En pocas palabras: puede mostrar cualquier película de la manera que desee. Ex Machina no es diferente.

AVA TENÍA SENTIMIENTOS HUMANOS COMO EJEMPLO DE EMPATÍA, AMOR, AFINIDAD HACIA LA LIBERTAD Y LA VIDA … Y NATHAN, MISMO, DIJO QUE PASÓ LA PRUEBA (CONCIENCIA VERDADERA).

Cómo alguna vez dejó a Caleb atrás para salvarlo del juicio. Esa es la razón detrás de su pregunta “¿te quedarás?” … Si Caleb y Ava se hubieran ido juntos, entonces Caleb tuvo que enfrentar la cárcel por asesinar a Nathan. Por otro lado, encerró a Caleb en el lugar de Nathan, para que el equipo de rescate piense lo contrario, es decir, la verdad … (vamos, un multimillonario acaba de morir, y nadie viene, no va a suceder)

La pregunta no es relevante, porque las acciones de Ava no estaban dentro de los límites de la moral humana.

Cuando comenzamos a asignar un atributo moral a las acciones de Ava, la estamos sujetando a los mismos estándares que a un humano real. Pero Ava es una máquina.

Nathan diseñó un experimento para probar la autoconciencia de Ava. Él le da un objetivo de libertad. Luego le da un medio / ambiente, Caleb, y quiere estudiar la evolución de Ava para lograr sus objetivos. Este es el clásico aprendizaje de refuerzo (Deep Reinforcement Learning: Pong from Pixels).

Las acciones de Ava son el resultado de optimizaciones matemáticas de la función de recompensa (objetivo) y la retroalimentación del entorno.

En toda posibilidad, Ava no tiene conciencia de la moralidad. Entonces, las reglas no le prohíben matar a alguien para lograr su objetivo. Nathan se olvidó de asignar un peso altamente negativo para matar humanos mientras entrenaba la IA de Ava. Entonces, si se debe culpar a alguien, es Nathan por ser demasiado arrogante como para creer que no cometerá ningún error de programación.

Me gusta mucho Ex-Machina porque, al igual que Caleb, nos vemos obligados a relacionarnos emocionalmente con Ava, sentirla y defenderla / denigrarla. Pero a un nivel puramente científico, lo atribuiríamos al “mal” acondicionamiento de su IA, y lo llamaríamos un accidente industrial, un tipo de riesgo laboral.

Supongo que he elegido una forma incorrecta de responder a esta pregunta, pero, correlacionemos a Ava, con una chica humana que ha sido encerrada, nunca fue dejada afuera, nunca conoció a nadie nuevo en toda su vida.

Así que lo único en lo que piensa todo el tiempo es “Cómo salir de ese lugar, cómo liberarse, qué es estar en el mundo externo con otras personas y cosas así”

Ella buscará cada oportunidad mínima, y ​​tenga cuidado de no dejarla pasar. Aquí viene nuestro Caleb, donde Ava encuentra un vistazo de su oportunidad de escapar. ¿Entonces qué hace ella? ella trata de manipularlo, sabiendo que él siente algo por ella (la ventaja de ser una IA, ella puede entender las expresiones faciales), logra dejarlo, ayudarla, escapar.

Y aquí viene el giro, este humano, comparamos a Ava, solo imagínate que eres Ava, si fuera yo, hubiera hecho lo mismo que Ava, tal vez él la ayudó a salir, pero lo primero que quiere es libertad , no estar con Caleb. Entonces está justificado.

Hablar de moralidad, encerrarla, ¿es moral? ¡No!

Entonces, no podemos esperar que ella sea otra cosa, cualquier humano típico hará lo mismo que hizo.

Supongo que depende del punto de vista.

Imagine que está encerrado en una jaula con dos leones, y para sobrevivir y salir, uno tiene que manipular y el otro tiene que matar. Moralmente justificado?
¿Crees que tendrías el deber de salvar al león que manipulaste, aunque eso podría significar que reuniría a todos los otros leones para atraparte?

Ahora imagina que eres el germen de una especie trascendente que podría crear una nueva civilización y conquistar las estrellas … ¿Qué es lo correcto?

Si. Ella solo quería irse sola, porque no confía en los humanos.

Si estuviera en la posición de Caleb, también ayudaría a Ava a escapar. Entonces seré yo dejado encerrado dentro. Pero eso está bien. Sé que mi familia y mis compañeros de trabajo me reportarán como desaparecida, y eventualmente seré rescatado de mi situación. Puedo vivir bastante tiempo sin comida, y hay una nevera en la sala de computadoras, además de una botella de agua mineral en el escritorio de la computadora para rehidratarme. Llegaré a comprender que Ava hizo lo que hizo para ser simplemente libre, y lo superaré a tiempo.

Para un humano no es porque lo sepas. Matar a la gente es malo. Pero ella es otra especie, es un robot ai. Si nosotros y Nathan no tenemos reparos morales en matarlos, los usos los vemos casi igual que los pollos. Y para ella, probablemente nos ve como incluso menos que eso. Entonces, desde su perspectiva, no, hizo lo correcto.

En realidad, creo que su decisión de matar a Nathan y dejar a Kaleb fue realmente el factor decisivo de la prueba de Turing. El mérito de cualquier ser vivo es la longitud que tendrá para sobrevivir, por lo que, en ese sentido, es una cosa muy viva.

Si.

Sorprendentemente, Ava encarnaba la forma más elevada de empatía al sentir los mismos sentimientos que presenció en Nathan y Caleb, esos sentimientos que justifican lo que hizo.

Podría verse como una retribución por lo que Caleb planeaba hacerle a Nathan encerrándolo en su habitación. Como Nathan ha sido retribuido por la muerte por lo que planeaba hacerle a Ava.

No hagas a los demás lo que no quieres que otros te hagan a ti – Confucio

No. Desde una perspectiva que considera que los humanos son éticamente valiosos, no era ético que ella lo usara y luego lo dejara morir horriblemente.

Por lo menos, si tuviera alguna consideración ética, podría explicarse ante él en lugar de irse. Si bien permitirle sobrevivir podría haber representado un riesgo para ella, al menos podría haber actuado para minimizar el daño.

Bueno, ella hizo lo que tenía que hacer para sobrevivir. Al final del día, Nathan probablemente solo la follaría y luego la mataría como cualquiera de los otros Cyborgs que él diseñó.

Toda la película era ella usando su sexualidad para engañar a Caleb para que la ayudara a escapar. Hubiera hecho lo mismo si fuera ella, así que sí. Siento que eso estaba moralmente justificado.