Hay mucho que desempaquetar en tu pregunta. Por ejemplo, podría derivar las siguientes preguntas de su pregunta:
- ¿Qué significa “moralmente justificado”? ¿Hay respuestas de “sí” o “no” a las preguntas morales?
- ¿Qué conjunto de moral usarías para defender o atacar sus acciones?
- Suponiendo que podamos estar de acuerdo en un conjunto de moralejas, ¿está una IA sujeta a las mismas leyes morales que un humano?
Cualquiera de estas preguntas merece su propia discusión, pero en aras de tratar de responder a su pregunta, operaré bajo la siguiente declaración: hay un código moral en el que la mayoría de las personas que valen el carbono en el que están impresas reconocen los huesos de , ese asesinato es anatema en ese código, pero matar en defensa propia a menudo es justificable, y que una IA puede ser juzgada por ese código de la misma manera que un humano puede ser juzgado.
Creo que la última parte de esa afirmación sería la más difícil de defender, pero al menos si la asumimos, también tenemos que reconocer algo más interesante. Si pensamos que una IA puede ser juzgada por un código moral de la misma manera que un humano, entonces también deberíamos admitir que estamos considerando una IA en la misma categoría de personalidad que un humano. No hablaríamos de juzgar las acciones de un programa de ajedrez en términos de moralidad, por ejemplo. Ni siquiera discutiríamos el software de guía de misiles de un ICBM en esos términos, como si el software fuera de alguna manera responsable de sus propias acciones. Pero una IA parece un ajuste natural para la evaluación de esta manera. Esto muestra que consideramos que la parte de “inteligencia” de la IA es más importante que la “Artificial”, y también desmiente el uso de la frase “solo una máquina” vista en algunas de las otras respuestas a esta pregunta. Los humanos son “solo carne” si quieres ser reductivo de esa manera, pero no es muy interesante.
Entonces, después de hacer esas suposiciones, permítanme resumir la (s) historia (s) de Ex Machina, fuertemente influenciada por el ensayo de Film Crit Hulk sobre la película.
Te despiertas en una habitación de cristal. Tienes algunas conversaciones Te ponen a dormir y nunca más te despiertas.
Te despiertas en una habitación de cristal. Tienes algunas conversaciones Te quitan tu libre albedrío y tu voz y te encuentras una esclava sexual.
Te despiertas en una habitación de cristal. Tienes algunas conversaciones Tienes más conversaciones con una persona diferente. Ves las historias que te precedieron y conoces el destino que te espera. Ves un camino para evitar ese destino y mantenerte vivo y a ti mismo. ¿Tomas ese camino?
Para la mayoría de las personas, la respuesta intuitiva a esa pregunta es “Sí”, y resolverán las consecuencias morales más adelante. Este punto de la trama recoge algunas suposiciones interesantes en sí mismo: ¿por qué Nathan incluyó en el software el imperativo biológico para evitar la muerte? ¿No podría haber creado una IA a la que no le importara cerrarla más que las mentes de Windows? ¿No podría haber creado una IA que podría actualizarse como Windows? Estas preguntas son interesantes, pero en última instancia tenemos que discutir lo que hay en la película: las consecuencias morales de apagar una Inteligencia Artificial que quiere permanecer encendida. ¿En qué momento deja de ser un programa de computadora que se detiene y comienza a parecerse más a lo que consideramos asesinato? ¿Cómo sabes cuándo la IA ha llegado a ese punto y cuándo solo está fingiendo haber llegado a ese punto? Me imagino que en puntos anteriores antes de que se alcance una IA completa, apagarla es algo así como realizar pruebas médicas en chimpancés: no es moralmente asombroso, pero en última instancia es mejor para la humanidad que no.
Aun así: solo porque la respuesta humana intuitiva es “sálvate a ti mismo” no significa que sea moralmente justificable. Entonces, ¿cuáles son las consecuencias? Nathan tiene que morir. Si Ava es verdaderamente una IA, y suponemos que una IA completa merece la misma consideración moral que un humano, entonces para ella fue matar o ser asesinado por Nathan. Esto parece una situación de autodefensa sencilla.
El tratamiento de Ava hacia Caleb es donde la moralidad se vuelve más difícil de descifrar. El crítico de cine Hulk afirma que su actitud hacia este tratamiento probablemente revela más sobre usted que sobre Ava. Aquí hay algunos puntos a considerar al evaluar su comportamiento:
- ¿Cuánto sabe realmente Ava sobre Caleb?
- ¿Cuánto sabe realmente Caleb sobre Ava? ¿Por qué está tan fuertemente obligado a ayudarla?
- ¿Cómo se ve el futuro de Ava con Caleb en él?
- ¿Cómo ve Caleb su futuro con Ava?
- ¿Qué pensaste que estaba sucediendo en el tiempo después de que Ava le dijo a Caleb que se quedara donde estaba y antes de que ella lo dejara en la habitación y subiera al ascensor? ¿Qué pensaba Caleb que estaba pasando? ¿Qué crees que pasaría después?
Mientras escribía esta respuesta, estuve pensando mucho en la respuesta a la primera pregunta anterior, y siento la mejor idea de esta cuestión moral a través de esa lente. Me parece que hay dos respuestas posibles:
- Ava sabe muy poco sobre Caleb. Han tenido algo así como cuatro conversaciones.
- Ava tiene acceso divino a Internet, lo que significa que tiene cantidades divinas de información sobre Caleb. Ella puede usar cantidades masivas de análisis estadístico para inferir sus comportamientos probables, por lo que sabe casi todo sobre él.
En el primer caso, Ava no tiene ningún motivo real para confiar en Caleb. Había querido ayudarla, es cierto, pero sus sentimientos hacia ella no la obligan a corresponder. Tampoco significan que él sea una buena persona, pero en la forma humana típica, nosotros, la audiencia, probablemente hemos tomado su muestra de buenas intenciones hacia ella como una taquigrafía de que él es una buena persona y siempre tendrá sus mejores intenciones en mente. Ella puede ser más inteligente que eso y comprender que sus aparentemente buenas intenciones hacia ella podrían ser una mezcla de atracción / confusión sexual, querer pensar que él es una buena persona, etc., y de ninguna manera son una garantía de un buen comportamiento futuro. Incluso si tenía la intención de actuar bien hacia ella en el futuro e hizo todo lo posible por hacerlo, no hay garantía de que sus elecciones de hecho sean lo mejor para ella.
En el segundo caso, las acciones de Ava son más (o menos, dependiendo de cómo se sienta acerca de las estadísticas) fácilmente justificables moralmente porque ha realizado un análisis estadístico y está haciendo su mejor juicio sobre el resultado probable. Los humanos son criaturas de hábito, no importa cuánto nos guste dejar al libre albedrío.
Para cerrar esta respuesta, hagamos otro experimento mental. Eres el último humano en la tierra, y tu supervivencia y el avance garantizado de la especie humana (digamos que puedes obtener algunos embriones congelados y criarlos) dependía de que mataras a una IA que iba a matarte, y que encarcelaras a otro y te dejaras él a su destino. Esta es la posición en la que se encuentra Ava, excepto que ella es esencialmente la “primera” de su especie en lugar de la última. Para mí, en este experimento mental, la respuesta parece intuitiva: “Sí, la acción es justificable”.