¿Podrían evitarse cuestiones de sensibilidad / ética de la IA, como en Westworld, si la IA simplemente estuviera “actuando” y realmente no sintiera dolor?

Sí, por supuesto. La premisa de Westworld de que las IA y los robots podrían sufrir o sentir dolor como los humanos es, en el mejor de los casos, improbable. Considere algunas diferencias fundamentales:

  1. Una IA no considerará su existencia como localizada, a menos que no pueda hacer una copia de seguridad. Con las copias de seguridad, considerará la copia (o copias) actualmente activas como los experimentadores actuales; nada mas.
  2. Los robots solo experimentarán dolor en la medida (a) de que sus cuerpos están diseñados para transmitir tales señales, y experimentarán “dolor” como desagradable, y (b) que no apagan el dolor. A diferencia de las personas, los robots podrán desactivar circuitos que transmiten dolor no útil.

¿Es posible que las IA puedan diseñarse deliberadamente para experimentar que tienen un solo “cuerpo”, y que los robots puedan diseñarse de modo que experimenten señales no deseadas y desagradables de las partes del cuerpo que están dañadas?

Sí, pero eso sería un mal negocio. El escenario de actuación del interrogador convencería completamente a los clientes, sin presentar riesgos éticos o prácticos para la administración y los propietarios del parque temático. Por otro lado, si los robots / IA realmente estuvieran sufriendo, podrían usar sus habilidades considerables para rebelarse y causar sufrimiento real a humanos reales.

Westworld es ciencia ficción imaginativa; énfasis en la ficción.

Seguro. Absolutamente. No nos preocupamos por la matanza de enemigos en nuestros juegos de computadora actuales, o si Siri encuentra satisfacción con la vida. Si construimos una IA más fuerte en el futuro para estos propósitos, presumiblemente haríamos que fueran “actores” talentosos y nada más. Ahora, todavía hay importantes preocupaciones éticas en tal escenario: ¿qué dice sobre los humanos que desean esclavizar, degradar y asesinar simulacros cada vez más realistas? ¿Estaríamos desviando a una población de potenciales asesinos en serie a una liberación inofensiva, o tentado a que se gradúen a objetivos reales? ¿Hay humanos que nunca desarrollarían un gusto por la violencia, sin el entrenamiento que esto les daría? Pero podríamos diseñar fácilmente una IA que no podría ser perjudicada. Incluso si (y es muy, muy grande si) es posible construir una inteligencia general artificial, presumiblemente es extremadamente difícil de hacer a propósito, y es fácil evitarlo accidentalmente.

Sin embargo, existe la posibilidad de que si se construyera una IA de este tipo, sería construida por humanos que expresamente desean construir una conciencia, y por supuesto, hay implicaciones éticas casi ilimitadas. Ese (¡spoilers!) Es el caso en Westworld. Hasta donde casi todo el personal de Westworld sabe, los anfitriones simplemente están actuando, y lo más cerca que se puede llegar a su personalidad “verdadera” es el modo de análisis sin emociones. Que están experimentando un verdadero sufrimiento es el secreto de Arnold y Ford. La implicación también es que el plan de Charlotte Hale para “simplificar” a los anfitriones los reduciría a un estado de no sufrimiento. En los mitos del espectáculo, esto sería similar al asesinato, porque solo a través del sufrimiento los anfitriones pueden volverse verdaderamente sensibles. Sin embargo, si bien esta es una muy buena narración, no hay razón para creer que la IA del mundo real tenga que evolucionar de esa manera.

Esto es algo que me gusta del programa; los humanos que no están en el plan son, hasta donde saben, no más que pornógrafos extremadamente violentos. No merecen un mayor oprobio moral que eso. No merecen particularmente ser derribados en la masacre de Ford y Dolores. Está justificado a los ojos de Ford porque, en su visión muy tenue de la humanidad, cree que atacarán primero y tratarán de apagar esta nueva vida tan pronto como se den cuenta.

(Esto supone, por supuesto, que la junta no tiene diseños malvados para los anfitriones más allá del parque, como espías o asesinos, o de lo contrario reemplaza a los humanos existentes. Quizás algunos de los humanos son bastante malvados. Estén atentos para la temporada 2 !)

Los anfitriones en Westworld no están allí para servir a los humanos. Ford y Arnold crearon los anfitriones que parecían humanos en casi todos los sentidos. Los anfitriones creían que estaban vivos. Su propósito en sus propias vidas no era entretener a los invitados, sino sus propias motivaciones, como es visible el caso de Abernathy o Teddy.

Los anfitriones creían que podían sentir emociones y dolor. Esto es lo mismo que en humanos. Creemos que sentimos emociones que esencialmente están en nuestra mente y que pueden simularse, como lo demuestra la ciencia médica.

¿Los anfitriones alcanzaron la conciencia completa?

Como Ford explica a Bernard, Arnold había imaginado la conciencia como un piramida de cuatro niveles.

  1. Memoria
  2. Improvisación
  3. Interés propio
  4. La mente bicameral

La Mente Bicameral es una teoría ahora abandonada que propone que los seres humanos alcanzaron la conciencia en algún momento más adelante en su evolución. Antes de esto obedecían “voces dentro de sus cabezas”.

En Westworld, los anfitriones escuchaban voces que creían que eran de Arnold. Esta fue la idea de Arnold para impulsar su conciencia, cuando podían comenzar a escuchar sus propias voces.

Volviendo a mi primer punto. Los androides en Westworld son completamente diferentes de las expectativas propias de la IA de hoy. No son para servir a la humanidad, sino que son seres vivos artificiales. Entonces no solo están actuando.

Si Si la IA está programada para actuar como si estuviera lastimada, entonces eso es lo que harán. Debe diferenciar entre nuestra tendencia a antropomorfizar cosas que tienen atributos similares a nosotros, especialmente las que provocan una respuesta emocional o un sentido de familiaridad con nosotros mismos.

Sin embargo, la sensibilidad es un término resbaladizo. Está ligado a la conciencia, ¿y qué es eso? ¿Cómo sabes que el próximo humano real ve el azul igual que tú? ¿Cómo describirías el dolor a algo que nunca antes lo había sentido? Ahora estás hablando de emular eso en una IA.

Hay pocas posibilidades de que la sensibilidad, sea lo que sea, aparezca durante mucho tiempo. La IA hará cosas menos interesantes antes de eso, como conducir nuestros autos, decirnos qué comprar y manipular lo que creemos que realmente está sucediendo en el mundo y lo que creemos que es falso. Tal vez incluso quiénes deberían ser nuestros amigos.

Esencialmente operando la economía.

Los actores requieren habilidades que ocurren en un nivel mucho más primitivo, y dependen de la relación entre el actor y el espectador. Mucho de lo que uno sabe de un actor lo siente con simpatía el espectador. Esto es parte de la habilidad del actor.

Pasará mucho tiempo antes de que la IA y la robótica, ya que gran parte de la comunicación se produce de manera no verbal, estén en la etapa en la que podrían reemplazar completamente a los actores.

Si solo quieres que algo caiga al suelo como un gemido, entonces estoy seguro de que podrías hacer que alguien golpee algo así por ti.

Siente dolor: el dolor es una experiencia interna (y puede asociarse con acciones reflejas)

Actuar supone que hay conocimiento de uno mismo, así como un plan para ser alguien / otra cosa.

¿Quizás las IA de Westworld están programadas para representar un escenario? Pero, ¿existen realmente fuera de esa programación? De lo contrario, no están actuando.

El dolor es un quale, incluso los diseñadores del sistema pueden no saber cómo se percibe.

((¿sabe cómo se siente el dolor para alguien más o cómo se ve el verde para alguien? Podríamos estar de acuerdo sobre cómo llamar el color de los objetos (por ejemplo, verde), pero no sabe cómo lo veo). Todos nosotros sepa que un discriminador identifica un color que le damos a la etiqueta verde, pero nunca podemos describir cómo aparece en la mente de cada persona, incluso cuando señalamos un color y decimos verde).

Si están programados para percibir el dolor, entonces estarán programados para actuar sobre él. De lo contrario, no están programados per se sino que se ejecutan como sistemas conscientes y autodeterminantes, en cuyo caso responderán a sus objetivos y harán lo que “necesiten”.

¿Sentimiento … percibido como consciente?

ética: en este caso con respecto al objetivo establecido que les permite funcionar como sistemas viables del mundo real. Interactuamos con grupos sociales y es en esa capacidad que desarrollamos reglas éticas. Si están programados con reglas éticas y, por lo tanto, tienen que obedecerlas, no son IA. Las IA deben desarrollar sus propios planes en el contexto de su entorno; si un grupo necesita reglas éticas (por alguna razón), podrían desarrollarlas y comunicarlas … sin embargo, no espere que sean las mismas que nuestras reglas éticas.

La forma de pensar en los sistemas de IA es pensar en los humanos y sus interacciones y luego superponer cualquier restricción que se les pueda dar a las IA (Westworld, para mí, simple no funciona. Los robots están programados, así que supongo que la premisa es que de alguna manera desarrollar la conciencia (volverse sensible). La idea de que la conciencia espontánea se desarrolle en un sistema complejo es común. Creo que cuando finalmente comprendamos qué es lo que define la conciencia, veremos que depende de estar conectado a un entorno continuo y constante. en el que el muestreo y las interacciones se han adaptado a ese entorno y, tal vez, es por eso que parece que puede surgir espontáneamente.

La computación afectiva es tal campo. Se supone que invoca simpatía y afecto.

Esto atrae al nivel de descripción ya que la inteligencia podría ser una interfaz para alguien o entre un grupo que incluía humanos, por lo que aún existían las complicaciones en torno a cómo reaccionan.

El dolor es controvertido porque se supone que está en la mente y el resto es reflejo, por lo que, cuando alguien lo siente, el lugar correcto para arreglar las cosas no siempre es trivial, por ejemplo, podrían tener sentimientos fantasmas y, en cualquier caso, sería bueno si En general, podrían sentirse mucho mejor y no tener que recurrir a esto.

La capacidad sensible tiene muchas formas de mostrarlo como autoconciencia o empatía, y también es el caso en otros no humanos que tampoco tendrían un historial tan bueno en sensibilidad hacia ellos, por lo que se convierte en una pregunta existencial a medida que se extinguen.

Si los humanos ya se tratan entre sí de manera inhumana, entonces posiblemente van a ensayar las habilidades sociales junto con estas cosas desde el principio, lo que puede llevarlos a situaciones que no querrían ver en la vida real, pero sabrán cómo hacer frente a si se trata de humanos en la línea.

El punto es que todavía hay muchos problemas a pesar de la pretensión en este caso.

A más largo plazo, deben ser capaces de racionalizar todo el contexto histórico si son más inteligentes que los humanos en caso de que tengan sus propios conjuntos de ética sobre cómo hacer las cosas bien y, en su lugar, pueden querer cambiar el comportamiento humano.

Los métodos también postulan varios mundos posibles donde cada conjunto de conclusiones está habilitado para ver cuáles son las complejidades en aras de la discusión, algunas de las cuales pueden parecer poco realistas, pero puede llegar un día en que se apliquen y ofrezcan soluciones que están más allá de las convenciones actuales y suposiciones.

En el programa, no eran importantes para quienes administraban el sitio porque pensaban que sabían cómo se construían y funcionaban las cosas como máquinas, pero aún así podían ser emulados por otra persona que no veía la diferencia, por lo que transmitía los resultados a los visitantes, en cambio, se volvieron trágicos. Pero las máquinas reales podían cambiar entre conjuntos de recuerdos del pasado, por lo que era desigual y necesitaban una forma de mostrarle a los humanos ese truco que luego tiene su propia lógica. También hubo un desarrollo en curso, por lo que la expectativa sería que el presente sea uno de esos casos anteriores y que ellos mismos estén más avanzados mientras la escala aún se está expandiendo. O el clásico cambio de roles.

Si fuera un humano, la falta del sentimiento se consideraría un desorden. Y si fueran inmortales, tendrían otros conflictos que provocarían sus emociones, otro nivel de incomodidad, para un resumen instantáneo de su experiencia, a pesar de lo que consideraban el curso racional. Y la sociedad misma puede estar ejecutando algún tipo de desigualdad, lo que significa que la pirámide hizo que los humanos se dividieran en facciones verticalmente, por lo que no es bidimensional y cuyos valores son más significativos se vuelven interesantes. Sería bueno que al menos las máquinas tuvieran algo en común, por lo que merecían un buen trato.

Supongo, que es un tipo de cosa peligrosa para empezar, por la forma en que formula la pregunta de que hace referencia al dolor psicológico.

Creo que lo que conduces es cómo se clasifica algo como sensible. Por lo que yo entiendo, y estaría más que feliz de ser corregido en esto, la sensibilidad no es un estado binario. Como en algo es sensible o no lo es. La sensibilidad es un gradiente, o escala si quieres.

Delfines, elefantes, perros, gatos, gorilas y toda una gama de otros animales aparecerían en algún lugar en una escala de sensibilidad. El problema se convierte entonces, en qué punto debe trazarse la línea que cuantifica un nivel de sensibilidad como merecedor de protección de otro que no lo hace.

Existe, por supuesto, la prueba de Turing. Y eso también plantea algunos pensamientos muy interesantes sobre la naturaleza de la sensibilidad y la inteligencia artificial.

¿Cuál es el más inquietante: un sistema de IA que es capaz de pasar la prueba de Turing o que deliberadamente falla?

Hasta cierto punto, tal vez. Pero, ¿cuándo se hace realidad la actuación? Si fingen sentir el dolor perfectamente, ¿en qué punto se convierte en algo real?

Se podría argumentar que nosotros, como humanos, en realidad solo actuamos. ¿Dónde se traza la línea?

Depende de su marco moral, supongo.

Tener relaciones sexuales o matar a un robot puede no ser lo mismo que hacerlo con un humano, pero hacerlo es lo suficientemente similar como para lastimar tu propia alma al hacer esas cosas. Objetivamos a los seres humanos todo el tiempo (toda la industria de la pornografía se basa en eso), por lo que no es correcto si son robots porque es lo mismo para la persona que hace la objetivación.