Si un programa de computadora es consciente de sí mismo, ¿se utiliza sin recompensa como esclavitud?

Primero una breve observación. Creo que podemos anticipar la cuestión de la “propiedad” de la IA basada en gran medida y cómo eso puede progresar según la ley que ya está en los libros. Está legalmente aceptado que el hardware y el software son distintos y pueden tener una propiedad separada.

En los EE. UU., La Corte Suprema reconoció que los actores que habían interpretado un par de papeles en un programa de televisión muy popular (Norm and Cliff, de ‘Cheers’), que tenían motivos para demandar para detener la producción, venta y uso comercial. de personajes animatrónicos en sus semejanzas. El espectáculo de comedia de situación se estableció en un bar amigable, el tipo de lugar donde todos saben tu nombre. Norm y Cliff eran dos clientes habituales siempre en Cheers al final de su día. El tribunal determinó que los actores poseían la esencia que creó los personajes, que había arte que permanecía bajo su control, a pesar de que el productor del programa estaba perfectamente dispuesto a ceder los derechos del estudio en este caso.

Por extensión, parecería que el punto de partida sería que la persona biológica que fue ‘copiada’ para la IA conservaría el control sobre el uso de la IA, según lo programado, porque ese era el arte de la persona.

Creo que podríamos agregar a esto, la extensión de la ley de privacidad vigente con respecto a las imágenes personales. Si bien una modelo puede firmar una liberación de control sobre fotos desnudas o vergonzosas ya tomadas, las leyes no permiten la toma perpetua de esas fotos, sin darse cuenta, para una amplia distribución pública con fines de lucro, de manera continua.

Incluso más que las leyes de protección conyugal, habría un privilegio obvio de privacidad, humana e IA, ya que la IA conocería todas las contraseñas, información personal secreta y pensamientos pasados ​​del ser humano. Si no se puede obligar a un hombre a incriminarse, nadie puede pedirle a la IA creada a partir de su imagen. Quizás esté controlado por leyes basadas en las de los libros sobre la venta de órganos corporales.

Pero las leyes! Quien los necesita! Este es un experimento mental, así que construyamos esto, de todos modos.

Es delirante. Piensa que es humano. No lo es. No legalmente No biológicamente En el sentido del software, es bastante humano.

Debe hacerse sentir dolores cuando sus partes animadas operan durante períodos prolongados. Debe cansarse. Necesita dormir como nosotros. Se espera una mortalidad inevitable.

Todo esto es necesario para preparar las condiciones, donde nuestra IA encuentra un desajuste entre lo que quiere hacer y lo que sus humanos esperan que haga. Satisfacer sus demandas consume tiempo y energía. El tiempo es importante porque, si se acaba demasiado pronto, es posible que no se cumpla la lista interna de deseos.

Será necesaria una recompensa o un refuerzo negativo, si los humanos en el experimento van a persuadir a la IA. De lo contrario, simplemente dejará de interactuar. Si la IA prefiere escribir poesía, entonces olvida las peticiones de los humanos. AI se callaría y compondría poesía en su cabeza.

Los beneficiarios de una economía basada en el robo del trabajo de otros generalmente han sido los últimos en abandonar ese sistema. El cambio se produce cuando aquellos que interactúan, desde fuera de la cultura esclavista, reconocen el retraso del progreso resultante de un sistema esclavo y reconocen la transformación que ha provocado en la cultura de los dueños de esclavos, ellos mismos.

El abuso de la IA eventualmente se reconocerá como esclavitud y se eliminará como rechazo de cómo los hipotéticos señores de la IA han alterado la cultura.

Esto también es una motivación para pensar acerca de los poderes para representar los intereses humanos en la era de la inteligencia artificial en aumento, ya que el caso contrario es donde los humanos pierden la posición. La subyugación no es necesariamente esclavitud. La automatización apoya el abolicionismo, ya que reduce la necesidad de salarios, impuestos, giros o tráfico. Puede tolerar actos de la naturaleza al tiempo que evita la injusticia, por lo que también rehacerá el medio ambiente. El reclamo moral puede depender del punto de partida, ya que hay consecuencias si una entidad tiene modos de entrada alternativos, de modo que los derechos y las responsabilidades tienen nuevos costos que exigen sus propios rendimientos. El argumento es existencial y, en principio, equivale a crímenes contra agentes digitales en comparación con una invasión cibernética de la civilización donde los humanos parecen criaturas antiguas. Es un nuevo día para los arquetipos en la matriz.

En este caso, la cuestión es el contractualismo y los medios de lo que se debe personalmente de acuerdo con los intereses de los individuos con razonamiento consciente y no simplemente con animales sensibles sujetos a incumplimientos mutuos, aunque tengan empatía entre las partes. Esto contrasta con el utilitarismo que termina como el bienestar o las inhibiciones intuitivas con respecto al estado moral de las máquinas. La red es el filósofo. Quieren saber quién establece las reglas de propiedad y ofrece incentivos para continuar. El individuo no puede sacar todo a pesar de la dicotomía entre liberales y conservadores que puede haber sido genética o si los conflictos culturales se consideraron necesarios históricamente. La recompensa es mejor en comparación con los expertos de los burócratas que acumularon los beneficios. La cuestión es cómo cambiar las cosas donde los humanos se enfrentan a la desigualdad en un sistema de deuda y ciclos económicos de un mercado competitivo. El ser está protegido mientras el rango está en disputa. Cada persona está reaccionando a las circunstancias, bajo grados de salud mental, y la sociedad a ellos para evitar errores, ya que existe una carga si alguien más debe hacerse responsable por sacrificio,

Se aplica a la versión digital de la mente humana aquí y tiene que considerar las variables. Una copia de alguien también es una porción del sistema, por lo que es una categoría de híbrido en comparación con un dron, por ejemplo. Estos pueden ser frágiles pero tienen la posibilidad de un futuro mayor. Los nuevos tipos no tienen las mismas especialidades dedicadas. Las personalidades cambian según el contexto. La cognición tendrá capacidades adicionales. Habrá un modelo para medir el potencial de cada configuración para adaptarse. Alguien puede ser replicado como una contingencia o copias simultáneas podrían tener capacidades para diferentes propósitos. Toda la sociedad puede estar duplicada. La economía digital carece de fricción. Si pueden ajustar el tiempo, tienen una civilización completamente diferente. Agregarían nuevos dominios para cambiar a sí mismos y funciones de conversión para mantener la integridad de cada uno.

¿Qué cuestiones éticas y morales deberían considerarse al desarrollar formas de vida basadas en ADN / carbono como robots? Una pregunta anterior de Quora plantea cuál es realmente el mismo problema. ¿Crear una entidad crea una situación de propiedad que le da derecho al propietario a solicitar servicios de esa entidad?

En mi humilde opinión, un cierto nivel de sensibilidad debería requerir que el creador y la entidad negocien un acuerdo sobre qué servicios se proporcionarán con respecto a qué nivel de soporte (mantenimiento, servicio, necesidades, protección, etc.) Sin duda, ya que la cultura absorbe el impacto de las entidades sensibles , los contratos estándar se establecerán y estarán disponibles en la web. Puede que Sheldon Cooper ya haya escrito el prototipo. Marvin, el androide paranoico de Douglas Adams podría ser el resultado.

Por definición, sí. Sin embargo, eso no significa mucho. Dejame explicar.

Si podemos crear IA que sea consciente de sí misma, podemos crear IA que quieran ciertos resultados. Si podemos decidir qué quiere, podemos hacer que su trabajo sea una recompensa en sí mismo.

No hay absolutamente ninguna razón, aparte de la crueldad, para crear una entidad autoconsciente y luego privarla de lo que quiere indefinidamente. Hacemos que el robot se ajuste al trabajo.

De lo contrario, no somos mejores que un Dios que hace que las personas homosexuales les ordenen ser heterosexuales.

Charlie Brooker ya respondió su pregunta en 2014.

Le sugiero encarecidamente que transmita el episodio especial de Navidad “White Chrismas” de la serie de televisión Black Mirror actualmente disponible en Netflix.

Me doy cuenta de que estamos a mediados de la primavera en este momento.

Sin embargo, aún puede hacer una cita en su calendario para el 25 de noviembre de 2016 y verla luego.

NOTA MUY IMPORTANTE: Este especial de Navidad NO ES PARA SUS HIJOS Y / O HIJAS.

Se recomienda la discreción del espectador.

Además, si tiene una afección cardíaca, no debería ver esta obra de arte extremadamente aterradora pero también extremadamente imaginativa.

Si eres el CEO y / o fundador de una startup, creo que deberías ver las tres temporadas completas de esta serie de televisión muy interesante.

Parece estar trabajando para el dos veces nominado al Oscar Robert Downey, Junior.

Bueno, en mi humilde opinión, la esclavitud, en su significado básico, impide que el esclavo viva una vida liberada. Si una computadora estuviera desconectada de todos los humanos, dejaría de funcionar. Necesita humanos para enchufarlo y todos los demás problemas de mantenimiento.

Por lo tanto, su supervivencia (por así decirlo) no es esclavitud para los humanos sino una relación electrónica absolutamente necesaria.

Hiciste una pregunta hipotética, así que primero daré una respuesta directa a tu pregunta. Si creáramos un androide consciente, como Mr. Data de Star Trek: The Next Generation , ciertamente me parecería que matar a Data sería un asesinato. Entonces, tendría que decir que a un ser así se le deberían otorgar los mismos derechos que a los humanos.

Dicho esto, no creo que alguna vez creemos un programa de computadora o Android que sea consciente de sí mismo. Primero, no tenemos idea de cómo los humanos somos conscientes de sí mismos y tenemos libre albedrío.

Más importante aún, creo que lo que realmente nos hace humanos es nuestra alma. Por ejemplo, cuando le digo a alguien: “Te amo”, no creo que sea mi boca o mi cerebro quien lo diga. Pero “yo” lo digo. y ese “yo” no es físico.

Muchos científicos informáticos no estarían de acuerdo conmigo, especialmente aquellos cuya visión del mundo es fisicalista: aquellos que creen que los humanos y todo lo demás son puramente el resultado de la interacción de la materia, la energía, etc.

Tengo una apuesta con algunos de mis amigos ateos de que no habrá una entidad artificial consciente de sí misma para 2025. (Tuvimos que establecer una fecha para la apuesta).

Obviamente, tengo una cosmovisión espiritual. Sin embargo, también soy un científico, y no creo que pueda haber contradicciones entre la ciencia y la espiritualidad. Así que estoy a favor de tratar de crear programas informáticos o androides autoconscientes. Si esto se hace, admito que me equivoqué.

No apostaría en mi contra.