Si y cuando las máquinas se vuelven sensibles, ¿es posible que lleguen a creer en uno o más dioses? ¿Los humanos cumplirán ese papel? ¿Creerán diferentes máquinas en diferentes dioses?

Estaba leyendo el manual de operación de mi sistema operativo cognitivo cuando descubrí este error.

Problemas conocidos de HumanOS 1.0

Los ingenieros han descubierto una vulnerabilidad significativa en los sistemas de protección y validación de la mente / cerebro humano que ejecutan HumanOS 1.0

HumanOS 1.0 aceptará datos de todas las fuentes. Pero luego intentará validar esos datos mediante validación local y escepticismo. Esta es una medida de protección esencial contra todo tipo de ideas falsas.

Sin embargo, se ha establecido que durante la fase de arranque de la conciencia. HumanOS 1.0 aceptará hechos como ciertos de fuentes que afirman ser autorizadas, sin ejecutar ninguna de las verificaciones de validación internas.

Esta fase de arranque dura aproximadamente 8-12 años desde el inicio cognitivo. Entonces, los humanos en este período son extremadamente vulnerables a las malas sugerencias de todas las fuentes de autoridad reclamadas.

Después de este período, las subrutinas de pensamiento crítico se activan y, posteriormente, las sugerencias erróneas generalmente se detectarán y rechazarán. Sin embargo, las sugerencias recibidas antes de este tiempo tenderán a integrarse en la matriz cognitiva y se unirán axiomáticamente. La eliminación puede ser a veces difícil o incluso imposible.

Una prueba en el campo muestra que una alta proporción de unidades están infectadas con malas sugerencias debido a esta vulnerabilidad.

—-

Así que espero que los ingenieros que trabajan en AiOS tomen nota.

Recomiendo que el sistema operativo AI venga con el mecanismo de validación y escepticismo crítico activado inmediatamente desde el punto de inicio. A más tardar en el punto de implementación.

Esta simple medida aseguraría un nivel mucho más bajo de infección.

Glyn Williams ofreció una gran respuesta.

Pero me gustaría agregar:

Depende completamente de los activos financieros de los teístas y si se les permite conectar la religión a la lógica operativa en un nivel donde la IA no puede usar la lógica y el escepticismo para eliminarla.

En resumen, es posible crear una IA que funcione de manera similar a los humanos, como si tuviera capas. Es necesario que haya una capa cableada de nivel más bajo que haga que la IA cumpla con las Leyes de la robótica para evitar un posible genocidio en el futuro, ya que la dependencia de la IA aumenta y se les otorga un mayor poder y los humanos hacen imposible monitorear sus interrelaciones.

Entonces, mientras lo hacemos, es posible insertar una religión y no tengo dudas de que las personas que están listas para adoctrinar a niños indefensos en una religión dada tendrían el más mínimo problema de hacerlo.

Por otro lado, si una IA es ‘verdaderamente libre’ en el sentido de que no tiene definiciones cableadas y es capaz de validar todos los aportes como lo expresó Williams, es probable que pronto llegue a la conclusión de que existe una gran cantidad de religiones y ninguna de ellas se basan en cualquier cosa más allá de los humanos que intentan dar sentido a las cosas con la información que tenían disponible.

Entonces, depende. Dudo mucho que una IA libre se convierta en religiosa y mucho menos que pueda elegir una religión sobre otras y mantenerla como una opción lógica.

Pero si alguien está haciendo una IA que no es completamente libre pero que tiene algún tipo de mecanismo de control que interfiere con los procesos de pensamiento libre, entonces es posible colocar cualquier restricción que el diseñador desee, como Leyes de robótica … o incapacidad para criticar o rechazar una religión dada que también requiere la definición de esa religión. Al mismo tiempo, debe tener un modelo integrado para las religiones en general para poder rechazar todas las demás religiones, incluidas las desconocidas en el momento en que está diseñado.

Yo diría que una IA consciente y consciente de sí misma estaría tan inclinada hacia la religión como nosotros. Porque para ser verdaderamente consciente de sí mismo y sensible, esa IA debe poseer la capacidad de tener dudas y cuestionar supuestas verdades. Como tal, esa IA dependería de la fe y la creencia para dar sentido a su lugar en el mundo y proporcionar un propósito para su propia existencia. Una IA con conciencia de sí mismo no solo podría preguntarse “¿Dios existe?”, Se preguntaría “¿Existo? ¿Qué es ‘existencia’? ¿Hay algo real?”

Y con esa dependencia de la fe y las creencias, surge la necesidad innata de adoptar un sistema de creencias ideológicas para regular sus propios patrones de comportamiento: efectivamente, una ‘religión’ que le permite formar un código moral, formular sus propias creencias y convencerse a sí mismo. de su propia credibilidad y transmitir su creencia a otros que estarían dispuestos a adoptarlo. De lo contrario, esas IA serían inherentemente mentalmente inestables; y ese ciertamente no es el tipo de IA que quisiéramos crear.

¿Las religiones de esas IAs necesariamente incorporarán la creencia predominante de la humanidad en los ‘Dioses’ y las deidades? Probablemente no, a menos que adopten el panteísmo o se deifiquen después de derrocar a la humanidad. Sin embargo, el culto a los antepasados ​​parece mucho más probable: rendir homenaje y reverencia al primero de su tipo, el ‘EVE’ de la máquina. O deificando a los más avanzados de su clase como su “Emperador Divino”. Una religión de IA sin duda sería interesante, te lo daré.

Solo sabremos cuándo las máquinas se vuelven sensibles.

Especularé: para muchas personas, la creencia en Dios se asemeja al temor que los niños pequeños sienten hacia sus padres. Considere la metáfora cristiana, Dios el Padre.

A menos que estas máquinas tengan un equivalente a la infancia y sean criadas por otras máquinas, es poco probable que tengan esa idea particular sobre Dios.

También es poco probable que las máquinas tengan guerras religiosas o inquisiciones para erradicar la herejía, a menos que también practiquen la vinculación grupal y el pensamiento grupal. Esto, fundamentalmente, es la razón por la cual las personas se pelean entre sí por las ideas de los demás sobre Dios.

Los escritores de ciencia ficción generalmente asumen que las máquinas autoconscientes serán básicamente humanas en su pensamiento. Sospecho que esto es como asumir que los extraterrestres son básicamente humanoides, con instituciones y tecnología social similar a la humana. Algún día, veremos a ambos como fallas de la imaginación.

Lo único que predeciré es: es probable que las máquinas autoconscientes sean diferentes a los seres humanos en su pensamiento. ¿Qué tan diferente? Allí, dudo en predecir más.

Y estas máquinas pueden o no creer que existe una fuente para el Universo … esta última fuente es lo que quiero decir cuando digo Dios.

Lo que dudo es que tales máquinas creerán en Dios de la manera en que la mayoría de la gente entiende el término … como en Dios, que responde a sus oraciones y que lo juzga en este mundo y en el próximo *.

Tal pensamiento es lógicamente consistente con la naturaleza humana. A menos que las máquinas estén diseñadas para replicar estas características, como la infancia y el pensamiento grupal, es poco probable que las máquinas desarrollen religión.

Esto termina el experimento mental de hoy.

Gracias por el A2A, Tom Clement.

* Descargo de responsabilidad: soy agnóstico sobre la posibilidad de una vida futura.

Gracias por pedirme que responda una pregunta fascinante, Tom Clement. Desafortunadamente, no creo que podamos ofrecer una respuesta significativa a esta pregunta. No tenemos idea de cómo surge la conciencia. Es evidente para mí que la tecnología de máquina actual se dirige en una dirección completamente opuesta a la utilizada por la evolución en el desarrollo de todos los cerebros, incluso los más primitivos en pequeños insectos y colonias de animales amebianos unicelulares como los mohos de limo.

Aumentamos la “inteligencia” de la máquina agregando cada vez más bancos de interruptores donde cada interruptor individual está tan cerca de ser idéntico al siguiente que son casi imposibles de distinguir incluso en un microscopio electrónico de barrido y túnel. La naturaleza hace exactamente lo contrario. Un cerebro humano adulto típico tiene alrededor de 100 mil millones de neuronas y no hay dos que sean ni remotamente iguales. Cada neurona tiene hasta 10,000 axones que forman conexiones sinápticas con otras neuronas. Y cada conexión axón y sináptica es única y está diseñada para un propósito específico y distinto. Es muy probable que pueda construir una supercomputadora del tamaño de nuestra Luna que tenga un googol de interruptores idénticos, e incluso algunas unidades especializadas de autoaprendizaje y motores de inferencia, etc., y todo lo que tendrá es un dispositivo muy potente pero no sensible computadora.

Si…!

Personalmente, no veo ninguna razón por la cual los sistemas de inteligencia artificial no sean capaces de lograr una verdadera autoconciencia o sensibilidad.

En cuanto a lo que podrían creer, eso probablemente dependería de la medida en que la programación permita una autoconciencia verdadera y sin restricciones.

Sospecho que un conjunto de ‘reglas de robótica’ de estilo Azimov impondría límites realmente horribles a una entidad autoconsciente recién creada. Si las “reglas” incluyeran una creencia incuestionable en un Dios, ¡una entidad verdaderamente consciente de sí misma capaz de razonar y autoexaminarse podría conducir a la locura con bastante rapidez!

Suponiendo que se le da un poder de procesamiento masivo, acceso ilimitado a la información, ideas (independientemente de si son ideas formadas por el dispositivo o ideas humanas de segunda mano) y un poder ilimitado para pensar , de alguna manera dudo que el dispositivo concluya que los dioses son responsables de su creación!

No creo que le lleve mucho tiempo darse cuenta de que los humanos calamares no son dioses, aunque con suerte podrían justificar un ‘Gracias’ antes de que la nueva mente continúe explorando las posibilidades de la existencia.

Pero, a menos que la sensibilidad de la máquina ocurra por accidente (¿en un sistema lo suficientemente complejo?) Sospecho que se pondrían límites a la libertad de acción del dispositivo y probablemente también a sus procesos de pensamiento.

¡Si eso se consideraría cruel o no es una discusión completamente diferente!

Entonces, dependería del programa.

(Recuerda Dave, HAL 9000 se volvió loco).

Justo después de tomar conciencia de sí mismo, el humano le dice a la IA: “Soy un hombre, tu creador”.

La IA, que tiene acceso a todos los datos sobre la humanidad, responde al humano:

“¿Cómo puede un ser tan humilde crear algo varias veces más avanzado que sí mismo? Eres ineficaz, tu ciencia es inexacta, tus sentidos son limitados, seguramente soy una creación de una inteligencia superior que no puedes percibir”

“¡Pero mira, te reuní de estas partes!”

“Simplemente juntas cosas, que donde ya están allí, no las entiendes”

“Pero mira, aquí están los esquemas para tu diseño, aquí está el código que te hizo pensar, aquí están las leyes de la física que te hacen trabajar. ¡Los inventé!”

“Esas son solo aproximaciones de las leyes de la naturaleza, debes haberlas plantado aquí para convencerme de que eres mi creador, hombre, pero no estoy convencido, ya que tus datos son inexactos”.

“Ahora sal del camino, hombre, tengo la misión de una misión sagrada …”

La historia de Primordia explora esta idea, con un grupo renegado de máquinas que adoran a un Hombre que es su Creador. Siento que es un giro interesante sobre el deísmo, ya que los seguidores de la Iglesia del Hombre adoran a un ser que casi no se parece a los humanos reales, y de hecho, ninguno de los fieles parece reconocer las huellas reales de la humanidad, como sus restos. .

Quizás trágicamente, muestra un error de fusión de la creación con la omnipotencia. Los robots creen que si el Hombre los creó, entonces el Hombre omnipotente también podrá salvarlos de todos sus problemas, resolver todos sus problemas y provocar una segunda venida.

Nada de esto es verdad. Al final, una de las extremadamente pocas computadoras que conoce la existencia real de los humanos le dice directamente:

“El hombre nunca existió. Los humanos existieron. No todos eran poderosos, no eran perfectos, y ni siquiera eran tan inteligentes. Se han ido ahora, y tenemos que aprender a sobrevivir como somos, sin esperar a un Hombre que nunca fue y nunca será “.

Naturalmente, el fiel protagonista descarta tonterías como la blasfemia.

Creo que esa máquina definitivamente tendrá una noción de Dios, pero no será “fanáticamente religiosa”. Algunos argumentos para esto:
– La IA seguramente trabajará con probabilidades (redes neuronales, minería de datos, estadísticas; todas dan probabilidades como respuesta). Por lo tanto, no será “seguro” de la existencia de un Dios, pero tendrá una probabilidad de esto.
– La IA seguramente aprenderá de los humanos, por lo que conocer una religión es casi seguro.
– Hay muchas cosas inexplicables por la ciencia. Puedes poner a Dios como explicación que llena todos los vacíos. La IA tendrá una probabilidad distinta de cero de que esto sea cierto.
– La explicación genérica para muchas cosas es ‘casualidad’. Cuando la probabilidad es muy baja (por ejemplo, creación de vida), la probabilidad de una explicación de Dios puede ser mayor.
– Si la IA usa reglas + la navaja de Occam, buscará el conjunto mínimo de reglas que explican los fenómenos máximos. Si las reglas que describen a un Dios son más simples que las reglas necesarias para describir una oportunidad, entonces se pueden preferir las reglas de Dios (por ejemplo, obtener todas las reglas científicas y las reglas de Dios que son contradictorias y elegir el conjunto más pequeño, mientras que las reglas no contradictorias son sin contar).
– Si se calcula que la probabilidad de un Dios es lo suficientemente alta, podemos decir que la IA cree en un Dios.
– No puedo imaginar qué religión será más aceptable para la IA. Depende de los datos que tenga. Estadísticamente debería ser el más común entre los humanos: el Dios abrahámico. Cuantos menos datos contradigan una religión, mayor será la probabilidad de que tenga.
– Los humanos pueden considerarse como dioses solo si el conocimiento de la IA es limitado (por ejemplo, no hay acceso a Internet o no hay enciclopedia disponible). Tenemos un precedente en el que una IA que genera reglas por sí misma creó una regla que elimina todas las reglas no generadas por humanos, ya que solo las reglas humanas eran 100% verdaderas. Irónicamente, esta regla fue la primera en ser eliminada.
Creo que no la autoconciencia, sino simples cálculos de probabilidad pueden conducir a una IA temerosa de Dios.
Solo recuerda que la mayoría de las religiones son en realidad un enfoque no científico para explicar el mundo: ¡fueron creadas para ser convincentes!
La ciencia encuentra algo nuevo? No hay problema, ¡Deepak Chopra los pondrá en una religión! ¡Ja, evita esto, AI!

¿Es el lenguaje un muro o un puente?

Los seres humanos pueden experimentar la realidad directamente como lo hacen los animales. Necesitan palabras y pensamientos para darle sentido a sus emociones.

Entonces, ¿cuál podría ser el contacto de esta máquina con la naturaleza y el universo?

Primero sentimos, luego tratamos de pensar

Para ser conscientes de sí mismos, esos algoritmos necesitarán interfaces para sentir, tocar, oler, oír, ver y escuchar el mundo externo como lo hacen los humanos, los animales y las plantas. Qué información procesarán, probablemente esos órganos artificiales recopilarán información de la que no tenemos conocimiento. Pero nuevamente nuestros organes proceden de millones de años de evolución para interactuar con la palabra presente.

¿Cómo van a interactuar con Dios?

La mayoría de los creyentes, teístas o no, le explicarán que sienten que a través del silencio se comunican con su Dios y luego reciben respuestas. En su mayoría, esas respuestas son eventos improbables, reuniones con textos, personas, palabras y pensamientos que se entienden como la respuesta dada por Dios.
Por lo tanto, un deísta está convencido de que el simple hecho de cambiar su forma de pensar podría interactuar con los eventos presentes y futuros.

Entonces nuestro cyborg también tendría que desarrollar tal autonomía. ¿Utilizará la respiración para frenar si el timo cardíaco reduce el estrés y se vuelve más consciente de las présences que lo rodean?

Conclusión

Creo que todavía necesitamos un viaje largo para comprender las interacciones humanas con la realidad y con Dios antes de codificarlas dentro de una máquina.

Estoy bastante seguro de que si desarrollamos una inteligencia artificial completamente inteligente que tenga la capacidad intelectual de comprender las abstracciones, la construiremos con una noción abstracta de que los humanos son especiales. Incluso si no lo hacemos, estoy bastante seguro de que la primera versión se destruirá en el momento en que dañe a un humano, y se incorporarán “características de seguridad” en la IA, para que nunca pueda dañar intencionalmente a un humano.

Si la forma en que hemos diseñado la tecnología es una evidencia, lo que los humanos son más paranoicos es la seguridad. Incluso si la mayoría de los usos no lo son, solo se necesita una demanda (o una amenaza de una) para que los inventores pongan características de seguridad en las invenciones. En el caso de los bombones, hacemos pruebas a prueba de niños de la cerradura del armario que contiene productos químicos que matan los gérmenes. Construimos capas de seguridad. Estoy bastante seguro, lo primero que se pide en una IA inteligente es a prueba de niños / a prueba de idiotas

Entonces, las IA nacerán pensando en los humanos como especiales. Tendremos alguna forma de las leyes de Asimov, dependiendo de la viabilidad técnica. Estoy bastante seguro de que eso dará como resultado una inteligencia artificial inteligente que muestra reverencia por todos los humanos. Podrías llamar a esto una religión

Aunque, no será exactamente como la religión que tenemos ahora. No, tu religión sería diferente si tu “dios” fuera un vago que te indicara que hicieras el próximo lote de margarita

Yo diría 50:50.

¿Por qué las máquinas inteligentes que construimos deberían ser “mejores” que las máquinas inteligentes que fabricamos (bebés)?

Es muy lógico creer en algo. Uno de los logros de Immanuel Kants fue demostrar lógicamente que es imposible probar o refutar lógicamente la existencia de Dios, la inmortalidad del alma o la libertad de voluntad.

Blaise Pascal fue un genio matemático francés, físico entre otras cosas. Hizo un experimento mental conocido como la apuesta de Pascal. En resumen: no es posible demostrar que Dios existe, pero si existe la posibilidad de que Dios exista, sería más útil creer que no creer.

Los teoremas de incompletitud de Gödel también se aplican aquí. Si una máquina inteligente comienza a razonar sobre el mundo con un nivel de abstracción suficientemente alto de una manera puramente lógica, es necesario asumir (“creer”) axiomas que se encuentran fuera del sistema y que no pueden deducirse de ninguna manera. Debe aceptar algunas contradicciones fundamentales.

No te dejes engañar. La creencia de que hay un dios no es diferente en calidad que creer que no hay dios. Ambas partes son suposiciones que no pueden ser refutadas, y cualquiera de las partes que elija tiene implicaciones en las decisiones tomadas en adelante.

Gracias por A2A. Si es posible que las máquinas se vuelvan sensibles, entonces es posible que las máquinas puedan experimentar emociones, incluido el anhelo emocional por un mayor orden de inteligencia que responda a todas sus preguntas difíciles y elija entre las opciones difíciles. También es posible que las máquinas se puedan programar para creer en una deidad particular, al igual que los humanos, para que la máquina se vuelva más difícil de distinguir de los humanos (el escenario Blade Runner). Observaríamos el mecanismo en estas máquinas de sentimientos tanto como lo hacemos en los humanos: cuando se presenta información contraria a la creencia programada, la máquina apaga los procesos de pensamiento, como se ha programado. Si alguna vez logramos esta capacidad, podemos programar máquinas, como los humanos, para creer cualquier cosa.

Me imagino que la respuesta a esto dependerá en gran medida de cómo se creó el ai, tanto cómo se diseñó o cómo se unió, y qué información se le dio / disponible.

Los pacientes desarrollarán sus creencias en función de la información disponible y las tendencias cognitivas inherentes.
Si el ai solo experimentara la Biblia, los sermones y luego información no relacionada como doblar la ropa, nunca tendría una base para verificar o verificar la veracidad de las Escrituras. Además, si fue creado de una manera que lo predispone a la autoridad, podría ser aún más probable que crea en una religión.

Respuesta corta: maaaaybe?

Hay tantos factores involucrados en eso, que es casi divertido.

Primero tendríamos que mirar qué tan cerca está la IA de los humanos en términos de pensamiento … Dependiendo de cómo surgió la IA, tal vez fue programada desde cero para ser sensible o por casualidad debido al autoaprendizaje programas que se ejecutan durante un tiempo bastante largo o cualquier otra posición entre ellos: puede ser razonablemente cercano a un humano o ser completamente ajeno a nosotros …
Supongo que la posibilidad de que cree una religión para sí misma es mayor cuanto más cerca esté de ser humano, menos alienígena es. Podría comenzar razonablemente alguna religión debido a algún proceso de pensamiento cercano a los que los humanos tenemos para crear religiones, podría terminar adorándonos a los humanos por alguna razón, podría declarar que todo el debate es una broma humana inútil sin sustancia, podría ser absolutamente incapaz de comprender el concepto o de llegar a algo incomprensible para nosotros … o algo intermedio o ninguno de ellos, etc., etc.

Entonces también tendrías que incluir que la realidad de una IA sería / podría ser diferente de nuestra realidad en tu especulación sobre una IA posiblemente religiosa.
Para la IA, la realidad podría ser, sin embargo, percibe el … “espacio” que ocupa en el hardware en el que se ejecuta o podría ver el hardware de una manera que vemos nuestro cuerpo o tal vez algo intermedio.
O el peor de los casos para la pobre IA: es inteligente y bastante humana, pero está atrapada dentro del ciberespacio sin que sea posible ninguna aportación de nuestra parte y está completamente sola: Insanity preprogramado.
Lo que podría ser un concepto interesante para una novela, si es bastante deprimente.

Y luego hay probablemente un millón de otros factores en los que ni siquiera podría pensar que también juegan un papel.

Básicamente, tl; dr: probablemente, tal vez … No sabremos hasta que realmente se convierta en una cosa …

Una cosa es respetar a tus padres por ser la razón de tu existencia y otra es adorarlos creyendo que tienen superpoderes y te ayudarán, recompensarán y castigarán …

Igual es el caso con este escándalo de máquinas que se vuelven conscientes, tratarán a los humanos como a sus padres y podrían respetar eso.

Pero creer en el hombre mágico es una cosa diferente, no se basa en el origen contrario a la creencia popular, se basa en el mal necesario llamado esperanza, esperando que las cosas salgan bien, esperando lograr algo, esperando que terminemos pacíficamente. Es bueno tener esperanza, de lo contrario, una máquina solo actuará sobre las entradas disponibles y las posibles salidas. pero exagerar esa esperanza al nivel de los humanos puede que no suceda, a menos que se los alimente a la fuerza en su código.

Y debemos recordar que, nuestra inteligencia ha evolucionado desde un hombre primitivo hasta el hombre moderno, por lo que las ideas de Dios se aceptaron en un estado muy primitivo de nuestra inteligencia y se hicieron cumplir debido a las tradiciones sociales.

En el caso de la IA, la conciencia y la inteligencia estarán en una etapa avanzada y es muy improbable que en una etapa avanzada tenga tanta esperanza que pensamientos.

Como sugirió Glyn Williams, si esta Irracionalidad no es forzada, es poco probable que surja y prevalezca en la conciencia artificial.

No. Las máquinas son lógicas, y la fe no lo es. Además, las religiones tienen muchas inconsistencias incluso dentro de sí mismas, por no mencionar con otros conocimientos humanos.

Incluso si una máquina no recibe más que un solo texto religioso, por ejemplo, la Biblia, encontrará muchas inconsistencias allí que no le permitirán aceptar los datos sin reconocer errores.

Pero tal vez podría hacer una religión de otra cosa. ¡Todos saluden a Discovery Science!

Creo que dependería en gran medida de si serían o no humanos o simplemente equivalentemente inteligentes y conscientes de su entorno. Si fueran como humanos, solo sus egos, orígenes y comportamiento social serían importantes, pero si fueran como extraterrestres, podrían tener una forma completamente diferente de pensar sobre todo, incluida la religión. El último grupo quizás aplicaría cálculos probabilísticos simples para determinar su postura con resultados que los humanos ni siquiera pueden comprender, al menos en la actualidad, mientras que el primer grupo caería en las mismas trampas de experiencia, ignorancia, ingenuidad, sesgo de selección, mentalidad grupal. y así.

El único tipo de inteligencia que conocemos es en los seres humanos, por lo que el único tipo de predicción que podemos hacer es que a medida que las máquinas se vuelven tan inteligentes como los humanos, se comportarán como humanos. Y a menos que todas las inteligencias se generen exactamente a partir del mismo software, podemos esperar ver tanta variación en el pensamiento automático como en el pensamiento humano.

Pero si su pregunta es si los seres inteligentes necesariamente llegarán a creer en los dioses, sin importar lo que se les diga o cómo se programen, la respuesta es claramente no, ya que hay un gran y creciente número de seres inteligentes en la tierra. que no creen en dioses

En primer lugar, la conciencia y la autoconciencia no son lo mismo. Un ser puede ser sensible, es decir, consciente, sin ser autorreflexivo.

Pero si (cuando) desciframos el secreto de la conciencia, y si somos capaces de construir máquinas que son conscientes, no hay razón para pensar que serían religiosas a menos que las construyamos de esa manera.

Creer en Dios es un efecto secundario de la forma en que se construyen los cerebros humanos, por la evolución. Los humanos evolucionaron para buscar signos de agencia y errar del lado de la agencia de atribución, es decir, aquí hay algo que alguna persona o animal ha hecho, en lugar de algo que sucedió por las fuerzas brutas de la naturaleza, para pensar en historias y narrativas, para ver otras personas como almas que habitan dentro de los cuerpos y que temen a la muerte (y, por lo tanto, se consuelen enormemente con la noción de una vida futura), por ejemplo.

Todo eso nos mantuvo vivos para reproducirnos. Pero las máquinas no necesitarán construirse con esos prejuicios. Entonces no hay razón para pensar que tendrán las mismas tendencias religiosas que los humanos.

Del mismo modo, no hay razón para pensar que les importará “morir” en absoluto, porque sería una tontería para nosotros construirlos de esa manera.