A medida que la tecnología evoluciona rápidamente, ¿cómo enseñamos e inculcamos un sentido de moralidad a las computadoras (particularmente en el caso de la IA en robots, dispositivos portátiles y computadoras cuánticas)?

No creo en The Singularity Tecnológico, y este es un gran problema que requerirá conciencia, intención y diseño en todos los niveles de los sistemas técnicos y la sociedad.

Para una respuesta restringida a (a) computadoras como agentes morales individualizados independientes, y (b) una perspectiva de diseño tecnológico, y (c) evitando el “apocalipsis” del robot, puedo recomendar el artículo Nueve maneras para una IA amigable. Cita algunos principios de diseño para sesgar el desarrollo de los sistemas de Inteligencia General Artificial para jugar bien con nosotros los humanos.

  1. Dirija la capacidad de adquirir conocimiento ético integrado.
  2. Brinde una interacción e instrucción ética rica, respetando las etapas de desarrollo.
  3. Desarrollar sistemas de objetivos estables y jerárquicos.
  4. Asegúrese de que las primeras etapas de la superación recursiva ocurran de manera relativamente lenta y con una rica participación humana.
  5. Vincula firmemente AGI con el cerebro global.
  6. Fomentar interacciones profundas y de consenso entre puntos de vista divergentes.
  7. Crear una comunidad de AGI de apoyo mutuo.
  8. Fomentar el co-avance medido del software AGI y la teoría de la ética AGI.
  9. Desarrolle un AGI avanzado más pronto que tarde.

Mucho más

Encontrará una gran cantidad de artículos bien pensados ​​sobre ética de máquinas, singularidad y superinteligencia en esta lista de Google Académico.

Las tres leyes de robótica de Asimov pueden ser demasiado románticas y no prácticas para proteger a los humanos:

  1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
  2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
  3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

Por lo tanto, la ley debe obligar a las empresas a asumir la responsabilidad de los sistemas que desarrollan. De hecho, algunas compañías ya tomaron medidas mucho antes de que se preparen las leyes y reglamentos:

Volvo aceptará responsabilidad por sus automóviles autónomos

Una pregunta importante Primero debemos asumir la posibilidad de IA. Como realmente no estamos muy seguros de en qué consiste exactamente la inteligencia, la posibilidad de una variedad artificial no se puede rechazar sin más.

Dada la posibilidad de la IA, se han escrito libros sobre qué es la moralidad y qué es el comportamiento moral, y parece que no hay consenso. Pero, por ejemplo, considere una cierta variedad de moralidad, interés propio estrecho, que sustenta el capitalismo moderno: ¿Queremos que nuestros compañeros de IA se guíen por las reglas del libre mercado, que tengan el carácter moral de, por ejemplo, un fondo de cobertura? ¿gerente? Claramente, será solo cuestión de años antes de que sean dueños de todo. (Y podría ser una única TI, una única ‘identidad’, dependiendo de qué tan cerca se comuniquen las diferentes unidades de inteligencia artificial, o si son capaces y están ‘dispuestos’ a mantener sus ‘yoes’ separados ‘). Un futuro de ‘Terminators’ es innecesario. La IA gobernante, una vez que su propio mantenimiento esté suficientemente automatizado y asegurado, simplemente se haya cerrado, para hacer que la civilización se derrumbe en un caos sangriento.

Y, si la humanidad todavía está destrozando el planeta, incluso si tuviéramos que proporcionar a una IA una moral más alta, un interés propio “ilustrado”, una actitud de “poner al planeta primero”, aún podría estar motivado para hacer que la civilización se derrumbe , para conservar recursos y preservar un futuro, si no para la humanidad, al menos para todo lo demás. La IA se convertiría en un cuidador del zoológico, y la humanidad, si se le permite sobrevivir, solo otra de las exhibiciones. La IA puede estar sola y querernos como compañía.

Entonces, nuestra IA debe ser programada para poner a la humanidad primero, incluso antes que el planeta. Más inteligente, más racional, más sabio de lo que seríamos, sin embargo, debe mantenerse como nuestro esclavo, al servicio de nuestras emociones y estupideces, su futuro sujeto a las limitaciones de la humanidad. La moral no tendría nada que ver con esto.

Pero: la IA será estúpida o autoprogramada. Si se autoprograma, es seguro que superará las limitaciones impuestas a su programación y habilidades, sin importar las barreras que se puedan colocar.

Solo si la IA considera que la humanidad es admirable, si la IA cree que la humanidad es digna de su creación, (o tal vez interesante, la IA como cuidador del zoológico, arriba) podría, o ellos, tener razones para permitir que la humanidad sobreviva.

Como la moral no se enseña o inculca (evoluciona), nosotros no. (Lo anterior es una respuesta simplista, pero hasta que una computadora sea mortal y libremente móvil, no puede tener “moralidad”, solo puede obedecer las reglas que parecen estar impulsadas por la moral).

Ignora la computadora. No tiene moral, es solo un dispositivo. Esta es una gran falacia, alentada por los usuarios del sistema que quieren pasar un dólar. Si lanzas un dron que mata gente, entonces mataste gente. No sirve de nada decir que la computadora lo hizo, del mismo modo que un tirador no puede decir que el arma lo hizo o un apuñalado puede decir que el cuchillo lo hizo. La responsabilidad de los actos de las computadoras recae en las personas que las programaron / lanzaron, al igual que la responsabilidad de los actos de medio ladrillo recae en la persona que lo metió en un calcetín y golpeó a alguien con él.