¿Debería el desarrollo de la IA estar limitado por leyes éticas?

Esto es similar a la especulación anterior a 2000 sobre fallas informáticas. AGI (inteligencia general artificial) tiene el potencial de ser utilizado para bien o para mal, pero un AGI que destruye el mundo es un problema distante en el mejor de los casos.

Dos realidades que todos parecen ignorar son el tiempo y la seguridad; Se necesita tiempo para hacer cambios en el mundo físico. Un AGI se limitaría a las computadoras conectadas a Internet.

Si un AGI se saliera de control, podría vencer la seguridad en algunos sistemas, pero no en todos. En cualquier caso, desconectaríamos todos los sistemas de Internet de inmediato. Sin duda, sería un proceso de recuperación muy doloroso eliminar la IA de todos los sistemas informáticos infectados, pero la humanidad no terminaría.

El primer AGI necesitaría inventarnos y enseñarnos nuevos métodos de fabricación basados ​​en una ciencia mejorada. Tendríamos que entender el concepto, crear los nuevos materiales, construir el equipo de fabricación y, a lo largo del camino, resolver los problemas inesperados que surjan. Una vez transcurrido todo ese tiempo, comenzaríamos a fabricar robots físicamente autónomos.

Un buen AGI mantendría los problemas inesperados al mínimo. El alcance del esfuerzo sería inmenso. Tendrían que producirse nuevos chips, metales, plásticos, fluidos y otros materiales en algún volumen. Las personas y el entorno físico están involucrados en todo momento, habría eventos que el AGI no podría haber anticipado.

Durante todo este tiempo, los creadores del AGI estarían probando, actualizando y refinando el AGI. Serían capaces, con la ayuda de la AGI, de construir un sistema moral que asegurara que la humanidad fuera vista como un requisito para alcanzar las metas.

Siendo realistas, no importa cuán inteligente sea, el tiempo y el mundo físico evitarían un día del juicio final AGI.

Liberar una IA en la naturaleza podría tener muchas consecuencias negativas.

La ética de tal liberación no es diferente a la liberación de un virus letal. No debería suceder a menos que la entidad liberada se pueda volver absolutamente segura.

Tal como lo veo, la forma de hacerlo es colocar salvaguardas en el mecanismo que selecciona y evalúa las acciones.

Las entidades biológicas seleccionan acciones que son beneficiosas. Son esencialmente acciones egoístas y selectas que avanzan por sí mismas. En última instancia, esto sirve a su agenda genética.

Un mecanismo de autoservicio similar en la IA pondría a la entidad artificial en competencia con las entidades biológicas.

Desde esta perspectiva, las únicas IA seguras serían aquellas diseñadas para avanzar en una agenda desinteresada. Incluso entonces hay riesgos potenciales.

Las tres leyes de robótica de Asimov: la noción de que todos los robots deben tener salvaguardas cableadas para evitar que se vuelvan peligrosos, no está lejos de la marca.

Tres leyes de la robótica