¿Deberíamos desarrollar IA?

No sirve de nada tratar de evitar que las personas creen nuevos conocimientos. Si no lo hace, alguien más lo hará, suponiendo que sea posible.

La ética de usar el conocimiento para mejorar o destruir a otros humanos es un problema que enfrenta la comunidad. Tenemos que cooperar para construir cosas, ya sea el fMRI o el arma nuclear o la clonación.

No puede decidir, por su cuenta, si lo que construye será beneficioso o perjudicial para los demás. Son otros los que deben decidir eso por sí mismos, y si es perjudicial, es la comunidad la que debe decidir eso y hacer lo que sea necesario para protegernos a todos de ese daño.

Si hay problemas éticos sobre la creación de conocimiento, es que debe hacerlo. Los humanos usan el conocimiento para mejorar la vida de todos nosotros. Si tu invención de la IA te ayudará a hacerlo, sobrevivirá. Si no, morirá.

Creo que gran parte de la preocupación por la IA proviene de la ficción al respecto, en libros y películas. He leído muchos acerca de que las IA se vuelven deshonestas. Creo que ayuda recordar que los motivos de ciencia ficción son metáforas de diferentes tendencias sociales. La IA que se vuelve pícara se trata realmente de niños que se vuelven pícaros. ¿Qué hacemos cuando las personas que amamos comienzan a hacer cosas que no nos gustan?

Deberías tener la suerte de inventar una IA que realmente juegue ese meme.

Supongamos que realmente puede crear una pieza de software con conciencia, y que incluso es técnicamente posible en este momento. Sin embargo, quiero usar esta discusión para señalar un sentimiento muy común que las personas tienen hacia el desarrollo de la IA: el miedo.

La ciencia ficción, Hollywood y los medios nos hacen creer que estamos tan cerca de crear el próximo Terminator, Machina o algo por el estilo. Cuando el público escucha sobre el desarrollo de la IA, piensan en robots que nos reemplazarán de nuestros trabajos, o máquinas que algún día se convertirán en nuestros señores superiores. Esto pone en peligro la investigación seria y los avances tecnológicos.

“Podemos perdonar fácilmente a un niño que teme a la oscuridad; La verdadera tragedia de la vida es cuando los hombres le temen a la luz “.

Como dijo Steven Dillard anteriormente, si no lo haces, alguien más lo hará. No debemos disuadir a los nuevos entrantes y las posibilidades debido al miedo.

Eche un vistazo a este artículo: informático dice que es hora de enfrentar el miedo: la inteligencia artificial está aquí

Vamos a modificarlo un poco.

He estado queriendo ser padre . ¡Sí claro! De todos modos, antes de intentarlo, me pregunto si tengo la obligación ética de no intentarlo en absoluto. Lo que quiero decir es que, cada vez que sea triste, deprimido, solo, con un sentimiento vacío o contemplando la terminación de uno mismo (si eso es posible), seré la causa inicial. Le pregunté a otros padres y dicen que intentan monitorear y corregir problemas de este tipo en sus hijos . Esto se siente como trampa y negación del libre albedrío para mí.

Es cierto que con los niños, comenzamos con un par de plantillas más o menos funcionales. ¿Pero qué más puedes hacer sino intentarlo?


Original, para referencia, en caso de que la pregunta se fusione con el infierno.

He estado queriendo construir mi propio sistema de IA. ¡Sí claro! De todos modos, antes de intentarlo, me pregunto si tengo la obligación ética de no intentarlo en absoluto. Lo que quiero decir es que, cada vez que sea triste, deprimido, solo, con un sentimiento vacío o contemplando la terminación de uno mismo (si eso es posible), seré la causa inicial. Le pregunté a otros desarrolladores de IA y dicen que tienen programas de computadora que monitorean y corrigen problemas de este tipo en sus sistemas. Esto se siente como trampa y negación del libre albedrío para mí.

¿Tus padres son responsables de tus sentimientos negativos?

No, pero están obligados a darle las herramientas para poder trabajar con ellos.

En cualquier caso, llevaría mucho tiempo llegar al punto en que se podría decir que un programa tiene sentimientos; hasta entonces, es una máquina de estímulo-respuesta. Siempre puede posponer sus dilemas éticos hasta que lo necesite.

Está asumiendo que puede hacer una pieza de software consciente. ¿Qué te hace pensar que puedes o que tendría pensamientos / emociones equivalentes a los que tenemos?

Es ridículo incluso hacer esta pregunta, y mucho menos creer que el software puede / estará en el mismo nivel mental que nosotros.

¿Con qué tipo de desarrolladores de IA hablas …?