No sirve de nada tratar de evitar que las personas creen nuevos conocimientos. Si no lo hace, alguien más lo hará, suponiendo que sea posible.
La ética de usar el conocimiento para mejorar o destruir a otros humanos es un problema que enfrenta la comunidad. Tenemos que cooperar para construir cosas, ya sea el fMRI o el arma nuclear o la clonación.
No puede decidir, por su cuenta, si lo que construye será beneficioso o perjudicial para los demás. Son otros los que deben decidir eso por sí mismos, y si es perjudicial, es la comunidad la que debe decidir eso y hacer lo que sea necesario para protegernos a todos de ese daño.
Si hay problemas éticos sobre la creación de conocimiento, es que debe hacerlo. Los humanos usan el conocimiento para mejorar la vida de todos nosotros. Si tu invención de la IA te ayudará a hacerlo, sobrevivirá. Si no, morirá.
- Hice algo incorrecto por una razón correcta. Hiciste lo correcto por una razón incorrecta. ¿Somos iguales triunfadores y perdedores iguales?
- ¿Qué acciones poco éticas deberían volverse ilegales?
- ¿Por qué es que, en general, la mayoría de las personas aceptará disuadir a alguien de suicidarse, pero una vez que esa persona haya realizado el acto, la opinión sobre salvarlos parece dividida de alguna manera?
- Si hace arreglos para que alguien cruce las fronteras estatales de los EE. UU. Para que pueda ayudar a su suicidio, ¿es un delito federal?
- ¿Por qué los médicos son tan comerciales en estos días? ¿No deberían tener también algunas responsabilidades morales y sociales?
Creo que gran parte de la preocupación por la IA proviene de la ficción al respecto, en libros y películas. He leído muchos acerca de que las IA se vuelven deshonestas. Creo que ayuda recordar que los motivos de ciencia ficción son metáforas de diferentes tendencias sociales. La IA que se vuelve pícara se trata realmente de niños que se vuelven pícaros. ¿Qué hacemos cuando las personas que amamos comienzan a hacer cosas que no nos gustan?
Deberías tener la suerte de inventar una IA que realmente juegue ese meme.