¿Qué cuestiones filosóficas y éticas plantea la IA?

Si una máquina pasa la prueba de Turing y gana la conciencia, tanto que tiene inteligencia y sentimientos indistinguibles de los humanos, ¿cómo notarías la diferencia entre un hombre y una máquina? Si estuviéramos unos cientos de siglos atrás en el tiempo, ¿cómo se aseguraría de que su jefe sea humano, no un robot? ¿Cómo se aseguraría de ser un humano, no un robot? ¿Cómo se aseguraría de no vivir en Westworld (un drama televisivo que plantea problemas éticos por parte de AI)?

Si una máquina se vuelve indistinguible de un humano (y creo que es muy probable que lo haga), ¿deberían ser tratados de la misma manera que los humanos? ¿Deberían tener los mismos derechos? ¿Debería molestarte tu jefe de ser un robot si supieras que es un robot?

A medida que avanzamos en el tiempo, le damos a las máquinas autonomía para tomar decisiones. Mientras queramos hacer las cosas más fáciles y simples para nosotros, seguiremos dando más control a las máquinas. Al dar más autonomía a las máquinas, estamos creando mayores dilemas morales. Por ejemplo, el problema del carro con respecto a los autos sin conductor. En una situación en la que el automóvil tiene que golpear a un peatón o al pasajero, ¿a quién deben programar los programadores y diseñadores para que elija el automóvil?

Imagen: Máquina Moral

No sería una sorpresa si las máquinas reemplazaran a los soldados en futuras guerras. ¿Sería ético chocar voluntariamente con humanos y máquinas en primer lugar? ¿No podría una máquina con suficiente autonomía volverse deshonesta y atacar a los civiles o su propio ejército humano? A medida que damos más poder a las máquinas, es probable que surjan estos dilemas morales.

Relacionado: La respuesta del usuario de Quora a ¿Cómo aborda el automóvil autónomo de Google el problema del tranvía en filosofía?

La gran pregunta es: ¿podría la IA volverse consciente? Por el momento, no creo que nadie piense que hay IA consciente, pero no veo por qué, en principio, la conciencia debería limitarse a formas de vida orgánicas como nosotros. Si alguna vez hay una IA consciente, entonces tendremos que tratar esa máquina como un ser de importancia moral, con intereses que debemos tener en cuenta.

Presumiblemente, los mismos problemas éticos centrales que surgen de:

  1. Ordenadores
  2. Robots
  3. Algoritmos

La regla general es ser sincero (también conocido como honesto) y no hacer daño. Creo que la empatía por el usuario es bastante crítica.

Estas parecen ser verdades evidentes sobre los productos en general. Esa es la razón por la cual el tabaco no es particularmente ético.