Supongo que puede ser, pero es un proceso un poco más complicado. Una máquina ahora no solo es capaz de detectar el entorno y los cambios que ocurren a su alrededor, sino que también puede aprender de acciones pasadas en lo que se conoce como “Aplicación de aprendizaje”.
En mi opinión, la complicidad de tomar tales decisiones “morales” proviene de muchos aspectos, por ejemplo:
- ¿Cuál es la definición de moral?
- ¿Quién estableció la definición de Moral ?, quiero decir ¿Es moral desde su punto de vista o desde el punto de vista de los demás?
- Si la decisión es moral desde su perspectiva, ¿eso asegura que es realmente una decisión moral en su comunidad?
Si decidió que robar a un ladrón no es un delito porque ya es un ladrón, ¿es una decisión moral?
- Dilema ético, nosotros, como seres humanos, no tomamos una decisión 100% moral en estas situaciones. Si usted es el único hijo de sus padres, ¿los dejará solos para viajar y trabajar en otro país? necesitaba tu ayuda? Entonces, por supuesto, las máquinas tendrán situaciones en las que no podrán tomar ninguna decisión, simplemente porque no hay un algoritmo que pueda decidir qué decisión tomar.
- Después de todas estas preguntas, sin duda existe un gran desafío para crear el algoritmo y la codificación.
El resultado final: puede ser sí, las máquinas un día pueden “Intentar” tomar decisiones morales, pero en caso afirmativo, eso no garantiza un 100% de decisiones morales simplemente porque los humanos no pueden.
- ¿Debería permitirse a las personas elegir qué genes quieren?
- ¿Cuáles son algunos de los dilemas corporativos que conoces?
- ¿Qué son una serie de silogismos breves (no integrales) a favor del utilitarismo de preferencia?
- ¿Sigue siendo poco ético un zoológico bien administrado y bien administrado?
- ¿Cómo fue poco ética la información privilegiada de Martha Stewart?