No. Por al menos dos razones:
- Los automóviles no pueden “tomar decisiones”. No tienen una vida mental. Por lo tanto, no toman decisiones éticas. Por el contrario, el programador podría decirle al automóvil qué hacer en una situación dada. Pero este es el programador que toma la decisión, no el automóvil .
- Tengo entendido que la tecnología actual de conducción autónoma solo detendrá el automóvil si existe un peligro que no se puede evitar. No existe una jerarquía de respuestas que diga “atropellar a un hombre para evitar golpear a diez hombres”.
Hay muchas preguntas en Quora sobre autos sin conductor y cuestiones morales. Pero, hablando como alguien con algún estudio de filosofía moral detrás de ellos, los autos sin conductor presentan cero dilemas morales interesantes que no se pueden explorar sin los autos sin conductor.
El único dilema interesante podría estar relacionado con cuestiones de responsabilidad. ¿Quién es responsable? ¿El “conductor” (que realmente no conduce) o el fabricante? Sospecho que una vez que la ley no cumpla con esto, el conductor seguirá siendo responsable.
- ¿Jugar a Dios es bueno o malo?
- Tomé un gato semi-salvaje de la calle. Pero tiene una familia salvaje por la que anhela afuera. ¿Qué es lo ético que hacer?
- ¿Cómo difieren la deontología y la teleología?
- ¿La religión creó la ética o la ética creó la religión?
- Si reconoce una conducta poco ética, ¿a quién debe denunciarla?