¿De qué sirve imaginar un exagerado dilema moral?

Hay tres razones muy diferentes.

Una es servir como lo que se conoce como una “bomba de intuición”. Un ejemplo lejano puede hacer que deje de centrarse en las realidades prácticas y proporcionar un ejemplo ficticio pero claro sobre el cual el autor espera que tenga una intuición clara o emocional. respuesta. Esa intuición o respuesta puede servir como punto de partida para la discusión.

Otro propósito es proporcionar un ancla para la discusión. Imagínese que pregunto: “¿matarías a un bebé para salvar 1,000,000,000 de vidas?”. Si respondes “sí” a esta pregunta ciertamente horrible, entonces hemos establecido que piensas que a veces está bien cometer un asesinato, si las consecuencias generales serían suficientemente bueno. Una vez que hayamos establecido eso , podemos comenzar a buscar cuáles son sus límites . ¿Un millón de vidas? ¿Un centenar? 10?

Finalmente, los dilemas exagerados son una forma de ilustrar las diferencias entre teorías o marcos morales. Un utilitario, por ejemplo, respondería “sí” al dilema anterior, sobre matar a un bebé. Un deontólogo kantiano respondería “no”. Ver esto puede ayudarlo a comprender esas teorías.

Tienes razón.

Tampoco deberíamos preocuparnos por los agujeros negros y lo que sucede dentro de él, que de todos modos está cayendo en el agujero negro.

Además, ¿quién viaja a 3 * 10 ^ 8 m / s de todos modos? Entonces, no te preocupes por la teoría de la relatividad también.

Y lo que sucede en un núcleo de átomo. Sabemos cómo funciona el átomo, eso es suficiente.

Pero no podemos. No nos importa el agujero negro exactamente. Muestra algo que no podemos ver en circunstancias normales. Del mismo modo, estas condiciones extremas en la moral, muestran cosas más prácticas que damos por sentado. Como si un terrorista retiene a alguien como rehén. O un avión es secuestrado y los terroristas piden liberar a pocos terroristas a cambio. Se salvarán pocas vidas, pero más vidas entrarán en peligro. La exageración ayuda a ver los efectos más claramente. Equilibrar a 10 inocentes con 11 personas es situacional, millones de vidas no lo son. (¡¡También hace que el filósofo piense que está salvando el mundo de alguna manera !!)

Los filósofos no son necesarios para salvar vidas cuando el mundo está llegando a su fin, impiden que el mundo llegue a tal punto. Al igual que los experimentos de alta energía en el CERN harán que mi computadora sea más rápida.

Un punto para imaginar el dilema moral es que en los próximos años tendremos que decidir las respuestas.

A medida que aumenta la automatización, muchas de estas preguntas hipotéticas se volverán no hipotéticas y reales. Y es importante que hayamos dedicado tiempo a digerir estos problemas morales, para que podamos responder de una buena manera.

Tome autos sin conductor, por ejemplo.

Los autos sin conductor están preparados para ser órdenes de magnitud más seguros que nosotros, los humanos, conduciendo por todos lados. Las computadoras automatizadas tendrán reacciones más rápidas y podrán dar cuenta de más variables simultáneamente. Serán significativamente mejores que los humanos en términos de seguridad.

Sin embargo, probablemente habrá situaciones en las que “mantener a todos a salvo” no es una opción. Entra en el hipotético dilema moral.

Digamos que el automóvil tiene dos opciones: pasar por una multitud de niños que se suben a un autobús escolar, o pasar por un café ocupado y probablemente herir al conductor.

Los programadores deben tomar una decisión sobre estas situaciones difíciles . Incluso si no escriben una línea que diga “destrozar ese café”, decidirán implícitamente basándose en algún “optimizador de función de costos” (por ejemplo, el problema moral de Will Smith con las máquinas en I, Robot ).

Esto también nos lleva a problemas con fallas. Si el café es arado, ¿quién tiene la culpa? ¿Quién es demandado? ¿Nadie? ¿El dueño del auto (pero no tenían el control)? ¿Los programadores (pero no se puede esperar que manejen perfectamente cada situación aleatoria)? ¿Ninguno? No esperarías que una persona tome una decisión perfecta en una fracción de segundo.

Es necesario establecer pautas morales para estas situaciones imaginarias, ya que las máquinas comienzan a tomar algunas de estas decisiones por nosotros.

La idea de estas preguntas de dilema moral es estirar el cerebro. A menudo son vagos por una razón porque eso hace que la pregunta sea más atemporal y, lo que es más importante, el lector / pensador llena automáticamente los espacios en blanco o agrega calificadores basados ​​en su propio sesgo, que a menudo es más revelador que la pregunta.