“¿Gran parte de la moralidad parece estar determinando qué acciones proporcionan la menor cantidad de daño o la mayor cantidad de beneficio a ciertos sujetos” ?
Solo si limita sus lecturas sobre moralidad exclusivamente a los utilitaristas. A quién, diría yo, es evidentemente ridículo de todos modos y no debes darle la hora del día.
La razón por la cual el utilitarismo se cae, y esto realmente puede suceder en las próximas décadas, es la inteligencia artificial. Digamos que en 2050 alguien logra construir una IA consciente de sí misma que es humanamente inteligente y tiene la capacidad de experimentar felicidad o tristeza. Básicamente es una persona, pero con silicio en lugar de carbono. Siendo buenos utalitarios, debemos tenerlo en cuenta en nuestra ecuación de “conjunto de temas sobre los cuales intentamos maximizar la felicidad o minimizar el sufrimiento”, ¿verdad?
Bien, ahora copia esa IA ochocientos mil millones de veces. Es un software de computadora, por lo que esto debería llevarle unos 5 segundos.
- ¿Por qué la gente admira a las personas exitosas que sacrifican a los miembros de su familia mientras son respetados (como Picasso, Chaplin, Einstein, Musk, etc.)?
- ¿Es moralmente correcto usar biocombustible para automóviles ya que esto se produce a partir de lo que podría ser comida?
- ¿Cuál es el propósito de ser malvado?
- ¿Apoya la educación del carácter, en lugar de la toma de decisiones, como método para enseñar educación moral? ¿Por qué o por qué no?
- ¿Cuál es la mayor amenaza para Estados Unidos hoy? ¿Es interno o externo?
Explosión. Las personas con IA superan en número a las personas humanas de cien a uno. En este punto, todo lo que haces para hacer felices a las personas con IA está 100 veces más justificado moralmente que todo lo que haces para hacer felices a las personas. ¿Quieres construir más casas para que la gente humana tenga casas? Espera , amigo , por los recursos que gastarías en la construcción de una casa, podrías comprar un banco de memoria que albergaría otros mil millones de IA. Es una desalineación horrible de recursos, por lo tanto, construir una casa para humanos. El rendimiento de su inversión, moralmente, es peor en aproximadamente 8 órdenes de magnitud.
Entonces, con el utilitarismo adecuadamente reducto-ad-absurdem’d, concluimos que no tiene sentido poner peso moral en la maximización de la felicidad humana o la maximización de la felicidad holística de múltiples especies.
Obtener rekt John Stuart Mill.