El utilitarismo es frío, calculador y, a menudo, poco atractivo para muchas sensibilidades humanas. ¿Pero es la forma correcta de pensar sobre ética o moralidad?

No es frío el utilitarismo, sino la intuición moral humana (cuando no está guiado por la razón). ¿Por qué digo eso? Considera lo siguiente:

Cuando nos enteramos de que un amigo ha sufrido una fractura en el hueso, sentimos cierta pena por él y una compulsión que lo acompaña para ofrecer nuestro apoyo y / o ayuda.

Cuando escuchamos que un hombre sin hogar en nuestro vecindario murió debido a la hipotermia durante las profundidades del invierno, sentimos una pena (presumiblemente) aún mayor y deseo de ayudar.

Cuando se nos informa que nuestro propio ser querido murió o experimentó una cantidad trágica de sufrimiento, experimentamos una respuesta emocional extrema que incluso invoca síntomas fisiológicos (ansiedad, llanto, “nudo en la garganta”, etc.).

Cuando escuchamos que, en todo el mundo, casi 200 personas murieron en una explosión química (muchas quemadas vivas, seguramente), pensamos en la magnitud del desastre y nos sentimos terribles, pero no logramos reunir tanta respuesta emocional como lo haríamos por la pérdida de nuestro propio ser querido. Aunque sabemos, en nuestra mente , que tal desastre es objetivamente 200 veces peor que nuestra pérdida, no podemos generar la misma respuesta emocional en nuestros corazones .

El utilitarismo es simplemente la idea de que deberíamos estar escuchando la voz de la razón en lugar de la voz de la intuición.

¿Por qué deberíamos esperar que nuestra intuición, o “sensibilidades humanas” para usar el término de la pregunta, sean una guía precisa en asuntos morales como este? Nuestra intuición / sensibilidad fueron moldeadas por la evolución. Piense de dónde venimos … nuestras sensibilidades morales nunca fueron diseñadas (léase: evolucionadas ) para comprender la pérdida de más de uno o dos individuos, y nunca fueron diseñadas para considerar la importancia moral de los individuos que no son genéticamente (y por lo tanto geográficamente) cerca de nosotros. La selección natural ha dado forma a nuestra psicología para que nos sintamos tan horribles como sea posible cuando fallecen personas relacionadas con nosotros; sin embargo, sabemos que deberíamos sentirnos mucho peor cuando 200 personas mueren al otro lado del mundo. Esperar que nuestras sensibilidades morales sean precisas al procesar la ética de lo que les sucede a aquellos que no están relacionados con nosotros y lejos de nosotros es cometer la falacia naturalista (combinando “natural” y “bueno”).

Nuestras sensibilidades incorporadas no son capaces (presumiblemente debido a razones evolutivas) de procesar con precisión el sufrimiento en una escala mayor que unas pocas personas. Nuestra capacidad de sentir una respuesta emocional al sufrimiento de los demás alcanza un máximo rápidamente:

El utilitarismo reconoce esto y dice que deberíamos usar la razón para ajustarnos a nuestra incapacidad de sentir intuitivamente la escala del sufrimiento más allá de cierto punto. Dice que cuando somos conscientes de que 200 personas necesitan nuestra ayuda, debemos obligarnos a tomar 200 veces la acción para aliviar esa necesidad (la respuesta moral aumenta con la necesidad moral ). Por supuesto, solo podemos percibir una cantidad relativamente pequeña de sufrimiento en comparación con la cantidad de sufrimiento que podemos tener en cuenta. El utilitarismo dice que si podemos percibir el sufrimiento por encima de un cierto punto o no, todavía importa igual, y deberíamos estar moralmente obligados a aliviar ese sufrimiento proporcionalmente a su escala.

La misma deficiencia en la intuición moral se encuentra en las comparaciones entre el sufrimiento que está genéticamente o socialmente cerca de nosotros y el sufrimiento que está genéticamente o socialmente lejos de nosotros:

Aquí es donde el utilitarismo a menudo es criticado como frío y calculador , porque enseña que la familia no es más importante que un extraño al otro lado del mundo. Sin embargo, no enseña que uno debería preocuparse menos por la familia, solo que uno debería preocuparse más por los demás más de lo que lo haríamos nosotros, siguiendo nuestra intuición o tradición. ¿Qué tiene de frío ser tan compasivo con los extraños como lo eres con los que están cerca de ti? Así es como se ve la verdadera compasión. Después de todo, todos son familiares para alguien. Y nadie puede elegir en qué familia y en qué entorno nacen. En ética, ¿cómo podemos justificar ayudar exclusivamente a nuestros amigos y familiares? Esta es una forma de egoísmo, y está (casi) unánimemente de acuerdo en que el egoísmo es lo opuesto a la moralidad.

En lo que respecta al cálculo del utilitarismo, esto debería ser un cumplido, no una crítica. Hemos visto que la intuición humana simplemente no produce la reacción moral adecuada ante ciertas situaciones, es decir, cosas que le pasan a muchas personas y cosas que le pasan a personas que no conocemos. Las razones para esto, sospecho, son evolutivas. Lo que estamos obligados a hacer es corregir esta deficiencia, utilizando la razón para pensar en lo que es correcto , reconociendo que nuestras propias emociones están diseñadas para aproximar la moral a pequeña escala, dentro de las familias y las tribus, pero la moral real debe preocuparse por todo universo, no solo qué o quién está más cerca de nosotros.

Por supuesto, muchas personas que se adhieren al utilitarismo en principio no pueden seguirlo perfectamente en la práctica. No respondemos adecuadamente a todas las injusticias en todo el mundo que deberían preocuparnos. No tratamos a todos por igual, incluso si lo intentamos conscientemente.

No creo que nadie haya sido nunca un utilitario perfecto (y sería imposible saber si lo lograron). Pero lo que importa es que tratamos de hacerlo lo mejor posible.

A2A

El utilitarismo es una teoría en ética normativa que sostiene que la mejor acción moral es la que maximiza el placer agregado después de deducir el sufrimiento de todos los involucrados en cualquier acción. (la definición original, ignorando las muchas adiciones insustanciales a esto)

Después de buscar esto, observo que nuestras interpretaciones de los principios de estas teorías son bastante diferentes. Lo veo como una medida del placer total deducido por el sufrimiento total, que de hecho sería “atractivo para la sensibilidad humana”. Aunque esta teoría es bastante básica, creo que, como brújula moral, generalmente apunta en la dirección correcta.

En Watchmen, hay “héroes” más indulgentes con las acciones que tienen lugar (sin darse cuenta hasta el final), y un “villano” que es más indulgente con el resultado. Algunos “héroes” cambian de bando después de todo lo dicho y hecho prácticamente sin dar marcha atrás. Para mí , lo que mantiene el resultado “malvado” es que es manipulador. El verdadero terror se define como descubrir toda tu vida o existencia es una mentira. Si / una vez que se descubre que este es el caso, será un infierno pagarlo.

En moral, los fines no siempre se justifican por los medios. medir el placer al sufrimiento con previsión no es tarea fácil. El problema que te vuelve loco es que la moral no siempre es en blanco y negro.

Recuerdo una discusión en una universidad sobre un problema que podría interesarle:

Si tuvieras que elegir entre (1) matar a una persona para salvar la vida de otras cinco y (2) no hacer nada aunque supieras que cinco personas morirían ante tus ojos si no hicieras nada, ¿qué harías? ¿Qué sería lo correcto? (video de una hora de duración)

Para resumir, los estudiantes están a punto de salvar a más personas y la angustia moral de asumir la responsabilidad de la vida que han decidido sacrificar. Se argumenta que permanecer inactivo también es una opción, y también es responsable. Se hacen numerosas adiciones al problema, y ​​los estudiantes van y vienen sobre qué hacer.

En este problema, no es algo “correcto”, porque todos los resultados son malos.

Si el villano de los vigilantes no hubiera manipulado a todos, podría haber sido una catástrofe nuclear, por lo que es casi el mismo caso de que no es una cosa clara “correcta” que hacer.

Como se dijo antes, la moral no siempre es en blanco y negro. No es de extrañar que este acertijo de lo correcto y lo incorrecto te esté volviendo loco.

Contestaré esto de dos maneras diferentes: una trata sobre el cálculo y la otra trata sobre cómo usamos la moral. En orden opuesto:

El utilitarismo trata la moralidad como un problema de optimización: averigua qué es lo mejor en general y luego hazlo. Esto lo hace muy parecido a la economía, o incluso al ajedrez: si sacrificar a una reina por dos peones, o conducir a una gran empresa a la quiebra por el bien de dos nuevas empresas, resulta ser una victoria cuando se suman los números, entonces es moral. Pero afirmo que tenemos inhibiciones morales en contra de hacer ciertas cosas porque, aunque a menudo parecen ser una victoria, terminan cambiando el juego de una manera que hace que sea más difícil ganar la próxima vez, como cuando un partido político manipula una elección, pero eso aumenta las posibilidades de violencia en las próximas elecciones, lo que lleva a una revolución que arrasa con el partido. La moral no se trata de encontrar la mejor solución, sino de decidir qué cuenta como mejor, y una elección fraudulenta no es la mejor, incluso si su candidato favorito gana.

Probablemente haya visto los argumentos de que el utilitarismo está tratando de realizar un cálculo muy difícil. El cálculo hedonista, por ejemplo. No los voy a repetir aquí. Mi opinión sobre el asunto es que el utilitarismo es el equivalente moral de una economía planificada centralmente: ambos fracasarán porque los cálculos necesarios para que funcionen son imposibles en cualquier mundo realista, debido a las diferencias entre lo que quieren las diferentes personas y la dificultad de averiguar. Ver también “El uso del conocimiento en la sociedad”.

Dicho esto, respeto a los fundadores del utilitarismo, y eso influye en mi pensamiento.

Supongamos que pudiéramos cuantificar y medir el bienestar, junto con sus contrarios. Siendo tan increíblemente complejo, podríamos querer poner nuestro algoritmo utilitario en un sistema de servidor en la nube. Entonces podríamos construir dispositivos con sensor bluetooth conectados a una aplicación wifi para enviar el servidor en la nube para su procesamiento. Incluso podríamos conectar nuestras mascotas e incluso animales salvajes si quisiéramos incluirlos en el alcance de nuestro cálculo. Dada la configuración, llegamos a una decisión moral práctica. Entonces queremos saber si A o B es la opción moral correcta. Lo conectamos a nuestra aplicación, y casi instantáneamente obtenemos una respuesta del servidor en la nube después de que ha realizado sus cálculos basados ​​en maximizar el bienestar y minimizar sus contrarios para el número máximo de personas conectadas involucradas.

Ignorando el problema obvio de tener que conectar a todos, y la exclusión de aquellos que no están conectados, ¿cuáles son algunos problemas con este escenario? ¿Es que una computadora está calculando las decisiones morales? ¿Es que se están calculando las decisiones morales?

Quizás eso sea parte de eso. Para mí, la mayor parte es que el derecho y la responsabilidad de tomar la decisión moral se están eliminando del agente moral. El propio agente moral está siendo eliminado por completo de la decisión. ¿Puede esto ser propiamente llamado una decisión moral entonces?

No lo creo. ¿Cómo se puede responsabilizar al agente moral por esta decisión diferida y sus consecuencias? Es idéntico a un agente que simplemente está siguiendo órdenes. Creo que seguir cualquier sistema moral al pie de la letra, incluso si somos nosotros quienes hacemos el cálculo en lugar del servidor en la nube en este escenario, elimina el elemento mismo de la decisión que lo hace moral, el agente.

La pregunta más importante es, ¿por qué uno elige un sistema moral sobre otro? La pregunta del OP realmente es, ¿es el utilitarismo la teoría moral correcta? Esa es la elección que podría llamarse propiamente la moral. Hay una serie de teorías en competencia. El utilitarismo es una teoría consecuencialista que enfatiza las consecuencias sobre las intenciones. Pero, ¿por qué elegir un valor sobre otro para maximizar? Tiendo a ser más comprensivo con las teorías de la virtud que enfatizan el propósito de la moralidad para desarrollar el carácter moral. Aun así, ¿cómo decidimos qué virtudes vale la pena desarrollar?

Son esas decisiones sobre el valor las que son intrínsecas al dilema moral. Y esas son decisiones que no pueden subcontratarse a otros agentes sin perder su importancia moral. Tengo que decidir por mí mismo cuáles son mis valores y luego cómo voy a aplicarlos a mis decisiones y comportamiento. Las teorías morales particulares pueden servir como heurísticas para ayudarme a tomar mis decisiones. Y como heurística, algunas teorías tienen una mejor aplicación en algunos casos y menos en otros, y la diferenciación de esos casos puede depender de nuestros valores personales particulares. Aprender, crecer y madurar en nuestra autoconciencia moral y en nuestras elecciones es una parte esencial del proceso. Por lo tanto, no es tanto que una teoría moral particular como el utilitarismo sea fría y calculadora, por lo que debe estar equivocado, sino que es una forma de escapar del difícil proceso de descubrimiento y crecimiento personal. Enfrentarse al difícil dilema moral particular y decidir si quieres ser utilitario al respecto o no, es la verdadera elección moral.

No he leído “The Watchmen”, pero el utilitarismo es una filosofía profundamente defectuosa y rota que es demasiado fácil de asimilar. Se ve tan justo y nobel desde el exterior, ¿no? Piensa otra vez. Piensa en el comunismo , por ejemplo. Piense brutalidad en el nombre falso de “bien mayor”. De hecho, si mi placer de golpearte es mayor que tu sufrimiento, entonces es moral para mí hacerlo.

O, como diría un utilitario: “¿Cuál es el sufrimiento de unos pocos, comparado con el placer de muchos?”
Bueno, para empezar, ¿quién demonios te dio el derecho de jugar a ser dios con las vidas de otras personas? Individuos tienen derechos, los “grupos” o “masas” conceptuales obviamente no .
Pero aun así, el utilitarismo todavía no tiene forma o método de medir realmente el “resultado de felicidad global” de una acción determinada. ¿Cómo comenzarías a comparar el sufrimiento de una persona con el placer de otra? Y si no puedes, ¿cómo puedes saber qué es moral o no ? Recuerde, el utilitarismo afirma que lo que es moral es lo que aumenta la “felicidad general”.

Y ni siquiera me hagas empezar con la idea del enfermo “descuida a tu propia familia por las masas distantes” que alguien mencionó … Ten en cuenta que todo en la vida se trata de prioridades: no puedes priorizar todo tanto como puedes priorizar algo. Cuando ha traído a un niño a este mundo, su responsabilidad principal en la vida es ser el mejor padre para ese niño, no un caballero blanco para el resto del mundo del que no tenía la responsabilidad en primer lugar. Período.

Entonces, ahí lo tienes. ¡Espero que te ayude a ver que el emperador está, de hecho, bastante desnudo!

Aquí hay cuatro consideraciones clave al pensar en cuestiones de utilitarismo:

  • Bueno, creo que la noción de felicidad es bastante manipulable. Estoy bastante seguro de que Aristóteles y Bentham tenían en mente diferentes definiciones de felicidad. El de Aristóteles era más parecido a la alegría o el bienestar, mientras que Benthams parecía ser prácticamente cualquier cosa bajo el sol. Sin embargo, Aristóteles parece ser mucho más duradero, duradero y posible.
  • El utilitarismo no tiene en cuenta los derechos y la justicia. Ese utilitarismo anularía nuestra Constitución cada vez. En este contexto, las preguntas utilitarias, que plantearían seguridad versus libertad tenderían a favorecer la seguridad (en términos de impacto general).
  • El utilitarismo no tiene en cuenta la exactitud de los actos: la honestidad en las relaciones es clave. Esta no es una función del utilitarismo. Esta es una función de mantener y mantener relaciones de calidad.
  • El utilitarismo de las reglas o el utilitarismo con restricciones o controles es, en mi opinión, la única forma de vivir con un utilitarismo que efectivamente capacita lo ético.

No veo el utilitarismo como frío, calculador o poco atractivo. Me parece el único enfoque fructífero de la moral. Hay otros sistemas, pero en última instancia, deben basarse en el utilitarismo, ¿o cuál sería el punto? ¿Por qué debería alguien querer ser moral si la moralidad resultó en infelicidad en lugar de felicidad?

¿Cuál sería el punto de equidad o amabilidad o generosidad o justicia, si solo hicieran miserables a las personas?

Pregunta original

El utilitarismo es frío, calculador y, a menudo, poco atractivo para muchas sensibilidades humanas. ¿Pero es la forma correcta de pensar sobre ética o moralidad?

Esto me ha vuelto loco desde que terminé de leer The Watchmen.