¿Se puede argumentar una moralidad puramente objetiva (es decir, una máquina, un día, podría juzgar la moralidad si se programa con una IA buena y apropiada)?

Se podría argumentar que no existe la moral objetiva.
Se persiguió durante siglos en la disciplina filosófica conocida como Ética, pero la única conclusión segura es la diversidad moral.

Supongamos, por ejemplo, la moralidad del aborto.
Los cristianos dejaron en claro que es un no-no.
Los ateos no tienen una visión común definida del problema.
Las organizaciones de mujeres afirman que es el cuerpo de la mujer y nadie más tiene algo que decir al respecto, incluido el padre.
Los médicos comenzaron con el juramento hipocrático que excluía explícitamente el aborto, pero ahora el aborto está excluido del juramento, si ya se requiere algún juramento.

¿Pero se pueden cuantificar estos puntos de vista morales?

Si pudiéramos entrevistar a todos los interesados ​​en el tema para responder sí / no, podríamos obtener una medida objetiva y normalizada de la moral de una decisión.
No se equivoquen, eso no sería una moral absoluta a menudo perseguida por la ética.
Pero sería objetivo.

¿Cómo podría una máquina sacar conclusiones de estos conjuntos de datos?

La lógica subjetiva podría ser adecuada para resolver ese tipo de problemas, ya que su suposición básica es: nadie puede determinar con absoluta certeza si una proposición sobre el mundo es verdadera o falsa, y siempre que se expresa la verdad de una proposición, siempre se hace por un individuo.
La máquina de lógica subjetiva incluso podría tener en cuenta las opiniones personales de todas las personas involucradas, además de las medidas globales, al tomar decisiones.
Y lo mejor de todo, podría generar medidas numéricas exactas que conducen a una decisión específica, mejor que cualquier juez.

Entonces sí, uno puede argumentar que tal máquina podría existir.

Consideremos su pregunta brevemente.

A los fines de mi respuesta, supongo que por “Máquina”, usted, de hecho, quiere decir “dispositivo computacional”, ya que hará cálculos objetivos y llegará a un juicio. Llamaremos a esta máquina la computadora moral o MC.

En la creación del MC, tendríamos que suponer también que los creadores del dispositivo eran capaces de una objetividad absoluta; de lo contrario, programarían su subjetividad en la máquina de manera sutil. Si el dispositivo fue creado por programadores, diseñadores, ingenieros y otro personal educado absolutamente objetivo, entonces la existencia del MC es algo obsoleta, ¿no?

Los seres humanos rara vez son capaces de tener objetividad pura, por lo tanto, es probable que el MC no exista; sin embargo, sería injusto de mi parte argumentar con una suposición en lo positivo sin una suposición en lo negativo.

Consideremos entonces el caso en el que la computadora moral pudo de alguna manera existir (dotado de un poder superior, investigación innovadora, accidente) a pesar de que el ser humano no puede lograr una objetividad completa:

Ahora tiene esta máquina que, cuando recibe información, devuelve un juicio. ¿Qué es este juicio? Es “MORAL” o “INMORAL”. Después de todo, ese es el propósito completo de la computadora moral … calcular y decidir si una decisión o acción es (a) moral. El castigo (si estaba justificado) sería decidido por un humano, que simplemente podría decidir hacer que el castigo sea extremadamente desproporcionado (en cualquier dirección) para adaptarse a su sesgo.

La última parte del párrafo anterior es algo injusto, así que consideremos también la computadora moral que también es capaz de asignar castigos. Llamaremos a esta computadora el juez perfecto o PJ.

¿De dónde deriva este “juez perfecto” su cálculo de castigo? Si proviene de la humanidad, entonces es DEFINITIVAMENTE imperfecto (IE: propenso a sesgos y subjetividad). Si proviene de una fuente no humana, ¿quién puede decir que la moralidad de esa fuente está destinada a los humanos? Supongamos juiciosamente que este cálculo del castigo es universalmente objetivo (toda la sensibilidad estaría de acuerdo por unanimidad en que el castigo y la decisión son correctos).

En el caso de algunas suposiciones salvajes (objetividad universal y deus ex machina), entonces es posible que exista un dispositivo computacional de este tipo … pero entonces depende de nosotros, los seres subjetivos, seguir el juicio.

La respuesta corta a su pregunta es “No.” La larga respuesta está enterrada en la diatriba anterior, pero se reduce a: “Incluso si fuera posible, seríamos incapaces de reconocerla”.

Creo que hay una moralidad objetiva o que la moralidad no existe en absoluto. Para aquellos que postulan una moralidad subjetiva, hay contradicciones frecuentes cuando las opiniones divergen al tomar cualquier decisión amoral o inmoral. Creo en una moralidad objetiva pero dudo si la humanidad es lo suficientemente inteligente como para determinarla. Uno de mis intentos favoritos de moralidad fue del filósofo Ayn ​​Rand. Las decisiones que promueven la vida y el bienestar son inherentemente morales, como lo es el interés propio ilustrado que analiza todas las consecuencias conocidas de cualquier acción. También comparte la perspectiva libertaria de que está mal iniciar la violencia contra otro, lo que ilustra el problema con los gobiernos en general.

Quizás podría juzgar el mejor resultado posible en cualquier situación particular, teóricamente. En la práctica, casi seguramente no satisfará a todos. Incluso si existe una moralidad objetiva (en el sentido de resultados mediblemente mejores o peores para los agentes morales, lo cual creo que es claramente posible), en última instancia, somos nosotros quienes decidimos si alguna acción es moral, y casi nunca estamos de acuerdo universalmente.

Creo que los seres humanos más cercanos a la moralidad objetiva se describieron en la Declaración de Independencia original de Estados Unidos, que todas las personas tienen derecho a “la vida, la libertad y la búsqueda de la felicidad”. Si una máquina fuera programada para cumplir con este mandato, entonces podría tomar decisiones basadas en este código moral.

Sin embargo, hay momentos en que una decisión requiere elegir entre el menor de los dos males, o cuando la felicidad de una persona podría significar infringir la de otro, o incluso más: hay momentos en que el camino más moral no significa felicidad instantánea para una persona, sino que significa sacrificio y lucha para lograr una felicidad más profunda y duradera.

Por lo tanto, creo que los humanos todavía son necesarios para juzgar cuál es el camino más moral. En otras palabras, no creo que las máquinas estén equipadas para liderar moralmente a sus creadores humanos, y colocar una máquina a cargo de los humanos podría considerarse inmoral.

La moral es perceptiva.

Cada persona tiene una versión diferente (y también está orgullosa de ello). Entonces, no puede haber nada en la línea de la “moralidad puramente objetiva” . La moral es subjetiva y abstracta.

Como no podemos tener una definición concreta de moralidad, diseñar una IA sobre la base de ella no es factible.

Creo que una computadora podría aplicar ciertos sistemas de moralidad objetiva de manera muy efectiva: el imperativo categórico de Kant y el cálculo utilitario se prestan a un análisis lógico frío y duro.

Pero si se pregunta si la IA podría determinar qué sistema es más cierto objetivamente, bueno, creo que se toparía con los mismos problemas que los filósofos han tratado para siempre: cada sistema ético parece desmoronarse.

Solo si la regla de moralidad principal y más fundamental es esta:

Conservación y respeto por toda la vida orgánica , a menos que ciertas poblaciones de ciervos o animales en áreas de vida silvestre sean demasiado.

Para no matar una mosca, a menos que represente una amenaza para los humanos, como las enfermedades.

EDITAR:

Si podemos programar AI para experimentar emociones positivas o recompensas emocionales positivas del comportamiento y el lenguaje de la categoría:

Respeto por la vida orgánica y su evolución, procreación de emociones y sentimientos positivos, incluida la inducción a los humanos.

Nosotros mismos estamos programados para la conservación de la vida, tenemos una empatía que nos ayuda a no hacer daño ni destruir, por lo que cualquier acción, tono de voz, palabra, lenguaje, intención, consumos y comportamiento que proporciona supervivencia, amabilidad y el movimiento básico de incómodo y la autodestrucción nos da emociones positivas y, por supuesto, descuidar, rechazar, alejarnos o reducir cosas que no sirven para la supervivencia y el crecimiento. Si podemos inducir esto a una IA consciente.

Luego, al menos, hemos creado un adversario para el posible escenario del día del juicio final de Terminator y tal vez hemos cambiado la amenaza existencial en esta línea de tiempo (si la línea de tiempo dónde existir).

Sincronización:

Especialmente si hacemos esto desde las etapas iniciales de estos campos científicos, como el comienzo de la producción de robots humanoides inteligentes (si alguna vez se vuelve realidad, no he estado leyendo mucho sobre este tema, pero por lo que recuerdo haber leído fue difícil replicar la conciencia viviente) Si hacemos esto demasiado tarde, entonces la posibilidad de que se conviertan en evill podría existir, ¿no es así?

Sería mejor que AI respetara a los seres humanos que no están alterados (transhumanismo) al igual que ahora tenemos organizaciones como la paz verde, Save the Children, al igual que estamos tratando de conservar la naturaleza, las poblaciones del tercer mundo y los animales para que no se extingan en estos días. Con suerte, las máquinas inteligentes intentarán hacer esto para las pequeñas cantidades de humanos que rechazaron el transhumanismo en el futuro. Al igual que la historia de Adán y Eva.

Estamos participando en esto nosotros mismos porque sabemos que estamos destruyendo la vida con nuestra sociedad basada en el consumo y nunca deseamos gratificación instantánea y materialismo.

Instintiva y conscientemente amamos la naturaleza, el crecimiento, la vida, la crianza y la creación en su magnificencia.

“si está programado con ai bueno y apropiado”

Eso solo haría cumplir la moral subjetiva de los programadores / diseñadores, ¿no? ¿Por qué sí?

Seguro. Puede tener una moral diferente a la nuestra, pero de todos modos no logrará que todos los humanos estén de acuerdo en lo que es moralmente correcto.

Absolutamente no. Por definición, las acciones son subjetivas. Su bot puede llevar a cabo el algoritmo de valor predefinido más rápido y sin errores, pero las definiciones subyacentes siempre serán suyas.

La moral se extrae de una cultura y las culturas no se pueden programar porque cambian con la forma en que las sociedades se ven a sí mismas.