¿Se está convirtiendo la tecnología en una fuente importante de problemas morales / éticos?

La tecnología como tal siempre ha planteado problemas éticos. En el advenimiento de la agricultura, cuando los humanos hicieron la transición de sociedades nómadas y forrajeras y se establecieron en una sola área a largo plazo, hubo preguntas éticas involucradas: ¿qué sucede con el excedente de cultivos? ¿Cuánta propiedad tienen los trabajadores frente a los tenedores de libros? La vivienda siempre ha sido forjada con preocupaciones éticas. Incluso se podría decir que la Reforma se debió en gran parte a la ética tecnológica: ¿quién tiene acceso a los libros? ¿Quién tiene acceso al idioma en el que está escrito el libro (también una tecnología)?

No hay nada nuevo o incluso significativamente diferente sobre las cosas que casualmente usamos como tecnología ahora (básicamente computadoras y objetos computarizados). Si comienzas a hablar de edificios o libros, la gente piensa que estás siendo pedante y dice “sabes a lo que me refiero”. Bueno, sí, pero no creo que lo hagan. La comparación no es un tecnicismo.

En muchos sentidos, incluso algo tan revolucionario como la conectividad global que tenemos ahora es menos disruptivo y probablemente menos influyente de forma permanente que las innovaciones como la agricultura, la imprenta y, ciertamente, el propio lenguaje. Poder acceder a una amplia biblioteca de conocimientos desde su sillón es una hazaña increíble. Pero sigue siendo, esencialmente, una mejora en la biblioteca.

Me gusta imaginar que alguien traiga a Gutenberg del pasado, esperando sorprenderlo con lo lejos que hemos llegado, solo para que mire el iPad en sus manos y diga: “es una gran mejora, claro, pero has Tenía seiscientos años . ¿Es esto realmente lo mejor que puedes hacer?

Entonces, sí, la tecnología plantea problemas éticos, pero no más que nunca. Lo que tal vez podamos cambiar es con qué frecuencia, con qué profundidad y con qué intensidad hacemos esas preguntas.

En una respuesta corta, sí. Esto ha sido una preocupación de los filósofos desde Aristóteles o incluso antes. El desarrollo acelerado de la tecnología a lo largo del tiempo, particularmente en el siglo XX, el advenimiento de la tecnología convergente han puesto los temas morales / éticos en primer plano. Como la tecnología es imparable, existe la sensación de que se debe tener más consideración entre aumentar el mejoramiento de nuestras vidas y el impacto negativo de ciertas innovaciones. Isaac Asimov onza dijo que la ciencia reúne el conocimiento más rápido que la sociedad recopila la sabiduría. Tomo esta cita como una invitación apremiante para llenar este vacío más probablemente por la tecnología misma con la ayuda de un mayor financiamiento en investigación y desarrollo. Por ejemplo, el uso de células madre embrionarias con fines curativos ha planteado muchos problemas éticos. La eliminación de la masa celular interna del blastocisto hará que el embrión muera. Este desafío ético puede eliminarse mediante el uso de células somáticas. He cubierto este tema y muchos otros, incluida la Inteligencia Súper Artificial en mi próximo libro Tecnología y Sociedad – Recompensas y desafíos.

Que la sabiduría práctica se use en nuestras elecciones para el florecimiento de la humanidad.

¿Se está convirtiendo la tecnología en una fuente importante de problemas morales / éticos?

..o

¿Se está convirtiendo la moral / ética en una fuente importante de problemas tecnológicos?

Por ejemplo, es ético curar a todos sus enfermedades y hacerlas sanas. El problema tecnológico aquí es nuestra incapacidad para hacerlo. Por lo tanto, gastamos millones de dólares en investigación médica tratando de encontrar e implementar esas curas.

El factor clave aquí es el desequilibrio

Los avances éticos impulsan el progreso científico. Del mismo modo, los avances científicos impulsan el progreso ético. Ambos tienden a complementarse entre sí. Uno conduce al otro cuando hay un desequilibrio .

Si, de alguna manera.

Por ejemplo, los automóviles sin conductor, cuando estén disponibles para comprar, deberán programarse para emitir juicios éticos (p. Ej., “¿Debería atropellar el automóvil que se aproxima? ¿Debo conducir por la acera y atropellar a estos seis escolares para salvar la vida de mi conductor? ”).

Sin embargo, debido a que las computadoras solo pueden seguir una programación binaria estricta, necesitamos programar estos autos con “valores” asignados a cada persona y objeto, para que pueda ejecutar un cálculo cuando tenga que decidir a qué grupo de personas potencialmente debe matar.

Asignar un “valor” numérico variable a cada vida humana significaría que tenemos que decir de manera concluyente a alguien “Usted es objetivamente menos valioso que esta otra persona”. Esto provocaría un alboroto absoluto, ya que podría reforzar los prejuicios sociales existentes y podría legitimar la discriminación.
Sin embargo, si queremos autos sin conductor totalmente automatizados en la carretera, este es el tipo de cosas que inevitablemente debemos decidir. No hay alternativa.

Este es solo un ejemplo de cómo la tecnología presenta una gran preocupación ética.