La noción de sistemas robóticos que toman decisiones éticas está fuera de lugar. Los sistemas de vehículos están diseñados para operar dentro de “condiciones de contorno”. En otras palabras, las leyes de responsabilidad del producto requieren una atención cuidadosa a los vehículos a prueba de errores para uso del público en general. Por lo tanto, los ingenieros diseñan sistemas automatizados para operar solo cuando todas las condiciones necesarias para garantizar el uso correcto (seguro) están presentes. Por ejemplo, un sistema que puede detectar un obstáculo a una distancia máxima de 50 metros solo funcionaría a una velocidad en la que el sistema de frenado pueda detener el vehículo dentro de los 50 metros. Un sistema que necesita leer las marcas del carril para guiar el vehículo solo funcionaría cuando los sensores puedan detectar las marcas del carril. En la práctica, los vehículos automatizados utilizan múltiples tácticas para guiar el vehículo, pero el principio subyacente sigue siendo el mismo. Los sistemas están diseñados para operar dentro de sus capacidades, no para hacer juicios. Los diseñadores e ingenieros toman las decisiones éticas y las incorporan a los sistemas.
¿Un automóvil autónomo necesita conciencia para tomar decisiones éticas?
Related Content
¿Hay algo poco ético en la manipulación de la moneda?
¿Puede alguien que no tiene una ética de trabajo desarrollar una ética de trabajo y dominarla?
¿Qué debería decirle a un niño que robó algo y pensó que estaba bien?
La forma de evitar esto, por supuesto, es estar al tanto de las situaciones en las que tales decisiones son forzadas, y luego evitarlas.
Si conduce en una carretera residencial donde los automóviles estacionados bloquean la vista de la acera y no tiene forma de esquivar a un niño que podría saltar, debe reducir la velocidad para que su distancia de frenado coincida con su distancia visual. (De hecho, los humanos también deberían hacer esto. No lo hacen, por eso deberían ser reemplazados por robots que lo harán).
Casi todos los demás escenarios que implican supuestas decisiones éticas sobre quién debería morir son prácticamente imposibles si el automóvil autónomo está conduciendo de una manera verdaderamente responsable. Casi todos implican “no se puede detener a tiempo”, lo cual es un gran defecto. Y es un poco ridículo, ya que los humanos tienen distancias de frenado extremadamente más largas que los autos autónomos debido al “tiempo de reacción”, por lo que ningún ser humano cayó en una situación exacta en la que estos autos autónomos se enfrentan a un dilema. el humano simplemente atravesaría el obstáculo, sin tiempo suficiente para reaccionar.
Pero lo que realmente se pregunta es ¿Quién debería decidir cómo las máquinas toman decisiones moralmente cargadas? Que es un trabajo académico realmente interesante sobre este tema por un especialista en ética. Esto parece ser exactamente lo que quieres saber.
Por supuesto no. Simplemente sigue los comandos preprogramados, la posición y la velocidad serían los principales problemas.
More Interesting
¿Cuáles son los problemas éticos con la expansión de la robótica?
¿Cuáles son algunos posibles dilemas éticos para los pilotos?
¿Tengo que obedecer a un maestro?
¿Es ético pagarle más dinero a su abogado como regalo de agradecimiento?
¿Por qué no puede haber un sistema de ética que no se base en el relativismo?
¿Nuestra moralidad se deriva realmente de la ciencia?
¿Es necesario pagar sobornos en el continente africano para llegar a algún lugar en los negocios?
¿Qué es el Código de conducta ética?
¿Cuál es la justificación moral para las personas que piratean?