Como programador, ¿codificaría un automóvil sin conductor para desviarse en una acera llena de gente detectada, o permanecería allí y sería atropellado por un camión a alta velocidad detectado?

¡Ah, el problema de la “programación ética”!

No soy programador; Mi experiencia es en el área de prevención de accidentes y seguridad, actualmente en el dominio de la aviación no tripulada. Sin embargo, tenemos que considerar bastantes desafíos similares o similares a los que enfrentan los vehículos sin conductor. Entonces, para lo que vale, aquí está mi opinión sobre cuestiones más grandes planteadas por esta pregunta.

Tl; dr para el escenario específico en la pregunta: si se choca por la parte trasera solo podría causar lesiones al ocupante del vehículo sin conductor, y tal vez al conductor del camión causando la colisión. Se garantiza que causará estragos en la acera. Le diría al auto que se quede quieto y reciba el golpe, tal vez soltando los frenos momentáneamente para darle un poco de distancia para gastar energía. Sin embargo, la necesidad de pensar en innumerables y qué pasa si de este tipo no se le está dando casi la atención que merece … y realmente debe ser así, rápidamente.


Comencemos por considerar un excelente ejemplo ofrecido por el autor Tyson Gill en un ensayo que escribió hace más de una década para un libro sobre Visual Basic (extracto de Software Issues 3: The Ethics of Programming):

“En un episodio del viejo show de Bob Newhart, Bob acaba de publicar un libro sobre la construcción de estanterías. Le pide a su personal de mantenimiento, George, que construya una nueva estantería para el libro. Le da a George algunos planes que hizo, siguiendo las instrucciones de su libro. George mira los planes e intenta ofrecer algunas sugerencias. Bob lo interrumpe y le dice a George que espera construir la estantería de acuerdo con el diagrama detallado. George finalmente se rinde por la frustración y se va a trabajar.

“Al final del espectáculo, Bob entra y admira la realización de sus planes. Se regodea y se jacta de George sobre lo bien que funcionaron sus planes. Se dirige a su escritorio, recoge la copia del libro de instrucciones de su estantería y lo coloca en el estante. El libro no encaja. Todos los estantes son demasiado pequeños.

“George tiene la dignidad y la gracia de simplemente mostrar una sonrisa satisfecha, recoger sus herramientas y salir sin decir una palabra.

“Ciertamente, esto representa un dilema ético con el que todos nosotros en el desarrollo de software podemos relacionarnos. Muchas veces hemos trabajado para el gerente o el planificador de proyectos que ha trabajado duro en las especificaciones y se muestra reacio o incluso hostil cuando el desarrollador sugiere cambios. Aceptar que el plan es imperfecto es admitir falibilidad. Y los planes nunca son perfectos, por lo que terminamos con un software que cumple con el plan perfectamente pero no contiene ningún libro “.

A muchos defensores les disgusta intensamente el tipo de experimento mental sugerido por esta pregunta. Su argumento habitual es que tales escenarios son “artificiales”, “artificiales”, “poco realistas”, etc.

Toro.

Hace un par de años, había un excelente artículo en Gizmodo que abordaba indirectamente este tipo de desafíos en el contexto de las “Tres leyes de la robótica” del escritor de ciencia ficción Isaac Asimov. (Por qué las tres leyes de la robótica de Asimov no pueden protegernos). Crecí tratando de leer todo lo que Asimov escribió (lo que resultó ser casi imposible: buscarlo en Google para ver por qué; el hombre debe haber escrito mientras dormía). Sus “Tres Leyes” siempre se quedaron conmigo porque realmente anticiparon cómo la sociedad podría necesitar protegerse de la inteligencia artificial.

Se expresaron de la siguiente manera:

1. Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.

2. Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.

3. Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.

(¡Además, tenga en cuenta que a Asimov se le ocurrió este modelo hace 75 años ! Apenas habíamos hecho que la tecnología de tubos funcionara para nosotros en ese momento, y mucho menos cualquier cosa transistorizada o utilizando circuitos integrados).

El ensayo Gizmodo de George Dvorsky trata el legado de Asimov con respeto, pero argumenta efectivamente que las Tres Leyes realmente no son prácticas. Considere este pasaje:

“Invariablemente, y como se demuestra en muchas de las novelas de Asimov, las imperfecciones, las lagunas y las ambigüedades consagradas en estas leyes a menudo resultaron en comportamientos extraños y contraintuitivos de los robots. Las leyes eran demasiado vagas, por ejemplo, al no definir y distinguir adecuadamente a los “humanos” y los “robots”. Además, los robots podrían violar las leyes sin saberlo si se les oculta la información. Lo que es más, un robot o IA dotado de inteligencia sobrehumana sería difícil no descubrir cómo acceder y revisar su programación central “.

Todos los puntos válidos. Un sistema ni siquiera tiene que ser lo suficientemente consciente de sí mismo para reescribirse si está en condiciones de hacer daño por falta de información o por una anticipación inadecuada de las formas en que podría interactuar con las personas de manera no deseada. Son precisamente los comportamientos “extraños y contraintuitivos” los que deben anticiparse y abordarse para llegar al corazón de la posibilidad sugerida en esta pregunta.

El astronauta Frank Borman, quien fue seleccionado para dirigir la investigación de la NASA sobre el trágico incendio que se cobró la vida de los astronautas del Apolo 1 durante las pruebas en tierra, según los informes, testificó que la secuencia que condujo al incendio fue el resultado de un “Fallo de la imaginación”. Si puedo encontrar una fuente para esto que no sea la excelente miniserie de Tom Hanks De la Tierra a la Luna , la publicaré más tarde como un apéndice). Mientras Borman se refería a los peligros de las pruebas en tierra que no se reconocen en el contexto de En el entorno mucho más peligroso de las operaciones espaciales, la noción de tal falla no es un mal concepto a tener en cuenta.

Lo mismo puede decirse de la posibilidad de eventos de “Cisne negro”, cosas que van más allá de lo esperado con resultados significativamente peores de lo previsto. El único problema que tengo con el concepto de “cisne negro” como profesional de seguridad es que tiende a liberar a las personas con demasiada facilidad. Parece atraer a la gente a pensar que:

  • Hay un punto donde la consideración “razonable” de las consecuencias debería ser suficiente; y
  • Si sucede algo “inesperado”, bueno, ese fue un evento de cisne negro de baja probabilidad, y nadie debería ser culpado por algo así.

En la seguridad de la aviación en estos días, casi todos los accidentes son “atípicos”. Se producen debido a múltiples fallas en el camino que inician o mantienen una secuencia de eventos que conducen al desastre. Por lo tanto, la única forma en que podemos tratar de adelantarnos a ellos es examinar posibles escenarios, sin importar cuán “improbables” puedan parecer. En la complejidad del entorno de la aviación automatizada actual, las combinaciones de circunstancias o condiciones pueden tener efectos sinérgicos y totalmente inesperados en la seguridad general del sistema.


Ahora puedo volver al círculo de la cuestión de la OP. Lo que se presenta como un desafío de codificación es, de hecho, una decisión muy real, solo una de miles, que los programadores tendrán que abordar a medida que intentan construir algoritmos basados ​​en reglas para la toma de decisiones de automóviles sin conductor que reflejen (o al menos aproximada) las variables que los conductores humanos deben tener en cuenta todos los días.

Es por eso que soy muy escéptico de que los autos sin conductor estén de alguna manera listos para el horario estelar. Si el sector autónomo quiere convertir las calles públicas en un laboratorio de aprendizaje y convertir a los ciudadanos inconscientes en sujetos de un experimento grande y arriesgado, y nuestros representantes electos están dispuestos a aceptar la responsabilidad de las vidas que se perderán o arruinarán en el proceso de retocando el software basado en una experiencia mortal, claro, tenlo en cuenta.

La programación es un proceso intelectual. El único gasto asociado con él es el tiempo que necesita el programador para hacer el trabajo correctamente. El costo de agregar líneas de código adicionales, operaciones adicionales de “hacer mientras” o rutas de decisión mejor definidas es trivial en comparación con el posible daño que el código incorrecto puede causar cuando se desata en sistemas críticos para la seguridad.

Los automóviles sin conductor están destinados a integrarse con un sistema que funcione, operado por humanos, no en sus propias guías segregadas aisladas del potencial de interacciones no deseadas. Entonces, evadir / no evadir, acelerar / frenar, y cualquier otra combinación posible de respuestas utilizadas desde el primer día de la educación de los conductores en adelante, deberán abordarse.

Más importante, una vez que se aborden, los conductores humanos deberán estar preparados para la posibilidad de que un robot haga algo diferente a un humano en una situación dada, saber cuál podría ser ese comportamiento alternativo y estar preparado para responder de manera apropiada. Como de costumbre, los humanos terminarán adaptándose a las limitaciones de las máquinas, tal como lo hemos hecho desde los albores de la era industrial, por lo que el progreso puede avanzar.

En tal situación, se programará un automóvil autónomo para que se quede quieto, y he aquí por qué.

La teoría de la conducción no castiga el acto de no evitar un accidente creado por otra persona. Si un camión a alta velocidad choca con un auto sin conductor y ese auto no hace nada para evitarlo, entonces no hay base legal para atacar al fabricante del auto. Solo el camión está equivocado.

Por supuesto, si hubiera una manera de evitar el camión correctamente, el público en general pensaría que su auto sin conductor es menos eficiente que los humanos para evitar accidentes, lo que podría dañar su negocio. Por esta razón, los fabricantes intentarán programar formas para evitar colisiones. Pero serán muy cuidadosos para asegurarse de que tales técnicas se mantengan dentro de la ley y no causen otro accidente.

Si la estrategia de escape implica la creación de otro accidente, entonces existen riesgos de problemas legales, así como controversia pública general. Los fabricantes de automóviles nunca se arriesgarán tanto.

Como humanos, nuestro pensamiento es erróneo acerca de tal dilema porque tratamos de encontrar una solución óptima al problema de minimizar el número absoluto de víctimas sin importar qué. Sin embargo, las empresas privadas quieren mantenerse al margen de los problemas legales y públicos, por lo que su principal preocupación no es la cantidad de víctimas, sino quién es responsable de estas víctimas. Harán todo lo posible para no ser responsables, incluso si eso significa dejar que las personas en el automóvil sean asesinadas por un conductor imprudente.

Creo que podría estar calificado para responder esa pregunta porque, aunque nunca escribí un código para autos sin conductor, me he ganado la vida como un programador razonablemente competente durante casi cuatro décadas … pero lo más importante, una vez tuve un accidente donde tuve para tomar precisamente ese tipo de decisión calculada, reconociendo que a veces no hay buenos resultados, la elección es entre mala y peor.

Esto fue a mediados de la década de 1980. Conducía un viejo y brillante Lada en una calle más vieja de Budapest; El pavimento era de adoquines. Nunca es divertido … ruidoso como el infierno (¡especialmente en un Lada!), Desagradable para conducir. Y hubo una llovizna. Cualquiera que haya conducido sobre adoquines en una llovizna (especialmente adoquines viejos, pulidos por un siglo de tráfico) sabe lo resbaladizo que puede llegar a ser.

Me estaba acercando a una intersección donde tenía el derecho de paso, conduciendo a, tal vez un poco por encima del límite de velocidad aplicable (60 km / h). En el carril de giro a la izquierda, hubo un pequeño accidente; un auto chocó por detrás con otro. Había algunas personas de pie a su alrededor. Probablemente por eso un conductor, que venía en la dirección opuesta, no me vio cuando decidió girar a la izquierda, justo en mi camino.

Peor aún, en el momento en que me vio, decidió que lo más inteligente era pisar los frenos y detenerse, bloqueando completamente mi carril con su automóvil.

No podía girar a la izquierda ya que había personas en mi camino. Podría haber tratado de girar a la derecha, con la esperanza de poder evitar golpearlo sin perder el control de mi propio auto en el pavimento resbaladizo. Pero había una pequeña multitud de pie en la acera, boquiabierto por el accidente anterior. Si perdiera el control, muy probablemente habría terminado en esa acera, hiriendo, posiblemente incluso matando, a personas. Las personas en el otro automóvil, en contraste, estaban protegidas por el automóvil.

Entonces tomé la decisión de no desviarme. Puse mis frenos de golpe pero fue en su mayor parte inútil; redujeron un poco la velocidad de mi auto, pero todavía golpeé al otro tipo con una fuerza considerable, suficiente para aplastar mi radiador y causar estragos en la parte delantera del compartimiento del motor. Al costado de su auto, un viejo Skoda, no le fue mejor. Afortunadamente, nadie resultó herido, a pesar de que el Skoda tenía varios ocupantes. (Para mi alivio, el otro conductor aceptó la responsabilidad del accidente).

Y sí, tomé esa decisión consciente. Solo me tomó una fracción de segundo pensarlo bien, pero lo pensé bien, eligiendo la certeza de una colisión sobre una maniobra arriesgada con un resultado incierto, pero potencialmente mucho más mortal. Cuando golpeé el otro automóvil, mi mano ya estaba en la llave de contacto, apagando el motor solo para asegurarme de que no causara problemas (por ejemplo, un incendio).

Y así es exactamente como programaría ese auto sin conductor. Evalúe la probabilidad y la magnitud de las lesiones, y elija la acción que probablemente cause la menor cantidad de daño a los humanos, incluso si esto significa una cierta colisión sobre una maniobra de evitación que podría no provocar ninguna colisión, pero conlleva un riesgo considerable de mucho más grave daño.

Los autos robot pronto tomarán decisiones sobre quién vive o muere en un accidente

En realidad, serán los programadores quienes decidirán, el automóvil robot simplemente implementa la decisión.

El problema es que ni los programadores ni los legisladores pueden anticipar todas las circunstancias que rodean la situación del mundo real. Esa es la falla de las máquinas autónomas: incapacidad para adaptarse a situaciones que los diseñadores aún no han mapeado. Incluso cuando las máquinas se vuelven adaptables, no se adaptarán de formas no previstas por los programadores. Las máquinas autónomas adolecen de la falacia del experto: uno o pocos expertos saben, a priori, todo lo que se puede saber o necesita saber en todas las situaciones.

Las demandas judiciales que surgen de tales situaciones dependen de si los evaluadores posteriores al hecho (el jurado) determinan que el actor tomó una decisión apropiada dados los docenas o cientos (o miles) de detalles relevantes de la situación. La situación actual, no una situación hipotética. A menudo, un jurado aplica la regla del “hombre razonable”: ¿qué haría un hombre razonable en la situación real?

La pregunta indica que el actor en cualquier situación es el programador, alguien incapaz de conocer la situación real, por lo que no puede actuar (programar) razonablemente.

Como programador, me negaría a hacer cualquier cosa por la cual no estaría absolutamente seguro de no ser considerado responsable. Pasaría la responsabilidad a la gerencia o legisladores.

¿Programa el automóvil robot para desviarse para perder un venado que confunde con un humano, llevando a los ocupantes a un acantilado que el automóvil robot no detectó?

Buen intento de crear una situación de no ganar. ¿Qué haría un humano en este caso (suponiendo que fuera consciente del camión)?

Y, para agregar a su no-win, supongo que el auto sin conductor está detenido en un semáforo para el tráfico, el cruce de peatones frente a él está lleno de personas y el camión es inevitable porque el auto está inmovilizado. Entonces, la única opción es atropellar a las personas.

¿Y el resultado para las personas en el cruce de peatones sería diferente si el automóvil fuera empujado hacia adelante por la energía cinética masiva del camión?

Este artículo que usted cita es una pieza de miedo. No describe el objetivo de diseño real de los ingenieros de automóviles autónomos, que es evitar encontrarse en una situación en la que se debe tomar esta decisión.

En este caso, detenerse cerca del cruce de peatones para que el auto sin conductor no esté inmovilizado sería una estrategia. Espacio para dar un duro giro hacia la acera. (Por cierto, esto es solo decidir salir del camino del destino. El camión todavía golpea a las personas en el cruce de peatones. ¿Es eso realmente mejor?)

Pero tenga en cuenta que, más allá de tomar decisiones sobre quién vive y quién muere, los fabricantes de estos automóviles también tienen que seguir las reglas de manejo y nunca realizar una acción que genere responsabilidad. Entonces, para su escenario, el automóvil debe permanecer en su lugar y recibir el golpe. Entrar en el cruce de peatones es ilegal, independientemente de las circunstancias. Hacer lo contrario significa que los daños no están cubiertos por el seguro y el conductor autónomo ahora comparte la responsabilidad con el conductor del camión negligente.

La forma de evitar accidentes no es tomar decisiones de última hora, sino ir a lo seguro todo el tiempo. Los conductores humanos, que sobrepasan el límite (y especialmente sobre lo que es seguro para las condiciones dadas) son horribles en esto. Su escenario, después de todo, es imposible sin los errores del conductor del camión. (O el niño que entra en el tráfico. O cualquier otra cosa que la gente agregue para desencadenar la decisión que pone en peligro la vida).

Los autos sin conductor no conducen más rápido de lo que pueden ver. Entonces, si solo pueden detenerse a tiempo para posibles accidentes en una calle residencial de un carril yendo a 10 mph, entonces van a 10 mph; no el límite de velocidad máxima publicado de 25 mph. Es por eso que queremos autos sin conductor. Los humanos no toman esta decisión, por lo que los humanos terminan con las consecuencias que llamamos “accidentes automovilísticos”.

Estas divertidas preguntas me pierden muchos puntos importantes.

  • El software será, o al menos debería, capaz de conducir mejor que un ser humano. No se duerme No bebe en coche. No toma selfies en la autopista. No tiene (necesariamente) una latencia incorporada de 250 milisegundos entre los ojos y el cerebro, y otros milésimas de segundo entre el cerebro y el pie de frenado. Si lo hace, podemos actualizar el hardware de una manera que no podemos hacernos a nosotros mismos.
  • Como por igual, ¿cuánto pensamiento ético haría un humano? Estos eventos ocurren en cinco segundos o menos. Resta esa latencia ojo-cerebro-pensar-pie-desacelerar. ¿Qué algoritmos complejos crees que tú o yo usaríamos? ¿En cuáles fuimos probados en nuestro examen de manejo?

Todos estos son casos extremos. El accidente más típico tiene un camino claro para evitarlo (los automóviles hablan entre sí) o evitarlo. Estos casos en los que el resultado siempre es un accidente no cambiarán. Pegue a un humano frente al volante, y seguirá siendo noticia de primera plana. Independientemente de lo que haga o no haga el software, tendrá un resultado desagradable en este ejemplo ideado para ese propósito.

El truco consistirá en aplicar los datos de otros automóviles delante, a los lados y detrás para ayudar a evitar entrar en estas situaciones. Que son muy raros.

Pero para los accidentes típicos? Creo que es totalmente plausible que estos puedan disminuir. Simplemente eliminar la indecisión humana, las reacciones lentas y el aislamiento seguramente deben ayudar.

Parece que no estamos cerca del software superando a los humanos en la conducción. Pero esa es solo la historia del software y lo que puede hacer. Parece mejorar. Ya veremos.

Dudo que alguna vez haya un punto en el código en el que uno pueda expresar el problema de una manera tan en blanco y negro. Mi expectativa es que se utilizarán uno o ambos enfoques. El primero es adjuntar algún tipo de “ponderación de peligro” a varias rutas e indicar al software que tome la ruta menos peligrosa. Los dos resultados que enumere estarán presentes en las tablas de ponderación de peligro, pero solo de manera implícita. El segundo, que considero más probable, es que lo hará algún tipo de red neuronal entrenable. En cuyo caso, ningún programador toma esa decisión: es como enseñarle a un nuevo controlador. Lo pones en cientos de situaciones, muchas simuladas, y lo dejas aprender.

Así que no veo surgir el problema en la forma expresada.

Esta es una de esas preguntas hipotéticas de “problema del carro” que en realidad no suceden en la vida real, por lo que la respuesta es que los programadores no pasarán ningún tiempo con ellas, excepto como ejercicios intelectuales.

Sin embargo, en este caso, la programación que ya están haciendo, que es obedecer la ley, y ciertamente nunca conducir a una acera abarrotada, ya estaría en su lugar. Es ilegal hacer eso, casi tan ilegal como se pone. Programar deliberadamente un automóvil para hacer eso, incluso para salvar un autobús escolar lleno de bebés huérfanos desfavorecidos que son conducidos por una monja, sería el final de su empresa y su proyecto.

Lo expreso de esta manera ridícula porque no va a suceder, y los programadores no quieren tener que responder estas preguntas. No es su trabajo. Si los formuladores de políticas quieren cambiar la ley, dejen que lo hagan, y los programadores programarán sus autos para obedecerla.

Conviértalo en una opción configurable dentro de la pantalla de preferencias.

Recuerde, detrás de cada dilema moral hay una pregunta a menudo descuidada: ¿quién decide? No presumiría que es o debería ser el programador.

Como cuestión práctica, el valor particular de este entorno puede ser obligatorio por ley o regulación, o incluso altamente incentivado a través de pólizas de seguro.

La forma en que lo veo es que el automóvil sin conductor debe estar programado para nunca terminar en esta situación, para empezar. Es decir, si el automóvil tiene que hacer este tipo de elección, usted falló.

Otro problema es que el automóvil probablemente no conocerá la durabilidad relativa de los posibles objetivos. Lo que significa que no reconocerá a las personas en la acera como “objetivos blandos”, sino como obstáculos. (Digamos que hay una estatua de tamaño humano en la acera. ¿Cómo se puede discernir entre una estatua y un tren peatonal?) … y lo más probable es que se programe para evitar TODOS los obstáculos por completo.

Por último, creo que un automóvil de propiedad privada debe proteger a su propietario primero … y dado que es probablemente incapaz de percibir al propietario, eso significaría minimizar el daño al interior del automóvil.

De cualquier manera, en su caso, el automóvil buscará un lugar libre para detectar dónde evitaría cualquier colisión y, si no lo encuentra, el camión lo golpeará. No habría elecciones éticas involucradas.

Lo codificaría para permitir que cada categoría de persona tenga un “valor”, que sería ajustable. Podría considerarse que un niño tiene un valor más alto que una persona mayor. Se podría considerar que el conductor y los pasajeros en el automóvil tienen valores más altos que los extraños al azar en la acera. Podría considerarse que alguien con una gorra de los Gigantes tiene un valor más alto que alguien con una gorra de los Dodgers.

El algoritmo tendría en cuenta la posibilidad de salvar a cada uno y calcularía el mejor resultado, es decir, cuál tiene la suma más alta de los valores de los sobrevivientes.

Luego, dejaría a la gerencia decidir cuánto vale cada categoría de persona.

Programaría el auto para buscar una forma de evitar ambas opciones, y si no hay ninguna disponible, entonces me quedaría. Escupir en una acera llena de gente es un homicidio negligente si un peatón muere (lo cual es muy probable). Quedarse quieto significa que el camión a toda velocidad es completamente responsable.

Sin embargo, otra cuestión teórica del problema del carro. ¿Cuántas preguntas tomará antes de que esto termine? Un punto que muchas personas que se entusiasman con esto es lo que sucedería con un humano en el asiento del conductor. No puedo ver un caso en el que tendrías un mejor resultado con un humano en el asiento.

No hay un mejor resultado porque está configurado como una solución sin beneficios. Aparentemente, las personas que se preocupan por esto viven en lugares donde los automóviles están rodeados de barreras de concreto, excepto por el carril del tráfico y una acera abarrotada.

Ah sí, la vieja pregunta de Kobayashi Maru (si no eres fanático de Star Trek, búscalo).

La mejor respuesta filosófica a esta pregunta es, probablemente, elegir la opción que tenga más probabilidades de causar la menor cantidad de muertes, incluso si la muerte es del conductor del automóvil. Sin embargo, como programador, estaría trabajando para una gran corporación, por lo que esta decisión no dependería de mí. Probablemente se decidirá en función del costo de responsabilidad para la empresa involucrada. así es como me imagino que se determinaría el cálculo:

if ($ estimado_cost_for_de_death_of_driver <$ estimado_cost_for_deaths_of_crowd)

Entonces: KillDriver ();

if ($ estimado_cost_for_de_death_of_driver> $ Estimada_cost_for_de_faths_of_crowd)

Entonces: KillCrowd ();

if ($ percent_ probablyhood_of_killing_all_involved_and_leaving_no_trace> 98%)

Entonces: DetonateCar ();

También: BlameTerrorists ();

Programaría que el vehículo se detuviera, si el tráfico lo permitiera, incluso con el posible choque en la parte trasera, o cualquiera que sea la causa de querer desviarse hacia la acera.

La razón para reducir o detener la velocidad del automóvil es que el daño potencial se reduce al reducir la velocidad de impacto de ambos vehículos, pero el único vehículo que está controlando es este.

Los programadores no toman decisiones legales. Abogados, congresistas, votantes y empresarios toman decisiones legales. Los programadores implementan esas decisiones. Girar en una acera llena de gente crea responsabilidad. Si te golpean por detrás, el conductor que te golpeó es responsable. Entonces, dadas esas dos opciones, no crea responsabilidad y no se desvía hacia la acera.

La pregunta original es:

Como programador, ¿codificaría un automóvil sin conductor para desviarse en una acera lateral detectada o quedarse quieto y ser atropellado por un camión a alta velocidad detectado?

Responder:

Hay un viejo adagio: “En caso de duda, no hagas nada”. Lo mejor que puede hacer un programador cuando se enfrenta a un problema insoluble como este es hacer que su creación actúe como un objeto insensible sobre el que se actúa (por ejemplo, absorbe impacto) pero no actúa sobre otra cosa.

Creo que para ese escenario básico, luego creo que la respuesta es permitir que el automóvil sea chocado por la parte trasera. Dado ese dilema, es una cuestión de daño hecho, y es probable que montar la acera (¡pavimento!) Haga más daño que la camioneta, especialmente porque la camioneta puede estar a una fracción de segundo de frenar y ni siquiera retrocederá tu coche en absoluto.

Sin embargo, creo que es una pregunta interesante, me recuerda un momento en que conducía por la autopista y un camión decidió moverse hacia mi carril, aparentemente sin haber visto mi automóvil. Tuve que acelerar fuera del camino del camión, superando así el límite de velocidad. Si hubiera estado en un auto sin conductor, me pregunto qué decisión tendría que tomar ese auto, ¿sería violar la ley / superar el límite de velocidad?

Si hay un automóvil detrás de mí, no puedo simplemente pisar los frenos * y dejar que la camioneta me pase.

Creo que los autos sin conductor necesitarán tener un conjunto interesante de reglas dentro de su software, ya que existe una realidad en las carreteras de que algunas leyes son más frágiles que otras.

* Sí, sé que cualquier automóvil que viaje detrás de mí debe dejar una distancia segura para que no se me meta en la parte trasera si freno repentinamente. Sin embargo, ese no es el mundo en el que vivimos.

Estoy seguro de que este es un problema ético fascinante, pero no estoy seguro de que refleje la forma en que funcionaría la maquinaria. En absoluto.

Las abstracciones necesarias para identificar a las personas en riesgo, y mucho menos para hacer juicios comparativos sobre el valor relativo, me parecen estar más allá de lo que se les pide a los vehículos autónomos.

Tampoco tiene mucha relación con lo que ocurre en los accidentes de vehículos impulsados ​​por humanos. ¿El forense en una investigación evalúa las elecciones morales que toma un conductor ?, aunque los conductores pueden ofrecer una respuesta parcial. Ha habido historias de aviones que se estrellaron fuera de las escuelas, pero hay mucho tiempo y una persona desinteresada haciendo esto, tal vez una vez una década o dos. El comportamiento de los conductores humanos en accidentes actuales simplemente no se mantendrá bajo ninguno de estos tipos de estándares.

Considere conducir menos trenes. Tienen algoritmos simples sobre no moverse con las puertas abiertas, obedecer la señalización de la pista y las tasas de aceleración y frenado. En ninguna parte hay ningún código sobre la santidad de los seres vivos. (todo el sistema está predefinido en eso, pero no de manera discreta y programada) el tren no sabe sobre la abuela o los perros, y no parece importar. Personalmente, agregaría un radar montado hacia adelante, pero no veo ninguna razón para que discrimine entre un árbol caído, una vaca, un adolescente o una procesión fúnebre. No es un profesor de ética ni un ministro de religión. Es un tren

Mi opinión es que estos dilemas cuidadosamente elaborados se basan en una situación híbrida en la que se mezclan vehículos autónomos y tradicionales. Una vez que los accidentes de la vida real comienzan a suceder, no creo que los gobiernos tarden más de 5 años en hacer que la autonomía sea obligatoria.

Creo que sería aconsejable estudiar los informes de accidentes y la jurisprudencia (identificar aquellas acciones con menos probabilidades de llevar a un conductor humano a ser condenado por negligencia y los asentamientos más bajos de las compañías de seguros) y luego diseñar en consecuencia.