¿Cómo puede una IA ética aprender de todos los filósofos?

Como esta cualidad ética está completamente ausente en muchos humanos, no creo que se pueda lograr con simples robots.

Se les podría enseñar a reconocer muchos, muchos posibles errores o errores definidos, así como las acciones correctas, pero cualquier situación que quede fuera de ese esquema requiere juicio.

Los humanos renegados que representan un gran peligro para otros humanos los engañarían a menos que el robot tuviera alguna forma de identificar humanos éticos.

Los humanos permitidos podrían llevar una marca de identificación. Todavía podría producirse un lapso de juicio si algún humano pasa por alto llevar la marca mientras está en presencia de un robot de defensa de este tipo.

Se les podría enseñar a discernir muchas armas además de la marca de no hacer daño.

Solo pueden juzgar dentro de los parámetros de su programación, mientras que un humano ético puede soportar situaciones nuevas éticamente debido a una mayor capacidad de juzgar sabiamente.

El repertorio de cualidades abstractas para un robot debe incluir muchas instancias para cada cualidad. Instancias ilimitadas no es factible.

Por lo tanto, los robots serán discapacitados éticamente.

Se podría enseñar el manejo seguro de los humanos, Japón ya puede haber trabajado en esto,

Un robot muy poderoso debe ser consciente de su fuerza. ¿Reconocería realmente un robot las consecuencias de un golpe en el cuerpo o el uso de munición real? ¿Limitaría su fuego sabiamente?

Vemos que la policía que es demasiado emocional no puede hacer esto. Quizás un robot podría superarlos con mucha programación.

La inteligencia artificial tiene grandes posibilidades de respuesta y fuego entrante, y esto funciona bien con un socio humano para la supervisión.

Un robot con la capacidad de aprender todavía necesita esa vasta educación bajo la educación de humanos inteligentes en cuanto a sus capacidades y percepciones viables.

Los seres humanos pueden llegar a ser éticamente perfectos, los llevan al Paraíso, pero los ‘mecanismos’ son bastante complejos en relación incluso con las concepciones de robots más altas posibles.

Por lo tanto, digo que los robots nunca pueden ser totalmente perfectos, pueden limitarse de varias maneras al árbol de opciones inofensivas.

¡Pero nunca perfecto! Por lo tanto, existe un imperativo para un comando ‘Decease’, o ‘At Ease’ (no hacer nada) o ‘Shut Down Now’.

En general, no veo perfección aquí, y eso se basa principalmente en que los humanos Y los programadores no son perfectos.

La calidad requiere el tipo más elevado de mente operativa. Lo mejor que se podría decir es que podrían vencer a humanos altamente afligidos o incompetentes.

He programado y pensado en esto a lo largo de la vida adulta.

Para el futuro, requiero los comandos enumerados anteriormente como mínimos necesarios. La capacidad de aprender y tener muchos conceptos abstractos y consecuencias conocidas de la acción en cuanto al repertorio de respuestas es de gran ayuda.

Relación tándem con pensamiento, ética humana muy indicada.

También me gusta limitar el árbol de funciones a resultados favorables. Ejemplo, seguridad ambiental y control AI funciona maravillosamente. Maneja alarma de incendio, temperatura del aire, humedad, circulación periódica.

Pero si agrega fuerza letal para el intruso, aumenta la posibilidad de error. El niño puede olvidar la etiqueta de persona autorizada, el reconocimiento facial puede fallar …

Sabotaje o falla del programa en circunstancias no cubiertas. El niño vivo podría hacer una broma, ¿cómo reconoce el robot la broma? ¿Debería protegerse a sí mismo? Podrían recibir instrucciones sobre la detención libre de muerte … Cerrar todas las salidas en el lugar, aislar al intruso, inmovilizar al intruso …

Pienso en esa entidad de AI Star Trek que se congela, comienza a gritar “Error, Error, Error” y luego se autodestruye o es enviada al espacio como un trillón de piezas desintegradas. Olvidé el desenlace. *

* Había decidido que los humanos tenían defectos. Es cierto, marca de verificación. Entonces la tripulación lo convenció de que también era defectuoso. Escritores de pantalla reflexivos …

No preveo que amen a los humanos, tampoco para mi bebé. La acción “NFMB” se limita a convocar a los padres o activar una alarma de incendio. Tal vez necesitemos un “monitor para detener la respiración del bebé” como accesorio.

Nota al pie: cuando encuentran un error interno del programa, debería haber una recarga rápida O apagado automático con luces indicadoras de condición. Crucial para Medibot, Mediapp AI. Solo guardan los datos de entrada y procesan una vez más al recargar.

Respuesta “No entiendo” para la situación no cubierta = nueva oportunidad de programación. El mejor amigo del hombre (perro) los mofaría en cuanto a la percepción de un verdadero intruso o persona peligrosa de malas intenciones.

Editar 1 de agosto de 2016 Un buen robot AI debe parecerse más a un humano (en la medida de lo posible para nosotros). ¿Qué significa esto? Significa sistemas con microprocesadores propios. Más como varias computadoras trabajando juntas, no solo una. La computadora del “cerebro” llama a los demás para que ACTUEN si son responsables de eso, y para los sensores más pasivos, los datos sensoriales, la actitud física (estado) cada procesador tiene nuevos datos continuamente disponibles. No estoy seguro de que sea tan LUCID como quiero ser, aquí … Pero ya entiendes.

Más como varias computadoras que una, ¿ves? Unificado Como un humano Una ‘conciencia’ o ética requiere al menos uno más … [hice lo mejor que pude, no el experto en IA por experiencia aquí, ¿ves?] Rechazar esto de los programadores militares de larga experiencia u otros programadores con antecedentes biológicos y del sistema nervioso humano.

* Podrían tener conexión Wi-Fi al sistema de megafonía para “Ayuda en la sala de estar, por favor”. Dormitorio 3, cocina, sótano, lo que sea.

Mis puntos de vista están coloreados por la electrónica, las computadoras, la programación, PERO también por la biología, la medicina, la ÉTICA, la MENTE y la medicina, estos últimos mucho más extensos, para su información.

Las consideraciones espirituales se limitan a los humanos de lujo.

Las IA pueden aprender de las teorías éticas de los filósofos lo que pueden aprender de todas las interpretaciones estructuradas más la programación. Los filósofos simplemente tienen una idea de los valores humanos y no humanos. Es probable que los valores de IA estén más orientados a las instituciones, porque los robots importantes siempre tienen fondos, mientras que los humanos no.

Una estrategia: abreviar a los filósofos para que sean más fáciles de interpretar. Por ejemplo: La dialéctica de la filosofía (las preguntas más importantes de la filosofía)

Convierta a los filósofos en los valores correctos, y tal vez haga que sean agradables, ya sea como un tipo malo no-no o como un buen tipo investigar, tal vez.

Se puede enfatizar el pacifismo y la indagación concienzuda, con pensamientos que crean la tranquilidad o limitan el presupuesto de energía. La energía virtual podría ser un enfoque.

Otra estrategia: conducta adecuada moral / conformidad / hacer lo que otros hacen.

Otro enfoque: una visión profunda de la moral / si puedes superar a los humanos, podrías tener un mejor concepto de moralidad.

Otro enfoque: construcción centrada en la ética. Aprender conceptos como moral. La moral cumple una función moral dada como la educación o la protección o proyectos intensivos como construir bibliotecas.

O demuestre a la máquina que la violencia y el robo no son opciones lógicamente o con tácticas de miedo.

O, alguna combinación de los puntos de vista anteriores.

Primero tendríamos que definir exactamente qué sería una IA. (Todavía no lo hemos hecho)

Entonces tendríamos que definir “una IA ética”. “Una IA ética” puede no ser posible, por razones técnicas, por razones lingüísticas, por algunas razones.

Así que todavía estamos a un siglo o más de tener que preocuparnos por eso. (A menos que considere un Roomba como una IA).