La razón por la que los humanos tenemos y necesitamos moral y moral es porque, como dijo el filósofo Thomas Hobbes, “mientras la mayoría de la sociedad esté de acuerdo con el contrato social y las reglas morales, será mejor para los grupos humanos y más fácil será nuestra vida”. sigan como sociedad ”. Las reglas morales están de alguna manera, encadenándonos y no dándonos libertad total, pero estas“ reglas ”solo están aquí para ayudar a la sociedad en general a florecer. Establecer reglas morales nos restringe a las normas sociales básicas que conocemos hoy, pero solo hasta cierto punto y solo para que las personas tengan mucha más libertad y bienestar.
Del mismo modo, dada la razón detrás de la necesidad de la sociedad de un marco moral, podríamos (y definitivamente lo haremos) incorporar la moral y la moralidad en cualquier tipo de IA capaz de interactuar con la humanidad a gran escala. Probablemente el marco moral de IA propuesto más conocido proviene del cuento de Isaac Asimov de 1942: “Runaround”.
En él, Asimov establece las Tres Leyes de la Robótica:
- Un robot no puede dañar a un ser humano o, por inacción, permitir que un ser humano sufra daños.
- Un robot debe obedecer las órdenes que le dan los seres humanos, excepto cuando tales órdenes entren en conflicto con la Primera Ley.
- Un robot debe proteger su propia existencia siempre que dicha protección no entre en conflicto con la Primera o Segunda Ley.
Dado que la razón detrás de las leyes de la robótica es la preservación de la humanidad y la propia IA, estas leyes de la robótica, que en el mundo de Asimov, a las que se debe adherir toda la IA, sirven como marco moral de la IA. Son leyes que no requieren cómputo emocional y se pueden cumplir, dado que una IA tiene una buena observación y capacidad matemática, algo con lo que ya podemos proporcionar tecnología moderna.