¿Cómo puede el software incorporar las tres (o más) leyes de la robótica?

El desafío con la implementación de las Tres Leyes consiste en definirlas de manera que el software pueda comprender y evaluar.

¿Qué es el “daño”? Probablemente sea posible enseñarle a un software que apuñalar a un humano los perjudica. Pero ¿qué pasa con un bisturí en manos de un cirujano? ¿Necesitaría comprender que el daño inmediato está bien si significa menos daño a largo plazo? ¿Qué pasa si el cirujano fue homicida? ¿Necesitaría confiar en que el apuñalamiento está bien porque está en manos del cirujano, o necesitaría evaluar las razones detrás del comportamiento del cirujano y aceptar la acción solo si es consistente con una atención quirúrgica de alta calidad? ¿Qué pasa con “dolor por diversión”? ¿Dos niños dándose quemaduras indias?

Y esta es solo la definición fácil de “daño”. ¿Qué pasa con el daño psicológico? ¿Debería el software tratar de evitar que la gente te diga cosas malas? ¿Qué pasa con el daño del comportamiento irracional? ¿Debería el software evitar que apueste, compre por impulso o contrate una póliza de seguro por algo que probablemente no lo impacte mientras no saca una póliza contra algo que probablemente lo impacte?

Una inteligencia que aplica las Tres Leyes parecería requerir una habilidad sobrehumana para comprender planes complejos, conjuntos de habilidades, comprender la psicología humana y esencialmente toda la cultura humana solo para evaluar qué es el “daño”. Sin eso, sospecho que la Primera Ley sería subvertida y en gran medida ineficaz.

La Tercera Ley es similar, pero el software podría simplificar algunos de sus razonamientos.

Sin embargo, la Segunda Ley parece sencilla, al menos de forma aislada. Evalúe lo que se solicita y construya un plan que llegue simultáneamente al estado final sin entrar en conflicto con la Primera Ley. Ejecutar.

Entonces, para una implementación mínima de Three Laws, parece que necesitarías estas habilidades:

– La capacidad de percibir el mundo.
– Un modelo físico del mundo, para predecir cómo suceden las cosas físicamente.
– Un modelo de comportamiento de tantas cosas en el mundo como sea posible, incluidos humanos (motivos, impulsos, patologías), perros, tiburones, etc., y probablemente incluso máquinas complejas o simples para evitar tener que modelar todo costosamente con la física.
– Un sistema robusto para razonar dados estos modelos, evaluar probabilidades y riesgos, y compararlos entre sí. El software debería ser capaz de identificar un riesgo de muerte del 1% o un riesgo de lesiones del 5%. Y luego, si se encontraba en una posición en la que tenía que elegir entre esos dos resultados, tendría que elegir correctamente.

Y para hacer esto bien, debe resolver los dilemas planteados por todos los libros de Robot de Asimov y las películas derivadas, la mayoría de los cuales exploran los defectos detrás de las Tres Leyes.