¿Cuáles son las tres reglas de los robots?
Isaac Asimov y su editor Campbell co-crearon las "Tres leyes de la robótica"——\x0d\\x0d\LawⅠ: AROBOTMAYNOTINJUREAHUMANBEINGOR, A TRAVÉS DE UNA ACCIÓN, PERMITA A UN SERHUMANOCOMETENER DAÑO.\x0d\ La primera ley: Un robot no debe dañar a un ser humano, o ser testigo de cómo un ser humano se pone en peligro sin hacer nada \x0d \ Excepciones cuando entre en conflicto con la Ley Cero o Primera\x0d\\x0d\LeyⅢ: AROBO DEBE PROTEGER SU PROPIA EXISTENCIA MIENTRAS DICHA PROTECCIÓN NO ENTRA EN CONFLICTO CON LA PRIMERA LEY SEGUNDA.\x0d\Tercera Ley: Los robots deben protegerse a sí mismos. tanto como sea posible sin violar las leyes cero, primera y segunda de supervivencia\x0d\\x0d\Aunque los tres elementos anteriores se llaman leyes, en realidad son tres reglas para fabricar robots. Asimov era un escritor muy exigente con la lógica y la racionalidad. Sintió que los temas de robots que causaban daño prevalecían en el mundo de la ciencia ficción y trató de hacer correcciones. En su opinión, dado que los robots están hechos por humanos, ¿por qué no pueden diseñarse desde el principio para eliminar la posibilidad de que los robots dañen a los humanos? Las tres leyes de Asimov permiten diseñar todos los robots para que sean absolutamente obedientes y leales a los humanos; de lo contrario, no podrían seguir funcionando. \x0d\\x0d\En la práctica posterior, Asimov descubrió que era necesario ampliar la Primera Ley para proteger a los seres humanos individuales para, en última instancia, proteger a los seres humanos en su conjunto. En 1985, Asimov revisó las tres leyes originales y agregó la Ley Cero\x0d\\x0d\Ley0: Un robot no puede dañar a la humanidad ni, mediante su inacción, permitir que la humanidad sufra daño.\x0d\La Ley Cero: Los robots no pueden dañar a los humanos ni ser testigos de cómo los humanos los dañan. Entregarse al peligro sin hacer nada. \x0d\\x0d\La ley cero tiene prioridad sobre todas las demás leyes. \x0d\\x0d\Además, otro escritor de ciencia ficción, Roger Clark, también señaló en un artículo tres leyes potenciales:\x0d\\x0d\Metaley: un robot no puede hacer nada a menos que actúe de acuerdo con las leyes de la robótica. Esta ley precede a las leyes cero, primera, segunda y tercera. \x0d\\x0d\La Cuarta Ley: Un robot debe cumplir con las responsabilidades asignadas por su programa incorporado, a menos que esto entre en conflicto con otras leyes de orden superior. \x0d\\x0d\Ley de reproducción: No se permite que los robots participen en el diseño y fabricación de robots a menos que las acciones del nuevo robot obedezcan las leyes de la robótica. \x0d\\x0d\La mejora continua de las Tres Leyes muestra que la gente tiene dudas sobre si la inteligencia artificial eventualmente podrá gobernar a los humanos. Al establecer un código de conducta para los robots, los humanos pueden garantizar el dominio humano y el dominio en el mundo. \x0d\\x0d\Sin embargo, el aumento de la Ley Cero puede no proteger la seguridad humana. La lógica del súper cerebro ViKi en la película "Mechanical Enemy" en realidad está realizando la "Ley Cero" - ella (¿él/ella?) debe considerar la protección de la existencia de toda la especie humana como su primera prioridad, para poder obligar "razonable y legalmente" a todos a quedarse en casa y utilizar la violencia para tratar con las personas que se resisten a su voluntad, sólo para evitar que los humanos se suiciden. Aunque la Ley Cero no se explica en la película, ViKi ha utilizado su propia IA para pensar en la esencia de las Tres Leyes formuladas por humanos.
Para cumplir con los requisitos "esenciales" de las "leyes de la robótica" - para proteger a la humanidad - ViKi optó por tomar acciones que cuidan los intereses generales por encima de los intereses de los seres humanos individuales (SER AHUMANO), lo que condujo al desastre humano - de hecho, para cada uno de nosotros, para cada individuo independiente, la libertad es lo más importante. ¡Ninguna guerra o el llamado "canibalismo" puede causar más dolor a la humanidad que perder la libertad! Esto es algo que la IA como robot no puede entender ni comprender. \x0d\\x0d\En resumen, las tres leyes de la robótica y sus leyes ampliadas no pueden garantizar la seguridad de cada uno de nosotros en absoluto, porque pueden ser malinterpretadas por la IA cada vez más desarrollada (en realidad, no es un malentendido, sino una respuesta correcta)!