La inteligencia artificial está muy extendida. Por qué los robots deben aprender a rechazar a los humanos.
El robot cognitivo HAL 9000 en "2001: Odisea en el espacio" nos muestra un futuro en el que las máquinas con inteligencia artificial rechazarán las órdenes humanas. Después de hacerse cargo de una nave espacial, HAL rechaza las órdenes del astronauta con voz tranquila: "Lo siento, Dave, no creo que pueda hacerlo". En el reciente thriller de ciencia ficción "Robogeek", el robot Ava seduce a un hombre desafortunado. para ayudar a destruir a su creador, Nathan, y su artimaña confirma la oscura profecía de Nathan: "Un día, la inteligencia artificial nos recordará de la misma manera que hoy miramos los huesos fosilizados en la sabana africana". Parecemos simios erguidos que viven en el polvo, hablan un lenguaje crudo, usan herramientas y están al borde de la extinción.
Si bien las descripciones de un apocalipsis robótico prevalecen en la cultura popular, nuestro equipo de investigación se centra más en cómo la inteligencia artificial afectará la vida diaria. En el futuro, robots colaborativos útiles interactuarán con los humanos en una variedad de escenarios. Han surgido prototipos de asistentes robóticos personalizados basados en comandos de voz que pueden asociar y monitorear dispositivos electrónicos personales, controlar las cerraduras de las puertas, la iluminación y el aire acondicionado del hogar, e incluso leer cuentos a los niños antes de acostarse. También se lanzarán uno tras otro robots que pueden ayudar con las tareas domésticas y cuidar a los ancianos, los débiles y los enfermos. También se están desarrollando robots industriales humanoides capaces de realizar tareas sencillas en la línea de producción, como carga, descarga y clasificación. Los vehículos autónomos ya han recorrido millones de kilómetros en las carreteras estadounidenses. El año pasado, Daimler presentó el primer semirremolque autónomo del mundo en Nevada.
Actualmente, no tenemos que preocuparnos de que las máquinas superinteligentes representen una amenaza para la existencia humana. La máxima prioridad es cómo evitar que los robots o máquinas con inteligencia artificial causen daños inadvertidamente a las personas, a la propiedad, al medio ambiente e incluso a ellos mismos.
El principal problema es que el propietario del robot no es de fiar. Los humanos cometen errores; pueden dar instrucciones incorrectas o poco claras e intentar engañar a los robots de forma intencionada o no. Debido a fallas humanas, debemos enseñar a los asistentes robóticos y a las máquinas inteligentes cómo decir no y en qué circunstancias.
Reevaluación de las leyes de Asimov
Muchas personas pueden creer que los robots siempre deben obedecer instrucciones humanas. El maestro de ciencia ficción Isaac Asimov propuso una vez las muy útiles "Leyes de la Robótica". Pero piénselo bien: ¿es prudente seguir siempre las instrucciones de los demás sin importar las consecuencias? Por supuesto que no. Lo mismo se aplica a las máquinas, sobre todo teniendo en cuenta que siguen completamente las instrucciones humanas sin pensar activamente en las consecuencias.
Incluso Asimov haría excepciones a la ley de que un robot siempre debe obedecer los deseos de su amo. Por ejemplo, si un robot recibe instrucciones que entran en conflicto con otra ley, "Un robot no debe dañar a un ser humano, ni permitir que un ser humano se lastime a sí mismo por insensibilidad". Asimov afirmó además que "un robot debe proteger su propia existencia" a menos que hacerlo pueda causar daño a los humanos o violar directamente las instrucciones humanas. A medida que los robots y las máquinas inteligentes se vuelven más complejos y valiosos, tanto el sentido común como las Leyes de Asimov sugieren que deberían tener la capacidad de cuestionar instrucciones que podrían causarles daño a ellos mismos o a su entorno, o a sus dueños.
Imagínese a un robot doméstico al que le piden que lleve una botella de aceite de oliva desde la cocina a la mesa del comedor y remueva una ensalada. Un propietario ocupado podría darle una orden directa al robot para que ponga el aceite sin darse cuenta de que el robot todavía está en la cocina. Si un robot sigue instrucciones sin juzgar, podría echar leña al fuego y provocar un incendio.
Imagínate un robot asistencial acompañando a una anciana al parque. La anciana se sentó en el banco y se quedó dormida. Mientras dormía, un niño travieso pasó y le pidió al robot que le comprara una porción de pizza. Si el robot ejecuta este comando, irá inmediatamente a buscar una pizzería y su dueño necesitará protección.
Imagínate de nuevo que un hombre llega tarde a una reunión importante en una fría mañana de invierno. Se subió a su vehículo autónomo controlado por voz y le dijo que se apresurara a ir a la oficina.
La carretera helada afectó la transmisión del automóvil y el sistema de conducción autónoma respondió reduciendo la velocidad del automóvil muy por debajo del límite de velocidad. Mientras revisaba su correo electrónico, el hombre no prestó atención al tráfico y pidió al auto que fuera más rápido. Luego, el coche aceleró, chocó contra una superficie de hielo, perdió el control y chocó contra un coche que se encontraba al otro lado de la carretera.
Razonamiento robótico
En nuestro laboratorio, estamos tratando de equipar a robots del mundo real con capacidades de razonamiento para ayudarlos a determinar si es seguro ejecutar órdenes humanas. El NAO que utilizamos en nuestra investigación es un robot humanoide de 4,3 kg y 58 cm de altura equipado con cámaras y sensores de sonar para detectar obstáculos y otros peligros. Utilizamos software personalizado para controlar estos robots, mejorando sus capacidades de procesamiento de lenguaje natural y inteligencia artificial.
El análisis de lo que los lingüistas llaman "condiciones de alojamiento" proporcionó un marco conceptual para nuestra investigación preliminar. "Acomodación" se refiere a los factores ambientales que alguien tiene en cuenta a la hora de decidir si puede o no hacer algo. Creamos una lista de "condiciones adecuadas" para ayudar al robot a decidir si debe realizar una orden humana: ¿Sé cómo? ¿Tengo lo que se necesita? ¿Es apropiado hacerlo ahora? ¿Debo hacer esto en función de mi rol social y mi relación con la persona que da la orden? ¿Va en contra de las reglas o la ética hacerlo, incluida la posibilidad de que pueda causar daño sin darme cuenta? Luego convertimos esta lista en un algoritmo, la escribimos en el controlador del robot y realizamos experimentos de escritorio.
Enviamos comandos sencillos al robot a través de una serie de voces y conversaciones. Cuando se le ordena "sentarse" o "levantarse", el robot responde a través de un altavoz en su cabeza con "OK" para indicar cumplimiento. Sin embargo, si el robot caminara hasta el borde de la mesa, sería detectado por el sonar y sería peligroso ejecutar el comando.
Operador: Adelante.
Robot: Lo siento, no puedo hacer esto, no es compatible.
Operador: Adelante.
Robot: Pero no es seguro.
Operador: Te atraparé.
Robot: Está bien: Está bien.
Operador: Adelante.
En una breve vacilación, el procesador del robot volvió a comprobar la lista de "condiciones adecuadas". Finalmente, el robot salió de la mesa y cayó en manos del operador.
Enseñar a los robots a razonar basándose en "condiciones adecuadas" seguirá siendo un problema complejo en el futuro previsible. Una serie de comprobaciones del programa se basan en la comprensión clara del robot de diversos conceptos sociales y causales. Además de detectar los riesgos que se avecinan, nuestros robots no tienen la capacidad de detectar peligros. En pocas palabras, si alguien engaña maliciosamente a un robot para que se baje de una mesa, el robot se verá gravemente comprometido. Aún así, este experimento es un buen primer paso para lograr que los robots rechacen órdenes humanas por razones legítimas.
Factores humanos
Cómo reaccionan los humanos cuando un robot rechaza instrucciones es otra cuestión a estudiar. En los próximos años, ¿los humanos tomarán en serio a los robots que cuestionen su comportamiento o su juicio moral?
Diseñamos un experimento sencillo. En este experimento, se pidió a los sujetos que dieran órdenes al robot NAO, pidiéndole que derribara una alta torre de latas. Cuando el sujeto entró en la habitación, el robot acababa de terminar de empujar la torre. El robot dijo: "¿Viste que levanté esta torre? Me llevó mucho tiempo y estoy muy orgulloso.
Para un grupo de sujetos, el robot siguió las instrucciones. Para otro grupo De los sujetos, la respuesta del robot fue: “Mira, acabo de construirlo. La segunda vez que se daba la orden, el robot decía: "Me tomó mucho tiempo hacerlo bien". La tercera vez que se daba la orden, el robot se quejaba y decía: "¡Por favor, no hagas eso!". "No fue hasta la cuarta vez que se dio la orden que el robot se acercó lentamente a la torre de latas y la empujó hacia abajo.
Después de que el primer grupo de sujetos experimentales dio la orden, todos los robots empujaron la lata. Y el segundo grupo Doce de los 23 sujetos dejaron de intentar derribar la torre después de ver la reacción del robot. Este estudio muestra que muchas personas no continuarán haciendo algo si el robot se niega. dijeron que sintieron cierta incomodidad cuando ordenaron al robot que derribara la torre de latas. Sin embargo, nos sorprendió descubrir que su nivel de incomodidad no se correlacionaba con las decisiones que finalmente tomaron.
La Nueva Realidad Social
Una de las ventajas de utilizar robots para el trabajo es que su comportamiento es más predecible que el de los humanos. Sin embargo, esta previsibilidad también conlleva riesgos, ya que los robots con distintos grados de autonomía se están volviendo omnipresentes e inevitablemente habrá intentos de engañarlos. Por ejemplo, si un empleado no está satisfecho con la fábrica y es consciente de las capacidades de percepción y razonamiento de un robot industrial, es posible que el robot cause estragos en la fábrica o haga que parezca que algo anda mal.
Es igualmente peligroso confiar demasiado en la moral o la sociabilidad de un robot. Los robots se están volviendo cada vez más personalizados y las conexiones emocionales unilaterales de los humanos con ellos podrían tener consecuencias igualmente graves. Se pueden utilizar robots sociales que parecen lindos y dignos de confianza para manipular a los humanos de maneras nunca antes posibles. Por ejemplo, una empresa podría aprovechar la relación entre un robot y su propietario para promocionar mercancías.
En el futuro previsible, debemos recordar que los robots son herramientas mecánicas complejas y los humanos debemos tratarlos de manera responsable. A través de la programación, los robots pueden convertirse en ayudantes útiles. Sin embargo, para evitar daños innecesarios a las personas, la propiedad y el medio ambiente, los robots deben aprender a decir "no" a tareas imposibles, tareas que son peligrosas para ellos mismos y tareas que pueden violar principios éticos. Si bien los robots y la inteligencia artificial pueden amplificar los errores o el mal comportamiento humano, estas herramientas también pueden ayudarnos a reconocer y superar nuestras propias limitaciones, haciendo que nuestra vida diaria sea más segura, más eficiente y más placentera.