La ciencia ficción lo ha planteado en varias ocasiones: ¿qué sucedería si las computadoras y los robots se rebelaran contra los seres humanos?
Tal vez la guerra entre máquinas y humanos que mostraba James Cameron en su película «Terminator» (1984) haya sido la inspiración de Google, que decidió patentar una tecnología que intenta proteger a la raza humana en caso de que la tecnología amenace su seguridad e integridad.
O puede que lo fuera el más reciente film «Ex Machina», que exploraba los retos de la interacción entre la inteligencia artificial y los humanos.
Es improbable que los robots actúen óptimamente todo el tiempo.
La solución de Google consiste en un «botón rojo de emergencia», que sería capaz de «apagar» toda la inteligencia artificial, según una investigación recientemente publicada por el Instituto de Investigación en Inteligencia de Máquinas (MIRI, por sus siglas en inglés), de la Universidad de Berkeley, en California, EE.UU.
Aunque, según los expertos, que estudian la posibilidad de que las máquinas se tornen peligrosas para los seres humanos, no es seguro que todos los robots puedan ser «desactivados fácilmente» con este sistema.
Te explicamos en qué consiste el dispositivo de Google.
¿Fuera de control?
Los responsables del proyecto son Laurent Orseau, científico de la compañía de inteligencia artificial de Google, Deep Mind, y Stuart Amstrong, de la Universidad de Oxford en Reino Unido. Ambos sostienen que es «improbable» que los robots «actúen óptimamente todo el tiempo».
Y algunos de los recientes inventos tecnológicos cuestionan cada vez más esta posibilidad.
O al menos ponen a las máquinas contra las cuerdas, probando sus posibilidades de reacción en caso de que puedan atacar a los seres humanos.
El robot que creó el artista y especialista en robótica Alexander Reben, de la Universidad de Berkeley, es un buen ejemplo.
Se trata de una máquina capaz de decidir si infligir o no dolor a las personas, clavando una aguja en el dedo cuando así lo determinara.
El objetivo de Reben es ahondar en el debate sobre los posibles peligros de la inteligencia artificial para los seres humanos
La verdadera preocupación sobre la inteligencia artificial es que está fuera de control.
«La verdadera preocupación sobre la inteligencia artificial es que está fuera de control», le explica Reben a la BBC.
«Los gigantes tecnológicos dicen que falta mucho para eso, pero es mejor pensarlo ahora, antes de que sea demasiado tarde».
«Yo estoy demostrando que (los robos dañinos) ya son una realidad. Tenemos que confrontarla», explica Reben, quien considera que el «interruptor de apagado» que está desarrollando Google podría ser útil, tarde o temprano.
«Es interesante saber lo que propone el botón de apagado», sostiene Reben.
«¿Cómo un robot no sería capaz de desactivar ese botón, si es tan inteligente?», se pregunta el especialista, que define su robot «dañino» como un «experimento filosófico».
«El robot toma una decisión que yo, como su creador, no puedo predecir. No sé si llegará o no a hacerme daño», explica.
Inteligencia artificial «segura»
Según Orseau y Amstrong, el objetivo del «gran botón rojo» de apagado sería «evitar que la máquina siga una secuencia dañina de acciones para el ser humano o para el medio ambiente».
El potencial peligro de las máquinas inteligentes para los seres humanos es una preocupación creciente de científicos y especialistas en robótica.
El fundador de Tesla, Elon Musk, lo ha comentado más de una vez.
Pero la inteligencia artificial ya forma parte de nuestra vida diaria, cada vez en mayor medida.
Y muchas veces su «inteligencia» puede llegar a superarnos.
Los creadores del «botón rojo» mencionan ejemplos como el de un robot que aprendió a detener el juego Tetris para evitar perder. Y esto podría extrapolarse a otras situaciones más dañinas para los seres humanos.
Es importante comenzar a trabajar en inteligencia artificial segura antes de que surja cualquier problema.
A Orseau le parece comprensible que a la gente le preocupe el futuro de la inteligencia artificial.
«Es sano estar preocupado. Pero, hoy día, el nivel de nuestro conocimiento no requiere que lo estemos», afirma Orseau.
«Es importante comenzar a trabajar en inteligencia artificial segura antes de que surja cualquier problema».
Un gran reto
Sin embargo, según el científico, «ningún sistema es infalible; es una cuestión de hacerlo tan bueno como sea posible. Y éste es uno de los primeros pasos».
Noel Sharkey, profesor de inteligencia artificial de la Universidad de Sheffield, en Reino Unido, está de acuerdo.
«Tomar conciencia de la seguridad es esencial para (el desarrollo de) casi todos los sistemas informáticos, algoritmos y robots», le dice a la BBC.
Según Sharkey, es igualmente importante «la capacidad de desconectar el sistema en un instante, ya que siempre es posible para un sistema de aprendizaje por refuerzo encontrar atajos para eliminar el operador».
«Lo que sería incluso mejor es que un programa de inteligencia artificial pudiera detectar cuando algo va mal y autodetenerse», afirma Sharkey.
«Eso habría sido muy útil cuando Tay, el bot de Microsoft, comenzó a emitir comentarios racistas y sexistas en Twitter», opina el experto.