El botón que patentó Google para apagar toda la inteligencia artificial si amenaza a los seres humanos

0

BBC Mundo

La ciencia ficción lo ha planteado en varias ocasiones: ¿qué sucederí­a si las computadoras y los robots se rebelaran contra los seres humanos?
Tal vez la guerra entre máquinas y humanos que mostraba James Cameron en su pelí­cula «Terminator» (1984) haya sido la inspiración de Google, que decidió patentar una tecnologí­a que intenta proteger a la raza humana en caso de que la tecnologí­a amenace su seguridad e integridad.
O puede que lo fuera el más reciente film «Ex Machina», que exploraba los retos de la interacción entre la inteligencia artificial y los humanos.
Es improbable que los robots actúen óptimamente todo el tiempo.
Laurent Orseau (Deep Mind) y Stuart Amstrong (Universidad de Oxford).
La solución de Google consiste en un «botón rojo de emergencia», que serí­a capaz de «apagar» toda la inteligencia artificial, según una investigación recientemente publicada por el Instituto de Investigación en Inteligencia de Máquinas (MIRI, por sus siglas en inglés), de la Universidad de Berkeley, en California, EE.UU.
Stephen Hawking: la humanidad está en riesgo y muchos de los peligros los hemos creado nosotros mismos
Aunque, según los expertos, que estudian la posibilidad de que las máquinas se tornen peligrosas para los seres humanos, no es seguro que todos los robots puedan ser «desactivados fácilmente» con este sistema.
Te explicamos en qué consiste el dispositivo de Google.
¿Fuera de control?
Los responsables del proyecto son Laurent Orseau, cientí­fico de la compaí±í­a de inteligencia artificial de Google, Deep Mind, y Stuart Amstrong, de la Universidad de Oxford en Reino Unido. Ambos sostienen que es «improbable» que los robots «actúen óptimamente todo el tiempo».

Y algunos de los recientes inventos tecnológicos cuestionan cada vez más esta posibilidad.
O al menos ponen a las máquinas contra las cuerdas, probando sus posibilidades de reacción en caso de que puedan atacar a los seres humanos.
El robot que creó el artista y especialista en robótica Alexander Reben, de la Universidad de Berkeley, es un buen ejemplo.
Se trata de una máquina capaz de decidir si infligir o no dolor a las personas, clavando una aguja en el dedo cuando así­ lo determinara.
El objetivo de Reben es ahondar en el debate sobre los posibles peligros de la inteligencia artificial para los seres humanos.
La verdadera preocupación sobre la inteligencia artificial es que está fuera de control.
Alexander Reben, especialista en robótica.
«La verdadera preocupación sobre la inteligencia artificial es que está fuera de control», le explica Reben a la BBC.
«Los gigantes tecnológicos dicen que falta mucho para eso, pero es mejor pensarlo ahora, antes de que sea demasiado tarde».
AlphaGo vs. Lee: ahora el humano vence a la máquina
«Yo estoy demostrando que (los robos daí±inos) ya son una realidad. Tenemos que confrontarla», explica Reben, quien considera que el «interruptor de apagado» que está desarrollando Google podrí­a ser útil, tarde o temprano.
«Es interesante saber lo que propone el botón de apagado», sostiene Reben.

«¿Cómo un robot no serí­a capaz de desactivar ese botón, si es tan inteligente?», se pregunta el especialista, que define su robot «daí±ino» como un «experimento filosófico».
«El robot toma una decisión que yo, como su creador, no puedo predecir. No sé si llegará o no a hacerme daí±o», explica.
Inteligencia artificial «segura»
Según Orseau y Amstrong, el objetivo del «gran botón rojo» de apagado serí­a «evitar que la máquina siga una secuencia daí±ina de acciones para el ser humano o para el medio ambiente».
El potencial peligro de las máquinas inteligentes para los seres humanos es una preocupación creciente de cientí­ficos y especialistas en robótica.
El fundador de Tesla, Elon Musk, lo ha comentado más de una vez.
Pero la inteligencia artificial ya forma parte de nuestra vida diaria, cada vez en mayor medida.
Y muchas veces su «inteligencia» puede llegar a superarnos.
Los creadores del «botón rojo» mencionan ejemplos como el de un robot que aprendió a detener el juego Tetris para evitar perder. Y esto podrí­a extrapolarse a otras situaciones más daí±inas para los seres humanos.
Es importante comenzar a trabajar en inteligencia artificial segura antes de que surja cualquier problema.
Laurent Orseau (Deep Mind).
A Orseau le parece comprensible que a la gente le preocupe el futuro de la inteligencia artificial.
¿Qué tan cerca estamos de tener relaciones sexuales con robots?
«Es sano estar preocupado. Pero, hoy dí­a, el nivel de nuestro conocimiento no requiere que lo estemos», afirma Orseau.
«Es importante comenzar a trabajar en inteligencia artificial segura antes de que surja cualquier problema».
Un gran reto
Sin embargo, según el cientí­fico, «ningún sistema es infalible; es una cuestión de hacerlo tan bueno como sea posible. Y éste es uno de los primeros pasos».
Noel Sharkey, profesor de inteligencia artificial de la Universidad de Sheffield, en Reino Unido, está de acuerdo.
«Tomar conciencia de la seguridad es esencial para (el desarrollo de) casi todos los sistemas informáticos, algoritmos y robots», le dice a la BBC.
Según Sharkey, es igualmente importante «la capacidad de desconectar el sistema en un instante, ya que siempre es posible para un sistema de aprendizaje por refuerzo encontrar atajos para eliminar el operador».

«Lo que serí­a incluso mejor es que un programa de inteligencia artificial pudiera detectar cuando algo va mal y autodetenerse», afirma Sharkey.
«Eso habrí­a sido muy útil cuando Tay, el bot de Microsoft, comenzó a emitir comentarios racistas y sexistas en Twitter», opina el experto.
Tay, la robot racista y xenófoba de Microsoft
«Pero es un reto cientí­fico enorme», concluyó.

 

Graciela Machuca

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *