Javier Pastor 2024-12-17T13:15:30Z
El que fuera máximo responsable de Google tiene una opinión fuerte tanto sobre las ventajas de la IA como sobre sus desventajas
En '2001: una odisea del espacio' el protagonista, Dave Bowman, acababa "desenchufando" a HAL 9000, la computadora inteligente que controlaba su nave y que había asesinado a casi todos sus tripulantes. La película parece reflejar precisamente un escenario que ahora vuelve a la actualidad de la mano de Eric Schmidt, exCEO de Google.
Maravillosa y peligrosa a partes iguales. Schmidt tiene una visión dividida de la IA. Por un lado parece tener claro que no hay que parar su desarrollo porque total, "nunca alcanzaremos los objetivos climáticos de todas formas". Eso no impide que él mismo también opine que este desarrollo puede acabar planteando riesgos para el futuro, aunque tiene una idea para solucionarlos.
Desenchufar la IA. Como señalan en Axios, Schmidt fue entrevistado en la cadena norteamericana ABC. Allí indicó que "nunca he visto innovación a esta escala", y señaló cómo si un sistema informático llega a un punto en el que puede automejorarse, "necesitamos pensar seriamente en desenchufarlo".
Cuidado con las máquinas que no se quieren desenchufar. Según el exCEO de Google, "pronto tendremos ordenadores corriendo por su cuenta, decidiendo qué quieren hacer". El entrevistador de ABC, George Stephanopoulos, le preguntó a Schmidt si un sistema de IA realmente potente podría evitar que lo desconectaran. "En teoría, será mejor tener a alguien con la mano en el enchufe".
Polímatas a tu servicio. Para Schmidt el desarrollo de la IA generativa es enorme, y cree que "todo el mundo va a tener el equivalente de un polímata en su bolsillo". Eso quiere decir que en nuestro móvil tendremos un sistema de IA capaz de ofrecer todo tipo de conocimientos avanzados en ámbitos como la ciencia, el arte, la historia o la tecnología. Leonardo da Vinci o Benjamin Franklin son considerados polímatas, por ejemplo.
Las empresas de IA no tienen suficientes barreras. En noviembre de 2023 Schmidt concedió una entrevista a Axios en la que explicó que en estos momentos las empresas que desarrollan estos sistemas no están preparados para evitar esos riesgos. Habló de sistemas que por ejemplo pueden descubrir cómo acceder a sistemas de armamento. Hace dos años se esperaba que eso llegara en unos 20 años. Schmidt pronosticó que tales sistemas avanzados llegarían en los próximos dos a cuatro años.
Si un sistema informático llega a un punto en el que puede automejorarse, destacó Schmidt, "necesitamos pensar seriamente en desenchufarlo".
Quizás una IA pueda supervisar a las IA. Si él pudiera tener el control del desarrollo de la IA, haría dos cosas. La primera, impulsar el desarrollo de la IA en el mundo occidental para que "asegurar que Occidente gana". En segundo, identificar los peores casos posibles de desarrollo y construir un segundo sistema de IA que monitorice el primero. "Los seres humanos no serán capaces de controlar a la IA. Pero los sistemas de IA deberían ser capaces de hacerlo".
IA para conflictos bélicos. Mientras tanto, Schmidt ha estado trabajando en la creación de una startup llamada White Stork que ha proporcionado a Ucrania drones que usan IA de "maneras complicadas y potentes".
¿Y la regulación, qué? Precisamente la regulación sobre IA debería tratar de evitar la mayor parte de los riesgos. La ley de la IA europea que entró en vigor el 1 de agosto de 2024 es el primer intento de regularla y mitigar esos problemas. Define varios grupos de sistemas, siendo el más peligroso el que es calificado de "alto riesgo". Es decir, sistemas que puedan "tener un efecto perjudicial considerable en la salud, la seguridad y los derechos fundamentales de las personas". La definición no incluye los sistemas de videovigilancia masiva, por ejemplo, y sigue siendo algo subjetiva, pero desde luego es un paso en la dirección adecuada. La pregunta, claro, es si será suficiente o si acabaremos necesitando un método físico de "desenchufar" la IA.
Otros afirman que la amenaza es "absurdamente ridícula". Aunque algunos expertos y personalidades han mostrado su preocupación por la evolución de la IA, otros descartan tal posibilidad. Uno de los más insistentes en una visión optimista es Yann LeCun, máximo responsable de IA en Meta, que ha explicado que la amenaza de la IA a la humanidad en "absurdamente ridícula".
https://www.xataka.com/robotica-e-ia/hay-quien-ve-ia-como-potencial-amenaza-exceo-google-tiene-idea-poder-desenchufarla