Los científicos y expertos han pedido que los gobiernos pongan límites al uso de la IA para evitar que esta tecnología se salga del control humano
¿Te has preguntado qué pasaría si los humanos pierden el control de la inteligencia artificial? Esta es una de las mayores preocupaciones que tienen los expertos y científicos frente al futuro de la humanidad.
Una cumbre mundial sobre IA se realizó en París (Francia) con el objetivo de establecer las normas que permitan evitar este escenario.
Esta no es la primera vez que cientos de expertos sobre IA se dan cita a este evento en medio del auge que está teniendo la inteligencia artificial.
A diferencia de las cumbres realizadas en Bletchley Park (Reino Unido) en 2023 y en Seúl (Corea del Sur) en 2024, el gobierno francés quiere poner de lleno unas estrictas normas sobre la gobernanza de esta tecnología.
![La IA china DeepSeek demostró que compite con ChatGPT y otras herramientas estadounidenses](https://static.playgroundweb.com/wp-content/uploads/2025/01/playground-que-es-DeepSeek-IA-china-que-compite-con-ChatGPT-2025-_1_.webp)
La IA china DeepSeek demostró que compite con ChatGPT y otras herramientas estadounidenses. Foto: AFP
El objetivo es que el máximo de protagonistas se comprometan en torno a una declaración mundial, aunque sin medidas obligatorias.
«Nuestro deseo no es pasar nuestro tiempo únicamente hablando de los riesgos. Existe una oportunidad que es muy real», aseguró Anne Bouverot, designada como responsable del evento por el gobierno de Francia.
Max Tegmark, presidente de Future of Life Institute y físico del prestigioso Massachusetts Institute of Technology (MIT), dijo que estamos en un momento crucial sobre la IA.
Como toda nueva tecnología, hay cosas positivas y negativas, pero en este momento estamos enfrentados a un escenario lleno de incertidumbre.
«Muchas personas pensaban que dominar el lenguaje como lo hace ChatGPT-4 (el chatbot de OpenAI) era ciencia ficción hace apenas seis años. El problema es que muchas personas en el poder aún no han comprendido que estamos más cerca de construir una inteligencia artificial general que de saber cómo controlarla», dijo Tegmark.
Los mayores riesgos de la IA
Aunque muchos lo relacionen con películas de ciencia ficción, lo cierto es que la IA está planteando nuevos riesgos para el planeta en temas de desinformación, ciberataques y ataques biológicos.
El Future of Life Institute propuso crear la plataforma ‘GRASP’ para cartografiar los principales riesgos relacionados con la IA y las soluciones desarrolladas en todo el mundo.
«Hemos identificado unas 300 herramientas y tecnologías que enfrentan estos riesgos», detalla Cyrus Hodes, quien coordinó la iniciativa.
El primer informe internacional sobre la seguridad de la IA, fruto de una colaboración internacional de 96 expertos y apoyado por 30 países, la ONU, la Unión Europea y la OCDE, también se conoció con el objetivo de informar a los responsables políticos sobre los peligros de esta tecnología.
Yoshua Bengio, una de las figuras más destacadas de la IA y quien lideró el estudio, aseguró que «las pruebas de la existencia de riesgos adicionales como los ataques biológicos o los ciberataques están apareciendo gradualmente».
Este científico dice que «hay mucho en juego» porque la IA está avanzando cada vez más con mejores sistemas.
«Por supuesto, nadie tiene una bola de cristal. Algunos escenarios son muy beneficiosos, otros son aterradores. Creo que es muy importante que los responsables políticos y el público hagan un balance de esa incertidumbre”, dijo a AP.
A largo plazo, le preocupa una «pérdida de control» de los humanos sobre sistemas de IA animados por su propia voluntad de vivir.
Por ejemplo, el uso de todo tipo de armas controladas por una IA representa uno de los mayores riesgos y varios países han asegurado que no autorizarán hacerlo.
¿La IA podría tener un control general?
El riesgo de que la IA alcance un nivel de avance incontrolable o superior a los humanos ha puesto sobre la mesa qué podríamos hacer para enfrentar este escenario.
El director de OpenAI, Sam Altman, cree que esto podría lograrse en los próximos años y por eso muchos se cuestionan si hay que poner límites a tiempo.
«Existe el riesgo de que, en el peor de los casos, estas empresas estadounidenses o chinas pierdan el control y que la Tierra sea dominada por máquinas», sostiene Tegmark.
Ver más:¿Por qué la inteligencia artificial consume tanta energía?
Stuart Russell, profesor de informática en la Universidad de Berkeley (California) y codirector de la Asociación Internacional para una IA Segura y Ética (IASEAI) dijo que la tecnología está cambiando muy rápido y hay que tomar acciones.
«Lo más preocupante sería tener sistemas de armamento donde es la inteligencia artificial la que controla y decide a quién atacar y cuándo», dijo.
Por su parte, Bengio insiste en la necesidad de comprender mejor los sistemas que se están creando y especialmente sus riesgos para tomar mejores decisiones.
Los gobiernos deben poner un control a la IA
Los expertos coinciden que son los Estados los que deben establecer salvaguardias a este tipo de escenarios que representan un riesgo para el futuro.
«Debemos tratar a la industria de la inteligencia artificial de la misma forma que tratamos a todas las demás industrias. Antes de construir un reactor nuclear cerca de París, debemos demostrar a expertos designados por el gobierno que el reactor es seguro, debe suceder lo mismo con la IA», dijo Tegmark.
Sin embargo, a quienes consideran que falta mucho para que se puedan alcanzar un nivel de súper IA porque todavía no tienen un acceso a los pensamientos humanos.
«La IA no puede saberlo todo, porque lo que estoy pensando en estos momentos es el contexto de lo que voy a hacer a continuación, hoy mismo. No puede saber eso», consideró Michael Jordan, profesor de informática de Berkeley.
De esta forma, el control sobre la inteligencia artificial es una prioridad para el mundo y muchos sectores piden poner normas sobre su uso para evitar un futuro lleno de incertidumbre.