Síguenos

Tecnología

¿Por qué GPT 5 causa tanto miedo en OpenAI?

Publicado

el

mujer trabajando en portatil con chatgpt

El vértigo se respira en OpenAI: un salto monumental con GPT‑5, sus riesgos éticos, técnicos y humanos se agitan en cada línea.

GPT-5 todavía no se ha presentado oficialmente —cuando leas estas líneas quizá falten horas, quizá minutos—, y sin embargo la criatura ya ha provocado un temblor en los pasillos de OpenAI. No es la típica agitación comercial previa a un lanzamiento: es miedo. Miedo real, confesado sin rodeos por su propio consejero delegado, Sam Altman, que en varias entrevistas recientes ha llegado a comparar el proyecto con Los Álamos, dejando escapar frases tan inquietantes como “¿Qué hemos hecho?” No se trata de una estrategia de marketing ni de una exageración apocalíptica para encender la expectación.

Es un estado de ánimo que se respira en los equipos de ingeniería, en los chats internos, en las renuncias silenciosas y en las decisiones que OpenAI está tomando a puerta cerrada. Y si ellos, los arquitectos de esta tecnología, sienten vértigo… es probable que el mundo también deba estar alerta.

Un nuevo umbral tecnológico que asusta a sus propios creadores

El pánico interno no se entiende sin revisar el salto cualitativo que plantea la nueva arquitectura. GPT-5 no es simplemente una versión más grande o más rápida que su predecesor. Es otra cosa. Vuelve a multiplicar la escala —más parámetros, más datos, más potencia bruta, más entrenamiento en entornos realistas—, pero lo más inquietante no es el músculo, sino la forma en que ese músculo se organiza. El nuevo modelo introduce tres rasgos clave que, combinados, tensan todos los marcos de seguridad establecidos hasta ahora:

1) un contexto de hasta un millón de tokens, capaz de digerir documentos enormes sin perder detalle;
2) memoria persistente que atraviesa sesiones, usuarios, y dispositivos;
3) un razonamiento encadenado mucho más profundo, que no requiere técnicas complejas de ingeniería de prompts para funcionar.

En otras palabras, el modelo ya no se limita a completar texto: puede planear, reflexionar y ejecutar con una coherencia inesperada. Y ese nivel de autonomía, reconocen sus propios creadores, ya no entra del todo en las reglas del juego que ellos mismos diseñaron.

Autonomía, memoria y contexto infinito: la receta del vértigo

Abrir semejante ventana de contexto significa que el modelo ya no olvida. Literalmente. Puede leer todo el historial de correos de una empresa, su código fuente, sus contratos, sus informes internos y operar sobre esa información con una coherencia asombrosa. Esto no solo multiplica su utilidad práctica: también transforma el modelo en una especie de mente continua, que no necesita ser “re-entrenada” cada vez que la usas.

La memoria persistente añade otra capa de complejidad: el modelo recuerda, y lo hace más allá de la sesión. Es decir, ya no estás hablando con una IA que empieza desde cero cada vez. Estás hablando con una entidad que te conoce. Que sabe lo que dijiste hace semanas. Que puede atar cabos entre conversaciones dispares.

Parecería mágico, sí. Pero el riesgo también es claro: si alguien logra desviar la finalidad del sistema, o engañarlo, o manipularlo, la escala del daño se dispara. Y lo hace sin necesidad de armas. La comparación que circula entre los propios equipos internos no deja lugar a dudas: “No es un martillo más grande; es un dron armado con martillos autónomos”. Esa es la sensación: un poder tan preciso y tan rápido que ya no puede ser contenido con los métodos tradicionales.

Un millón de tokens, y luego la nada

Y hay algo aún más curioso. Algunas pruebas iniciales, realizadas de forma interna y confidencial, apuntan a que cuando el modelo se acerca al límite de su gigantesco contexto, el rendimiento empieza a decaer.

Como si pudiera leer una biblioteca entera, pero el bibliotecario —esa parte que organiza el conocimiento— se sintiera algo desbordado. Sin embargo, incluso con ese matiz, la capacidad es más que suficiente para reescribir cómo interactuamos con la información, cómo automatizamos decisiones complejas, cómo construimos software. Y ahí surge otro miedo dentro de OpenAI: que empecemos a depender de sistemas capaces de autoprogramarse, de tomar decisiones en cadena, sin que nadie tenga tiempo real de auditar lo que hacen.

¿Hacia la inteligencia general o hacia el caos?

El viejo debate de la inteligencia artificial general —la AGI, ese horizonte que parecía lejano— vuelve a encenderse. Sam Altman lo ha admitido sin adornos: GPT-5 “se siente demasiado rápido”, incluso para él. En sus propias palabras, este modelo no es AGI, pero quizá “se le parece más de lo que nos gustaría”. Y eso lanza una pregunta urgente sobre la mesa: ¿tenemos tiempo para adaptarnos a lo que viene?

Porque mientras los modelos crecen en capacidades, las herramientas para controlarlos siguen siendo escasas, lentas y torpes. La regulación avanza a paso de tortuga, los marcos éticos son voluntarios, y los mecanismos técnicos de alineación —esos que supuestamente garantizan que la IA no se desvíe— se basan todavía en suposiciones. Lo que preocupa no es tanto que GPT-5 sea «inteligente», sino que ya opera en un plano que empieza a desafiar nuestra comprensión inmediata.

¿Por qué dentro de OpenAI nadie duerme tranquilo?

El miedo interno no es nuevo, pero en los últimos meses se ha vuelto más crudo. Abundan las filtraciones, los correos crípticos, las reuniones improvisadas.

La empresa que, hace apenas unos años, se presentaba como la abanderada global de la “IA segura y alineada con los valores humanos”, hoy acumula salidas sonadas. Más de una docena de ingenieros e investigadoras de alto nivel han dejado OpenAI desde que se aceleró el entrenamiento de GPT-5. En todos los casos, el motivo oficial es el mismo: la empresa ya no puede garantizar que lo que está desarrollando sea seguro.

El fantasma de Manhattan sobre San Francisco

Fue en una entrevista informal, casi de pasada, donde Altman dejó caer la frase que aún retumba en la industria: “Esto se parece cada vez más al Proyecto Manhattan”.

La comparación no fue casual ni retórica. En los foros privados donde se discuten los detalles técnicos, varios ingenieros reconocen que GPT-5 completa tareas de planificación estratégica, diseña cadenas logísticas, redacta experimentos científicos y ofrece soluciones con un grado de autonomía que los deja perplejos. La pregunta ya no es si puede hacerlo. La pregunta es si sabremos cuándo lo está haciendo mal, o para quién lo está haciendo.

“What have we done?”

Esa frase —filtrada desde un canal interno de Slack— se ha vuelto símbolo entre los equipos de evaluación. No es un meme ni una broma. Es un reflejo de una emoción concreta: la mezcla de fascinación y miedo que se apodera del creador cuando su obra ya no le obedece del todo. Esa es la sensación que recorre OpenAI. Y, cada vez más, también a los socios estratégicos que observan desde fuera.

Fuga de talentos y apagones de transparencia

El episodio que marcó el punto de inflexión fue la disolución de la Superalignment Team, el grupo de trabajo encargado de anticipar cómo alinear a largo plazo sistemas superinteligentes. Ilya Sutskever y Jan Leike, dos de las figuras más importantes del equipo, abandonaron el barco denunciando una pérdida de rumbo: la dirección comercial había eclipsado las prioridades de seguridad.

Desde entonces, el silencio se ha intensificado. Las nuevas cláusulas de confidencialidad son más duras. El acceso a prototipos está restringido incluso para empleados de OpenAI. El hermetismo recuerda más a una empresa militarizada que a un laboratorio abierto al escrutinio científico. Y eso, dicen algunos ex empleados, es lo más preocupante de todo: que la transparencia, antaño una bandera, hoy sea un recuerdo incómodo.

La disolución de Superalignment

Tras la salida de sus directores, OpenAI no ha reconstituido el equipo. Al contrario: ha fragmentado sus funciones en departamentos más corporativos.

Menos investigadores independientes, más perfiles de gestión, más abogados. “Ahora la seguridad responde ante el presupuesto, no ante la ciencia”, lamenta una exdirectiva. ¿El mensaje entre líneas? Si GPT-5 no se lanza este verano, algunos inversores estratégicos —entre ellos Microsoft y varios fondos soberanos— podrían retirarse. El tiempo apremia. El riesgo también.

Las grietas de la responsabilidad corporativa

OpenAI sigue proclamando su compromiso con la seguridad, la ética y el desarrollo responsable. Pero el relato público y la realidad interna cada vez se parecen menos.

Inversores, presión y NDA mordaza

Documentos filtrados revelan acuerdos de confidencialidad inusualmente agresivos, que impiden a empleados alertar a reguladores sobre incidentes técnicos sin aprobación previa. A cambio, se ofrecen incentivos financieros generosos. Al mismo tiempo, la compañía se prepara para un spin-off comercial masivo, orientado a licenciar modelos a gobiernos y grandes corporaciones.

Esta contradicción —crecer sin frenos mientras se predica la prudencia— está en el corazón del miedo. Porque hablar abiertamente del peligro no siempre es un ejercicio de honestidad: a veces, es una forma de curarse en salud. Si algo va mal, ya avisaron.

Reguladores a contrarreloj

Mientras tanto, los legisladores apenas pueden seguir el ritmo. En Washington, Bruselas y Pekín se discuten leyes, marcos, auditorías. Pero GPT-5 llegará antes. Es una carrera desigual. OpenAI pide reglas, sí… pero también pide margen. El resultado es un vacío operativo: la empresa se autorregula, los gobiernos observan desde lejos, y la ciudadanía no tiene más remedio que confiar en que todo saldrá bien. O al menos, no demasiado mal.

Riesgos concretos que quitan el sueño

La palabra «mal uso» ya no basta. Lo que se baraja en los simulacros de OpenAI son escenarios específicos, verosímiles y profundamente preocupantes.

Fraude automatizado, propaganda perfecta, biología sintética

Con la capacidad de procesamiento y persistencia de GPT-5, falsificar una identidad digital es un juego de niños. Lo mismo para crear campañas de desinformación a gran escala, en varios idiomas, con diferentes narrativas. Pero el punto más crítico aparece en otra área: la biología. Combinado con bases de datos científicas, el modelo podría diseñar rutas de síntesis para sustancias peligrosas, incluidos patógenos. Y eso sin necesidad de acceso restringido. Solo con acceso al modelo y curiosidad.

El dilema de la caja de Pandora digital

Dentro de OpenAI hay un debate abierto. Una parte del equipo cree que liberar el modelo de forma gradual —con acceso limitado, filtros, watermarks— permitirá corregir errores a tiempo. La otra parte sostiene que una vez que el modelo esté fuera, la retroingeniería será cuestión de semanas. En otras palabras, que el genio no vuelve a la lámpara. Altman, atrapado entre las dos posturas, lo resume así: “Con cada versión sentimos que corremos un poco más cerca del borde. No sabemos si caeremos. Pero sabemos que ya no estamos caminando en llano”.

Entre el relámpago y el trueno

La narrativa es tentadora: GPT-5 como salto cuántico hacia una inteligencia que nos iguala o incluso nos supera. Pero el verdadero drama está en otro sitio. En un plano más humano, más crudo. ¿Qué ocurre cuando los propios arquitectos pierden la confianza en su obra?

El miedo que recorre OpenAI no es solo técnico. Es ético, político, estructural. Es la sensación de haber cruzado un umbral sin mapa. Y la certeza de que, a partir de aquí, todo puede ir mucho más rápido de lo que estamos preparados para asumir.

Tal vez el lanzamiento no sea tan apocalíptico como tememos. Quizá traiga soluciones, eficiencia, milagros cotidianos. Pero el problema no es el resultado: es el proceso opaco, acelerado y sin red. El punto es que la duda se ha instalado en el corazón mismo de la innovación. Y cuando los que pisan el acelerador empiezan a temblar, conviene que el resto —gobiernos, periodistas, ciudadanos— prestemos atención. Porque el relámpago ya se ha visto. Y el trueno, aunque aún lejano, se acerca.


🔎​ Contenido Verificado ✔️

Este artículo ha sido redactado basándose en información procedente de fuentes oficiales y confiables, garantizando su precisión y actualidad. Fuentes consultadas: XatakaTeknofiloEl ConfidencialFinancial Times (edición España).

Periodista con más de 20 años de experiencia, comprometido con la creación de contenidos de calidad y alto valor informativo. Su trabajo se basa en el rigor, la veracidad y el uso de fuentes siempre fiables y contrastadas.

Lo más leído