Tecnología
¿OpenAI a luces rojas? Qué cambia y qué pasará en diciembre

OpenAI abrirá el erotismo en ChatGPT para adultos verificados en diciembre de 2025 y perfila un asistente más humano y con controles firmes.
OpenAI abrirá la puerta a conversaciones de carácter erótico en ChatGPT para usuarios adultos verificados a partir de diciembre de 2025. El cambio, anunciado públicamente por Sam Altman, llega tras meses de quejas por una moderación percibida como excesiva y tras avances técnicos que, según la empresa, permiten relajar límites con más garantías. El mensaje es nítido en sus dos patas: más libertad para mayores de edad y más cuidado con quienes no lo son.
En paralelo, la compañía prevé lanzar en cuestión de semanas una nueva versión de ChatGPT que recupera una “personalidad” más flexible, cercana a lo que entusiasmó en su día con GPT-4o. Ese giro incluiría un control más fino del tono, de lo serio a lo desenfadado, y una respuesta menos rígida cuando el contexto lo permita. No es maquillaje: la empresa asume que, en su afán por minimizar riesgos en salud mental, había llevado al asistente a una prudencia que restaba utilidad y naturalidad. Ahora quiere recomponer ese equilibrio.
Qué cambia realmente con el “modo adulto” y qué seguirá vetado
La novedad no es una patente de corso. OpenAI no ha dicho que todo contenido sexual pase a estar permitido, sino que habilitará conversaciones de temática erótica para quienes acrediten su mayoría de edad. Eso implica literatura o role play en tono adulto, relatos que antes caían en el no rotundo del filtro y que, con la verificación activada, podrán tramitarse sin la tijera automática que irritaba a tantos usuarios. El encaje es deliberado: contenidos claramente orientados a adultos, lejos de la pornografía criminal o de cualquier riesgo para menores, y siempre bajo condiciones de consentimiento. No hay un “vale todo” escondido entre líneas.
Las líneas rojas no se mueven. La explotación sexual, la sexualización de menores, la violencia sexual o cualquier forma de abuso continúan totalmente prohibidas, con protocolos internos para detectar, bloquear y, llegado el caso, denunciar. El cambio anunciado tampoco legitima materiales ilegales ni salva a nadie de las leyes nacionales. En España, como en el resto de la Unión Europea, la responsabilidad penal por fabricar, difundir o solicitar contenido que afecte a menores es clara y severa. Y dentro del producto seguirán activos los sistemas que cortan de raíz lo que cruza esa frontera.
Hay otra cuestión: el anuncio se ha centrado en conversaciones. No hay todavía un desglose oficial —paso a paso— de lo que ocurrirá con las imágenes generadas, con los avatares de voz o con los vídeos sintéticos. ¿Se permitirá erotismo en todos los formatos? ¿Se mantendrán prohibiciones más estrictas en imagen y voz que en texto? Son preguntas relevantes, porque el salto de lo puramente textual a lo audiovisual multiplica riesgos de suplantación, intimidad o distribución secundaria fuera de plataforma. La empresa ha dejado claro el sentido del movimiento, pero las letras pequeñas se conocerán a medida que se acerque el despliegue de diciembre y con la documentación de producto.
Un punto importante para entender el alcance: la compañía no presenta esta apertura como un guiño a la industria pornográfica ni como reclamo frívolo, sino como ajuste de política compatible con normas de seguridad nuevas, con controles parentales y con una experiencia diferenciada para usuarios menores. El mensaje, con su parte ideológica, es pragmático: hay demanda de contenidos adultos en entornos conversacionales de IA, y si se resuelve el control de edad y las salvaguardas, se puede servir sin romper el consenso social básico.
Cómo planea OpenAI verificar la edad y qué implicaciones tiene
Para que un “modo adulto” funcione en serio, hay que verificar edades con fiabilidad. OpenAI ha confirmado su compromiso con un sistema de control de edad más completo. No ha hecho pública una ficha técnica cerrada —y aquí conviene ser honestos—, pero el mercado ofrece pistas de por dónde van estas soluciones. La verificación puede ir desde el envío de un documento de identidad a través de un proveedor de confianza, hasta sistemas de confirmación con tarjetas de crédito, selfies dinámicos con detección de vida, o integraciones con identidades digitales de uso generalizado donde existan. El resultado práctico es obvio: el usuario deberá demostrar que tiene dieciocho años o más para activar la capa de conversaciones eróticas.
Ese control abre debates legales y culturales. En la Unión Europea se aplican el Reglamento General de Protección de Datos y el Reglamento de Servicios Digitales que empujan a la minimización de datos, a la seguridad por diseño y a la transparencia sobre qué se recoge y por cuánto tiempo. Cualquier verificación exige preguntas nítidas: qué proveedor la gestiona, si hay pruebas de edad sin documento (por ejemplo, criptográficas y anónimas), cuánto duran las copias de seguridad, si la empresa se reserva el dato para otros fines. Lo razonable, en un producto global como ChatGPT, es que OpenAI ofrezca rutas alternativas según jurisdicción y sensibilidad, y que publique avisos claros, no letra diminuta.
Un segundo asunto es la experiencia para menores. No basta con apagar contenido sexual. Tiene lógica que exista una versión que reduzca drásticamente temas sensibles, que modere la interacción emocional intensa y que incluya controles parentales o escolares. La compañía ya ha reconocido que, por prudencia sanitaria, endureció respuestas en ámbitos complejos; cabe esperar que el modo juvenil cristalice en políticas explícitas y que los centros educativos y las familias dispongan de configuraciones sencillas. Si se desbloquea erotismo para mayores, es porque ese otro lado queda más acotado.
La pieza final es la responsabilidad compartida. Plataformas, tiendas de apps, reguladores y empresas de verificación empujan en direcciones a veces no alineadas. Apple y Google fijan normas para apps con contenido adulto; los países mueven sus propias reglas; y los proveedores de identidad negocian lo que recogen y lo que no. OpenAI, que distribuye ChatGPT como web, como app y vía API, necesitará un mosaico de políticas que encajen con esos guardarraíles. Se entiende el incentivo: quien ordene ese mapa antes, ganará confianza.
Competencia y mercado: de los compañeros “coquetos” a la pelea por la atención
El anuncio se lee, también, en clave competitiva. xAI, la compañía de Elon Musk, ha puesto en escaparate chatbots que flirtean con estética anime dentro de la app Grok. También existen productos previos —Replika, por ejemplo— que exploraron vínculos afectivos con el usuario, con resultados discutidos y, en ocasiones, controvertidos. Ese terreno de IA íntima se mueve rápido, atrae usuarios fieles y, claro, genera polémica. El mensaje de OpenAI no es copiar ese modelo, sino apropiarse de lo que considera legítimo: conversaciones adultas con consentimiento y sin rastro de menor, dentro de un marco de seguridad más robusto.
Esa diferencia en la puesta en escena importa. No veremos, al menos en esta etapa, un catálogo de “parejas virtuales” con guiños explícitos. La apuesta parece más sobria: se desbloquea el erotismo donde antes chocaba con el filtro; se mantiene un estándar alto en detección de riesgo; y se comunican salvaguardas para evitar que el producto derive a un mercado que OpenAI no quiere encabezar. Aun así, hay una evidencia: el límite cultural de lo aceptable se ha desplazado, y la empresa prefiere liderar la conversación antes que reaccionar desde la trinchera.
También hay una motivación de uso diario. Parte de la comunidad llevaba meses diciendo que ChatGPT había perdido chispa. El asistente se negaba a hacer bromas inofensivas, rehuía matices, se quedaba corto en creatividad cuando aparecía cualquier atisbo de incomodidad temática. El nuevo plan propone dos palancas: más control del tono por parte del usuario y respuestas menos rígidas en conversaciones que, por contexto, no requieran tanta cautela. Lo adulto verificado encaja aquí como una capa extra, pero el objetivo general es recuperar versatilidad sin soltar el freno de mano en los tramos en los que sí hace falta.
Producto: una “personalidad” más humana, con límites claros y medibles
La nueva versión de ChatGPT promete modos de personalidad más granulares. Quien necesite un tono profesional podrá seguir usándolo; quien prefiera un registro cercano —emojis, jerga, espontaneidad— podrá activarlo. Y, cuando toque, habrá margen para erotismo consensuado entre adultos. Esta flexibilidad no es trivial en un modelo de lenguaje: ajustar el comportamiento por contextos reduce frustraciones y acerca el asistente a lo que la gente espera de una conversación fluida.
La gran pregunta es cómo se medirá el éxito sin degradar la seguridad. La empresa apunta a que sus sistemas de detección de angustia, riesgo de autolesión, coerción o abuso han mejorado. Eso permitiría, con datos en la mano, relajar restricciones en interacciones que no presentan banderas rojas, y endurecer las respuestas en las que sí aparecen señales. Este enfoque diferenciado requiere datos y auditorías continuas. De puertas afuera, lo que se verá es un asistente que deja de negarse a todo lo incómodo y que, a la vez, reacciona con prudencia cuando percibe riesgos reales.
Habrá aprendizajes. Con erotismo vienen retos de consentimiento y límites incluso en lo textual: el role play permite escenarios que, si se fuerzan al extremo, pueden chocar con políticas de violencia sexual o humillación. La clave será cómo diseñe OpenAI los controles de conversación, qué advertencias mostrará, qué palancas ofrece para que el usuario marque fronteras de forma explícita y qué mecanismos de reporte habilita cuando la interacción descarrila. El mercado ya probó que dejarlo al albedrío del algoritmo acaba mal.
Un detalle práctico, poco glamuroso pero central: las tiendas de aplicaciones. Apple y Google fijan reglas estrictas para apps con sexualidad explícita o para accesos que puedan exponer a menores. Si OpenAI quiere mantener una experiencia uniforme entre web y móvil, necesitará dialogar con esos marcos y, quizá, separar funciones: que la app pública no muestre erotismo y que el acceso adulto viva en la web o en un canal aparte tras verificación robusta. No es un simple matiz técnico; es logística de producto y posicionamiento de marca.
Privacidad, derecho y cumplimiento: qué exigirá Europa, qué aceptará España
El aterrizaje en Europa tendrá su propia letra. Cualquier verificación de edad debe respetar el principio de minimización: pedir lo justo, no retener más de lo imprescindible, y explicar con claridad el ciclo de vida de esos datos. Las autoridades de protección de datos podrían exigir pruebas de impacto, evaluaciones de riesgo y garantías de que no se cruzan perfiles sensibles con el consumo de contenido adulto. España, por su parte, lleva años discutiendo métodos de verificación para acceso a contenidos pornográficos, con distintas propuestas sobre terceros de confianza que certifican edad sin revelar identidad. No hay un estándar único, pero el tablero se mueve hacia soluciones que anonimizan al máximo.
Además está el Reglamento de Servicios Digitales (DSA), que impone transparencia en moderación de contenidos y procedimientos para impugnar decisiones. Si el sistema bloquea una conversación por creer que vulnera normas, el usuario debería saber por qué y tener manera de recurrir. Y todo eso con claridad lingüística: políticas accesibles, bien traducidas, sin ambigüedades. Son obligaciones que, bien resueltas, aumentan la confianza; mal resueltas, generan más ruido y sanciones.
No menor es la cuestión de la propiedad intelectual cuando entren en juego avatares de voz o imágenes. El erotismo de ficción no compromete derechos per se, pero los deepfakes sí. La política pública de OpenAI prohíbe suplantaciones sin consentimiento y contenidos que vulneren intimidad. Si en diciembre se abre la valla del erotismo textual, habrá que ver si el plan incluye marcados de contenido (watermarks) en imágenes o audios y cómo se evita que terceros reutilicen material para acosar o chantajear fuera de la plataforma. Aquí la coordinación con fuerzas de seguridad y con otras plataformas es decisiva.
Oportunidades y riesgos económicos: de la economía del romance a nuevos verticales
El giro abre, inevitablemente, posibilidades de negocio. Por un lado, hay un público que consume ficción romántica y erótica y que puede encontrar en la IA un espacio de creación guiada: generar relatos, pulir escenas, crear universos narrativos sin necesidad de publicar en abierto. Por otro, surgen nichos de acompañamiento conversacional con límites bien definidos, lejos de la promesa de “novias/novios virtuales” hipersexualizados. Ese equilibrio —placer sin explotación— será clave para que marcas y anunciantes no huyan.
También aparece el vector B2B. Editoriales, plataformas de suscripción de literatura romántica o compañías de bienestar sexual podrían explorar herramientas basadas en ChatGPT para adultos verificados, siempre en circuitos cerrados y cumpliendo estándares. La línea entre guía educativa, erotismo sano y pornografía dura exige criterio, sí, pero existen modelos que lo gestionan con sensatez. Si el producto de OpenAI ofrece APIs y controles finos para segmentar audiencias y contextos, habrá socios interesados.
En la otra cara están los riesgos de reputación. Una apertura mal comunicada, un fallo de verificación, un caso mediático de acoso usando la herramienta, y el avance podría volverse contra la marca. OpenAI, que camina con el foco mediático permanente, necesita transparencia proactiva: informes periódicos de uso, métricas de seguridad, participación de comités externos que auditen y recomienden ajustes. Si el “modo adulto” se convierte en una caja negra, la presión regulatoria subirá un grado.
España, usos reales y preguntas prácticas que se responderán en despliegue
Más allá de principios y grandes titulares, el día a día plantea dudas que el despliegue aclarará. ¿Se podrá activar y desactivar el “modo adulto” con un control visible en la cuenta? ¿Habrá historiales separados por contexto, para que un usuario no mezcle en el mismo hilo trabajo, ocio y erotismo? ¿Cómo encajará el cambio con ChatGPT Team o Enterprise, donde hay políticas corporativas que prohíben este tipo de contenidos? ¿Consentirá cada organización su propia gobernanza sobre el tema? Acciones así afectan a compliance y a cultura interna de empresas españolas que usan IA a diario.
También interesa si habrá controles granulares para graduar el tipo de erotismo. Es distinto permitir literatura sensual, con eufemismos y atmósfera, a permitir explícitos sin filtro. La experiencia de otras plataformas sugiere soluciones de etiquetado y niveles. Un control de intensidad no resuelve todos los problemas, pero da herramientas para evitar el “todo o nada” que tantas veces provoca que el usuario sienta que o le hablan como a una criatura o se abren compuertas que no deseaba.
En lo técnico, España y la UE observarán el impacto de modelos multimodales. Si la nueva versión de ChatGPT recupera la chispa de GPT-4o y suma erotismo textual para adultos, es razonable imaginar que pronto llegue la presión para permitir imágenes o audio con criterios análogos. No será inmediato ni sencillo. La gestión de rostros, voces y cuerpos abre otro capítulo de derecho a la imagen, explotación no consentida y rastreo forense. Empujar demasiado rápido sería imprudente; moverse demasiado despacio dejaría un hueco a competidores menos escrupulosos.
Diciembre en el calendario y un ChatGPT con más matices
La foto, a día de hoy, queda clara. Diciembre de 2025 asoma con un cambio cualitativo: conversaciones eróticas habilitadas para adultos verificados, dentro de un marco de seguridad que mantiene prohibiciones férreas donde debe. Antes, en cuestión de semanas, llegará un ChatGPT con personalidad más configurable, menos hosco cuando no hay riesgo y más útil cuando el usuario quiere naturalidad. Dos movimientos coherentes entre sí: uno recupera versatilidad general, el otro traza una frontera responsable para un ámbito que, guste o no, existe y reclama reglas.
Queda trabajo de implementación y, sobre todo, de explicación. Las políticas deberán descender al detalle, en castellano claro y sin trampas de redacción. La verificación de edad habrá de ser fiable y discreta al mismo tiempo, respetando la privacidad. Habrá que ofrecer controles de usuario entendibles y mecanismos de reporte que funcionen en serio. Y habrá que ordenar la convivencia entre web, app móvil y API, sin que cada puerta cuente una historia distinta. Si OpenAI hace bien esas tareas, el relato no será el de una plataforma que “se vuelve roja”, sino el de un producto que madura: más adulto cuando toca, más protector cuando debe.
Nada de esto elimina las tensiones. La apertura al erotismo traerá críticas, titulares fáciles, fricciones culturales. También generará usos legítimos que hoy chocan con filtros infantiles. La empresa ha optado por no infantilizar a quien no lo es, y por declarar que ya cuenta con herramientas para detectar daño y actuar a tiempo. Si diciembre llega con políticas serias, métricas transparentes y una experiencia que no exponga a menores, la jugada se leerá como lo que pretende ser: una actualización de política en un producto que se usa para aprender, para trabajar y, sí, también para imaginar. Si llega con vacíos, veremos a reguladores y competidores tomar nota. La pelota está en su tejado.
🔎 Contenido Verificado ✔️
Este artículo ha sido redactado basándose en información procedente de fuentes oficiales y confiables, garantizando su precisión y actualidad. Fuentes consultadas: Agencia EFE, Europa Press, El País, El Español.

- Cultura y sociedad
Huelga general 15 octubre 2025: todo lo que debes saber
- Cultura y sociedad
¿De qué ha muerto Pepe Soho? Quien era y cual es su legado
- Cultura y sociedad
Dana en México, más de 20 muertos en Poza Rica: ¿qué pasó?
- Cultura y sociedad
¿Cómo está David Galván tras la cogida en Las Ventas?
- Cultura y sociedad
¿De qué ha muerto Moncho Neira, el chef del Botafumeiro?
- Economía
¿Por qué partir del 2026 te quitarán 95 euros de tu nomina?
- Cultura y sociedad
¿Cuánto cuesta el desfile de la Fiesta Nacional en Madrid?
- Cultura y sociedad
¿Cuándo actuará Fred Again en Madrid? Fecha y detalles útiles