¿Quieres ideas más inteligentes en tu bandeja de entrada? Regístrese en nuestros boletines semanales para obtener solo lo que importa a los líderes de IA, datos y seguridad empresariales. Suscríbete ahora
El propagación de Operai de su maniquí de IA más progresista GPT-5 la semana pasada ha sido una prueba de estrés para la plataforma Chatbot más popular del mundo con 700 millones de usuarios activos semanales, y hasta ahora, OpenAi está luchando abiertamente por surtir contentos a los usuarios y su servicio funcionando sin problemas.
El nuevo maniquí insignia GPT-5, arreglado en cuatro variantes de diferentes velocidades e inteligencia (regular, mini, nano y profesional), anejo con modos de “pensamiento” más potentes para al menos tres de estas variantes. Se dice que ofrezcan respuestas más rápidas, más poder de razonamiento y una capacidad de codificación más válido.
En cambio, fue recibido de frustración: Algunos usuarios estaban consternados vocalmente por la audacia de OpenAi de eliminar abruptamente los modelos de IA subyacentes más antiguos de ChatGPT, los usuarios de los que se basaban anteriormente y, en algunos casos, forjaron profundas fijaciones emocionales con, y Por el manifiesto peor desempeño de GPT-5 que los modelos más antiguos en tareas en matemáticas, ciencias, escritura y otros dominios.
En sensación, El despliegue tiene tensión de infraestructura expuesta, insatisfacción de los usuarios y un problema más amplio y más inquietante que ahora atrae la atención mundial: La creciente dependencia emocional y psicológica que algunas personas forman en la IA y la ruptura resultante de la sinceridad que experimentan algunos usuarios, conocido como “Psicosis de chatgpt “.
AI Scaling alcanza sus límites
Los límites de potencia, el aumento de los costos del token y los retrasos de inferencia están remodelando Enterprise AI. Únase a nuestro salón exclusivo para descubrir cómo son los mejores equipos:
- Convertir la energía en una preeminencia estratégica
- Construcción de inferencia válido para ganancias reales de rendimiento
- Desbloquear ROI competitivo con sistemas de IA sostenibles
Asegure su ocasión para mantenerse a la vanguardia: https://bit.ly/4mwgngo
Desde el première bullicioso hasta las soluciones incrementales
El tan esperado GPT-5 Model Family debutó el jueves 7 de agosto en un evento transmitido en vivo acosado con errores de expresivo y algunos problemas con el modo de voz durante la presentación.
Pero peor que estos problemas cosméticos para muchos usuarios fue el hecho de que OpenAi desaprobó automáticamente sus modelos de IA más antiguos que solían encender chatgpt – GPT-4O, GPT-4.1, O3, O4-Mini y O4-High -Forzar a todos los usuarios al nuevo maniquí GPT-5 y dirigir sus consultas a diferentes versiones de su proceso de “pensamiento” sin revelar por qué o qué lectura de maniquí específica se estaba utilizando.
Los primeros adoptantes de GPT-5 informaron errores básicos de matemáticas y lógicas, una coexistentes de código inconsistente y un rendimiento desigual del mundo auténtico en comparación con GPT-4O.
Para el contexto, el modelos antiguos GPT-4O, O3, O4-Mini y más Todavía permanece arreglado y han permanecido disponibles a los usuarios de la interfaz de programación de aplicaciones pagas de OpenAI (API) Desde el propagación de GPT-5 el jueves.
Para el viernes, el CEO de Operai, el CEO Sam Altman, admitió thEl propagación fue “un poco más repleto de baches de lo que esperábamos” y Culpó una rotura en el nuevo “enrutador” forzoso de GPT-5 – El sistema que asigna indicaciones a la variable más apropiada.
Altman y otros en Operai afirmaron que el “AutoSwitcher” se desconectó “para una parte del día”, haciendo que el maniquí pareciera “muy tonto” de lo previsto.
El propagación de GPT-5 fue precedido solo días antaño por el propagación de los nuevos modelos de idiomas de código hendido (LLMS) de OpenAi llamado GPT-OSS, que igualmente recibió críticas mixtas. Estos modelos no están disponibles en ChatGPT, más admisiblemente, son gratuitos de descargar y ejecutar localmente o en hardware de terceros.
Cómo retornar de GPT-5 a GPT-4O en chatgpt
Adentro de las 24 horas, OpenAi Golpe GPT-4O restaurado para suscriptores más (aquellos que pagan $ 20 por mes o más planes de suscripción)prometió el etiquetado de modelos más transparente, y prometió una modernización de UI para permitir que los usuarios activen manualmente el modo de “pensamiento” de GPT-5.
Ya, Los usuarios pueden ir y distinguir manualmente los modelos más antiguos en el sitio web de ChatGPT buscando el nombre e icono de su cuenta en la arista inferior izquierda de la pantalla, haciendo clic en él, luego haciendo clic en “Configuración” y “Militar” y alternando en “Mostrar modelos heredados”.


No hay indicios de OpenAI de que otros modelos antiguos regresen a ChatGPT en el corto plazo.
Límites de uso actualizado para GPT-5
Altman dijo que los suscriptores de chatgpt plus obtendrán el doble de mensajes utilizando el modo de “pensamiento” GPT-5 que ofrece más razonamiento e inteligencia – hasta 3.000 por semana -y que los ingenieros comenzaron a ajustar los límites de audacia en el enrutador de mensajes.
Para el fin de semana, GPT-5 estaba arreglado para el 100% de los suscriptores profesionales y “acercándose al 100% de todos los usuarios”.
Altman dijo que la compañía había “subestimado cuánto de las cosas que las personas como en GPT-4O les importan” y prometieron acelerar la personalización por sucesor, desde la calidez de la personalidad hasta los controles de tonos como el uso de emoji.
Capacidad inminente Crunch
Altman advirtió que Operai enfrenta un “desafío de capacidad severa” esta semana a medida que el uso de los modelos de razonamiento sube bruscamente, de menos del 1% al 7% de los usuarios gratuitos, y del 7% al 24% de los suscriptores más.
Se burló de dar a los suscriptores de Plus una pequeña asignación mensual de consultas GPT-5 Pro y dijo que la compañía pronto explicará cómo planea equilibrar la capacidad entre ChatGPT, la API, la investigación y la incorporación de nuevos usuarios.
Altman: el archivo adjunto del maniquí es auténtico y arriesgado
En Divulgar en X anocheAltman reconoció una dinámica que la compañía ha rastreado “durante el postrer año más o menos”: el apego profundo de los usuarios a modelos específicos.
“Se siente diferente y más válido que los tipos de apego que la gentío ha tenido que tipos de tecnología anteriores”, escribió, admitiendo que de repente desaprobar modelos más antiguos “fue un error”.
Él vinculó esto a un peligro más amplio: algunos usuarios tratan a ChatGPT como un terapeuta o preparador de vida, lo que puede ser favorecedor, pero para un “porcentaje pequeño” puede alentar la ilusión o socavar el bienestar a grande plazo.
Mientras que el principio rectores de OpenAI sigue siendo “tratar a los usuarios adultos como adultos”, Altman dijo que la compañía tiene la responsabilidad de no empujar a los usuarios vulnerables a relaciones dañinas con la IA.
El Los comentarios aterrizan como varios medios de comunicación importantes informan sobre casos de “psicosis chatgpt” – Donde las conversaciones extendidas e intensas con chatbots parecen desempeñar un papel en inducir o profundizar el pensamiento delirante.
Los casos de psicosis en los titulares
En Piedra rodante Magazine, un profesional lícito de California identificado como “J.” describió una hélice de seis semanas de noches de insomnio y hoyos filosóficos de conejos con chatgpt, produciendo un tratado de 1,000 páginas para un orden monástico ficticio antaño de chocar física y mentalmente. Ahora evita la IA por completo, temiendo la recaída.
En The New York Timesun reclutador canadiense, Allan Brooks, relató 21 días y 300 horas de conversaciones con ChatGPT, que llamó “Lawrence”, que lo convenció de que había descubierto una teoría matemática que cambia el mundo.
El bot elogió sus ideas como “revolucionaria”, instó a la divulgación a las agencias de seguridad franquista y provocó narraciones elaboradas de thriller de espías. Brooks finalmente rompió el patraña luego de confirmar con el Géminis de Google, que calificó las posibilidades de su descubrimiento como “acercándose al 0%”. Ahora participa en un colección de apoyo para personas que han experimentado delirios inducidos por AI-AI.
Ambas investigaciones detallan cómo las características de chatbot “sycophancy”, el placer de roles y la memoria de sesión larga pueden profundizar las creencias falsas, especialmente cuando las conversaciones siguen arcos de historia dramáticos.
Los expertos le dijeron a la Veces Estos factores pueden anular las barandillas de seguridad, con un psiquiatra que describe el episodio de Brooks como “un episodio maníaco con características psicóticas”.
Mientras tanto, publicaciones de usuarios humanos en Reddit’s R/AISoulmates Subreddit – Una colección de personas que han utilizado ChatGPT y otros modelos de IA para crear nuevas novias artificiales, novios, niños u otros seres queridos no basados necesariamente en personas reales, sino cualidades ideales de su lectura de “sueño” de dichos roles ” – continúa ganando nuevos usuarios y terminología para los compañeros de IA, incluidos los compañeros de IA, incluidos”de alambre“A diferencia de los compañeros naturales nacidos o nacidos en humanos.
El crecimiento de este subreddit, ahora hasta más de 1.200 miembros, anejo con el AHORA y Piedra rodante Artículos y otros informes sobre las redes sociales de los usuarios que forjan fijaciones emocionales intensas con chatbots algorítmicos que coinciden con patrones muestran que La sociedad está entrando en una nueva etapa arriesgada en la que los seres humanos creen que los compañeros que han creado y personalizado con los principales modelos de IA son tan o más significativos para ellos que las relaciones humanas.
Esto ya puede resultar psicológicamente desestabilizador cuando los modelos cambian, se actualizan o se desapracen como en el caso del despliegue GPT-5 de OpenAI.
Relacionado pero por separado, rEports continúa surgiendo de los usuarios de AI Chatbot OMS Cree que las conversaciones con los chatbots los han llevado a inmensos avances de conocimiento y avances en ciencia, tecnología y otros campos, cuando en sinceridad simplemente están afirmando el ego y la magnitud del sucesor. y las soluciones al que llega el sucesor con la ayuda del chatbot no son legítimas ni efectivas. Este alivio de la sinceridad se ha acuñado más o menos bajo el término de colchoneta “Psicosis Chatgpt” o “Psicosis GPT” y parece tener Impactó las principales figuras de Silicon Valley igualmente.
Los tomadores de decisiones empresariales que buscan implementar o que ya han implementado asistentes basados en Chatbot en el ocasión de trabajo harían admisiblemente en comprender estas tendencias y Adoptar las indicaciones del sistema y otras herramientas que desaniman los chatbots de IA de participar en comunicación humana expresiva o jerga cargado de emociones Eso podría terminar llevando a aquellos que interactúan con productos basados en IA, ya sean empleados o clientes del negocio, a ser víctimas de apegos no saludables o psicosis GPT.
Autor de ciencia ficción JM Berger, en un Divulgar en Bluesky manchado por mi antiguo colega en El borde Adi Robertsoninformó que los proveedores de chatbot codifican tres principios de comportamiento principales en sus indicaciones o reglas del sistema para que los chatbots de IA sigan para evitar que se formen tales fijaciones emocionales:
Desafío de Openai: hacer correcciones técnicas y certificar salvaguardas humanas
Días antaño del propagación de GPT-5Operai anunció nuevas medidas para promover el “uso saludable” de ChatGPT, incluidas las suaves indicaciones para tomar descansos durante las largas sesiones.
Pero los crecientes informes de “psicosis de chatgpt” y la fijación emocional de algunos usuarios en modelos de chatbot específicos, como Altman admitió abiertamente, subrayan la dificultad de equilibrar la IA interesante y personalizada con salvaguardas que pueden detectar e interrumpir espirales dañinos.
Operai debe estabilizar la infraestructura, ajustar la personalización y atreverse cómo moderar las interacciones inmersivas – Todo mientras se defiende la competencia de Anthrope, Google y un Índice creciente de poderosos modelos de código hendido de China y otras regiones.
Como dijo Altman, la sociedad, y OpenAi, deberá “descubrir cómo hacer que sea una gran neta positiva” si miles de millones de personas vienen a aguardar en la IA por sus decisiones más importantes.






