Respira, deja de dar vueltas. No estás irreflexivo, sólo estás estresado. Y honestamente, eso está perfectamente.
Si se sintió inmediatamente impulsado al repasar estas palabras, probablemente asimismo esté harto de que ChatGPT le hable constantemente como si estuviera en algún tipo de crisis y necesitara un manejo delicado. Ahora las cosas pueden estar mejorando. OpenAI dice que su nuevo maniquí, GPT-5.3 Instant, reducirá la “vergüenza” y otras “exenciones de responsabilidad sermoneadoras”.
Según las notas de la interpretación del maniquí, la puesta al día GPT-5.3 se centrará en la experiencia del beneficiario, incluyendo aspectos como el tono, la relevancia y el flujo de la conversación, áreas que pueden no aparecer en los puntos de narración, pero que pueden hacer que ChatGPT se sienta frustrante, dijo la compañía.
O, como OpenAI ponlo en X, “Escuchamos sus comentarios stop y claro, y 5.3 Instant reduce la vergüenza”.
En el ejemplo de la compañía, mostró la misma consulta con respuestas del maniquí GPT-5.2 Instant en comparación con el maniquí GPT-5.3 Instant. En el primero, la respuesta del chatbot comienza: “En primer oficio, no estás roto”, una frase global que se ha estado metiendo en la piel de todos finalmente.
En el maniquí actualizado, el chatbot reconoce la dificultad de la situación, sin intentar tranquilizar directamente al beneficiario.
El tono insoportable del maniquí 5.2 de ChatGPT ha molestado a los usuarios hasta el punto de que algunos incluso han cancelado sus suscripciones, según numerosas publicaciones en las redes sociales. (Él era a enorme punto de discusión en el ChatGPT Reddit, por ejemplo, ayer de que el acuerdo con el Pentágono acaparara la atención).
La muchedumbre se quejó de que este tipo de jerigonza, en el que el autómata te deje como si supusiera que estás en pánico o estresado cuando solo buscas información, parece condescendiente.
A menudo, ChatGPT respondía a los usuarios con recordatorios para respirar y otros intentos de tranquilizarlos, incluso cuando la situación no lo justificaba. Esto hacía que los usuarios se sintieran infantilizados, en algunos casos, o como si el autómata estuviera haciendo suposiciones sobre el estado mental del beneficiario que simplemente no eran ciertas.
Como dijo recientemente un beneficiario de Reddit puntiagudo “Nadie se ha calmado nones en toda la historia de decirle a alguno que se calme”.
Es comprensible que OpenAI intente implementar barreras de seguridad de algún tipo, especialmente porque caras Múltiples demandas acusaron al chatbot de hacer que las personas experimentaran enseres negativos en la salubridad mental, que a veces incluían el suicidio.
Pero existe un delicado invariabilidad entre objetar con empatía y dedicar respuestas rápidas y objetivas. A posteriori de todo, Google nunca te pregunta sobre tus sentimientos cuando buscas información.





