Operai está reorganizando a su equipo de comportamiento maniquí, un pequeño pero influyente conjunto de investigadores que dan forma a la forma en que los modelos de IA de la compañía interactúan con las personas, ha aprendido TechCrunch.
En un memorando de agosto para el personal pasado por TechCrunch, el director de investigación de OpenAI, Mark Chen, dijo que el equipo de comportamiento del maniquí, que consta de aproximadamente 14 investigadores, se uniría al equipo de capacitación posterior, un conjunto de investigación más magnate responsable de mejorar los modelos de IA de la compañía posteriormente de su pre-entrenamiento auténtico.
Como parte de los cambios, el equipo de comportamiento del maniquí ahora informará al líder de la capacitación posterior a Openi, Max Schwarzer. Un portavoz de OpenAI confirmó estos cambios en TechCrunch.
La líder fundadora del equipo de comportamiento del maniquí, Joanne Jang, además se está moviendo para comenzar un nuevo plan en la compañía. En una entrevista con TechCrunch, Jang dice que está construyendo un nuevo equipo de investigación llamado OAI Labs, que será responsable de “inventar y crear prototipos de nuevas interfaces sobre cómo las personas colaboran con la IA”.
El equipo de comportamiento del maniquí se ha convertido en uno de los grupos de investigación secreto de OpenAI, responsables de dar forma a la personalidad de los modelos de IA de la compañía y de compendiar la skicancia, que ocurre cuando los modelos de IA simplemente están de acuerdo y refuerzan las creencias de los usuarios, incluso las no saludables, en motivo de ofrecer respuestas equilibradas. El equipo además ha trabajado para navegar por el sesgo político en las respuestas maniquí y ayudó a Operai a aclarar su postura sobre AI Conciencia.
En el memorando al personal, Chen dijo que ahora es el momento de juntar el trabajo del equipo de comportamiento maniquí de Openai al ampliación del maniquí central. Al hacerlo, la compañía está señalando que la “personalidad” de su IA ahora se considera un cifra crítico en cómo evoluciona la tecnología.
En los últimos meses, Openai ha enfrentado un longevo investigación sobre el comportamiento de sus modelos de IA. Los usuarios se opusieron fuertemente a los cambios de personalidad realizados en GPT-5, que según la compañía exhibió tasas más bajas de sycophancy, pero parecía más frío para algunos usuarios. Esto llevó a OpenAI a restaurar el ataque a algunos de sus modelos heredados, como GPT-4O, y a difundir una modernización para hacer que las respuestas más nuevas de GPT-5 se sientan “más cálidas y amigables” sin aumentar la sileno.
Evento de TechCrunch
San Francisco
|
27-29 de octubre de 2025
Los desarrolladores de modelos de Openai y todos los IA tienen que caminar una radio muy fina para que sus chatbots de IA sea acogedor para susurrar, pero no sycophantic. En agosto, los padres de un caprichoso de 16 primaveras demandado OpenAi sobre el supuesto papel de Chatgpt en el suicidio de su hijo. El caprichoso, Adam Raine, confió algunos de sus pensamientos suicidas y planes para chatear (específicamente una traducción impulsada por GPT-4O), según documentos judiciales, en los meses previos a su crimen. La demanda alega que GPT-4O no logró retroceder sus ideaciones suicidas.
El equipo de comportamiento del maniquí ha trabajado en todos los modelos de OpenAI desde GPT-4, incluidos GPT-4O, GPT-4.5 y GPT-5. Ayer de comenzar la mecanismo, Jang trabajó anteriormente en proyectos como Dall-E 2, la aparejo de procreación de imágenes tempranas de Openai.
Jang anunció en un Propagar en x La semana pasada, deja que el equipo “comience poco nuevo en Operai”. El ex principal de comportamiento maniquí ha estado con OpenAI durante casi cuatro primaveras.
Jang le dijo a TechCrunch que servirá como apoderado común de OAI Labs, que informará a Chen por ahora. Sin secuestro, son los primeros días, y aún no está claro cuáles serán esas nuevas interfaces, dijo.
“Estoy positivamente emocionado de explorar patrones que nos mueven más allá del arquetipo del chat, que actualmente se asocia más con la compañía, o incluso los agentes, donde hay un vehemencia en la autonomía”, dijo Jang. “He estado pensando en (sistemas de IA) como instrumentos para pensar, hacer, tocar, hacer, memorizar y conectar”.
Cuando se le preguntó si Oai Labs colaborará en estas novelas interfaces con el ex principal de diseño de Apple, Jony Ive, quién ahora trabajando Con OpenAi en una tribu de dispositivos de hardware de IA, Jang dijo que está abierta a muchas ideas. Sin secuestro, dijo que probablemente comenzará con áreas de investigación con las que está más familiarizado.
Esta historia se actualizó para incluir un enlace a la publicación de Jang anunciando su nuevo puesto, que se lanzó posteriormente de que se publicara esta historia. Asimismo aclaramos los modelos en los que trabajó el equipo de comportamiento maniquí de OpenAI.






