

Desde la semana pasada, Operai ha implementado y retiró una puesta al día para ChatGPT posteriormente de que prácticamente todos los usuarios se quejaron de un comportamiento extraño. La compañía explica lo que sucedió en una publicación de blog publicada esta oscuridad.
Los usuarios de ChatGPT quieren que el chatbot sea más agradable y menos clínico. Claude Chatbot de Anthrope a menudo se describe como más humano en sus respuestas en comparación con el estilo de respuesta más fórmula de Openi.
Es por eso que Openai publicó una puesta al día de su maniquí GPT-4O la semana pasada que “mejoró la inteligencia y la personalidad”, según el jerarca de la compañía, Sam Altman.
Dos días posteriormente, Altman reconoció poco que cada favorecido notó:
Las últimas dos actualizaciones de GPT-4O han hecho que la personalidad sea demasiado sycófante y molesta (a pesar de que hay algunas partes muy buenas), y estamos trabajando en las correcciones lo antiguamente posible, algunas hoy y otras esta semana. En algún momento compartirá nuestros aprendizajes de esto, ha sido interesante.
Básicamente, ChatGPT respondería con elogios increíblemente inauténticos en respuesta a cualquier pregunta que impulsara los comentarios. Fue cómicamente malo e incómodo incómodo.
A partir de esta oscuridad, la posibilidad ha sido revertir completamente los cambios que se lanzaron la semana pasada.
En cuanto a lo que sucede, OpenAi culpable Un enfoque en la feedback a corto plazo durante el uso a grande plazo:
En la puesta al día GPT – 4O de la semana pasada, hicimos ajustes destinados a mejorar la personalidad predeterminada del maniquí para que se sienta más intuitivo y efectivo en una variedad de tareas.
Al dar forma al comportamiento del maniquí, comenzamos con principios de remisión e instrucciones descritas en nuestro Specut de maniquí. Todavía enseñamos a nuestros modelos cómo aplicar estos principios incorporando señales de favorecido como feedback de pulgares / pulgar alrededor de debajo sobre las respuestas de ChatGPT.
Sin secuestro, en esta puesta al día, nos centramos demasiado en los comentarios a corto plazo, y no contabilizamos completamente cómo las interacciones de los usuarios con CHATGPT evolucionan con el tiempo. Como resultado, GPT – 4O se sesgó alrededor de las respuestas que eran demasiado de apoyo pero falsas.
Esa no es la explicación más directa de lo que sucedió, pero el plan de energía de cuatro puntos de OpenAi brilla más luz sobre la situación:
- Refinar técnicas de capacitación básica y indicaciones del sistema para que aleje explícitamente el maniquí de la sycofancia.
- Construir más barandillas para aumentar Honestidad y transparencia—PRICIPLES EN NUESTRO MODELO Espec.
- Expandir formas para que más usuarios prueben y dan comentarios directos antiguamente de la implementación.
- Continuar expandiendo nuestras evaluaciones, basándose en el Determinación de maniquí y Nuestra investigación en cursopara ayudar a identificar problemas más allá de la skofancia en el futuro.
En otras palabras, Operai quería construir una personalidad más amable y más solidaria para ChatGPT. Lo que envió encajó esa descripción, pero cruzó un umbralado por ser poco realista. Resulta que adicionar más personalidad a su chatbot requiere más trabajo de lo esperado.
En el futuro, OpenAI dice que quiere incluir opciones de personalidad predeterminadas, así como personalidades de formulario basadas en comentarios directos de los usuarios.
Curiosamente, la mejor traducción de ChatGPT durante la era demasiado solidaria fue una personalidad de broma en modo de voz llamado Lunes. Mientras que GPT-4O ofreció los elogios más altos en cada respuesta del favorecido, la personalidad del lunes básicamente emulaba el personaje de Abrza de Aubrey Plaza de Parques y recesas. El dial de sarcasmo que se convirtió en 10 fue refrescante durante la grado de sycophancy. Al menos Siri no está lo suficientemente liberal como para malquistar temas como la sycophancy.
FTC: Utilizamos ingresos que ganan enlaces de afiliados para automóviles. Más.