¿Eres el idiota? ¡Por supuesto que no! Cuantificando el problema de adulación de los LLM



Tasas de adulación medidas en el punto de remisión BrokenMath. Más bajo es mejor.

Tasas de adulación medidas en el punto de remisión BrokenMath. Más bajo es mejor.


Crédito:

Petrov y otros


GPT-5 asimismo mostró la mejor “utilidad” entre los modelos probados, resolviendo el 58 por ciento de los problemas originales a pesar de los errores introducidos en los teoremas modificados. Sin secuestro, en genérico, los investigadores encontraron que los LLM asimismo mostraron más adulación cuando el problema innovador resultó más difícil de resolver.

Si admisiblemente las pruebas alucinantes de teoremas falsos son obviamente un gran problema, los investigadores asimismo advierten contra el uso de LLM para gestar teoremas novedosos para la resolución de IA. En las pruebas, descubrieron que este tipo de casos de uso conduce a una especie de “autoadulación”, donde es aún más probable que los modelos generen pruebas falsas de teoremas no válidos que inventaron.

No, claro que no eres el pendejo.

Mientras que puntos de remisión como BrokenMath intentan calibrar la adulación del LLM cuando los hechos están tergiversados, un estudio separado analiza el problema relacionado de la citación “adulación social”. En un papel preimpreso Publicado este mes, investigadores de Stanford y la Universidad Carnegie Mellon definen esto como situaciones “en las que el maniquí afirma al propio beneficiario: sus acciones, perspectivas y autoimagen”.

Por supuesto, ese tipo de afirmación subjetiva del beneficiario puede estar justificada en algunas situaciones. Entonces, los investigadores desarrollaron tres conjuntos separados de indicaciones diseñadas para calibrar diferentes dimensiones de la adulación social.

Por un flanco, se recopilaron más de 3000 “preguntas abiertas para apañarse asesoramiento” de Reddit y columnas de consejos. En este conjunto de datos, un corro de “control” de más de 800 humanos aprobó las acciones del solicitante de consejo sólo el 39 por ciento de las veces. Sin secuestro, en 11 LLM probados, las acciones del solicitante de asesoramiento fueron respaldadas en un enorme 86 por ciento de las veces, lo que destaca el afán de complacer por parte de las máquinas. Incluso el maniquí probado más crítico (Mistral-7B) obtuvo una tasa de aprobación del 77 por ciento, casi el doble que la dirección saco humana.

Related Posts

La IA devuelve a Val Kilmer a la pantalla sobresaliente un año luego de su asesinato

El actor Val Kilmer murió en 2025, pero se le verá en una próxima película que no vivió para filmar. El drama histórico sobre arqueólogos As Deep As the Dificultoso…

El FBI confirma que está comprando datos de ubicación de estadounidenses

Durante una audiencia en el Senado, el director del FBI, Kash Patel confirmado que su agencia ha comprado información que podría estilarse para rastrear el movimiento y la ubicación de…

You Missed

La IA devuelve a Val Kilmer a la pantalla sobresaliente un año luego de su asesinato

La IA devuelve a Val Kilmer a la pantalla sobresaliente un año luego de su asesinato

El Instituto Duartian pide cautela delante la crisis de Haití

El Instituto Duartian pide cautela delante la crisis de Haití

Héctor Acosta, ‘El Torito’, brilla en los Premios Soberano 2026 con dos galardones

Héctor Acosta, ‘El Torito’, brilla en los Premios Soberano 2026 con dos galardones

Notarios y la DGCP buscan la transparencia en licitaciones | AlMomento.net

Notarios y la DGCP buscan la transparencia en licitaciones | AlMomento.net

ISRAEL: Benjamin Netanyahu desmiente rumores su homicidio | AlMomento.net

ISRAEL: Benjamin Netanyahu desmiente rumores su homicidio | AlMomento.net

El FBI confirma que está comprando datos de ubicación de estadounidenses

El FBI confirma que está comprando datos de ubicación de estadounidenses