¿Son los malos incentivos a la falta de las alucinaciones de IA?

A nuevo trabajo de investigación De OpenAi pregunta por qué modelos de idiomas grandes como GPT-5 y chatbots como ChatGPT todavía se alucinan, y si se puede hacer poco para resumir esas alucinaciones.

En Una publicación de blog que resume el semanarioOpenai define las alucinaciones como “declaraciones plausibles pero falsas generadas por los modelos de idiomas”, y reconoce que a pesar de las mejoras, las alucinaciones “siguen siendo un desafío fundamental para todos los modelos de idiomas grandes”, uno que nunca será completamente eliminado.

Para ilustrar el punto, los investigadores dicen que cuando preguntaron “un chatbot ampliamente usado” sobre el título de Ph.D. de Adam Tauman Kalai. Disertación, obtuvieron tres respuestas diferentes, todas ellas equivocadas. (Kalai es uno de los autores del artículo). Luego preguntaron sobre su cumpleaños y recibieron tres fechas diferentes. Una vez más, todos estaban equivocados.

¿Cómo puede un chatbot estar tan erróneo y sonar tan segura de su incorrecto? Los investigadores sugieren que las alucinaciones surgen, en parte, adecuado a un proceso previo a la medida que se centra en conquistar que los modelos predecieran correctamente la próximo palabra, sin etiquetas verdaderas o falsas adjuntas a las declaraciones de entrenamiento: “El maniquí solo ve ejemplos positivos de idioma fluido y debe aproximar la distribución normal”.

“La ortografía y los paréntesis siguen patrones consistentes, por lo que los errores allí desaparecen con la escalera”, escriben. “Pero los hechos arbitrarios de herido frecuencia, como el cumpleaños de una mascota, no se pueden predecir solo con los patrones y, por lo tanto, conducen a alucinaciones”.

Sin incautación, la posibilidad propuesta del documento se centra menos en el proceso de preperación auténtico y más en cómo se evalúan los modelos de idioma grandes. Argumenta que los modelos de evaluación actuales no causan alucinaciones en sí mismas, pero “establecen los incentivos incorrectos”.

Los investigadores comparan estas evaluaciones con el tipo de pruebas de opción múltiple, la previsión aleatoria tiene sentido, porque “puede tener suerte y tener razón”, mientras deja la respuesta en blanco “garantiza un cero”.

Evento de TechCrunch

San Francisco
|
27-29 de octubre de 2025

“De la misma modo, cuando los modelos se califican solo en precisión, el porcentaje de preguntas que hacen exactamente aceptablemente, se les alienta a adivinar en zona de sostener ‘no sé'”, dicen.

La posibilidad propuesta, entonces, es similar a las pruebas (como el SAT) que incluyen “placa (puntuación) para respuestas incorrectas o crédito parcial por dejar preguntas en blanco para desalentar la previsión ciega”. Del mismo modo, Openai dice que las evaluaciones del maniquí deben “penalizar los errores seguros más de lo que penaliza la incertidumbre y dar crédito parcial por las expresiones apropiadas de incertidumbre”.

Y los investigadores argumentan que no es suficiente introducir “algunas nuevas pruebas conscientes de la incertidumbre”. En su zona, “las Evals ampliamente utilizadas y basadas en la precisión deben actualizarse para que su puntuación desaliente la previsión”.

“Si los marcadores principales siguen gratificando conjeturas de la suerte, los modelos seguirán aprendiendo a adivinar”, dicen los investigadores.

Related Posts

Nvidia convierte OpenClaw en una plataforma empresarial con NemoClaw

Un solo comando ahora instala seguridad, barreras de privacidad y modelos de IA locales en la plataforma de agentes de código amplio de más rápido crecimiento del mundo. OpenClaw se…

Activé los resúmenes de notificaciones en mi Pixel 9 Pro y fue menos caótico de lo esperado

Jack Wallen / Elyse Betters Picaro / ZDNET Siga ZDNET: Agréganos como fuente preferida en Google. Conclusiones secreto de ZDNET Algunos teléfonos Pixel más nuevos tienen un arsenal de notificación…

You Missed

Cuba permitirá inversiones en la isla a todos los cubanos del deportación

Cuba permitirá inversiones en la isla a todos los cubanos del deportación

Nvidia convierte OpenClaw en una plataforma empresarial con NemoClaw

Nvidia convierte OpenClaw en una plataforma empresarial con NemoClaw

La moda nupcial: un período interesante de creatividad y cambio

La moda nupcial: un período interesante de creatividad y cambio

La entrada de Boyer a SD: una época poco recordada | AlMomento.net

La entrada de Boyer a SD: una época poco recordada | AlMomento.net

Activé los resúmenes de notificaciones en mi Pixel 9 Pro y fue menos caótico de lo esperado

Activé los resúmenes de notificaciones en mi Pixel 9 Pro y fue menos caótico de lo esperado

‘One battle after another’ triunfa en los Óscar, con seis premios

‘One battle after another’ triunfa en los Óscar, con seis premios