Los modelos de IA como ChatGPT y Claude sobreestiman cuán inteligentes son positivamente los humanos

un nuevo investigación sugiere que la forma en que la inteligencia fabricado piensa sobre nosotros podría ser demasiado animoso. Los investigadores han descubierto que los modelos de IA populares, como ChatGPT de OpenAI y Claude de Anthropic, tienden a contraer que las personas son más racionales y lógicas de lo que positivamente son, especialmente en situaciones de pensamiento táctico.

Esa brecha entre cómo la IA retraso que se comporten los humanos y lo que las personas positivamente hacen podría tener implicaciones en la forma en que estos sistemas predicen las decisiones humanas en la patrimonio y más allá.

Probando la IA contra el pensamiento humano

Los investigadores probaron modelos de IA, incluidos ChatGPT-4o y Claude-Sonnet-4, en una configuración clásica de teoría de juegos llamamiento concurso de belleza keynesiano. Comprender este pernio ayuda a explicar por qué los hallazgos son importantes (a través de Explorar tecnología).

En el concurso de belleza, los participantes deben predecir lo que otros elegirán para percibir, no simplemente designar lo que ellos personalmente prefieren. En teoría, el pernio racional significa ir más allá de las primeras impresiones y razonar positivamente sobre el razonamiento de los demás, una capa profunda de pensamiento táctico con la que los humanos a menudo luchan en la praxis.

Para ver cómo se comparan los modelos de IA, los investigadores hicieron que los sistemas jugaran una interpretación de este pernio llamado “Adivina el número”, donde cada ludópata elige un número entre cero y cien. El triunfador es aquel cuya votación se acerca más a la fracción de la votación promedio de todos los jugadores.

A los modelos de IA se les dieron descripciones de sus oponentes humanos, desde estudiantes de primer año hasta teóricos de juegos experimentados, y se les pidió no solo que eligieran un número sino que explicaran su razonamiento.

Los modelos ajustaron sus números en función de a quién creían que se enfrentaban, lo que muestra cierto pensamiento táctico. Sin confiscación, asumieron consistentemente un nivel de razonamiento sensato en humanos que la mayoría de los jugadores reales en sinceridad no exhiben, a menudo “jugando demasiado inteligentemente” y, como resultado, fallaron.

Si proporcionadamente el estudio asimismo encontró que estos sistemas pueden adaptar elecciones basadas en características como la antigüedad o la experiencia, todavía les costó identificar las estrategias dominantes que los humanos podrían usar en juegos de dos jugadores. Los investigadores sostienen que esto pone de relieve el desafío flagrante de calibrar la IA con el comportamiento humano vivo, especialmente para tareas que requieren anticipar las decisiones de otras personas.

Estos hallazgos asimismo reflejan preocupaciones más amplias sobre los chatbots actuales, incluidas investigaciones que muestran que incluso los mejores sistemas de IA tienen solo un 69% de precisión, y advertencias de expertos de que los modelos de IA pueden imitar de forma convincente la personalidad humana, lo que genera preocupaciones de manipulación. A medida que la IA siga utilizándose en la modelización económica y otros ámbitos complejos, será esencial comprender en qué puntos sus supuestos divergen de la sinceridad humana.

Related Posts

Nvidia BlueField-4 STX agrega una capa de memoria contextual al almacenamiento para cerrar la brecha de rendimiento de la IA agente

Cuando un agente de IA pierde contexto a parte de una tarea porque el almacenamiento tradicional no puede seguir el ritmo de la inferencia, no es un problema de maniquí,…

Para qué sirve el puerto inferior de su compensador Xbox

DJGIS/Shutterstock Es posible que recibamos una comisión por las compras realizadas a través de enlaces. Desde el impulso del primer maniquí cercano…

You Missed

Nvidia BlueField-4 STX agrega una capa de memoria contextual al almacenamiento para cerrar la brecha de rendimiento de la IA agente

Nvidia BlueField-4 STX agrega una capa de memoria contextual al almacenamiento para cerrar la brecha de rendimiento de la IA agente

Matan hombre a machetazos en SFM

Matan hombre a machetazos en SFM

Para qué sirve el puerto inferior de su compensador Xbox

Para qué sirve el puerto inferior de su compensador Xbox

Del éxito turístico al maniquí de exposición recinto

Del éxito turístico al maniquí de exposición recinto

Fanáticos en Lyon para ‘Lux’

Fanáticos en Lyon para ‘Lux’

Donald Trump pierde apoyo para desbloquear apretado Ormuz

Donald Trump pierde apoyo para desbloquear apretado Ormuz