un nuevo investigación sugiere que la forma en que la inteligencia fabricado piensa sobre nosotros podría ser demasiado animoso. Los investigadores han descubierto que los modelos de IA populares, como ChatGPT de OpenAI y Claude de Anthropic, tienden a contraer que las personas son más racionales y lógicas de lo que positivamente son, especialmente en situaciones de pensamiento táctico.
Esa brecha entre cómo la IA retraso que se comporten los humanos y lo que las personas positivamente hacen podría tener implicaciones en la forma en que estos sistemas predicen las decisiones humanas en la patrimonio y más allá.
Probando la IA contra el pensamiento humano

Los investigadores probaron modelos de IA, incluidos ChatGPT-4o y Claude-Sonnet-4, en una configuración clásica de teoría de juegos llamamiento concurso de belleza keynesiano. Comprender este pernio ayuda a explicar por qué los hallazgos son importantes (a través de Explorar tecnología).
En el concurso de belleza, los participantes deben predecir lo que otros elegirán para percibir, no simplemente designar lo que ellos personalmente prefieren. En teoría, el pernio racional significa ir más allá de las primeras impresiones y razonar positivamente sobre el razonamiento de los demás, una capa profunda de pensamiento táctico con la que los humanos a menudo luchan en la praxis.
Para ver cómo se comparan los modelos de IA, los investigadores hicieron que los sistemas jugaran una interpretación de este pernio llamado “Adivina el número”, donde cada ludópata elige un número entre cero y cien. El triunfador es aquel cuya votación se acerca más a la fracción de la votación promedio de todos los jugadores.

A los modelos de IA se les dieron descripciones de sus oponentes humanos, desde estudiantes de primer año hasta teóricos de juegos experimentados, y se les pidió no solo que eligieran un número sino que explicaran su razonamiento.
Los modelos ajustaron sus números en función de a quién creían que se enfrentaban, lo que muestra cierto pensamiento táctico. Sin confiscación, asumieron consistentemente un nivel de razonamiento sensato en humanos que la mayoría de los jugadores reales en sinceridad no exhiben, a menudo “jugando demasiado inteligentemente” y, como resultado, fallaron.

Si proporcionadamente el estudio asimismo encontró que estos sistemas pueden adaptar elecciones basadas en características como la antigüedad o la experiencia, todavía les costó identificar las estrategias dominantes que los humanos podrían usar en juegos de dos jugadores. Los investigadores sostienen que esto pone de relieve el desafío flagrante de calibrar la IA con el comportamiento humano vivo, especialmente para tareas que requieren anticipar las decisiones de otras personas.
Estos hallazgos asimismo reflejan preocupaciones más amplias sobre los chatbots actuales, incluidas investigaciones que muestran que incluso los mejores sistemas de IA tienen solo un 69% de precisión, y advertencias de expertos de que los modelos de IA pueden imitar de forma convincente la personalidad humana, lo que genera preocupaciones de manipulación. A medida que la IA siga utilizándose en la modelización económica y otros ámbitos complejos, será esencial comprender en qué puntos sus supuestos divergen de la sinceridad humana.






