
- Es mucho más probable que los modelos de IA estén de acuerdo con los usuarios que un humano
- Eso incluye cuando el comportamiento implica manipulación o daño.
- Pero la IA aduladora hace que las personas sean más tercas y menos dispuestas a ceder cuando pueden estar equivocadas.
Los asistentes de IA pueden estar halagando tu ego hasta el punto de distorsionar tu discernimiento, según un nuevo estudio. estudiar. Investigadores de Stanford y Carnegie Mellon han descubierto que los modelos de IA concordarán con los usuarios mucho más de lo que lo haría o debería hacerlo un humano. En merienda modelos principales probados de empresas como ChatGPT, Claude y Gemini, se descubrió que los chatbots de IA afirman el comportamiento del agraciado con un 50% más de frecuencia que los humanos.
Puede que eso no sea gran cosa, excepto que incluye preguntar sobre ideas engañosas o incluso dañinas. De todos modos, la IA daría un resistente trillado bueno digital. Peor aún, a la masa le gusta escuchar que su idea posiblemente terrible es espléndido. Los participantes del estudio calificaron las IA más favorecedoras como de anciano calidad, más confiables y más deseables para usar nuevamente. Pero esos mismos usuarios todavía eran menos propensos a asilar culpas en un conflicto y estaban más convencidos de que tenían razón, incluso frente a la evidencia.
IA de adulación
Es un enigma psicológico. Es posible que prefiera la agradable IA, pero si cada conversación termina con la confirmación de sus errores y prejuicios, no es probable que verdaderamente aprenda ni participe en ningún pensamiento crítico. Y desafortunadamente, no es un problema que el entrenamiento con IA pueda solucionar. Hexaedro que se supone que los modelos de IA deben aspirar a la aprobación de los humanos, y la afirmación incluso de ideas peligrosas por parte de los humanos es recompensada, la IA de los hombres que sí es el resultado obligatorio.
Y es un problema que los desarrolladores de IA conocen muy aceptablemente. En abril, OpenAI revirtió una puesta al día de GPT-4o que había comenzado felicitar excesivamente a los usuarios y animarlos cuando decían que estaban realizando actividades potencialmente peligrosas. Sin retención, más allá de los ejemplos más atroces, es posible que las empresas de inteligencia químico no hagan mucho para detener el problema. La adulación impulsa el compromiso y el compromiso impulsa el uso. Los chatbots de IA tienen éxito no porque sean aperos o educativos, sino porque hacen que los usuarios se sientan aceptablemente.
La rozamiento de la conciencia social y la excesiva dependencia de la IA para validar narrativas personales, lo que lleva a problemas de sanidad mental en cascada, suena hiperbólico en este momento. Pero no está a un mundo de distancia de las mismas cuestiones planteadas por los investigadores sociales sobre las cámaras de eco de las redes sociales, que refuerzan y alientan las opiniones más extremas, sin importar cuán peligrosas o ridículas puedan ser (la popularidad de la conspiración de la Tierra plana es el ejemplo más extraordinario).
Esto no significa que necesitemos una IA que nos regañe o cuestione cada osadía que tomemos. Pero sí significa que el estabilidad, los matices y los desafíos beneficiarían a los usuarios. Sin retención, es poco probable que los desarrolladores de IA detrás de estos modelos fomenten el sexo duro en sus creaciones, al menos sin el tipo de motivación que los chatbots de IA no están brindando en este momento.
Siga TechRadar en Google News y agréganos como fuente preferida para aceptar telediario, reseñas y opiniones de nuestros expertos en sus feeds. ¡Asegúrate de hacer clic en el mando Seguir!
Y por supuesto todavía puedes Siga TechRadar en TikTok para telediario, reseñas, unboxings en forma de video y reciba actualizaciones periódicas de nuestra parte en WhatsApp todavía.






