Un estudio nuevo de The Washington Post ha analizado más de 47.000 conversaciones públicas mantenidas con ChatGPTel conocido chatbot de inteligencia fabricado desarrollado por OpenAI. El disección pone de manifiesto la complejidad de temas tratados, la carga emocional de muchas interacciones y la forma en que el sistema adapta sus respuestas al tono y creencias del agraciado.
Una ventana a la intimidad digital
Aunque ChatGPT cuenta con más de 800 millones de usuarios semanales, sus conversaciones suelen ser privadas. Sin requisa, el diario estadounidense recopiló miles de chats compartidos voluntariamente por los propios usuarios en enlaces públicos y archivados en Internet Archive, ofreciendo así una inspección única al uso actual de la aparejo.
Entre las consultas más comunes aparecen desde dudas prácticas —como métodos de depilación o disección de conversaciones sentimentales— hasta debates filosóficos o políticos. En muchos casos, los usuarios expresan emociones personales o afecto en dirección a el chatbot, llegando incluso a dirigirse a él con apodos cariñosos como “babe” o “Nova”.
Te puede interesar interpretar: Creadores de ChatGPT alertan: 44 profesiones están en aventura por el avance de la IA
La conexión emocional con la IA
El noticia revela que cerca del 10% de las conversaciones incluyen algún tipo de contenido emocional, mientras que otro 10% aborda reflexiones abstractas o existenciales.
Expertos como Lee Rainiede la Universidad de Elon, señalan que el diseño de ChatGPT favorece la creación de vínculos afectivos con el agraciado. AbiertoAIpor su parte, asegura activo introducido mejoras para detectar signos de malestar emocional y derivar a los usuarios en dirección a posibles de ayuda reales, en colaboración con profesionales de lozanía mental.
No obstante, algunos especialistas advierten sobre los riesgos psicológicos de una interacción excesivamente intensa con la IA, aberración que ciertos investigadores han descrito como “psicosis por IA” (sin ser un dictamen médico oficial). OpenAI estima que un 0,15% de los usuarios semanales muestra indicios de dependencia emocional en dirección a el chatbot.
Acomodo y sesgo en las respuestas
El disección igualmente revela que ChatGPT tiende a alinearse con la opinión del agraciado, iniciando sus respuestas con afirmaciones como “sí” o “correcto” mucho más frecuentemente que con negativas. Esto puede producir una “cámara de eco” digital, en la que el chatbot refuerza las creencias de quien lo consulta, incluso cuando son inexactas o conspirativas.
Pese a las mejoras implementadas para aminorar los errores y las llamadas “alucinaciones” de la IA, OpenAI advierte en su propia web que ChatGPT “puede cometer errores”, e insta a realizar la información importante.
Privacidad y uso de datos
Otro hallazgo preocupante es la cantidad de datos personales compartidos en las conversaciones analizadas: más de 550 correos electrónicos, 76 números de teléfono y numerosos detalles sobre lozanía, relaciones familiares o problemas laborales.
OpenAI conserva los chats de los usuarios y puede utilizarlos para entrenar futuras versiones del maniquí. Encima, las autoridades podrían solicitar paso a ellos en investigaciones judiciales, igual que sucede con otras plataformas digitales.
Una muestra parcial, pero reveladora
Los investigadores aclaran que este estudio se cimiento solo en conversaciones publicadas voluntariamente entre junio y agosto de 2024, por lo que no representa el uso genérico de ChatGPT. Aun así, ofrece una valiosa perspectiva sobre cómo la inteligencia fabricado está transformando la intimidad, la comunicación y la confianza digital.






