Esta no es la primera vez que OpenAI se encuentra en el centro de una historia sobre chats personales y privados en los que el chatbot de IA de la compañía de alguna guisa se filtra a lugares donde no debería. Pero quizás sea uno de los informes más intrigantes que hemos manido, ya que estas afirmaciones sugieren que los chats ChatGPT en existencia se estaban filtrando a Google Search Console (GSC), permitiendo que las consultas privadas de las personas a la IA sean visibles para cualquiera que use el sistema de Google.
Para cualquiera que no esté familiarizado con GSC, es esencialmente un sistema que permite a los desarrolladores monitorear el tráfico de búsqueda. Dicho esto, claramente no es donde esperas que terminen tus chats con el chatbot de OpenAI. Por suerte, según un referencia de Ars Technicaeste problema se resolvió desde entonces, y OpenAI dice que todo se debió a una rotura que solo afectó a una “pequeña cantidad de consultas de búsqueda” que se enrutaron a través de GSC, donde eran visibles para otros.
Este problema en particular podría estar relacionado con OpenAI supuestamente raspando a Google para contestar a las solicitudes de los usuarios. Si admisiblemente OpenAI no confirmó ni desmintió la teoría, Jason Packer, propietario de la consultora cuantificable – que fue uno de los primeros en describir el problema en octubre – escribió en el referencia de la compañía que este comportamiento podría ayudar a explicar por qué estas consultas aparecerían en GSC.
Los chatbots de IA no son tan privados
Si admisiblemente OpenAI dice que ha solucionado el problema, Packer no parece convencido de que haya desaparecido por completo, especialmente si OpenAI está buscando respuestas en Google. El scraping en dirección se ha convertido en una forma manejable para que las empresas de inteligencia industrial como Perplexity ayuden a encontrar respuestas a las consultas presentadas por sus usuarios, y algunas incluso se han enemigo en problemas por el scraping ilegal de sitios web que han prohibido esta habilidad.
Como muchos de los otros problemas con los que se han topado los chatbots como ChatGPT, incluidos los llamados del sistema procesal para editar historiales de chat completos en algunos casos legales, este es solo otro recordatorio de los peligros siempre cambiantes que rodean a los chatbots en dirección y el nuevo papel que desempeñan en nuestras vidas. Algunas personas han llegado a encargar en ChatGPT y otros chatbots de IA en extensión de amigos o incluso terapeutas. Y aunque hemos manido a OpenAI adoptar posturas más duras contra esto, especialmente luego de deber sido demandado por los padres de un adolescente fallecido, los problemas continúan surgiendo.
El uso de un chatbot en dirección no es privado y en realidad no tienes ningún control sobre dónde van tus datos luego de ingresarlos en el sistema de consulta. Por lo tanto, si planeas usar ChatGPT o cualquier chatbot de IA con regularidad, ten cuidado con lo que compartes con él, porque esas indicaciones podrían terminar en algún extensión donde no deberían.





