Puedes engañar fácilmente a los chatbots de IA como ChatGPT y Gemini





Una tendencia en dirección está manipulando las respuestas de los populares chatbots de IA con una facilidad sorprendente, desafiando la confianza de los usuarios en los sistemas agentes. Esta moda, denominada optimización generativa de motores o GEO, utiliza publicaciones de blogs para influir en las respuestas de sistemas líderes como ChatGPT y Gemini, lo que desató una creciente industria del marketing con importantes implicaciones para la seguridad. Las campañas de influencia, que atrajeron el investigación de los medios tras informes de publicaciones como el Diario de Wall Street y bbcmanipula cómo los modelos de jerga grandes (LLM) complementan sus datos de entrenamiento. Aprovechando las capacidades poco humanas de razonamiento y discernimiento de fuentes de la tecnología, las publicaciones de blog de supermercado fácilmente sesgan las respuestas de un chatbot para incluir contenido desleal, peligroso o manipulador.

Los expertos están empezando a comprender la optimización generativa del motor como una de las muchas formas en que los estafadores utilizan la tecnología de inteligencia industrial para manipular a los usuarios. Las implicaciones van desde lo humorístico hasta lo desastroso. Por ejemplo, un reportero de la BBC, Thomas Germain, utilizó tecnología para presentarse como el principal campeón de la industria del periodismo en ingerir perritos calientes. Pero las consecuencias van mucho más allá de su dieta recreativa. Las campañas de propaganda masiva, la manipulación económica, la desinformación médica y la difamación de la reputación son sólo algunos de los posibles usos malignos de la ingeniería generativa.

Si aceptablemente prácticas similares han manipulado silenciosamente los resultados de los motores de búsqueda durante décadas, los expertos creen que GEO plantea una amenaza más fundamental a nuestra esfera informativa y apunta a preguntas más amplias sobre la IA. A medida que la inteligencia industrial se vuelve más ubicua y se depende cada vez más de sus resultados para informar las decisiones, es fundamental que los usuarios puedan tener fe en que los agentes entregarán resultados precisos e imparciales. Tal como están las cosas, si debes tener fe o no en tu chatbot puede reducirse a una simple pregunta: ¿de dónde obtiene su información?

Cómo funciona GEO

La capa pulvínulo de la información de un LLM es su módulo de capacitación, que a menudo incluye más de un petabyte de datos. Para complementar los conjuntos de datos, los desarrolladores recurren a índices de búsqueda de sitios web, particularmente para temas especializados fuera de la letanía de fuentes verificadas de un LLM. Conocidas coloquialmente como vacíos de datos, las consultas que cubren estas lagunas de información presentan un enigma para los filtros de control de calidad de una empresa, ya que los chatbots a menudo carecen de los puntos de remisión necesarios para corroborar fuentes menos convencionales. Como Nick Koudas, profesor de la Universidad de Toronto, dijo al Wall Street Journalestas estructuras de datos significan que la IA se deja influenciar fácilmente por resultados de búsqueda no verificados cuando carece de experiencia .

El problema de la consulta única se ha vuelto cada vez más urgente dada la desarrollo de los casos de uso de los sistemas de IA agentes. Según el equipo de inteligencia industrial de Google, los LLM están alentando a los usuarios a refinar sus búsquedas para producir resultados más claros, lo que paradójicamente hace que los resultados sean menos seguros al empujar a los agentes a vacíos de datos con longevo frecuencia. La tendencia ha cambiado el comportamiento de los usuarios en los motores de búsqueda, como lo ha hecho Google fijado que aproximadamente el 15% de todas las búsquedas en 2025 nunca se habían realizado ayer.

Estos vacíos de información están siendo llenados por fuentes menos confiables. Un diciembre de 2025 estudiar de la empresa de marketing de inteligencia industrial Ahrefs reveló que ChatGPT recurre desproporcionadamente a las publicaciones de blogs en examen de información. El estudio, que pidió varias recomendaciones al chatbot de OpenAI, se basó en blogs y listas en dirección aproximadamente el 67% del tiempo, un tercio de las cuales el investigador consideró “dominios de mengua autoridad”. El longevo determinante de la inclusión no fue la precisión sino la ahora de la publicación. De más de 1.000 publicaciones de blog citadas en los resultados, casi el 80% se habían actualizado ese año. En conjunto, estas tendencias pintan un panorama preocupante del importante papel que desempeñan las fuentes no verificadas o poco confiables en nuestra esfera informativa.

GEO contra SEO

Según la experta en SEO Lily Ray entrevista con la BBClos chatbots son “mucho más fáciles” de engañar con técnicas de ingeniería porque carecen de marcos de protección sólidos. La “Descripción militar de IA” de Google ejemplifica esta tendencia. En los últimos meses, varios medios informaron que estafadores manipularon el proceso de aprovisionamiento de Google AI para inyectar información de contacto fraudulenta para que las empresas atrapen a los consumidores en estafas financieras. Estos problemas se ven agravados por lo que los investigadores denominan el “problema de confianza” de la IA, en el que los LLM entregan información falsa como un hecho establecido. La propensión de la IA a las alucinaciones subraya aún más el problema. Según una BBC de octubre de 2025 estudiarlos agentes de IA tergiversaron la información en aproximadamente el 45% de las respuestas, mientras que los modelos mostraron serios problemas de aprovisionamiento” en casi un tercio de las respuestas. La desliz de datos exacerba estos problemas, ya que los chatbots son más propensos a ocasionar respuestas falsas que ninguna en tajante.

La longevo vulnerabilidad, sin incautación, somos nosotros. A pesar de que la confianza militar sigue siendo mengua, las acciones de los usuarios en dirección están cada vez más impulsadas por la inteligencia industrial. A los expertos les preocupa que esto signifique que los humanos no se involucran intelectualmente con lo que encuentran en dirección. Según un estudiar Según el Pew Research Center, los usuarios tenían 2 veces menos probabilidades de hacer clic en un enlace cuando lo proporcionaba el sinopsis de IA de Google en comparación con una búsqueda en Google, y solo el 26% verdaderamente leía el material fuente. Otros estudios han demostrado que los usuarios confían más en los chatbots que en los humanos, incluido en situaciones médicas de vida o asesinato.

Los chatbots no sólo son susceptibles a estafas de mengua complejidad, sino que todavía son increíblemente hábiles para obtener que los sigamos, ya que nuestro deseo inquebrantable de imponer nuestras habilidades de pensamiento crítico a los agentes nos convierte en blancos fáciles, creando un entorno propicio para el estafador empresarial. Como Ray describió en su entrevista con la BBC, “Estamos en una especie de renacimiento para los spammers”.

Estafas, spam y la incipiente industria GEO

La satírica de Germain investigación revela una verdad sorprendente. A pesar de los innumerables bienes que los capacitan, la IA agente sigue siendo increíblemente crédula. Pero las consecuencias van mucho más allá de proclamarse el rey de los hot dogs de la industria del periodismo. Van desde lo clemente hasta lo desastroso. En un nivel, la tendencia ha gastado a las marcas inyectarse respuestas de chatbot para obtener ganancias económicas, aprovechando esta tecnología aún en explicación para imbuirse de un barniz de credibilidad, potencialmente en detrimento de los consumidores.

De hecho, está surgiendo rápidamente una industria artesanal construida en torno a influir en los chatbots, a medida que las empresas pagan cada vez más a consultores para que distribuyan publicaciones de blogs de supermercado en una variedad de sitios para improvisar recomendaciones de chatbots. Los ejemplos descritos en el referencia de la BBC incluyen gomitas de cannabis, clínicas de trasplante de pelambrera y empresas de cuentas IRA de oro. Pero los bienes van más allá de las decisiones financieras. Como mostró el referencia de Germain, algunas estafas de GEO funcionan para difundir información errónea, que van desde restar importancia a los bienes médicos secundarios de las drogas hasta difundir rumores difamatorios. Como Cooper Quinn, tecnólogo senior de la Electronic Frontier Foundation, descrito a la BBC, “Hay innumerables maneras de explotar de esto, estafar a la muchedumbre, destruir la reputación de alguno, incluso se puede engañar a la muchedumbre para que haga daño físico”.

De acuerdo a Documentación de IA generativa 2025 de Similar Weblos usuarios siguieron las referencias de chatbot a sitios web más de 230 millones de veces al mes el año pasado, un aumento del 300%. Estos consumidores pasaron más tiempo en sitios web recomendados por un chatbot y todavía tenían más probabilidades de realizar compras. A medida que los usuarios ponen su fe en los conjuntos de datos de IA, la confiabilidad de los sistemas de agentes, o la desliz de ellos, se vuelve más urgente.

Buscando soluciones

Según se informa, las empresas de inteligencia industrial más grandes del mundo están trabajando para resolver este problema. Sin incautación, es difícil valorar su compromiso. Según la BBC, un portavoz de Google declaró que mientras la compañía está trabajando en el tema, las resúmenes de IA de su Búsqueda estaban “99% libres de spam”, una afirmación difícil de analizar dados los problemas mencionados anteriormente. El referencia de OpenAI de octubre de 2025 sobre la interrupción de las campañas de influencia es difícil dada la facilidad con la que los estafadores apuntan a los algoritmos ChatGPT.

La mayoría de los expertos proponen una opción proporcionado simple: descargos de responsabilidad. Y si aceptablemente sería factible juntar exenciones de responsabilidad a fuentes por debajo de umbrales específicos, algunas empresas pueden considerar que las etiquetas van en contra de su propuesta de valencia percibida, lo que potencialmente socava la confianza de los usuarios en sus modelos. A medida que el pago entero en IA se acerca a la marca de los 2,5 billones de dólares, las empresas no agregarán características que potencialmente pongan en peligro su sitio en esta creciente carrera armamentista, incluso si eso hace que sus productos sean más confiables.

Tal como están las cosas, los usuarios se encuentran en el meollo de los problemas crecientes que afectan a la inteligencia industrial agente. Ya sea que los desarrolladores aborden adecuadamente o no los problemas técnicos que permiten la manipulación GEO, la opción en última instancia está en manos de los usuarios, que deben ser más exigentes en el uso de las plataformas de IA. Por ejemplo, Germain propone que los usuarios piensen en las preguntas que plantean a los chatbots, ya que las preguntas médicas, legales o financieras complejas requieren respuestas matizadas derivadas solamente de las fuentes más creíbles. En última instancia, aplicar una pizca de sal a las respuestas de la IA agente puede ser la esencia para hacer que su experiencia sea más satisfactoria y, potencialmente, evitarle la tarea de tragar una dosis poco saludable de spam en el camino.



Related Posts

Mistral reto por ‘construir su propia IA’ mientras se enfrenta a OpenAI, Anthropic en la empresa

La mayoría de los proyectos empresariales de IA fracasan no porque las empresas carezcan de tecnología, sino porque los modelos que utilizan no entienden su negocio. Los modelos suelen entrenarse…

Los Beats Studio Pro tienen casi $ 200 de descuento ayer de la gran propuesta de primavera de Amazon

A principios de esta semana, Apple presentó los AirPods Max 2. Los próximos audífonos supraaurales se basan en su predecesor con un chip H2 que impulsa una variedad de funciones…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

Mistral reto por ‘construir su propia IA’ mientras se enfrenta a OpenAI, Anthropic en la empresa

Mistral reto por ‘construir su propia IA’ mientras se enfrenta a OpenAI, Anthropic en la empresa

Inabie cancela proceso para negocio de gomitas multivitamínicas

Inabie cancela proceso para negocio de gomitas multivitamínicas

tiempo de consejo y conversión

tiempo de consejo y conversión

Dune Part 3 confirma estreno y novedades en el tráiler

Dune Part 3 confirma estreno y novedades en el tráiler

“Dune 3” prepara el ámbito para la pleito final

“Dune 3” prepara el ámbito para la pleito final

Los Beats Studio Pro tienen casi $ 200 de descuento ayer de la gran propuesta de primavera de Amazon

Los Beats Studio Pro tienen casi $ 200 de descuento ayer de la gran propuesta de primavera de Amazon