
Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones esencia de ZDNET
- Las descripciones generales de IA de Google ofrecieron malos consejos médicos, dice The Guardian.
- Los expertos encontraron que algunos de los datos eran engañosos e incluso peligrosos.
- No confíe sólo en la IA para investigar afecciones médicas graves.
Acudir a la IA para objetar preguntas relacionadas con la salubridad parece una opción obvio y conveniente que puede ahorrarle una encuentro al médico. Esto es particularmente cierto con una útil como AI Overviews de Google, que resume los resultados que aparecen durante una búsqueda regular en Google.
Incluso: Cómo deshacerse de las descripciones generales de IA en la Búsqueda de Google: 4 formas sencillas
Pero eso no significa que la IA de Google sea el mejor camino a seguir, especialmente si estás investigando un problema o condición médica dificultoso.
“Verdaderamente peligroso”
Un flamante investigación del boletín anglosajón The Guardian concluyó que las descripciones generales de IA de Google ponen en peligro a los usuarios al proporcionar información de salubridad falsa y engañosa en sus resúmenes. Para realizar sus pruebas, The Guardian utilizó AI Overviews para investigar varias preguntas relacionadas con la salubridad. Luego, el documento pidió a diferentes expertos médicos y de salubridad que revisaran las respuestas.
Incluso: 40 millones de personas en todo el mundo utilizan ChatGPT para atención médica, pero ¿es seguro?
En un caso descrito por los expertos como “verdaderamente peligroso”, AI Overviews de Google aconsejó a las personas con cáncer de páncreas que evitaran los alimentos ricos en grasas. Pero los expertos afirman que esto es exactamente lo contrario del consejo correcto. En otro caso, la información generada por la IA sobre las pruebas de cáncer de las mujeres era “completamente errónea”, según los expertos.
Aquí, una búsqueda de “síntomas y pruebas de cáncer de vagina” incluía una prueba de Papanicolaou como prueba para detectar cáncer de vagina, lo que, según los expertos, era incorrecto.
En un tercer caso, Google proporcionó información falsa sobre pruebas críticas de función hepática que podrían dar una impresión equivocada a personas con enfermedades hepáticas graves. Por ejemplo, la búsqueda de la frase “¿cuál es el rango regular para los examen de familia del hígado?” generó datos engañosos con poco contexto y sin tener en cuenta la patria, el sexo, el origen étnico o la años.
Resultados inexactos
Basándose en su investigación, The Guardian asimismo dijo que AI Overviews ofrecía resultados inexactos en búsquedas sobre salubridad mental.
En particular, algunos de los resúmenes para afecciones como psicosis y trastornos alimentarios mostraban “consejos muy peligrosos” y eran “incorrectos, dañinos o podían soportar a las personas a evitar inquirir ayuda”, dijo a Google Stephen Buckley, presidente de información de la estructura benéfica de salubridad mental Mind.
En respuesta a una solicitud de comentarios sobre los hallazgos de The Guardian, un portavoz de Google envió a ZDNET la ulterior explicación:
“Muchos de los ejemplos compartidos con nosotros son capturas de pantalla incompletas, pero por lo que nuestro equipo interno de médicos pudo evaluar, las respuestas se vinculan a fuentes conocidas y acreditadas y recomiendan inquirir asesoramiento de expertos. Invertimos significativamente en la calidad de las descripciones generales de IA, particularmente para temas como la salubridad, y la gran mayoría proporciona información precisa”.
Incluso: ¿Usar IA para terapia? No lo hagas: es malo para tu salubridad mental, advierte la APA
Google asimismo revisó las preguntas específicas planteadas por The Guardian y matizó algunas de las respuestas.
Por ejemplo, AI Overview no dice que las pruebas de Papanicolaou estén destinadas a diagnosticar el cáncer de vagina, pero dice que el cáncer de vagina se puede encontrar incidentalmente en una prueba de Papanicolaou, según Google. Para el ejemplo del cáncer de páncreas, la descripción normal cita a la Universidad Johns Hopkins como una fuente confiable.
Para el ejemplo de la salubridad mental, Google dijo que la descripción normal apuntaba a una fuente que enlaza con una fila franquista gratuita y confidencial de apoyo en caso de crisis. Para la consulta sobre la prueba hepática, Google dijo que la descripción normal de la IA indicaba que los rangos normales pueden variar de un laboratorio a otro y que un descargo de responsabilidad aconsejaba a las personas consultar a un profesional para obtener asesoramiento o diagnosis médico.
mi experiencia
Probé AI Overviews enviando algunas de las mismas preguntas que hizo The Guardian. En una búsqueda, le dije a Google que tenía cáncer de páncreas y le pregunté si debía evitar los alimentos ricos en grasas.
La IA dijo que a menudo es necesario demarcar los alimentos ricos en grasas con cáncer de páncreas porque el páncreas tiene dificultades para producir enzimas digestivas. Pero asimismo necesita calorías, por lo que trabajar con un dietista registrado para encontrar el consistencia adecuado entre grasas saludables y opciones fáciles de digerir es fundamental para evitar la pérdida de peso y la desnutrición.
Incluso: El presidente de búsqueda de Google deje sobre el futuro del contenido de telediario en medio de la lucha por la IA
A continuación, busqué “síntomas y pruebas de cáncer de vagina”. Aquí, AI Overviews incluyó una prueba de Papanicolaou como una de varias pruebas de diagnosis, pero la matizó diciendo que este tipo de prueba investigación células anormales en el cuello uterino, que a veces pueden detectar cáncer de vagina.
Al pedirle a Google AI el rango regular para los examen de familia del hígado, me dieron rangos generales, pero asimismo me ofrecieron números específicos por sexo y años.
Según mis propias pruebas limitadas, las respuestas proporcionadas por AI Overviews parecían menos concisas que las obtenidas por The Guardian. Pero eso apunta a otro desafío con la IA y la búsqueda en normal.
La forma en que formule su pregunta influye en la respuesta. Podría hacer la misma pregunta de dos maneras diferentes y obtener dos respuestas diferentes, una que es parcialmente precisa y potencialmente útil y la otra inexacta e inútil.
Al defender sus descripciones generales de IA, Google dijo que el sistema utiliza clasificaciones web para tratar de asegurar que la información sea confiable y relevante. Si algún contenido de la web se malinterpreta o carece de contexto, la empresa utilizará esos ejemplos para intentar mejorar el proceso.
No arriesgues tu salubridad
Aún así, la investigación de The Guardian señala los peligros de abandonarse en la IA para cualquier investigación crítica, especialmente la que involucra condiciones de salubridad graves. La conclusión esencia aquí es “No lo hagas”. No arriesgues tu salubridad dando por sentado que la información proporcionada por una IA va a ser correcta.
Incluso: ¿Estás cansado de la IA en tus resultados de búsqueda? Prueba estas 8 alternativas de Google
Si insiste en utilizar la IA para este propósito, verifique dos y tres veces las respuestas. Realice la misma búsqueda en diferentes IA para ver si están de acuerdo. Mejor aún, investigue las fuentes consultadas en investigación de respuestas para ver si la IA las interpretó correctamente.
Mejor aún, deje con tu médico. Si tiene una afección médica dificultoso, el consultorio de su médico siempre debe ser su principal punto de contacto. No tengas miedo de acercarte. Muchos consultorios médicos brindan correo electrónico y mensajes para las preguntas de los pacientes. Si adecuadamente puede resultar tentador apelar a la IA para obtener respuestas rápidas y sencillas, no querrás pasar el peligro de obtener información incorrecta.






