
Siga ZDNET: Agréganos como fuente preferida en Google.
Conclusiones esencia de ZDNET
- ChatGPT Health y Claude for Healthcare debutaron la semana pasada.
- Poco luego se presentó el maniquí MedGemma 1.5 de Google.
- Todos ellos señalan la creciente presencia de la IA en la atención sanitaria.
Tres de los laboratorios de inteligencia sintético más importantes del mundo comenzaron el nuevo año con el impulso de productos orientados a la atención médica.
Sus funciones varían, pero todas apuntan en la misma dirección: un mundo en el que los pacientes, los pagadores y los proveedores dependen cada vez más de la inteligencia sintético para acelerar ciertas operaciones críticas y democratizar el golpe a beneficios esencia. Aún es temprano para la atención médica impulsada por la IA, y la descuido de supervisión federal significa que hay muy poca responsabilidad si la tecnología actúa de maneras inesperadas y peligrosas. Pero los tres nuevos productos nos dan una idea de lo que probablemente se convertirá en la nueva normalidad.
Encima: Qué cambiarán las regulaciones de IA más estrictas del país en 2026, según expertos legales
A continuación se ofrece una descripción genérico de cada nueva aparejo, cómo funcionan y quién puede alcanzar a ellas actualmente.
ChatGPT para sanidad y Claude para atención médica
El 7 de enero, OpenAI presentó ChatGPT Health, una función adentro del chatbot que permite a los usuarios cargar registros médicos desde aplicaciones como Apple Health and Function y tomar asesoramiento médico personalizado.
en un publicación de blogOpenAI escribió que la nueva función de sanidad “fue desarrollada en estrecha colaboración con médicos de todo el mundo para proporcionar información de sanidad clara y útil”. Actualmente está siendo probado por un pequeño conjunto de primeros usuarios y estará adecuado de forma generalizada en la web y en iOS en las próximas semanas. de acuerdo a axios. Asimismo puedes registrarte a través de un directorio de calma para poder alcanzar.
Encima: 7 formas en las que la tecnología sanitaria promete mejorar tu vida en 2026
Cuatro días luego, Anthropic lanzó una función similar, Claude for Healthcare, que permite a los suscriptores de Pro y Max en EE. UU. cargar registros médicos personales a través de conectores integrados en aplicaciones de sanidad.
“Cuando está conectado, Claude puede resumir el historial médico de los usuarios, explicar los resultados de las pruebas en un lengua sencillo, detectar patrones en las métricas de sanidad y estado físico y preparar preguntas para las citas”, escribió Anthropic en su anuncio. “El objetivo es hacer que las conversaciones de los pacientes con los médicos sean más productivas y ayudar a los usuarios a mantenerse acertadamente informados sobre su sanidad”.
Claude for Healthcare asimismo ofrece conectores y habilidades para pagadores y proveedores. Los médicos, por ejemplo, pueden usarlo para acelerar el proceso, conocido como autorización previa, de consultar con una aseguradora para confirmar que un determinado tratamiento o medicamento estará cubierto por el plan de un paciente. Las organizaciones de atención médica pueden alcanzar a Claude for Healthcare ahora a través de Claude para la empresa y el Plataforma de desarrollador Claude.
Tanto OpenAI como Anthropic dijeron en sus anuncios que los datos de sanidad de los usuarios no se utilizarán para entrenar nuevos modelos y que las nuevas herramientas no pretenden servir como sustituto del tratamiento directo en persona. “La sanidad está diseñada para apoyar, no reemplazar, la atención médica”, escribió OpenAI en su blog.
Encima: 40 millones de personas en todo el mundo utilizan ChatGPT para atención médica, pero ¿es seguro?
ChatGPT Health y Claude for Healthcare son lo suficientemente similares como para ser considerados competidores directos en un momento en que la atención médica, en comparación con otras industrias, ha sido Adoptar rápidamente herramientas de IA..
Del flanco del usufructuario, un gran número de personas ha estado utilizando chatbots de IA populares como ChatGPT y Copilot de Microsoft para obtener asesoramiento sobre seguros médicos, si deberían preocuparse por un conjunto particular de síntomas y otros temas muy personales relacionados con la sanidad.
MedGemma 1.5
El 13 de enero, Google anunció el impulso de MedGemma 1.5el extremo de sus Tribu MedGemma de modelos de cimentación diseñado para ayudar a los desarrolladores a crear aplicaciones que puedan analizar textos e imágenes médicas.
Encima: ¿Utiliza Google AI Overview para obtener consejos de sanidad? Es “en realidad peligroso”, según una investigación
A diferencia de ChatGPT Health y Claude for Healthcare, MedGemma 1.5 no es una aparejo independiente orientada al consumidor; sin requisa, todavía puede encontrarse como parte de la carrera de la industria de la IA para robustecer su presencia en la industria de la sanidad.
MedGemma es un maniquí de libertado golpe adecuado a través de abrazando la cara y IA de vértice.
Preocupaciones
Como los desarrolladores admiten fácilmente, los chatbots de IA todavía son muy propensos a tener alucinaciones: inventan falsedades y las presentan como hechos. Obviamente, eso presenta serios riesgos cuando alguno conversa con ChatGPT o Claude sobre sus preocupaciones de sanidad personal, razón por la cual OpenAI y Anthropic han emitido advertencias de que sus nuevas funciones solo deben estar de moda como complemento, no como reemplazo, de los proveedores de atención médica reales.
La privacidad de los datos es otra preocupación global (y justificada) cuando se alcahuetería de compartir registros médicos personales con sistemas de inteligencia sintético. OpenAI y Anthropic parecen suceder anticipado esa preocupación; Ambas empresas enfatizan que sus nuevas funciones están diseñadas para maximizar la privacidad.
Encima: ¿Son las suscripciones a asesores de sanidad de IA una estafa? Mi veredicto tras probar el Fitbit durante un mes
Los usuarios de Claude for Healthcare, por ejemplo, pueden controlar qué datos de sanidad se comparten con el chatbot. Encima, la función para compartir está desactivada de forma predeterminada.
OpenAI agregó en su publicación de blog que, si acertadamente la nueva función de Lozanía en ChatGPT puede hacer relato a detalles relevantes de chats no relacionados con la sanidad, como un movimiento nuevo, las conversaciones relacionadas con la sanidad siempre permanecerán adentro de ese espacio dedicado. En otras palabras, el chatbot no podrá explotar esas conversaciones cuando estés discutiendo un tema no relacionado. Asimismo puedes ver y modificar los expresiones del chatbot adentro de la pestaña Lozanía o en la sección Personalización en Configuración.






