ChatGPT Health te permite conectar registros médicos a una IA que inventa cosas

ChatGPT Health te permite conectar registros médicos a una IA que inventa cosas

Pero a pesar de que OpenAI palabra de apoyar objetivos de salubridad, los términos de servicio de la compañía directamente estado que ChatGPT y otros servicios de OpenAI “no están destinados a ser utilizados en el dictamen o tratamiento de ninguna condición de salubridad”.

Parece que la política no está cambiando con ChatGPT Health. OpenAI escribe en su anuncio: “La salubridad está diseñada para apoyar, no reemplazar, la atención médica. No está destinada al dictamen o tratamiento. En cambio, le ayuda a navegar las preguntas cotidianas y comprender patrones a lo espléndido del tiempo, no solo momentos de enfermedad, para que pueda sentirse más informado y preparado para conversaciones médicas importantes”.

Un relato con moraleja

El noticia de SFGate sobre la crimen de Sam Nelson ilustra por qué es importante persistir esa exención de responsabilidad legalmente. Según los registros de chat revisados ​​por la publicación, Nelson preguntó por primera vez a ChatGPT sobre la dosificación de drogas recreativas en noviembre de 2023. El asistente de IA inicialmente se negó y lo remitió a profesionales de la salubridad. Pero posteriormente de 18 meses de conversaciones, las respuestas de ChatGPT supuestamente cambiaron. Al final, el chatbot le dijo cosas como “Diablos, sí, pongámonos en modo sensacional” y le recomendó que duplicara su consumo de medicamento para la tos. Su origen lo encontró muerto por una sobredosis al día próximo de comenzar el tratamiento por suma.

Si acertadamente el caso de Nelson no implicó el exploración de instrucciones de atención médica aprobadas por un médico como el tipo que vinculará ChatGPT Health Hasta ahora, su caso no es único, ya que muchas personas han sido engañadas por chatbots que brindan información inexacta o alientan comportamiento peligroso, como hemos cubierto en el pasado.

Esto se debe a que los modelos de estilo de IA pueden confabularse fácilmente, generando información plausible pero falsa de una guisa que dificulta a algunos usuarios distinguir la sinceridad de la ficción. Los modelos de IA que servicios como ChatGPT utilizan relaciones estadísticas en los datos de entrenamiento (como el texto de libros, transcripciones de YouTube y sitios web) para producir respuestas plausibles en punto de respuestas necesariamente precisas. Encima, los resultados de ChatGPT pueden variar ampliamente dependiendo de quién esté usando el chatbot y de lo que haya sucedido previamente en el historial de chat del sucesor (incluidas las notas sobre chats anteriores).

Related Posts

La próxima tableta reMarkable podría ser más baratura

Kaitlyn Cimino / Autoridad de Android TL;DR Una nueva filtración revela que la próxima tableta de reMarkable se llamará Paper Pure y se dirigirá a un sabido más amplio. Se…

La aplicación Gemini facilita el inicio de los ‘chats temporales’

A posteriori de su presentación en agosto pasado, Google podría hacer que la función de chat temporal de la aplicación Gemini sea mucho más prominente. Por el momento, inicia un…

You Missed

Buscan regular uso medios digitales en Honestidad

Buscan regular uso medios digitales en Honestidad

“No permitan que nadie defina su color”

“No permitan que nadie defina su color”

Jochy Santos, el Gran Soberano 2026

Jochy Santos, el Gran Soberano 2026

La próxima tableta reMarkable podría ser más baratura

La próxima tableta reMarkable podría ser más baratura

INEFI inaugura oficina regional en San Pedro de Macorís y fortalece el deporte escolar en la región Este

INEFI inaugura oficina regional en San Pedro de Macorís y fortalece el deporte escolar en la región Este

La aplicación Gemini facilita el inicio de los ‘chats temporales’

La aplicación Gemini facilita el inicio de los ‘chats temporales’