En las misiones actuales de la NASA, los riesgos médicos son manejables. Existe la oportunidad de evacuaciones de emergencia, comunicaciones en tiempo positivo y la capacidad de remitir muestras a la Tierra. Sin confiscación, las misiones futuras a holgado plazo, como ir a Marte, quitarán esa red de seguridad. No hay evacuaciones, no hay capacidad para obtener nuevos suministros, y no hay una modo ligera de comunicarse con la Tierra.
La NASA está investigando la idea de usar inteligencia fabricado (IA) para crear un “médico” para estas misiones. Parte de esta iniciativa incluye un asistente digital de Oficial Médico de Crew (CMO) para ayudar a orientar las decisiones, sugerir evaluaciones y advertir tratamientos. La tripulación incluso puede usar dispositivos que monitorean su salubridad física, con el asistente digital CMO utilizando los datos.
Esto plantea la cuestión de si esta es el llamado correcto a las misiones inherentemente peligrosas de Marte. La NASA se centra en nutrir a los humanos involucrados en todas las etapas, y las pruebas tempranas han sido prometedoras. Sin confiscación, la IA en la atención médica se ha cumplido con las preocupaciones, incluida la posibilidad de sesgos inherentes y riesgos de seguridad de datos, así como la errata de responsabilidad clara por las decisiones de IA.
Esquema de atención médica de IA de la NASA
La IA ciertamente no es nueva en la atención médica, e incluso hay un asistente de IA que puede proponer si está enfermo al mirar su idioma. Incluso con toda la tecnología emergente, la NASA enfatiza la penuria de que los humanos sigan involucrados. Este esquema funciona en conjunto con la División de Operaciones de Medicina Espacial. El propósito es que la IA proporcione recomendaciones para el oficial médico de la tripulación humana y los cirujanos de revoloteo de tierra humana. Preguntaría sobre los síntomas del paciente, representaría cualquier historial médico relevante y guiaría a los miembros de la tripulación en los exámenes físicos necesarios para un diagnosis adicional. Luego podría ofrecer sugerencias médicas.
La NASA ha establecido sus principios de IA confiables para orientar este esquema. Incluyen certificar que la IA no esté sesgada, que sea científicamente precisa, que debe proteger la privacidad del paciente y que no debe dañar a los humanos. La NASA creó su propio maniquí de estilo ilustre (LLM) a partir de modelos de código despejado que se ejecuta en los servicios de IA Vertex de Google Cloud para obtener estos objetivos del esquema.
La IA se mostró prometedora en las primeras pruebas de pacientes. Hubo una precisión del 74% en las evaluaciones del dolor de lado, una precisión del 80% en las evaluaciones del dolor del oreja y una precisión del 88% en las evaluaciones de lesiones en el tobillo. Hay más pruebas planificadas para el futuro, que abarcan la prueba de otros escenarios médicos, así como de imágenes médicas.
El uso de IA en aplicaciones médicas puede venir con riesgos
AI se ha integrado en todas las facetas de la medicina, y a las personas todavía les gusta usar ChatGPT para la atención médica a pesar de las advertencias. La NASA está al frente sobre los desafíos que enfrentan este esquema. Es costoso y moroso. Igualmente hay problemas de confianza con el uso de IA en común, y mucho menos para emergencias médicas potencialmente de vida o asesinato.
El Journal of Medical Internet Research (JMIR) publicó un artículo en noviembre de 2024 titulado “Beneficios y riesgos de IA en la atención médica“. Si perfectamente el estudio señaló la promesa que la IA tiene en la atención médica, incluso destacó los riesgos de los sesgos arraigados de la capacitación de la IA y el peligro de que los datos del paciente se vean comprometidos. Igualmente señaló el problema con la transparencia de la toma de decisiones. Para una delegación de la NASA Mars, si el asistente digital de la OCM recomienda poco que daña a un miembro de la tripulación, ¿quién sigue el consejo? Ai?
Ha habido un problema histórico en la medicina con ensayos clínicos, investigaciones y datos centrados en pacientes que son blancos y hombres, poniendo en peligro la salubridad de las mujeres y las minorías. Eso incluso plantea la preocupación de estos mismos datos e investigación que se integran en la IA. Podría conducir a un diagnosis incorrecto o un tratamiento inadecuado. Cuando estás en una delegación a Marte y no tienes otra ayuda de lo que se ha traído contigo, ese podría ser un peligro adicional que no quieras tomar.





