En la estampación de este viernes del software Despierta con CDNel psiquiatra José Miguel Gómez lanzó una advertencia urgente sobre el uso indiscriminado de herramientas de inteligencia industrial como ChatGPT para tomar decisiones personales y de salubridad mental.
El diestro abordó un aberración creciente en República Dominicana y el mundo: personas que consultan a modelos de jerga como ChatGPT o Gemini para resolver conflictos emocionales, familiares o incluso fijar propósitos de vida.
Riesgos detectados
El doctor explicó que ya hay pacientes que llegan a consulta diciendo: “ChatGPT me dijo que tengo depresión”. Algunos incluso han tomado decisiones trascendentales —como terminar una relación o mudarse de casa— basándose exclusivamente en recomendaciones de IA.

“La inteligencia industrial no tiene historia clínica, no maneja jerga no verbal, no tiene empatía emocional ni experiencia terapéutica”, advirtió el diestro.
Encima, señaló que ChatGPT no puede identificar comorbilidades médicas que podrían estar detrás de síntomas psicológicos, como problemas tiroideos o neurológicos.
Otro peligro mencionado fue la pérdida de habilidades cognitivas esenciales. El uso constante de IA para resolver conflictos puede debilitar la capacidad de prospección, consejo y conexión emocional con otros seres humanos. Llamado a la movimiento
El Dr. Gómez instó a no sustituir a los profesionales de la salubridad mental. “Los psiquiatras y psicólogos clínicos tienen formación universitaria, experiencia clínica y capacidad para ofrecer tratamientos personalizados que ninguna IA puede replicar”, enfatizó.
En República Dominicana, más del 20% de la población presenta algún tipo de trastorno mental que requiere atención especializada. En este contexto, el uso valeverguista de IA puede agravar el problema si no se acompaña de orientación profesional.





