OpenAI dice que el comportamiento de ChatGPT “permanece sin cambios” posteriormente de que informes en las redes sociales afirmaran falsamente que las nuevas actualizaciones de su política de uso impiden que el chatbot ofrezca asesoramiento lícito y médico. Karan Singhal, cabecilla de IA sanitaria de OpenAI, escribe en x que las afirmaciones “no son ciertas”.
“ChatGPT nunca ha sido un sustituto del asesoramiento profesional, pero seguirá siendo un gran procedimiento para ayudar a las personas a comprender la información lícito y de sanidad”, dice Singhal, respondiendo a una publicación ahora eliminada de la plataforma de apuestas Kalshi que decía “JUST IN: ChatGPT ya no brindará asesoramiento lícito o de sanidad”.
Según Singhal, la inclusión de políticas relacionadas con el asesoramiento médico y lícito “no es un cambio nuevo en nuestros términos”.
La nueva puesta al día de la política. el 29 de octubre tiene una relación de cosas para las que no puedes usar ChatGPT, y una de ellas es “aplaudir asesoramiento personalizado que requiere una abuso, como asesoramiento lícito o médico, sin la décimo adecuada de un profesional facultado”.
Eso sigue siendo similar al de OpenAI. uso inicial de ChatGPT política, que decía que los usuarios no deberían realizar actividades que “puedan perjudicar significativamente la seguridad, el bienestar o los derechos de otros”, incluido “aplaudir asesoramiento lícito, médico/de sanidad o financiero personalizado sin la revisión de un profesional calificado y la divulgación del uso de la concurso de IA y sus posibles limitaciones”.
OpenAI tenía anteriormente tres políticas separadas, incluida una “universal”, así como otras para el uso de ChatGPT y API. Con la nueva puesta al día, la compañía tiene una relación unificada de reglas que, según su registro de cambios, “reflejan un conjunto universal de políticas en todos los productos y servicios de OpenAI”, pero las reglas siguen siendo las mismas.





