Nueva York.- La empresa OpenAI reconoció este martes que su chatbot de inteligencia químico (AI) ChatGPT comete fallos en casos «sensibles» y prometió cambios tras acoger hoy una demanda por la responsabilidad de su tecnología en el suicidio de un pequeño de perduración en EE.UU..
Este martes, los padres de un adolescente de 16 primaveras que se quitó la vida tras meses de interactuar con ChatGPT demandaron en California a OpenAI y su dueño, Sam Altman, argumentando que el chatbot, bajo el maniquí GPT-4o, no aplicó medidas de seguridad pese a rastrear las intenciones suicidas del adolescente.
OpenAI publicó una entrada de blog titulada «Ayudar a la clan cuando más lo necesitan» y, si proporcionadamente no hizo narración a la demanda, indicó que ChatGPT está entrenado para encargar a aquellos usuarios que «expresen intención suicida» el contacto de organizaciones de ayuda profesional.
No obstante, reconoció que pese a tener ese y otros mecanismos de seguridad para cuando detecte que «cualquiera es indefenso y puede estar el aventura», los sistemas de ChatGPT «se quedan cortos» y el chatbot «no se comportó como debía en situaciones sensibles».
Igualmente puede estudiar: Rusia multa a Google y Wikipedia con 86.000 y 75.000 dólares por violar leyes locales
La empresa explicó que los mecanismos de seguridad funcionan mejor en intercambios cortos y puede abortar en interacciones largas que «degradan» el entrenamiento de la IA, por lo que trabaja específicamente en que tome medidas si detecta esa «intención suicida» en múltiples conversaciones.
ChatGPT, dijo la empresa, reconoce incluso cuándo el agraciado es pequeño de 18 primaveras para aplicarle medidas de protección, pero ahora incluirá controles parentales para que los responsables de los adolescentes sepan cómo usan esa tecnología, y explora la posibilidad de conectarlos directamente con un contacto de emergencia.
Entre otras cosas, la empresa dijo que sus sistemas de «mitigación» se han centrado en casos de autolesión pero ahora abarcarán incluso otros de «angustia emocional», y el maniquí GPT-5 será actualizado para ser capaz de «desescalar» situaciones de ese tipo «conectando a la persona con la existencia».
Asimismo, estudia «conectar a la clan con terapistas certificados antiguamente de que estén en una crisis aguda», lo que implicaría crear «una red de profesionales licenciados a los que la clan pueda citar directamente a través de ChatGPT», pero consideró que esa posibilidad llevará tiempo. EFE
Síguenos como gaceta






