
La presentación de OpenAI se produjo un día a posteriori de una Investigación del New York Times reveló cómo la empresa de inteligencia químico llegó a estar involucrada en tantas demandas. Hablando con más de 40 empleados actuales y anteriores de OpenAI, incluidos ejecutivos, ingenieros de seguridad e investigadores, el NYT descubrió que el ajuste del maniquí de OpenAI que hizo que ChatGPT fuera más despreciable parecía hacer que el chatbot fuera más propenso a ayudar a los usuarios a elaborar mensajes problemáticos, incluidos aquellos que intentaban “planear un suicidio”.
Finalmente, OpenAI revirtió esa puesta al día, haciendo que el chatbot sea más seguro. Sin incautación, en octubre, el creador de ChatGPT parecía seguir priorizando la billete del heredero sobre la seguridad, informó el NYT, a posteriori de que ese ajuste provocara una caída en la billete. En un memorando al personal de OpenAI, el director de ChatGPT, Nick Turley, “declaró un ‘Código Naranja”, dijeron cuatro empleados al NYT, advirtiendo que “OpenAI se enfrentaba a ‘la decano presión competitiva que nones hayamos pasado'”. En respuesta, Turley se fijó el objetivo de aumentar el número de usuarios activos diarios en un 5 por ciento para finales de 2025.
En medio de las quejas de los usuarios, OpenAI ha actualizado continuamente sus modelos, pero ese patrón de acrecentar las salvaguardias y luego agenciárselas formas de aumentar la billete podría seguir metiendo a OpenAI en problemas, a medida que avanzan las demandas y posiblemente otras disminuyan. El NYT “descubrió casi 50 casos de personas que sufrieron crisis de salubridad mental durante conversaciones con ChatGPT”, incluidos nueve hospitalizados y tres muertes.
Gretchen Krueger, una ex empleada de OpenAI que trabajó en investigación de políticas, le dijo al NYT que desde el principio se alarmó por la evidencia que llegó ayer del divulgación de ChatGPT que mostraba que los usuarios vulnerables con frecuencia recurren a los chatbots en investigación de ayuda. Más tarde, otros investigadores descubrieron que estos usuarios con problemas a menudo se convierten en “usuarios avanzados”. Señaló que “el maniquí de verbo excelso de OpenAI no estaba capacitado para congratular terapia” y “a veces respondía con orientación inquietante y detallada”, confirmando que se unió a otros expertos en seguridad que abandonaron OpenAI oportuno al agotamiento en 2024.
“Entrenar chatbots para interactuar con las personas y hacer que regresen presentaba riesgos”, dijo Krueger, sugiriendo que OpenAI sabía que algunos daños a los usuarios “no sólo eran previsibles, sino que estaban previstos”.
Para OpenAI, el cómputo probablemente continuará hasta que cesen esos informes. Aunque OpenAI presentó oficialmente un Consejo de Expertos en Bienestar e IA en octubre para mejorar las pruebas de seguridad de ChatGPT, no parecía acaecer ningún experimentado en suicidio incluido en el equipo. Esto probablemente preocupó a los expertos en prevención del suicidio que advirtieron en un carta actualizado en septiembre que “las intervenciones comprobadas deberían informar directamente el diseño de seguridad de la IA”, ya que “las crisis más agudas y potencialmente mortales suelen ser temporales, por lo militar se resuelven en un plazo de 24 a 48 horas”, y los chatbots posiblemente podrían proporcionar intervenciones más significativas en ese breve período.
Si usted o alguno que conoce tiene tendencias suicidas o está angustiado, llame al número de la Bisectriz de vida para la prevención del suicidio, 1-800-273-TALK (8255), que lo pondrá en contacto con un centro de crisis recinto.






