En una manifiesto recientemente publicada presentada en el caso de Elon Musk contra OpenAI, el ejecutante tecnológico atacó el historial de seguridad de OpenAI, afirmando que su empresa, xAI, prioriza mejor la seguridad. Llegó incluso a afirmar que “nadie se ha suicidado por pecado de Grok, pero aparentemente sí por ChatGPT”.
El comentario surgió en una tendencia de preguntas sobre una carta pública que Musk firmó en marzo de 2023. En ella, pedía a los laboratorios de IA que suspendieran el incremento de sistemas de IA más potentes que GPT-4, el maniquí insignia de OpenAI en ese momento, durante al menos seis meses. La carta, que fue firmada por más de 1.100 personas, incluidos muchos expertos en inteligencia industrial, afirmaba que no se estaba llevando a angla suficiente planificación y papeleo en los laboratorios de inteligencia industrial, ya que estaban atrapados en una “carrera fuera de control para desarrollar y desplegar mentes digitales cada vez más poderosas que nadie, ni siquiera sus creadores, puede comprender, predecir o controlar de modo confiable”.
Desde entonces, esos temores han vacada credibilidad. OpenAI ahora enfrenta un serie de demandas alegando que las tácticas de conversación manipuladoras de ChatGPT han llevado a varias personas a examinar posesiones negativos en la lozanía mental, y algunas han muerto por suicidio. El comentario de Musk sugiere que estos incidentes podrían estar de moda como material en su caso contra OpenAI.
La transcripción del afirmación en video de Musk, que tuvo motivo en septiembre, se presentó públicamente esta semana, ayer del esperado madurez con junta el próximo mes.
La demanda contra OpenAI se centra en el cambio de la empresa de un laboratorio de investigación de IA sin fines de provecho a una empresa con fines de provecho, que según Musk violó sus acuerdos fundacionales. Como parte de sus argumentos, Musk afirma que la seguridad de la IA podría hallarse comprometida por las relaciones comerciales de OpenAI, ya que dichas relaciones colocarían la velocidad, la escalera y los ingresos por encima de las preocupaciones de seguridad.
Sin bloqueo, desde esa impresión, xAI ha enfrentado sus propios problemas de seguridad. El mes pasado, la red social X de Musk se vio inundada de imágenes de desnudos no consentidos generadas por Grok de xAI, algunas de las cuales se decía que eran de menores. Esto llevó a la oficina del Fiscal Genérico de California a rasgar una investigación en el asunto. La UE asimismo está llevando a angla su propia investigacióny otros gobiernos asimismo han tomado medidas, imponiendo algunos bloqueos y prohibiciones.
En la manifiesto recién presentada, Musk afirmó que había firmado la carta de seguridad de la IA porque “parecía una buena idea”, no porque acabara de constituir una empresa de IA que buscaba competir con OpenAI.
“Lo firmé, como lo hizo mucha multitud, para pedir cautela con el incremento de la IA”, dijo Musk. “Solo quería… que se priorizara la seguridad de la IA”.

Musk asimismo respondió a otras preguntas en la manifiesto, incluidas aquellas sobre la inteligencia industrial caudillo, o AGI (el concepto de IA que puede igualar o pasar el razonamiento humano en una amplia viso de tareas), diciendo que “tiene un aventura”. Además confirmó que “se equivocó” acerca de su supuesta donación de 100 millones de dólares a OpenAI; el segunda denuncia enmendada en el caso sitúa la monograma actual más cerca de 44,8 millones de dólares.
Además recordó por qué se fundó OpenAI, que, desde su perspectiva, se debió a que estaba “cada vez más preocupado por el peligro de que Google fuera un monopolio en la IA”, y añadió que sus conversaciones con el cofundador de Google, Larry Page, fueron “alarmantes, en el sentido de que no parecía estar tomando en serio la seguridad de la IA”. OpenAI se formó como contrapeso a esa amenaza, afirmó Musk.






