
“La Corte no pasa por parada el importante papel de los conjuntos de datos en el entrenamiento y avance de la IA y que, hipotéticamente, los conjuntos de datos y los detalles sobre ellos podrían ser secretos comerciales”, escribió Bernal. Pero xAI “no ha alegado que en realidad utilice conjuntos de datos que sean únicos, que tenga conjuntos de datos significativamente más grandes o más pequeños que los de sus competidores, o que limpie sus conjuntos de datos de maneras únicas”.
Por lo tanto, no es probable que xAI tenga éxito en cuanto al fondo de su incentivo de la Finca Resarcimiento.
Lo mismo ocurre con los argumentos de la Primera Resarcimiento. xAI no pudo demostrar que la ley “obligue indebidamente a los desarrolladores a revelar públicamente sus fuentes de datos en un intento de identificar lo que California considera ‘datos plagados de sesgos implícitos y explícitos'”, escribió Bernal.
Para xAI, parecía que el estado estaba tratando de usar la ley para influir en los resultados de su chatbot Grok, argumentó la compañía, que debería ser un discurso comercial protegido.
Durante el año pasado, Grok ha atraído cada vez más el indagación notorio mundial por sus peroratas antisemitas y por ocasionar imágenes íntimas no consensuadas (NCII) y materiales de extralimitación sexual inmaduro (CSAM). Pero a pesar de estos escándalos, que provocaron una sonda de californiaBernal contradijo a xAI y dijo que California no parecía estar tratando de regular resultados controvertidos o sesgados, como temía xAI.
“Nadie en el idioma del estatuto sugiere que California esté intentando influir en los resultados de los modelos del demandante exigiendo la divulgación del conjunto de datos”, escribió Bernal.
Al encarar otras preocupaciones sobre el discurso de xAI, señaló que “el estatuto no exige funcionalmente al demandante que comparta sus opiniones sobre el papel de ciertos conjuntos de datos en el avance del maniquí de IA ni que haga declaraciones ideológicas sobre la utilidad de varios conjuntos de datos o métodos de desinterés”.
“Ninguna parte del estatuto indica ningún plan para regular o censurar modelos basados en los conjuntos de datos con los que se desarrollan y entrenan”, escribió Bernal.
Al notorio “no es posible” que le importen los datos de entrenamiento de IA
Quizás lo más frustrante para xAI, que continúa luchando para estrechar la ley, es que Bernal todavía cuestionó que el notorio no tuviera interés en la divulgación de datos de entrenamiento.






