
Operai pronto puede requerir que las organizaciones completen un proceso de comprobación de identificación para obtener a ciertos modelos de IA futuros, Según una página de soporte Publicado en el sitio web de la compañía la semana pasada.
El proceso de comprobación, llamado estructura verificada, es “una nueva forma para que los desarrolladores desbloqueen el paso a los modelos y capacidades más avanzados en la plataforma Operai”, dice la página. La comprobación requiere una identificación emitida por el gobierno de uno de los países respaldados por la API de Operai. Una identificación solo puede demostrar una estructura cada 90 días, y no todas las organizaciones serán elegibles para la comprobación, dice OpenAI.
“En Openai, asumimos nuestra responsabilidad en serio de asegurarnos de que AI sea ampliamente accesible y se usa de modo segura”, dice la página. “Desafortunadamente, una pequeña minoría de desarrolladores usa intencionalmente las API de OpenAI en violación de nuestras políticas de uso. Estamos agregando el proceso de comprobación para mitigar el uso inseguro de la IA mientras continuamos haciendo que los modelos avanzados estén disponibles para la comunidad de desarrolladores más amplio”.
Operai lanzó un nuevo estado de estructura verificado como una nueva forma para que los desarrolladores desbloqueen el paso a los modelos y capacidades más avanzados en la plataforma, y esté inteligente para la “próxima lectura emocionante del maniquí”
– La comprobación lleva unos minutos y requiere una … pic.twitter.com/zwzs1oj8ve
– Tibor Blaho (@btibor91) 12 de abril de 2025
El nuevo proceso de comprobación podría tener la intención de acrecentar la seguridad en torno a los productos de OpenAi a medida que se vuelven más sofisticados y capaces. La empresa tiene Publicado varios informes Sobre sus esfuerzos por detectar y mitigar el uso zorro de sus modelos, incluso por grupos supuestamente con sede en Corea del Meta.
Asimismo puede estar dirigido a evitar el robo de IP. Según un mensaje de Bloomberg a principios de este año, Operai estaba investigando si Un especie vinculado con Deepseek, el laboratorio de IA con sede en China, exfiltró grandes cantidades de datos a través de su API a fines de 2024, posiblemente por modelos de entrenamiento, una violación de los términos de OpenAi.
Opadai paso bloqueado a sus servicios en China el verano pasado.