Broadcom y una empresa emplazamiento CAMB.AI se están asociando para soportar la traducción de audio del dispositivo a un chipset. Esto permitiría a los dispositivos que utilizan el SoC completar tareas de traducción, doblaje y descripción de audio sin tener que apelar a la montón. En otras palabras, podría mejorar enormemente la accesibilidad para los consumidores.
Las empresas prometen una latencia ultrabaja y una privacidad mejorada, ya que todo el procesamiento se mantiene localmente en el dispositivo del heredero. El pancho de partida inalámbrico todavía debería reducirse drásticamente.
En cuanto a la dormitorio de descripción de audio, hay un vídeo de demostración del uso de la aparejo en un clip. de la película Ratatouille. Se puede escuchar a la IA describiendo la terreno en varios idiomas, encima de una traducción escrita que aparece en la pantalla. Esto parece increíblemente útil, especialmente para aquellos con problemas de visión.
Hay una advertencia importante. Este es un clip estrictamente controlado con muchas ediciones. No tenemos idea de cómo funcionará esta tecnología en un tablado del mundo positivo. Encima, no sabemos qué tan precisa será la información. Cuenta con un maniquí de voz que ya utilizan organizaciones como NASCAR, Comcast y Eurovisión.
Las empresas se jactan de que esto permitirá “la traducción en el dispositivo a más de 150 idiomas”. No sabemos cuándo comenzarán a aparecer estos chips en televisores y otros dispositivos. La tecnología está en escalón de prueba por ahora, así que pasará un tiempo. Broadcom todavía se asoció recientemente con OpenAI para ayudar a esta última empresa a imaginar sus propios chips.





