OpenAI ha reorganizado sus equipos a nivel interno para mejorar los modelos de audio de cara al extensión de un nuevo dispositivo personal sin pantalla, con el que pretende centrar la interacción con la IA mediante la voz.
La firma tecnológica ha dedicado los últimos dos meses a hacer cambios a nivel interno con el objetivo de impulsar sus modelos de audio, para lo que ha unificado equipos de ingeniería, producto e investigación.
Este movimiento pretende modernizar sus modelos de audio para habilite una interacción natural entre la inteligencia industrial y las personas, con capacidad para ejecutar las interrupciones y dialogar mientras se acento, según informa The Information.
Se demora que OpenAI presente un nuevo maniquí de audio a principios de 2026, pero los trabajos estarían dirigidos a una nueva comunidad dispositivos sin pantalla que actuarían como compañeros de los usuarios.
OpenAI ya ha anunciado con prioridad su intención de crear un dispositivo diferente del ‘smartphone’ que hará todo por el heredero mediante la interacción con la voz, y que desarrolla cercano con Jonathan Ive, antiguo responsable de Diseño en Apple y cofundador de io, empresa que adquirió el año pasado.
El director ejecutante de OpenAI, Sam Altman, explicó que esperan construir un dispositivo que por otra parte de hacer cosas por los usuarios, sea contextualmente consciente de cuándo debería molestarlos y cuándo debería presentarles información o solicitar su opinión o no.






