
Google ha estado promocionando su tesina Astra como la próxima gestación de IA durante meses. Eso estableció algunas altas expectativas cuando 60 minutos Envió a Scott Pelley para ensayar con las herramientas Astra Project proporcionadas por Google Deepmind.
Estaba impresionado con cómo articulada, observante y perspicaz que la IA resultó ser a lo dilatado de sus pruebas, particularmente cuando la IA no solo reconoció la pintura malhumorada de Edward Hopper “Automat”, sino que igualmente leyó el lengua corporal de la mujer y giró una viñeta ficticia sobre su vida.
Todo esto a través de un par de antiparras inteligentes que escasamente parecían diferentes de un par sin IA incorporado. Las antiparras sirven como un sistema de entrega para una IA que ve, audición y puede entender el mundo que lo rodea. Eso podría preparar el escena para una nueva carrera de dispositivos portátiles inteligentes, pero esa es solo una de las muchas cosas que aprendimos durante el segmento sobre los planes del Esquema Astra y Google para la IA.

Entendimiento de Astra
Por supuesto, tenemos que comenzar con lo que ahora sabemos sobre Astra. En primer puesto, el asistente de IA procesa continuamente videos y audio de cámaras y micrófonos conectados en sus alrededores. La IA no solo identifica objetos o transcribe texto; Asimismo pretende detectar y explicar el tono emocional, inferir el contexto y continuar con una conversación sobre el tema, incluso cuando te detenías para pensar o balbucir con otra persona.
Durante la demostración, Pelley le preguntó a Astra qué estaba mirando. Identificó instantáneamente el carbón Drops Yard, un enredado minorista en King’s Cross, y ofreció información de fondo sin perder un ritmo. Cuando se le mostró una pintura, no se detuvo en “Esa es una mujer en un café”. Dijo que parecía “contemplativa”. Y cuando se empujaba, le dio un nombre y una historia de fondo.
Según el CEO de Deepmind, Demis Hassabis, la comprensión del mundo positivo del asistente está avanzando aún más rápido de lo que esperaba, señalando que es mejor dar sentido al mundo físico de lo que los ingenieros pensaron que sería en esta etapa.
Veo 2 views
Pero Astra no es solo observar pasivamente. DeepMind igualmente ha estado ocupado enseñando a la IA cómo crear imágenes y videos fotorrealistas. Los ingenieros describieron cómo hace dos abriles, sus modelos de video lucharon con la comprensión de que las piernas están unidas a los perros. Ahora, exhibieron cómo Veo 2 puede conjurar un perro volátil con alas aletas.
Las implicaciones para la narración visual, el cine, la publicidad y sí, las antiparras de existencia aumentada, son profundas. Imagine sus antiparras no solo diciéndole qué edificio está viendo, sino igualmente visualizando cómo parecía hace un siglo, en suscripción definición e integrada sin problemas en la presencia presente.
Talento 2
Y luego está Genie 2, el nuevo sistema de modelado mundial de Deepmind. Si Astra entiende el mundo tal como existe, Genie construye mundos que no. Se necesita una imagen fija y la convierte en un entorno explorable visible a través de las antiparras inteligentes.
Camina alrededor de delante, y Genie inventa lo que se encuentra a la dorso de la ángulo. Gire a la izquierda y poca las paredes invisibles. Durante la demostración, una foto de cascada se convirtió en un nivel de videojuego jugable, generado dinámicamente como exploró Pelley.
DeepMind ya está utilizando espacios generados por Genie para entrenar a otros AIS. Genie puede ayudar a esto a navegar un mundo hecho por otra IA, y en tiempo positivo igualmente. Un sistema sueña, otro aprende. Ese tipo de caracolillo de simulación tiene enormes implicaciones para la robótica.
En el mundo positivo, los robots tienen que agitar su camino a través de la prueba y el error. Pero en un mundo sintético, pueden entrenar sin cesar sin romper muebles o arriesgar demandas.
Luceros astras
Google está tratando de poner la percepción de estilo Astra en sus manos (o en la cara) lo más rápido posible, incluso si eso significa regalarla.
Solo unas semanas posteriormente de propalar las características de cámara y cámara en vivo de Gemini como un beneficio premium, revirtieron el curso y lo hicieron de balde para todos los usuarios de Android. Ese no fue un acto accidental de esplendidez. Al hacer que la anciano cantidad de personas sea posible para señalar sus cámaras en el mundo y charlar con Gemini, Google recibe una avalancha de datos de capacitación y comentarios de los usuarios en tiempo positivo.
Ya hay un pequeño liga de personas que usan anteojos astras en el mundo. Según los informes, el hardware utiliza pantallas micro-LED para proyectar subtítulos en un ojo y ofrece audio a través de pequeños altavoces direccionales cerca de las sienes. En comparación con la incómoda visera de ciencia ficción del vidrio diferente, esto se siente como un paso delante.
Claro, hay problemas con la privacidad, la latencia, la duración de la cacharros y la cuestión no tan pequeña de si la sociedad está índice para las personas que caminan con antiparras semi-otiscientes sin burlarse sin piedad.
Si Google puede o no hacer que esa mágica se sienta ética, no invasiva y lo suficientemente elegante como para que la corriente principal todavía esté en el clima. Pero esa sensación de 2025 a medida que las antiparras inteligentes del año se convierten en la corriente principal parece más precisa que nunca.