
Esta semana, Google presentó uno de los mayores rediseños a Android, que incluye un nuevo concepto salvaje para dar comandos de voz: solo hable normalmente, incluso si se comercio de una solicitud de varias capas que implica traducciones, mensajes de texto y emoji.
La programación Gemini AI, ya que se extiende a través de múltiples dispositivos de Android como teléfonos, relojes y sistemas de automóviles, promete resolver lo que creo que es uno de los mayores problemas ahora en el uso de asistentes de voz. Se nos ha obligado a platicar de una guisa particular y entrecortada, comenzando con la palabra de abstinencia correcta, usando la palabra esencia que desencadena el comando adecuado, teniendo cuidado de no ser demasiado informal. Estoy haciendo un delicado bailable de salada de palabras con Siri cada vez que trato de pedirle que toque una cierta letanía de reproducción de Apple Music. Y, sin incautación, incluso los comandos simples no siempre dan los resultados que desea.
Pero con AI, ¿podemos finalmente tener computadoras que lo obtengan nuestras solicitudes? Apple nos hizo estas promesas ayer, con un Siri infundido con IA que aún no se ha animado que se supone que debe dedicar más ayuda personal y igualmente profundizar en nuestros mensajes y correos electrónicos. Entonces, cuando veo que el equipo de Android nos dice que sucederá pronto en los dispositivos de Google, soy escéptico si esto verdaderamente puede funcionar como se anuncia.
En el episodio de esta semana de One More Thing, que puedes ver incrustado anteriormente, explico qué hace que el nuevo extensión de Gemini AI sea tan impresionante. Pero cuando los descargo de responsabilidad en pantalla advierten que los resultados pueden no ser precisos, ¿de qué utilidad es tener un asistente en el que no pueda creer?
Si estás buscando más Una cosa mássuscríbase a nuestra página de YouTube para atrapar a Bridget Carey desglosando las últimas telediario y problemas de Apple todos los viernes.