El Claude más nuevo maniquí de IA generativallamado Haiku 4.5, tiene la misma capacidad de codificación que el maniquí Sonnet 4 de la compañía en un paquete más pequeño y más rápido, dijo Anthropic en un comunicado de prensa el miércoles. El nuevo maniquí está arreglado para todos y será el predeterminado para los usuarios gratuitos en Claude.ai.
Anthropic dice que Haiku 4.5 es significativamente más rápido que Sonnet 4, pero a un tercio del costo. Al usar Claude para Chromeuna extensión que brinda a los usuarios de Chrome capacidades de inteligencia sintético en su navegador, Anthropic dijo que Haiku 4.5 es más rápido y mejor en tareas de agencia.
No se pierda nadie de nuestro contenido tecnológico imparcial y reseñas de laboratorio. Añadir CNET como fuente preferida de Google.
Correcto a que Haiku 4.5 es un maniquí pequeño, se puede implementar como subagente para Sonnet 4.5. Así, mientras Sonnet 4.5 planifica y organiza proyectos complejos, los pequeños subagentes de Haiku pueden finalizar otras tareas en segundo plano. Para tareas de codificación, Sonnet puede manejar el pensamiento de parada nivel mientras Haiku se ocupa de otras tareas como refactorizaciones y migraciones. Para el exploración financiero, Sonnet puede realizar modelos predictivos, mientras que Haiku monitorea los flujos de datos y rastrea los cambios regulatorios, las señales del mercado y los riesgos de la cartera. En el flanco de la investigación, Sonnet puede tocar exploración completos mientras Haiku revisa la humanidades, recopila datos y sintetiza documentos de múltiples fuentes.
La velocidad de Haiku todavía ayuda en el flanco del chatbot, manejando las solicitudes más rápido.
“Haiku 4.5 es la última lectura de nuestro maniquí más pequeño y está diseñado para todos los que desean la inteligencia superior, la confiabilidad y la asociación creativa de Claude en un paquete voluble”, dijo el CEO de Anthropic, Mike Krieger, en un comunicado proporcionado a CNET.
Donado el parada costo de entrenar e implementar modelos de IA, las empresas han estado buscando formas de implementar modelos más pequeños y eficientes que sigan siendo eficaces. Una consulta de IA consume mucha más energía que una búsqueda en Google, pero depende del tamaño del maniquí de IA. Un maniquí amplio con más de 405 mil millones de parámetros puede consumir 6.706 julios de energíasuficiente para hacer funcionar un microondas durante ocho segundos, según un documentación de MIT Technology Review. Sin confiscación, un maniquí pequeño, con ocho mil millones de parámetros, sólo puede consumir 114 julios de energía, lo que equivale a hacer funcionar un microondas durante una décima de segundo. Una búsqueda en Google puede utilizar 1.080 julios de energía.
Permitir que modelos más pequeños y eficientes asuman la carga de consultas más simples o tareas en segundo plano puede librarse significativamente en costos de servidor. ChatGPT-5, por ejemplo, puede moverse entre modelos, brindando respuestas instantáneas a preguntas más sencillas o aprovechando más potencia para consultas complejas. Las medidas de peculio de energía son necesarias ya que las empresas de IA deben poder recuperar el billones potenciales que se gastarán en inversiones en centros de datos.






