Los metainvestigadores abren la caja negra del LLM para reparar el razonamiento defectuoso de la IA

Investigadores de Meta FAIR y la Universidad de Edimburgo han desarrollado una nueva técnica que puede predecir la exactitud del razonamiento de un maniquí de jerga egregio (LLM) e incluso…

La plataforma de codificación Vibe Cursor alabarda el primer LLM interno, Composer, que promete un aumento de velocidad 4 veces veterano

La utensilio de codificación vibe Cursor, desde el inicio Cualquier esferatiene Compositor introducidosu primer maniquí de jerga ancho (LLM) de codificación patentado interno como parte de su Aggiornamento de la…

Adefesio de Microsoft aumenta los riesgos de las relaciones parasociales LLM

Si aceptablemente los medios de comunicación como la radiodifusión, el cine y la televisión pueden avituallar las relaciones parasociales, las revoluciones de Internet y los teléfonos inteligentes han potenciado las…

¿Eres el idiota? ¡Por supuesto que no! Cuantificando el problema de adulación de los LLM

Tasas de adulación medidas en el punto de remisión BrokenMath. Más bajo es mejor. Tasas de adulación medidas en el punto de remisión BrokenMath. Más bajo es mejor. Crédito: Petrov…

Los investigadores muestran que entrenar con “datos basura” puede provocar una “podredumbre cerebral” en el LLM

A primera olfato, parece obvio que entrenar un LLM con datos de “entrada calidad” conducirá a un mejor rendimiento que alimentarlo con cualquier basura vieja de “herido calidad” que pueda…

El cofundador de OpenAI crea un nuevo LLM de código libre ‘Nanochat’ y no utiliza Vibe Coding

Un leyente incógnito compartió este crónica de Gizmodo: Ha pasado más de un año desde que el cofundador de OpenAI, Andrej Karpathy salió de la empresa. Desde que se fue,…

Los investigadores de Nvidia mejoran las habilidades de razonamiento de los LLM haciéndoles “pensar” durante la formación previa

Investigadores de Nvidia han desarrollado una nueva técnica que invierte el argumento sobre cómo los modelos de lengua grandes (LLM) aprenden a razonar. El método, llamado preentrenamiento de formación por…

Viga Reasoning 3B de AI21 redefine lo que significa “pequeño” en los LLM: contexto de 250 000 en una computadora portátil

La última incorporación a la ola de modelos pequeños para empresas proviene de Ai21 buenoque postura a que resistir modelos a los dispositivos liberará tráfico en los centros de datos.…

El primer producto oficial de Thinking Machines está aquí: Conozca Tinker, una API para el ajuste de fino distribuido LLM

Thinking Machines, la startup de IA fundada a principios de este año por el ex CTO de Operai Mira Murati, tiene lanzó su primer producto: Cañíuna API basada en Python…

Apple Testing LLM Siri con la aplicación tipo chatgpt

Apple diseñó una aplicación similar a ChatGPT para ayudar a sus ingenieros a probar la traducción revisada de Siri, informa Bloomberg. Desafortunadamente, la aplicación ‌Siri‌ no se lanzará al divulgado,…