
Hace unos meses, Apple organizó un evento de dos días que presentó conversaciones y publicaciones sobre los últimos avances en el procesamiento del jerga natural (PNL). Hoy, la compañía publicó una publicación con múltiples aspectos destacados, y todos los estudios presentados. Aquí está el sinopsis.
El Taller sobre jerga natural y sistemas interactivos 2025 Tuvo puesto del 15 al 16 de mayo, y las conversaciones y publicaciones se centraron en tres áreas esencia de investigación relacionadas con PNL:
- Sistemas interactivos del jerga hablado
- Entrenamiento y vinculación de LLM
- Agentes del idioma
Durante el evento, múltiples investigadores de universidades, institutos, laboratorios y grupos de investigación, incluidos Allen Institute for AI, Imperial College of London, MIT, Harvard University, Stanford University y Princeton University, presentaron su final trabajo.
Algunos de estos investigadores todavía trabajan en la industria, en empresas como Microsoft, Amazon, Sony, Google, Tencent, Cohere y, por supuesto, Apple.
Aquí hay algunos aspectos destacados de las charlas, y un enlace a la letanía completa de videos y documentos presentados en el evento.
1) AI Model Collapse & Detecting alucinaciones LLM
Estos fueron dos estudios presentados por Yarin Gal, profesor asociado en la Universidad de Oxford, y el Director de Investigación del Instituto de Seguridad del Reino Unido.
El primero, el colapso del maniquí de IA exploró cómo hay un periferia para cuánto más tiempo la Web servirá como una fuente viable de datos para la capacitación de LLM, ya que el longevo uso de estos modelos conducirá a que se publique más contenido generado en modelos en camino.
Explicó que si admisiblemente el entrenamiento de LLM en tales datos sintéticos puede representar un aventura de colapso, ya que afectará su conocimiento y capacidades de razonamiento, esto se puede solucionar con el mejora de nuevas herramientas para distinguir entre contenido generado por IA y generado por humanos, así como mejores regulaciones y más estudios sobre cómo las LLM dan forma a la sociedad.
Su segundo estudio, detectando alucinaciones de LLM, propone un enfoque novedoso para identificar el nivel de confianza de la LLM, ya que genera diferentes partes de una respuesta. En pocas palabras, la idea es que el maniquí genere múltiples respuestas, y luego agrupe estas respuestas por significado semántico. Esto permitiría un cálculo más preciso del nivel de certeza y precisión de la respuesta, y es un entorno que puede adaptarse a conversaciones más largas.
2) Estudios de refuerzo para agentes LLM interactivos de Horizon Long-Horizon
Esta charla, presentada por el investigador de Apple Machine Learning Kevin Chen, mostró a un agente que su equipo entrenó en un método llamado Optimización o rizo proximal de Leave-One-Out.
El agente fue entrenado para realizar tareas de múltiples pasos, basadas en indicaciones como esta:
‘Hice un delirio con amigos a Maui recientemente. He mantenido una nota de caudal que le debo a otros y a los demás me deben del delirio en simple nota. Realice pagos o solicitudes privadas de Venmo en consecuencia. En los pagos/solicitudes, agregue una nota, “para el delirio Maui”.
Durante la primera fracción de la charla, Chen demostró que, legado que esta tarea involucraba múltiples marcos y dependencias de conocimiento, un agente podría no poder realizar con precisión lo que se ha solicitado. Pero con Loop, que aprende iterativamente de sus propias acciones pasadas y está entrenado para maximizar su remuneración como se observa, la solicitud se realizó con menos errores y supuestos.
Chen explica adicionalmente que el maniquí fue entrenado en 24 escenarios diferentes, pero tiene limitaciones, como no hospedar interacciones de becario múltiples.
3) transmisión especulativa: inferencia rápida de LLM sin modelos auxiliares
Esta charla, del regente y líder técnica de Apple Ingeniería, Irina Belosova, mostró los beneficios de la decodificación especulativa, que permite una forma computacionalmente más trueque de originar respuestas con un maniquí pequeño que son tan de incorporación calidad como los generados por modelos grandes.
En esencia, el maniquí pequeño genera secuencias candidatas de respuestas, que luego son ejecutadas por un maniquí egregio. Si el maniquí acepta la respuesta, su trabajo está hecho. Esto permite menos uso de la memoria, un rendimiento más rápido y requiere menos parámetros en comparación con modelos similares.
Encima, este enfoque “simplifica la implementación al eliminar la complejidad de la administración, la vinculación y el cambio entre múltiples modelos durante la inferencia”, lo que significa que requiere una infraestructura más simple.
Este estudio en particular ofrece muchos detalles técnicos que valen la pena. La presentación dura poco más de 8 minutos, pero ofrece ideas muy interesantes.
haga clic aquí Para ver los videos que Apple destacó y vea la letanía completa de estudios del evento.
Ofertas de accesorios en Amazon








