Tres aspectos destacados del taller de dos días de Apple en NLP

Hace unos meses, Apple organizó un evento de dos días que presentó conversaciones y publicaciones sobre los últimos avances en el procesamiento del jerga natural (PNL). Hoy, la compañía publicó una publicación con múltiples aspectos destacados, y todos los estudios presentados. Aquí está el sinopsis.

El Taller sobre jerga natural y sistemas interactivos 2025 Tuvo puesto del 15 al 16 de mayo, y las conversaciones y publicaciones se centraron en tres áreas esencia de investigación relacionadas con PNL:

  • Sistemas interactivos del jerga hablado
  • Entrenamiento y vinculación de LLM
  • Agentes del idioma

Durante el evento, múltiples investigadores de universidades, institutos, laboratorios y grupos de investigación, incluidos Allen Institute for AI, Imperial College of London, MIT, Harvard University, Stanford University y Princeton University, presentaron su final trabajo.

Algunos de estos investigadores todavía trabajan en la industria, en empresas como Microsoft, Amazon, Sony, Google, Tencent, Cohere y, por supuesto, Apple.

Aquí hay algunos aspectos destacados de las charlas, y un enlace a la letanía completa de videos y documentos presentados en el evento.

1) AI Model Collapse & Detecting alucinaciones LLM

Estos fueron dos estudios presentados por Yarin Gal, profesor asociado en la Universidad de Oxford, y el Director de Investigación del Instituto de Seguridad del Reino Unido.

El primero, el colapso del maniquí de IA exploró cómo hay un periferia para cuánto más tiempo la Web servirá como una fuente viable de datos para la capacitación de LLM, ya que el longevo uso de estos modelos conducirá a que se publique más contenido generado en modelos en camino.

Explicó que si admisiblemente el entrenamiento de LLM en tales datos sintéticos puede representar un aventura de colapso, ya que afectará su conocimiento y capacidades de razonamiento, esto se puede solucionar con el mejora de nuevas herramientas para distinguir entre contenido generado por IA y generado por humanos, así como mejores regulaciones y más estudios sobre cómo las LLM dan forma a la sociedad.

Su segundo estudio, detectando alucinaciones de LLM, propone un enfoque novedoso para identificar el nivel de confianza de la LLM, ya que genera diferentes partes de una respuesta. En pocas palabras, la idea es que el maniquí genere múltiples respuestas, y luego agrupe estas respuestas por significado semántico. Esto permitiría un cálculo más preciso del nivel de certeza y precisión de la respuesta, y es un entorno que puede adaptarse a conversaciones más largas.

2) Estudios de refuerzo para agentes LLM interactivos de Horizon Long-Horizon

Esta charla, presentada por el investigador de Apple Machine Learning Kevin Chen, mostró a un agente que su equipo entrenó en un método llamado Optimización o rizo proximal de Leave-One-Out.

El agente fue entrenado para realizar tareas de múltiples pasos, basadas en indicaciones como esta:

‘Hice un delirio con amigos a Maui recientemente. He mantenido una nota de caudal que le debo a otros y a los demás me deben del delirio en simple nota. Realice pagos o solicitudes privadas de Venmo en consecuencia. En los pagos/solicitudes, agregue una nota, “para el delirio Maui”.

Durante la primera fracción de la charla, Chen demostró que, legado que esta tarea involucraba múltiples marcos y dependencias de conocimiento, un agente podría no poder realizar con precisión lo que se ha solicitado. Pero con Loop, que aprende iterativamente de sus propias acciones pasadas y está entrenado para maximizar su remuneración como se observa, la solicitud se realizó con menos errores y supuestos.

Chen explica adicionalmente que el maniquí fue entrenado en 24 escenarios diferentes, pero tiene limitaciones, como no hospedar interacciones de becario múltiples.

3) transmisión especulativa: inferencia rápida de LLM sin modelos auxiliares

Esta charla, del regente y líder técnica de Apple Ingeniería, Irina Belosova, mostró los beneficios de la decodificación especulativa, que permite una forma computacionalmente más trueque de originar respuestas con un maniquí pequeño que son tan de incorporación calidad como los generados por modelos grandes.

En esencia, el maniquí pequeño genera secuencias candidatas de respuestas, que luego son ejecutadas por un maniquí egregio. Si el maniquí acepta la respuesta, su trabajo está hecho. Esto permite menos uso de la memoria, un rendimiento más rápido y requiere menos parámetros en comparación con modelos similares.

Encima, este enfoque “simplifica la implementación al eliminar la complejidad de la administración, la vinculación y el cambio entre múltiples modelos durante la inferencia”, lo que significa que requiere una infraestructura más simple.

Este estudio en particular ofrece muchos detalles técnicos que valen la pena. La presentación dura poco más de 8 minutos, pero ofrece ideas muy interesantes.

haga clic aquí Para ver los videos que Apple destacó y vea la letanía completa de estudios del evento.

Ofertas de accesorios en Amazon

Agregue 9to5mac como fuente preferida en Google
Agregue 9to5mac como fuente preferida en Google

FTC: Utilizamos ingresos que ganan enlaces de afiliados para automóviles. Más.

Related Posts

5 ajustes gratuitos que utilizo para proteger mis datos

Dependiendo de cómo lo haga, construir o comprar un NAS puede ser un pasatiempo costoso o una empresa rentable. Puede reutilizar una PC vieja y convertirla en un NAS, pero…

Deja de cerrar tus aplicaciones en segundo plano: en existencia estás haciendo que tu teléfono sea más moroso

Lo he estado diciendo durante primaveras: forzar el obstrucción manual de tus aplicaciones no ahorra acumulador ni acelera tu teléfono. De hecho, hace todo lo contrario. El consejo que mucha…

You Missed

5 ajustes gratuitos que utilizo para proteger mis datos

5 ajustes gratuitos que utilizo para proteger mis datos

Presentan aplicación “KnowMe RD” para transfigurar la experiencia del turista en República Dominicana

Presentan aplicación “KnowMe RD” para transfigurar la experiencia del turista en República Dominicana

el fin de una era de siete abriles de tensión

el fin de una era de siete abriles de tensión

¿Soñar con quienes hemos perdido? Entiende el significado detrás de estos sueños

¿Soñar con quienes hemos perdido? Entiende el significado detrás de estos sueños

Crisis en Medio Oriente activa monitoreo energético en República Dominicana

Crisis en Medio Oriente activa monitoreo energético en República Dominicana

Deja de cerrar tus aplicaciones en segundo plano: en existencia estás haciendo que tu teléfono sea más moroso

Deja de cerrar tus aplicaciones en segundo plano: en existencia estás haciendo que tu teléfono sea más moroso