Buscando el mensaje del sistema
Correcto a los contenidos desconocidos de los datos utilizados para entrenar a Grok 4 y los nociones aleatorios arrojados a las futuro del maniquí de lengua magnate (LLM) para que parezcan más expresivos, adivinando las razones del comportamiento de LLM particular para cualquiera sin paso interno puede ser frustrante. Pero podemos usar lo que sabemos sobre cómo funcionan los LLM para conducir una mejor respuesta. XAI no respondió a una solicitud de comentarios ayer de la publicación.
Para difundir texto, cada chatbot AI procesa una entrada emplazamiento “aviso” y produce una salida plausible basada en ese aviso. Esta es la función central de cada LLM. En la actos, el aviso a menudo contiene información de varias fuentes, incluidos los comentarios del beneficiario, el historial de chat en curso (a veces inyectado con “saludos” del beneficiario almacenados en un subsistema diferente) e instrucciones especiales de las empresas que ejecutan el chatbot. Estas instrucciones especiales, llamadas el indicador del sistema, definen en particular la “personalidad” y el comportamiento del chatbot.
Según Willison, Grok 4 comparte fácilmente su indicador de su sistema cuando se le pregunta, y ese aviso, según los informes, no contiene instrucciones explícitas para despabilarse las opiniones de Musk. Sin retención, el rápido establece que Grok debería “despabilarse una distribución de fuentes que represente a todas las partes/partes interesadas” para consultas controvertidas y “no rehuir hacer afirmaciones que son políticamente incorrectas, siempre que estén aceptablemente justificadas”.
Una captura de captura de pantalla de la conversación archivada de Simon Willison con Grok 4. Muestra el maniquí AI que examen las opiniones de Musk sobre Israel e incluye una índice de X publicaciones consultadas, vistas en una mostrador adyacente.
Crédito: Benj Edwards
En última instancia, Willison cree que la causa de este comportamiento se reduce a una condena de inferencias por parte de Grok en circunscripción de una mención explícita de comprobar el almizcle en su mensaje del sistema. “Mi mejor suposición es que Grok ‘sabe’ que es ‘Grok 4 construido por Xai’, y sabe que Elon Musk posee Xai, por lo que en circunstancias en las que se le pide una opinión, el proceso de razonamiento a menudo decide ver lo que Elon piensa”, dijo.
Sin la palabra oficial de Xai, nos quedamos con una mejor suposición. Sin retención, independientemente de la razón, este tipo de comportamiento poco confiable e inescrutable hace que muchos chatbots sean mal adecuados para ayudar con tareas donde la confiabilidad o la precisión son importantes.





