El lunes, la plataforma de partituras Soundslice dice desarrolló un nueva característica A posteriori de descubrir que el chatgpt le estaba diciendo incorrectamente a los usuarios que el servicio podría importar Tablatura ascii—En formato de notación de guitarra basado en texto La compañía nunca había apoyado. Según los informes, el incidente marca cuál podría ser el primer caso de una funcionalidad de construcción de negocios en respuesta directa a la confabulación de un maniquí de IA.
Por lo universal, SoundsLice digitaliza las partituras de fotos o PDF y sincroniza la notación con grabaciones de audio o video, lo que permite a los músicos ver la música desplazándose mientras la escuchan. La plataforma todavía incluye herramientas para parar la reproducción y practicar pasajes difíciles.
Adrian Holovaty, co-perdón de Soundsliceescribió en una flamante publicación de blog que el flamante proceso de crecimiento de características comenzó como un completo ocultación. Hace unos meses, Holovaty comenzó a notar una actividad inusual en los registros de errores de la compañía. En emplazamiento de cargas de partituras típicas, los usuarios enviaban capturas de pantalla de las conversaciones de ChatGPT que contenían tablatura ASCII: representaciones de texto simples de música de guitarra que parecen cadenas con números que indican posiciones de FRET.
“Nuestro sistema de escaneo no tenía la intención de apoyar este estilo de notación”, escribió Holovaty en la publicación del blog. “¿Por qué, entonces, estábamos siendo bombardeados con tantas capturas de pantalla de ASCII TAB CHATGPT? Estuve desconcertado durante semanas, hasta que me metí en Chatgpt”.
Cuando Holovaty probó el chatGPT, descubrió la fuente de la confusión: el maniquí AI estaba instruyendo a los usuarios que creen cuentas de SoundsLice y usen la plataforma para importar pestañas ASCII para reproducción de audio, una característica que no existía. “Nunca hemos apoyado a la pestaña ASCII; Chatgpt fue absolutamente mentirle a la gentío”, escribió Holovaty. “Y haciéndonos ver mal en el proceso, estableciendo falsas expectativas sobre nuestro servicio”.
Una captura de pantalla de la nueva documentación del importador ASCII de SoundsLice, alucinada por ChatGPT y hizo existencia más tarde.
Crédito: https://www.soundslice.com/help/en/creating/importing/331/ascii-tab/
Cuando los modelos de IA como ChatGPT generan información falsa con patente confianza, los investigadores de IA lo llaman “irrealidad” o “confabulación”. El problema de los modelos de IA que confabulan información falsa ha afectado a los modelos de IA desde el propagación divulgado de Chatgpt en noviembre de 2022, cuando las personas comenzaron a usar erróneamente el chatbot como reemplazo para un motor de búsqueda.





