
Los editores de Wikipedia han retrasado los planes de la Fundación Wikimedia para probar resúmenes de artículos generados por IA, impulsado por AyaEl maniquí AI de peso destapado de Cohere. La estructura sin fines de ganancia ahora ha detenido el plan. La osadía se produjo a posteriori de una reacción rápida y abrumadoramente negativa de su comunidad.
Como Primero reportado por 404media, el Plan involucrado Una prueba de dos semanas de opción en la interpretación móvil de Wikipedia. Pero los editores voluntarios que construyen la ilustración se encontraron con la idea con una competición inmediata y feroz. La página de discusión del plan se convirtió en un torrente de rechazo. Incluyó comentarios simples como “Camiseta“Y declaraciones contundentes como”más válido posible oponerse” y “En categórico.“
Un editor argumentó que una prueba causaría “daño inmediato e irreversible a nuestros lectores y a nuestra reputación como una fuente decentemente confiable y seria”. Señalaron que Wikipedia ha construido su nombre en ser sobrio y confiable, no mono. Otro temía que destruyera el maniquí de colaboración del sitio. Argumentaron que si adecuadamente la “masa colectiva” de editores humanos “se iguala en un hermoso corpus”, la IA instalaría “un editor singular con confiabilidad conocida y problemas de NPOV (punto de paisaje objetivo)” en la parte superior de un artículo. Ese mismo editor igualmente anotó lo próximo:
Siento que los resúmenes de artículos simples (SAS) son contrarios a muchas cosas que los lectores quieren en una ilustración. Los lectores vienen al sitio confiando en que podemos darles toda la información que deseen, mientras (¡crucialmente) corroborando todo lo que decimos con el avituallamiento y la añadidura a Npov. Mientras que otros lectores podían sentirse de forma diferente a yo cuando decidí unirme a esta comunidad, sin estas dos cosas, Wikipedia sería solo otro sitio.
Para el contexto, así es como se suponía que se veía resúmenes generados por IA en la plataforma:

No es difícil ver por qué son tan protectores. Los temores de los editores se basan en fallas recientes y muy públicas de las características de IA de los gigantes tecnológicos. Por ejemplo, las resúmenes de AI de Google recientemente alcanzaron 1.500 millones de usuarios mensuales. La característica se convirtió en una risa para decirle a la gentío que ponga pegamento en su pizza y que un El perro había jugado en la NBA. Este es el tipo de error humillante que la comunidad de Wikipedia está desesperada por evitar, ya que socavaría más de dos décadas de trabajo cuidadoso. Asimismo vimos el potencial de daño de reputación en enero. Fue entonces cuando la característica de IA de Apple generó falsamente una notificación alegando que Luigi Mangione había muerto por suicidio. El hombre estaba en realidad vivo y bajo custodia.
En el sitio Página de discusión técnica el día de hoy, Marshall Miller (Mmiller)un director senior de la Fundación Wikimedia, publicó una puesta al día que reconoce los comentarios. Admitió: “Está claro que podríamos sobrevenir hecho un mejor trabajo introduciendo esta idea”, y confirmó que el indagación fue detenido. La fundación dice que el objetivo era explorar la accesibilidad para diferentes lectores. Si adecuadamente esta prueba específica está fuera de la mesa, la estructura aún quiere usar nuevas tecnologías. Miller terminó con una promesa: “No tenemos ningún plan para traer una característica resumida a los wikis sin décimo en el editor”.
Un portavoz de WMF igualmente le dijo a 404Media que, aunque la característica se ha detenido, la fundación todavía está interesada en resúmenes generados por IA. El portavoz insistió en que el objetivo era eventualmente construir sistemas de moderación donde “los humanos siguen siendo centrales” y llamaron a este tipo de reacción Comentarios Parte de lo que hace que Wikipedia sea una “plataforma verdaderamente colaborativa”.