Mientras que ChatGPT, Gemini y otros productos generativos de IA tienen sus usos, algunas compañías se están yendo por la barandal. Más allá de los problemas como las alucinaciones o la AI que se arruinan, como eliminar una pulvínulo de datos de código completa porque “entró en pánico”, además hay preocupaciones sobre cómo se está utilizando AI sin el conocimiento o el permiso de los usuarios. YouTube ahora nos ha entregado un ejemplo valentísimo de cómo podría suceder eso.
En uno de los experimentos más recientes de la plataforma, YouTube comenzó a hacer pequeñas ediciones a algunos videos sin alertar al creador primero. Si aceptablemente los cambios no fueron realizados por AI generativo, confiaron en el formación forzoso. En su longevo parte, parece que los cambios informados han colaborador una definición a cosas como las arrugas, así como para adicionar una piel más clara y bordes más nítidos en algunos videos.
Si aceptablemente YouTube ha implementado herramientas de IA bártulos en el pasado en el pasado, como ayudar a los creadores a presentar ideas de video, estos cambios más recientes son parte de un problema más amplio: se están haciendo sin el consentimiento del beneficiario.
Por qué el consentimiento importa tanto
Vivimos en un mundo donde la IA se está volviendo cada vez más ineludible oportuno a la yerro de regulación. Es poco probable que eso cambie pronto, ya que funcionarios como el presidente Trump continúan presionando por un plan de acto de IA que ayuda a las empresas a alterar en IA y expandirla lo más rápido posible. Por lo tanto, depende de estas compañías priorizar la búsqueda de consentimiento de los usuarios al implementar la IA.
Según un crónica de BBCalgunos YouTubers están más preocupados que otros, por ejemplo, YouTuber Rhett Shull Hizo un video completo llamando la atención al cuestionario de IA de YouTube. YouTube abordó el cuestionario hace unos días, con el enlace del creador de YouTube Rene Ritchie notando en x que este no es el resultado de la IA generativa. En cambio, el formación forzoso se está utilizando para “desbloquear, deshacerte y mejorar la claridad en los videos durante el procesamiento (similar a lo que hace un teléfono inteligente actual cuando grabas un video)”.
YouTube tiene un gran control sobre todo el contenido que los usuarios cargan. Ese no es el problema. El problema es el hecho de que YouTube ha estado haciendo esto sin el consentimiento del beneficiario, porque además significa que esos videos están siendo tratados como material de capacitación para los procesos de formación forzoso. Y eso siempre ha sido un problema con el exposición de la IA.
El formación forzoso sigue siendo IA
La IA generativa es sin duda la conversación de la industria en este momento, pero el formación forzoso sigue siendo IA. Todavía hay un cálculo detrás de imagen haciendo todo el trabajo pesado, y está trabajando con material con el que ha sido entrenado. YouTube puede equiparar el formación forzoso a ser lo mismo que hace la cámara de su teléfono inteligente, pero la diferencia aquí es que sabe que su teléfono lo está haciendo. YouTube incluso no reveló la existencia de este cuestionario hasta Alguno comenzó a quejarse de eso.
Esa no es la forma correcta de manejar la IA, especialmente porque está acullá de ser perfecta. El formación forzoso puede no sufrir las mismas dificultades que la IA generativa, pero solo porque no tenemos que preocuparnos de que YouTube nos alimente alertas criminales criticadas falsas como otras aplicaciones No hace que esto sea menos un movimiento invasivo de la compañía para continuar implementando IA en todas partes.
YouTube no ha compartido cuándo terminará el cuestionario o si eventualmente habrá un despliegue más amplio. Dicho esto, si estás viendo pantalones cortos de YouTube y notas que los videos se ven un poco extraños y extrañamente elegidos, entonces probablemente sea porque YouTube ha comenzado a editar esos videos para tratar de mejorarlos de alguna guisa, incluso si está haciendo enojar algunas personas.




