Cualquiera que haya navegado por las redes sociales recientemente sabe que la IA está en todas partes. Pero no siempre somos buenos para detectarlo cuando lo vemos. Ese es un gran problema y nuestra frustración con la IA está aumentando.
AI agua sucia ha infectado todas las plataformas, desde Imágenes sin alma a bizarre videos y texto superficialmente alfabetizado. La gran mayoría de los adultos estadounidenses que utilizan las redes sociales (94%) creen que encuentran contenido creado o modificado por IA, pero sólo el 44% de los adultos estadounidenses dicen estar seguros de poder distinguir fotos y videos reales de los generados por IA, según una indagación monopolio de CNET.
Descubrir más: La caída de la IA está destruyendo Internet. Estas personas están luchando para salvarlo.
Hay muchas formas diferentes en que las personas luchan contra el contenido de IA. Algunas soluciones se centran en mejores etiquetas para el contenido creado por IA, ya que es más difícil que nunca echarse en brazos en nuestros luceros. De los 2.443 encuestados que utilizan las redes sociales, la fracción (51%) creía que necesitamos mejores etiquetas de IA en fila. Otros (21%) creen que debería suceder una prohibición total del contenido generado por IA en las redes sociales. Sólo un pequeño género (11%) de los encuestados dice que encuentra el contenido de IA útil, informativo o entretenido.
La IA no irá a ninguna parte y está remodelando fundamentalmente Internet y nuestra relación con él. Nuestra indagación muestra que todavía nos queda un prolongado camino por recorrer para afrontarlo.
Hallazgos esencia
- La mayoría de los adultos estadounidenses que utilizan las redes sociales (94%) creen que encuentran contenido de IA en las redes sociales, pero muchos menos (44%) pueden distinguir con confianza entre imágenes y videos reales y falsos.
- Muchos adultos estadounidenses (72%) dijeron que toman medidas para determinar si una imagen o un video es existente, pero algunos no hacen carencia, particularmente entre los Boomers (36%) y la Gestación X (29%).
- La fracción de los adultos estadounidenses (51%) cree que el contenido editado y generado por IA necesita un mejor etiquetado.
- Uno de cada cinco (21%) cree que el contenido de IA debería prohibirse en las redes sociales, sin excepciones.
Mira esto: La IA es indistinguible de la sinceridad. ¿Cómo detectamos vídeos falsos?
Los adultos estadounidenses no sienten que puedan detectar los medios de IA
Ver ya no es creer en la era de la IA. Herramientas como OpenAI sora dinamo de vídeo y de Google nanoplátano El maniquí de imagen puede crear medios hiperrealistas, con chatbots ensamblando sin problemas franjas de texto que suenan como si las hubiera escrito una persona existente.
Por lo tanto, es comprensible que una cuarta parte (25%) de los adultos estadounidenses digan que no confían en su capacidad para distinguir imágenes y videos reales de los generados por IA. Las generaciones mayores, incluidos los Boomers (40%) y la Gestación X (28%), son las que menos confianza tienen. Si las personas no tienen mucho conocimiento o no están expuestas a la IA, es probable que se sientan inseguras de su capacidad para detectar la IA con precisión.
Las personas toman medidas para probar el contenido de diferentes maneras.
La capacidad de la IA para imitar la vida existente hace que sea aún más importante probar lo que vemos en fila. Casi tres de cada cuatro adultos estadounidenses (72%) dijeron que toman algún tipo de batalla para determinar si una imagen o un video es existente cuando despierta sus sospechas, siendo la Gestación Z el género de etapa con más probabilidades (84%) de hacerlo. El método más obvio (y popular) es inspeccionar de cerca las imágenes y videos en examen de señales o artefactos visuales. Más de la fracción de los adultos estadounidenses (60%) hacen esto.
Pero la innovación en IA es un pertrechos de doble filo; Los modelos han mejorado rápidamente, eliminando los errores anteriores en los que solíamos echarse en brazos para detectar contenido generado por IA. El em dash nunca fue una señal confiable de IA, pero los dedos adicionales en las imágenes y los errores de continuidad en los videos alguna vez fueron señales de alerta prominentes. Los modelos de IA más nuevos no suelen cometer esos errores de peatones. Así que todos tenemos que trabajar un poco más para determinar qué es existente y qué es impostor.
Puede averiguar discrepancias y etiquetas para identificar el contenido de IA.
A medida que desaparecen los indicadores visuales de la IA, otras formas de probar el contenido son cada vez más importantes. Los siguientes dos métodos más comunes son averiguar etiquetas o divulgaciones (30%) y averiguar el contenido en otros lugares en fila (25%), como en sitios de telediario o mediante búsquedas inversas de imágenes. Sólo el 5% de los encuestados informó utilizar un profundo aparejo de detección o sitio web.
Pero el 25% de los adultos estadounidenses no hacen carencia para determinar si el contenido que ven en fila es existente. Esa desidia de batalla es viejo entre los Boomers (36%) y los de la Gestación X (29%). Esto es preocupante: ya hemos pasado que la IA es una aparejo eficaz para injusticia y fraude. Comprender los orígenes de una publicación o contenido es un primer paso importante para navegar por Internet, donde cualquier cosa podría ser falsificada.
La fracción de los adultos estadounidenses quieren mejores etiquetas de IA
Mucha muchedumbre está trabajando en soluciones para hacer frente al acometida de la IA. El etiquetado es un radio importante de oportunidades. El etiquetado depende de que los usuarios de las redes sociales revelen que su publicación se realizó con la ayuda de IA. Esto además se puede hacer entre bastidores mediante plataformas de redes sociales, pero es poco difícil, lo que conduce a resultados desordenados. Probablemente esa sea la razón por la que el 51% de los adultos estadounidenses cree que necesitamos un mejor etiquetado del contenido de IA, incluidos los deepfakes. El apoyo fue más válido entre los Millennials y la Gestación Z, con un 56% y un 55%, respectivamente.
Muy pocos (11%) encontraron el contenido de IA útil, informativo o entretenido.
Otras soluciones apuntan a controlar la avalancha de contenido de IA compartido en las redes sociales. Todas las plataformas principales permiten contenido generado por IA, siempre y cuando no viole sus pautas generales de contenido (carencia ilegal o injusto, por ejemplo). Pero algunas plataformas han introducido herramientas para prohibir la cantidad de contenido generado por IA que ves en tus feeds; Pinterest enérgico sus filtros el año pasado, mientras que TikTok todavía es pruebas algunos propios. La idea es congratular a todas las personas la posibilidad de permitir o excluir contenido generado por IA de sus feeds.
Pero el 21% de los encuestados cree que el contenido de IA debería prohibirse por completo en las redes sociales, sin permitir excepciones. Ese número es más stop entre la Gestación Z con un 25%. Cuando se les preguntó si creían que el contenido de IA debería permitirse pero regularse estrictamente, el 36% dijo que sí. Esos bajos porcentajes pueden hacerse entender por el hecho de que sólo el 11% considera que el contenido de IA proporciona un valencia significativo (que es entretenido, informativo o útil) y que el 28% dice que proporciona poco o ningún valencia.
Cómo prohibir el contenido de IA y detectar posibles deepfakes
Su mejor defensa contra ser engañado por la IA es tener panorama de lince y echarse en brazos en su instinto. Si poco es demasiado extraño, demasiado brillante o demasiado bueno para ser verdad, probablemente lo sea. Pero hay otros pasos que puedes seguir, como usar una aparejo de detección de deepfakes. Hay muchas opciones; Recomiendo comenzar con el Iniciativa de autenticidad de contenidoLa aparejo, ya que funciona con varios tipos de archivos diferentes.
Incluso puede consultar la cuenta que compartió la publicación para detectar señales de alerta. Muchas veces, los productores masivos de desechos de IA comparten desechos, y usted podrá verlo fácilmente en sus feeds. Estarán llenos de vídeos raros que no parecen tener continuidad ni similitudes entre ellos. Incluso puedes probar si determinado que conoces lo sigue o si esa cuenta no sigue a nadie más (eso es una señal de alerta). Las publicaciones no deseadas o los enlaces fraudulentos además son indicios de que la cuenta no es legítima.
Si desea prohibir el contenido de IA que ve en sus redes sociales, consulte nuestras guías para apagar o silenciar Meta IA en Instagram y Facebook y filtrando Publicaciones de IA en Pinterest. Si encuentras basura, puedes marcar la publicación como poco que no te interesa, lo que debería indicarle al cálculo que no quieres ver más como esta. Fuera de las redes sociales, puedes desactivar Inteligencia de Applela IA en Píxel y Galaxia teléfonos y Géminis en Búsqueda de Google, Gmail y Documentos.
Incluso si haces todo esto y la IA te engaña ocasionalmente, no te sientas tan mal por ello. Hay mucho que podemos hacer como individuos para pelear contra la marea de la IA. Es probable que todos nos equivoquemos alguna vez. Hasta que tengamos un sistema universal para detectar eficazmente la IA, tenemos que echarse en brazos en las herramientas que tenemos y en nuestra capacidad para educarnos unos a otros sobre lo que podemos hacer ahora.
Metodología
CNET encargó a YouGov Plc que realizara la indagación. Todas las cifras, a menos que se indique lo contrario, proceden de YouGov Plc. El tamaño total de la muestra fue de 2.530 adultos, de los cuales 2.443 utilizan las redes sociales. El trabajo de campo se realizó del 3 al 5 de febrero de 2026. La indagación se realizó en fila. Las cifras han sido ponderadas y son representativas de todos los adultos estadounidenses (mayores de 18 primaveras).




