Un conferenciante ignorado cita un documentación de la Electronic Frontier Foundation (EFF): Los legisladores de Washington vuelven a centrarse en los niños, las pantallas y la sanidad mental. Pero según el Congreso, las grandes tecnologías son de alguna guisa tanto el problema como la posibilidad. El Comité de Comercio del Senado celebró una audiencia (viernes) sobre “examinar el objetivo de la tecnología en la lozanía estadounidense”. Los testigos advirtieron sobre el contenido en ringlera “adictivo”, la sanidad mental y los niños que pasan demasiado tiempo enterrados en la pantalla. En el centro del debate está un plan de ley de los senadores Ted Cruz (R-TX) y Brian Schatz (D-HI) llamado Ley de niños fuera de las redes sociales (KOSMA), que, según dicen, protegerá a los niños y “empoderará a los padres”.
Se alcahuetería de un objetivo justo, especialmente en una época en la que muchos padres se sienten abrumados y nerviosos por el tiempo que pasan sus hijos frente a las pantallas. Pero si perfectamente el comunicado de prensa del plan de ley contiene un verbo tranquilizador, KOSMA en ingenuidad no les da a los padres más control. En punto de respetar la forma en que la mayoría de los padres guían a sus hijos alrededor de contenidos educativos y saludables, KOSMA le entrega el panel de control a las grandes tecnologías. Así es: este plan de ley quitaría poder a los padres y se lo entregaría a las empresas que, según los legisladores, son el problema. (…) Este plan de ley no sólo establece una regla de antigüedad. Crea un deber procesal para las plataformas de custodiar a las familias. Sección 103(b) de la realización es elocuente: si una plataforma sabe que un beneficiario es beocio de 13 abriles, “cancelará cualquier cuenta o perfil existente” que pertenezca a ese beneficiario. Y “sabe” no significa simplemente que cierto admita su antigüedad. El plan de ley define el conocimiento para incluir lo que está “suficiente implícito sobre la almohadilla de circunstancias objetivas”, en otras palabras, lo que una persona justo concluiría a partir de cómo se utiliza la cuenta. La ingenuidad de cómo los servicios cumplirían con KOSMA es clara: en punto de arriesgarse a ser responsables por cómo deberían acontecer sabido que un beneficiario era beocio de 13 abriles, exigirán que todos los usuarios demuestren su antigüedad para cerciorarse de encerrar a cualquier persona beocio de 13 abriles.
KOSMA no contiene excepciones para el consentimiento de los padres, para cuentas familiares o para uso educativo o supervisado. La gran mayoría de las personas vigiladas por este plan de ley no serán niños que andan a escondidas: serán menores que seguirán la gurú de sus padres y de los propios padres. Imagine a un escuincle usando la cuenta de YouTube de sus padres para ver videos científicos sobre cómo funciona un volcán. Si dejaran un comentario que dijera: “Excelente video, ¡se lo mostraré a mi maestra de sexto porción!” y YouTube se da cuenta del comentario, la plataforma ahora tiene señales claras de que un escuincle está usando esa cuenta. No importa si los padres dieron permiso. Según KOSMA, la empresa está legalmente obligada a efectuar. Para evitar violar KOSMA, probablemente bloquearía, suspendería o cancelaría la cuenta, o exigiría pruebas de que pertenece a un adulto. Esa prueba probablemente significaría solicitar un escaneo de una identificación estatal, datos biométricos o alguna otra forma de comprobación intrusiva, todo para evitar que se candado lo que es esencialmente una cuenta “allegado”.
La FTC y los fiscales generales estatales hacen cumplir las violaciones de KOSMA. Eso es un peligro procesal más que suficiente para que las plataformas se decanten por aislar a las personas. Las plataformas no tienen forma de eliminar “sólo al escuincle” de una cuenta compartida. Sus herramientas son contundentes: congelarlo, verificarlo o eliminarlo. Lo que significa que incluso cuando un padre ha ratificado y supervisado explícitamente el uso de su hijo, KOSMA obliga a las grandes tecnologías a anular esa valor allegado. (…) Estas empresas no conocen a tu grupo ni tus reglas. Sólo saben lo que infieren sus algoritmos. Según KOSMA, esas inferencias tienen fuerza de ley. En punto de los padres o los maestros, las decisiones sobre quién puede estar en ringlera y con qué propósito las tomarán los equipos de cumplimiento corporativo y los sistemas de detección automatizados.





