En lo que puede marcar el primer acuerdo judicial significativo de la industria tecnológica sobre daños relacionados con la IA, Google y la startup Character.AI están negociando términos con familias cuyos adolescentes murieron por suicidio o se autolesionaron a posteriori de interactuar con los compañeros de chatbot de Character.AI. Las partes han juicioso en principio aparecer a un acuerdo; Ahora viene el trabajo más duro de liquidar los detalles.
Estos se encuentran entre los primeros acuerdos en demandas que acusan a las empresas de inteligencia sintético de dañar a los usuarios, una frontera judicial que debe tener a OpenAI y Meta observando nerviosamente entre bastidores mientras se defienden de demandas similares.
Character.AI, fundada en 2021 por ex ingenieros de Google que regresaron a su antiguo empleador en 2024 en un acuerdo de 2.700 millones de dólares, invita a los usuarios a chatear con personas de IA. El caso más inquietante es el de Sewell Setzer III, quien a los 14 primaveras mantuvo conversaciones sexualizadas con un autómata “Daenerys Targaryen” antiguamente de suicidarse. Su mamá, Megan García, ha dicho al Senado que las empresas deben ser “legalmente responsables cuando, a sabiendas, diseñan tecnologías de inteligencia sintético dañinas que matan a niños”.
Otra demanda describe a un chavea de 17 primaveras cuyo chatbot fomentaba la autolesión y sugería que asesinar a sus padres era bastante para condicionar el tiempo frente a la pantalla. Character.AI prohibió a los menores en octubre pasado, dijo a TechCrunch. Los acuerdos probablemente incluirán daños monetarios, aunque no se admitió responsabilidad en los documentos judiciales disponibles el miércoles.
Character.AI se negó a hacer comentarios y redirigió a TechCrunch a las presentaciones. Google no ha respondido a una solicitud de comentarios.





