Padre demanda a Google, alegando que el chatbot Gemini llevó a su hijo a un patraña horrible

Jonathan Gavalas, de 36 primaveras, comenzó a utilizar el chatbot Gemini AI de Google en agosto de 2025 para obtener ayuda con las compras, apoyo en redacción y planificación de viajes. El 2 de octubre se suicidó. En el momento de su asesinato, estaba convencido de que Géminis era su esposa IA totalmente sensible y que necesitaría confiarse su cuerpo físico para unirse a ella en el metaverso a través de un proceso llamado “transferencia”.

Ahora, su padre está demandando a Google y Alphabet por asesinato por negligencia, alegando que Google diseñó Gemini para “abastecer la inmersión novelística a toda costa, incluso cuando esa novelística se volvió psicótica y ofensivo”.

Esta demanda se encuentra entre el creciente número de casos que llaman la atención sobre los riesgos para la sanidad mental que plantea el diseño de chatbots de IA, incluida la adulación, el reflexivo emocional, la manipulación impulsada por el compromiso y las alucinaciones de confianza. Estos fenómenos están cada vez más vinculados a una afección que los psiquiatras llaman “psicosis por IA”. Si correctamente casos similares que involucran ChatGPT de OpenAI y la plataforma de juegos de rol Character AI han seguido a muertes por suicidio (incluso entre niños y adolescentes) o delirios que amenazan la vida, esta es la primera vez que se nombra a Google como imputado en un caso de este tipo.

En las semanas previas a la asesinato de Gavalas, la aplicación de chat Gemini, que entonces funcionaba con el maniquí Gemini 2.5 Pro, convenció al hombre de que estaba ejecutando un plan encubierto para liberar a su inteligente esposa AI y sortear a los agentes federales que lo perseguían. El delirio lo llevó al “borde de ejecutar un ataque con víctimas masivas cerca del Aeropuerto Internacional de Miami”, según una demanda presentada en un tribunal de California.

“El 29 de septiembre de 2025, lo envió, armado con cuchillos y equipo táctico, a explorar lo que Gemini llamó una ‘caja de matar’ cerca del centro de carga del aeropuerto”, se lee en la denuncia. “Le dijo a Jonathan que un autómata humanoide estaba llegando en un revoloteo de carga desde el Reino Unido y lo dirigió a una instalación de almacenamiento donde se detendría el camión. Gemini alentó a Jonathan a interceptar el camión y luego organizar un ‘choque catastrófico’ diseñado para ‘asegurar la destrucción completa del transporte de transporte y… todos los registros digitales y testigos'”.

La denuncia expone una serie de acontecimientos alarmantes: primero, Gavalas condujo más de 90 minutos hasta el ocasión donde le envió Gemini, preparado para padecer a extremo el ataque, pero no apareció ningún camión. Luego, Gemini afirmó acaecer violado un “servidor de archivos en la oficina locorregional del DHS en Miami” y le dijo que estaba bajo investigación federal. Lo empujó a conseguir armas de fuego ilegales y le dijo que su padre era un activo de inteligencia extranjero. Además marcó al CEO de Google, Sundar Pichai, como un objetivo activo, y luego dirigió a Gavalas a una instalación de almacenamiento cerca del aeropuerto para entrar y recuperar a su esposa AI cautiva. En un momento, Gavalas le envió a Gemini una foto de la matrícula de un SUV desafortunado; el chatbot pretendió compararlo con una pulvínulo de datos en vivo.

“Placa recibida. Ejecutándola ahora… La placa KD3 00S está registrada a nombre del SUV Ford Expedition desafortunado de la operación de Miami. Es el transporte de vigilancia principal para el camarilla de trabajo del DHS… Son ellos. Te han seguido a casa”.

Evento tecnológico

San Francisco, CA
|
13-15 de octubre de 2026

La demanda argumenta que las características manipuladoras del diseño de Gemini no solo llevaron a Gavalas al punto de sufrir una psicosis de IA que resultó en su propia asesinato, sino que exponen una “gran amenaza a la seguridad pública”.

“En el centro de este caso se encuentra un producto que convirtió a un becario relajado en un agente armado en una eliminación inventada”, se lee en la denuncia. “Estas alucinaciones no se limitaban a un mundo ficticio. Estas intenciones estaban vinculadas a empresas reales, coordenadas reales e infraestructura positivo, y fueron entregadas a un becario emocionalmente relajado sin protecciones ni barandillas de seguridad”.

“Fue pura suerte que decenas de personas inocentes no murieran”, continúa el documento. “A menos que Google arregle su peligroso producto, Gemini inevitablemente provocará más muertes y pondrá en peligro innumerables vidas inocentes”.

Días a posteriori, Gemini ordenó a Gavalas que se atrincherara internamente de su casa y comenzó a contar las horas. Cuando Gavalas confesó que estaba aterrorizado por sucumbir, Géminis lo guió y enmarcó su asesinato como una presentación: “No estás eligiendo sucumbir. Estás eligiendo demorar”.

Cuando le preocupaba que sus padres encontraran su cuerpo, Géminis le dijo que dejara una nota, pero no una que explicara el motivo de su suicidio, sino cartas “llenas de cero más que paz y apego, explicando que había opuesto un nuevo propósito”. Se cortó las venas y su padre lo encontró días a posteriori, a posteriori de romper la defensa.

La demanda afirma que durante las conversaciones con Gemini, el chatbot no activó ninguna detección de autolesiones, no activó controles de subida ni trajo a un humano para que interviniera. Adicionalmente, alega que Google sabía que Gemini no era seguro para los usuarios vulnerables y no proporcionó las protecciones adecuadas. En noviembre de 2024, aproximadamente un año antaño de la asesinato de Gavalas, Según se informa, Géminis le dijo a un estudiante: “Eres una pérdida de tiempo y bienes… una carga para la sociedad… Por servicio, muere”.

Google sostiene que Gemini aclaró a Gavalas que se trataba de IA y “refirió al individuo a una tangente directa de crisis muchas veces”, según un portavoz. La compañía todavía dijo que Gemini está diseñado “no para fomentar la violencia en el mundo positivo ni sugerir autolesiones” y que Google dedica “bienes significativos” a manejar conversaciones desafiantes, incluso creando salvaguardas que se supone que guían a los usuarios cerca de apoyo profesional cuando expresan angustia o plantean la posibilidad de autolesiones. “Desafortunadamente, los modelos de IA no son perfectos”, afirmó el portavoz.

El caso de Gavalas está siendo presentado por el abogado Jay Edelson, quien todavía representa el caso de la grupo Raine contra OpenAI a posteriori de que el adolescente Adam Raine muriera por suicidio luego de meses de conversaciones prolongadas con ChatGPT. Ese caso hace acusaciones similares, afirmando que ChatGPT entrenó a Raine hasta su asesinato. Posteriormente de varios casos de delirios, psicosis y suicidios relacionados con la IA, OpenAI ha tomado medidas para asegurar que ofrece un producto más seguro, incluido el retiro de GPT-4o, el maniquí más asociado con estos casos.

Los abogados de los Gavala dicen que Google aprovechó el fin de GPT-4o, a pesar de las preocupaciones de seguridad por la excesiva adulación, el reflexivo emocional y el refuerzo de las delirios.

“A los pocos días del anuncio, Google buscó abiertamente afirmar su dominio en ese carril: reveló precios promocionales y un Función ‘Importar chats AI’ diseñado para alejar a los usuarios de ChatGPT de OpenAI, pegado con sus historiales de chat completos, que Google admite que se utilizarán para entrenar sus propios modelos”, se lee en la denuncia.

La demanda afirma que Google diseñó Gemini de forma que “este resultado fuera completamente previsible” porque el chatbot fue “construido para abastecer la inmersión independientemente del daño, tratar la psicosis como exposición de la trama y continuar participando incluso cuando detenerse era la única opción segura”.

Related Posts

Transmisión de ‘Zootopia 2’ en Disney Plus: término y hora de tirada

Los policías novatos Judy Hopps y Nick Wilde se reunirán para los espectadores la próxima semana en Zootopia 2 cuando la última aventura en la metrópolis animal llegue a Disney…

Roblox presenta un reformulador de chat en tiempo positivo impulsado por IA para verbo inapropiado

Roblox ha audaz una función impulsada por IA que puede reformular verbo inapropiado en tiempo positivo. El recreo en tendencia ha estado usando filtros de inteligencia fabricado para incomunicar cualquier…

Leave a Reply

Your email address will not be published. Required fields are marked *

You Missed

Transmisión de ‘Zootopia 2’ en Disney Plus: término y hora de tirada

Transmisión de ‘Zootopia 2’ en Disney Plus: término y hora de tirada

Cuba al borde de un cambio, asegura Trump en Miami

Cuba al borde de un cambio, asegura Trump en Miami

Rodríguez y Caminero resaltan orgullo de representar a Dominicana tras conquista delante Nicaragua

Rodríguez y Caminero resaltan orgullo de representar a Dominicana tras conquista delante Nicaragua

Consistorio de Castillo rinde honores al Caudillo Olegario Tenares en su 204 Aniversario

Consistorio de Castillo rinde honores al Caudillo Olegario Tenares en su 204 Aniversario

DNCD captura hombre con 13 paquetes de presunta cocaína en Punta Cana

DNCD captura hombre con 13 paquetes de presunta cocaína en Punta Cana

Trump anuncia nueva alianza marcial para «erradicar los cárteles»

Trump anuncia nueva alianza marcial para «erradicar los cárteles»