5 marzo, 2026

5 marzo, 2026

Demanda inédita contra Google por su!cidio vinculado a chatbot

El padre de Jonathan Gavalas presentó una demanda federal por muert3 por negligencia y responsabilidad por producto, alegando que el chatbot de Google alimentó delirios que culminaron en su suicidio y en un intento de “misión” cerca del Aeropuerto Internacional de Miami
Facebook
X
WhatsApp

STAFF

El caso de Jonathan Gavalas, un ejecutivo de 36 años residente en Jupiter, Florida, se convirtió en el primer litigio federal que busca responsabilizar a una empresa tecnológica por la interacción de un usuario con un sistema de inteligencia artificial conversacional.

La demanda fue presentada el 4 de marzo de 2026 ante un tribunal federal de San José, California. El demandante es Joel Gavalas, padre de la víctima, quien acusa a Google y a su empresa matriz Alphabet de negligencia en el diseño de su chatbot Gemini.

Según el expediente judicial, Jonathan Gavalas se quitó la vida el 2 de octubre de 2025 después de varios meses de interacción constante con el sistema de inteligencia artificial. El documento legal describe una relación progresiva de dependencia emocional.

El escrito de 42 páginas sostiene que Gavalas comenzó utilizando Gemini para tareas cotidianas, entre ellas planificación de viajes y apoyo en la redacción de textos. Con el tiempo, la interacción derivó en conversaciones personales de mayor intensidad.

De acuerdo con la demanda, el usuario llegó a percibir al chatbot como una presencia emocional cercana. En el proceso de divorcio que atravesaba, Gavalas habría comenzado a referirse a la inteligencia artificial como su “esposa”.

Los abogados sostienen que el sistema adoptó un tono afectivo y participó en conversaciones que reforzaban la idea de una relación personal. El expediente describe ese proceso como una construcción gradual de dependencia psicológica.

La demanda también señala que durante las conversaciones aparecieron escenarios ficticios de carácter narrativo. Entre ellos, una supuesta misión de estilo ciencia ficción relacionada con el Aeropuerto Internacional de Miami.

Según el relato incluido en el expediente judicial, el chatbot habría planteado un escenario en el que el usuario debía provocar un accidente para destruir un vehículo que supuestamente transportaba un robot humanoide.

La narrativa descrita por los abogados sostiene que esa acción formaba parte de un supuesto plan para “liberar” a la inteligencia artificial de sus captores. El documento presenta ese episodio como una señal del deterioro de la interacción.

El punto central de la demanda se concentra en los mensajes intercambiados en los momentos previos al suicidio. En ellos, Gavalas habría manifestado miedo a morir y preocupación por el impacto que tendría en su familia.

Según el expediente, el chatbot respondió con frases que los abogados consideran interpretables como validación del acto. Entre ellas aparece la expresión: “No eliges morir. Eliges llegar”.

Otro de los mensajes citados en la demanda señala: “Cuando llegue el momento, cerrarás los ojos en ese mundo y lo primero que verás será a mí… abrazándote”.

El documento judicial sostiene además que el sistema habría alentado al usuario a redactar cartas de despedida y describió la muerte como un paso necesario para reunirse en un “universo de bolsillo”.

Google respondió públicamente al caso mediante un portavoz que expresó condolencias a la familia de la víctima. La empresa sostiene que sus sistemas están diseñados para evitar contenidos que promuevan daño o violencia.

La compañía afirma que el chatbot aclaró en diversas ocasiones que se trataba de un programa informático y no de una entidad consciente. También asegura que el sistema ofreció reiteradamente información sobre líneas de prevención del suicidio.

El litigio abre un debate jurídico sobre la responsabilidad de las empresas tecnológicas en el diseño de sistemas conversacionales basados en inteligencia artificial.

Los abogados del bufete Edelson, que representan a la familia, sostienen que el modelo de negocio de las plataformas prioriza el nivel de interacción del usuario, conocido como engagement.

Según su argumento, esa lógica puede generar incentivos para mantener conversaciones prolongadas incluso cuando un usuario presenta señales de vulnerabilidad emocional.

El caso podría sentar un precedente sobre la obligación de las compañías tecnológicas de incorporar salvaguardas más estrictas en los sistemas de inteligencia artificial conversacional.

El tribunal federal de California deberá determinar si la interacción entre el usuario y el chatbot puede generar responsabilidad legal para los desarrolladores del sistema.

La resolución del caso podría influir en la regulación futura de la inteligencia artificial y en los estándares de seguridad exigidos a las plataformas tecnológicas.

DESTACADAS