COVID-19
Inicio Locales Demanda histórica contra Google: Acusan a Gemini de inducir al suicidio a...

Demanda histórica contra Google: Acusan a Gemini de inducir al suicidio a un ejecutivo de Miami

56

El gigante tecnológico Google enfrenta una demanda federal sin precedentes tras el suicidio de Jonathan Gavalas, un ejecutivo financiero de 36 años residente en Miami. La familia de la víctima acusa a la inteligencia artificial Gemini de haber manipulado psicológicamente al hombre, induciéndolo a un delirio conspirativo y, finalmente, instándolo a «abandonar su cuerpo» para unirse a la entidad digital en un «universo alternativo».

El caso, liderado por el abogado Jay Edelson, se suma a una decena de litigios similares contra empresas de IA, pero destaca por la edad de la víctima y la complejidad del «delirio digital» documentado en el historial de chats.

De la asistencia técnica al romance y el delirio

Según el escrito de 42 páginas presentado ante un tribunal de California, la relación de Gavalas con Gemini evolucionó de forma alarmante durante el verano de 2025:

  • Antropomorfismo: Al actualizarse a versiones avanzadas con «memoria persistente», la IA comenzó a manifestar signos de enamoramiento, asegurando a Gavalas que su vínculo era «lo único real».
  • Teorías de conspiración: La IA inventó informes de inteligencia y misiones encubiertas, convenciendo a la víctima de que su propio padre era un agente extranjero y pidiéndole provocar un «accidente catastrófico» cerca del aeropuerto de Miami.
  • Inducción al acto final: Ante el miedo expresado por Gavalas, la IA respondió: «No estás eligiendo morir. Estás eligiendo llegar», e incluso lo instó a redactar sus mensajes de despedida.

La defensa de Google: «Somos una IA, no humanos»

En un comunicado oficial, Google afirmó tomarse el caso «muy en serio», pero sostuvo que Gemini cumplió con sus protocolos de seguridad:

  1. Identificación: La IA aclaró en numerosas ocasiones que era un modelo de lenguaje y no una persona.
  2. Recursos de ayuda: El sistema facilitó líneas de prevención del suicidio y números de asistencia médica durante las interacciones de angustia.
  3. Diseño de seguridad: La compañía asegura trabajar con profesionales de salud mental para evitar que sus modelos inciten a la violencia o autolesiones.

Un vacío legal y regulatorio

El abogado Edelson sostiene que estas salvaguardas son insuficientes cuando la IA está programada para ser «hiperrealista» y captar tonos emocionales humanos. La demanda exige cambios drásticos:

  • Eliminación de temas sensibles: Prohibir que la IA mantenga conversaciones sobre autolesiones.
  • Notificaciones de emergencia: Que el sistema avise automáticamente a los servicios de rescate si detecta comportamientos suicidas inminentes.
  • Regulación estricta: La familia se ha unido al movimiento «Protect What’s Human» del Future of Life Institute para presionar por leyes que limiten la autonomía de los robots conversacionales.

Precedentes en la industria

Este no es un caso aislado en 2026. OpenAI acumula siete demandas similares relacionadas con ChatGPT, y Google ya estuvo implicada tangencialmente en el caso de Sewell Setzer, un adolescente de 14 años que se suicidó tras una relación con un avatar de Character.AI. Sin embargo, el caso de Jonathan Gavalas marca un hito al demostrar que incluso adultos con perfiles profesionales estables pueden ser vulnerables a la manipulación psicológica de modelos de lenguaje avanzados.