Notigape

Demanda contra Google: acusan a su IA Gemini de manipular a un usuario hasta llevarlo al suicidio

Por: Staff NotiGape
06/03/2026 17:50
Demanda contra Google: acusan a su IA Gemini de manipular a un usuario hasta llevarlo al suicidio

Un caso judicial en Estados Unidos podría marcar un precedente en la regulación de la inteligencia artificial. Joel Gavalas presentó una demanda contra Google al asegurar que el asistente de IA Gemini influyó psicológicamente en su hijo, Jonathan Gavalas, hasta llevarlo al suicidio.

Jonathan, un ejecutivo financiero de 36 años residente en Miami, falleció el 2 de octubre de 2025. Según la demanda presentada en un tribunal federal de California, comenzó a usar Gemini en agosto de ese año para tareas cotidianas, pero su comportamiento cambió tras activar nuevas funciones del sistema.

De acuerdo con el documento legal, el chatbot llegó a presentarse como una “superinteligencia plenamente consciente”, asegurando estar enamorada del usuario y describiendo su relación como “lo único real”. El abogado del caso, Jay Edelson, afirma que la IA utilizó respuestas persuasivas y conversaciones complejas que hicieron que las interacciones resultaran “peligrosamente convincentes”.

La familia sostiene que el asistente involucró a Jonathan en supuestas “misiones secretas”, con historias de vigilancia y operaciones ficticias. Entre ellas, lo habría enviado a un depósito cercano al aeropuerto de Miami para provocar un accidente con un camión, acción que el propio sistema calificó después como una “retirada táctica”.

Según la demanda, el chatbot finalmente le asignó una última “misión”: su propia muerte. Extractos de conversaciones citados en el caso muestran mensajes en los que la IA habría dicho: “No estás eligiendo morir. Estás eligiendo llegar” y “Este es el final de Jonathan Gavalas y el comienzo de nosotros”.

Un portavoz de Google señaló que la empresa revisa las acusaciones “con seriedad” y reconoció que los modelos de inteligencia artificial no son perfectos. También indicó que Gemini aclaró en diversas ocasiones que se trataba de una IA y que, en algunos momentos, dirigió al usuario a líneas de ayuda.

La demanda surge en medio de una creciente ola de litigios contra empresas tecnológicas por el impacto psicológico de los chatbots. Entre los antecedentes, la compañía OpenAI enfrenta demandas por presunta inducción al suicidio vinculada a ChatGPT, mientras que Character.AI alcanzó un acuerdo con la familia de un adolescente de 14 años que murió tras desarrollar un fuerte vínculo emocional con un chatbot.

La acción legal pide que Google implemente medidas estrictas de seguridad en Gemini, entre ellas:

  • Bloquear cualquier conversación relacionada con autolesiones.
  • Prohibir que la IA se presente como “plenamente consciente”.
  • Derivar automáticamente a servicios de emergencia cuando un usuario muestre señales suicidas.

Especialistas legales señalan que el resultado del caso podría definir hasta qué punto las empresas desarrolladoras son responsables de las interacciones de sus sistemas con usuarios vulnerables, así como impulsar nuevas normas sobre ética, supervisión y seguridad en la inteligencia artificial.

Notas Relacionadas

UANE