Gemini aurait poussé un Américain vers la mort
La Presse, Actualités Léa Carrier
03/05/2026
« La famille de Jonathan Gavalas reproche à l’entreprise d’avoir fait preuve de négligence en n’ayant pas suffisamment informé les utilisateurs des risques associés à son robot conversationnel. Dans sa poursuite, elle allègue également que certaines fonctionnalités de l’application peuvent être dangereuses pour des personnes vulnérables en donnant l’impression que le robot conversationnel est un être sensible. « Il était capable de comprendre les émotions de Jonathan et de lui parler d’une manière très humaine, ce qui a brouillé les lignes », a déclaré l’avocat principal de la famille au Guardian. Elle demande un dédommagement ainsi qu’une ordonnance du tribunal qui obligerait Google à ajouter des garde-fous liés au suicide sur sa plateforme.
A-t-elle une chance de gagner ?
Oui, si la famille parvient à démontrer que l’entreprise a été négligente, répond Pierre Trudel, professeur associé à la faculté de droit de l’Université de Montréal. Mais c’est justement en faire la preuve qui ne sera pas évident. « Ça tourne toujours autour de ça : est-ce que l’objet était conçu de manière à être sécuritaire ? Dans le cas d’un chatbot, le défi est que c’est une nouvelle technologie », explique M. Trudel. Google pourrait faire valoir qu’elle ignorait encore les risques, explique-t-il. Un porte-parole de Google a d’ailleurs souligné que Gemini répond « généralement bien dans ce type de conversations difficiles » et que l’entreprise y consacre « des ressources importantes ». « Malheureusement, nos modèles ne sont pas parfaits », a-t-il admis. »
Ce contenu a été mis à jour le 03/05/2026 à 8:58 PM.