La semaine dernière, Kevin Bankston, expert en IA au Center for Democracy and Technology, a fait une découverte pour le moins troublante. En effet, il a constaté que Gemini, l’assistant IA de Google, était capable de résumer automatiquement ses déclarations de revenus privées, pourtant consultées uniquement dans Google Docs. Un constat qui soulève de sérieuses questions quant à la confidentialité des données des utilisateurs.
Un labyrinthe de paramètres de confidentialité
Face à cette intrusion inattendue, Bankston a tenté de trouver le paramètre de confidentialité permettant de désactiver ce comportement. Mais sa quête s’est transformée en véritable parcours du combattant. Après avoir interrogé en vain l’IA elle-même, il a finalement trouvé l’option tant recherchée dans un menu totalement différent de celui indiqué par Gemini. Une situation qui laisse planer le doute : l’IA serait-elle en train de “halluciner” ou y aurait-il un dysfonctionnement dans les serveurs de Google ?
Just pulled up my tax return in @Google Docs–and unbidden, Gemini summarized it. So…Gemini is automatically ingesting even the private docs I open in Google Docs? WTF, guys. I didn’t ask for this. Now I have to go find new settings I was never told about to turn this crap off.
— Kevin Bankston (@KevinBankston) July 10, 2024
Bankston s’interroge : “Et si je ne voulais pas que Gemini consulte mes documents sans y être invité ?”. Il souligne l’importance du consentement de l’utilisateur et dénonce le manque de transparence de Google sur la gestion des données personnelles. D’autant plus que les utilisateurs doivent payer un abonnement premium pour bénéficier d’engagements de confidentialité étendus.
Un historique de fuites de données
Cette affaire n’est malheureusement pas un cas isolé. Les produits d’IA de Google ont déjà été impliqués dans des fuites de données par le passé. En septembre 2023, Bard, le précurseur de Gemini, avait accidentellement révélé des sessions de chat d’utilisateurs. Google avait même mis en garde ses propres employés contre la saisie de données sensibles dans ses chatbots.
Après de nombreuses recherches, Bankston a finalement mis le doigt sur la cause du problème. Il semblerait que si l’utilisateur active Gemini pour un type de document, celui-ci reste activé pour tous les autres documents du même type ouverts pendant la session. Une fonctionnalité qui, bien que pratique, peut s’avérer intrusive si elle n’est pas clairement expliquée aux utilisateurs.