Alphabet, la société mère de Google, a émis une mise en garde à l’attention de ses employés concernant l’utilisation des chatbots basés sur l’intelligence artificielle (IA). La société a spécifiquement demandé à ses employés de ne pas divulguer d’informations confidentielles au chatbot d’IA générative nommé Bard, développé et exploité par Google, une filiale d’Alphabet.
Des risques de divulgation d’informations internes par l’IA ?
Selon Reuters, cet avertissement s’étend également à d’autres chatbots, tels que ChatGPT d’OpenAI, soutenu par Microsoft. Ces chatbots alimentés par l’IA ont récemment attiré l’attention en raison de leur capacité impressionnante à tenir des conversations de manière quasi humaine, à rédiger des essais, des rapports, voire à réussir des tests académiques.
La préoccupation d’Alphabet réside dans le risque que ses employés puissent accidentellement divulguer des informations internes en utilisant ces outils. Dans le cadre des travaux visant à améliorer la technologie d’IA avancée, les conversations des utilisateurs avec les chatbots peuvent être examinées par des réviseurs humains. Cette pratique soulève des inquiétudes concernant la vie privée et la possible exposition de secrets commerciaux, ce dernier aspect étant particulièrement préoccupant pour Alphabet.
De plus, les chatbots sont en partie entraînés à partir des échanges de texte des utilisateurs. Par conséquent, dans certains scénarios, il est possible que ces outils reproduisent involontairement des informations confidentielles reçues lors de ces conversations avec des membres du public.
Comme ChatGPT, Bard est désormais disponible gratuitement en version d’essai outre-atlantique. Sur sa page web, Bard avertit les utilisateurs de ne pas inclure d’informations permettant de les identifier, ni d’identifier d’autres personnes, lors de leurs conversations avec le chatbot.
Google collecte les conversations de Bard, les informations sur l’utilisation des produits, les données de localisation et les commentaires des utilisateurs dans le but d’améliorer les produits et services Google, y compris Bard. Les activités de Bard sont conservées par Google pendant une période de 18 mois, bien que les utilisateurs puissent ajuster cette durée à 3 ou 36 mois via leur compte Google.
Par souci de confidentialité, les conversations de Bard sont dissociées du compte Google avant d’être examinées par un réviseur humain.
Reuters rapporte que bien que l’avertissement d’Alphabet existe depuis un certain temps, il a récemment été élargi pour inclure des instructions demandant aux employés d’éviter d’utiliser précisément le code informatique généré par les chatbots. L’entreprise a expliqué que Bard peut parfois fournir des “suggestions de codes indésirables“, bien que la version actuelle de l’outil soit considérée comme un outil de programmation utile.
Alphabet n’est pas la seule entreprise à alerter ses employés sur les risques liés à la vie privée et à la sécurité concernant l’utilisation des chatbots. Samsung a récemment donné des consignes similaires à ses employés après qu’un certain nombre d’entre eux aient accidentellement partagé des données sensibles relatives aux semi-conducteurs avec ChatGPT. D’autres entreprises, telles qu’Apple et Amazon, auraient également adopté une politique interne similaire.