Meta, la maison mère de Facebook, envisage d’incorporer des chatbots avec des personnalités individualisées dans son application de réseau social. Ce déploiement, qui pourrait se faire dès septembre, poserait un défi à des rivaux tels que ChatGPT, toutefois des inquiétudes concernant la confidentialité des utilisateurs surgissent.
Chatbots dans Facebook, des questions se posent
La source de cette information est le Financial Times, qui explique que l’objectif serait de stimuler l’interaction des utilisateurs de Facebook. Le nouvel outil pourrait accomplir ceci en proposant de nouvelles options de recherche ou en suggérant du contenu, tout cela à travers des conversations de type humain.
Selon les informations du Financial Times, les chatbots pourraient adopter plusieurs formes, y compris « un simulant Abraham Lincoln et un autre offrant des conseils de voyage à la manière d’un surfeur« .
Ce ne serait pas la première occurrence de chatbots adoptant des personnalités spécifiques ou engageant des conversations à la manière de personnes célèbres. Le chatbot Character.ai, par exemple, peut prendre de multiples personnalités différentes, incluant celles de personnalités et figures historiques.
Des questions sur la confidentialité émergent
Malgré le potentiel prometteur des chatbots de Meta, des préoccupations ont été soulevées concernant la quantité d’informations qu’ils pourraient recueillir, d’autant plus que Facebook a un historique controversé en ce qui concerne la protection de la vie privée des utilisateurs.
Ravit Dotan, conseiller et chercheur en éthique de l’IA, a été cité par le Financial Times disant : « Lorsque les utilisateurs interagissent avec un chatbot, ils dévoilent beaucoup plus de leurs données à l’entreprise, qui peut alors en faire ce qu’elle souhaite. »
Cela soulève non seulement des inquiétudes quant à des violations massives de la confidentialité, mais aussi le risque de « manipulation et d’influence » des utilisateurs, ajoute M. Dotan.
Un danger potentiel
D’autres chatbots, tels que ChatGPT et Bing Chat, ont été témoins d' »hallucinations« , c’est-à-dire des moments où ils fournissaient des informations inexactes, voire carrément fausses. Les dégâts possibles provoqués par la désinformation et le parti pris pourraient être bien plus considérables sur Facebook, qui compte près de quatre milliards d’utilisateurs, comparé à d’autres chatbots concurrents.
Les essais précédents de Meta en matière de chatbots n’ont pas été concluants, avec BlenderBot 2 et BlenderBot 3 qui ont rapidement sombré dans la diffusion de contenus trompeurs et de discours haineux. Ceci n’inspire pas beaucoup de confiance aux utilisateurs quant à la dernière tentative de Meta.
Avec septembre se profilant à l’horizon, nous n’aurons peut-être pas à attendre longtemps pour voir si Facebook peut surmonter ces défis, ou si nous assisterons à un autre lancement marqué par des « hallucinations« , comme ceux expérimentés par d’autres acteurs du domaine. Dans tous les cas, cela sera intéressant à suivre.