User privacy in collaborative filtering systems (Protection de la vie privée des utilisateurs de systèmes de filtrage collaboratif) Rault, Antoine - (2016-06-23) / Universite de Rennes 1 User privacy in collaborative filtering systems
| |||
Langue : Anglais Directeur(s) de thèse: Kermarrec, Anne-Marie; Frey, Davide Discipline : Informatique Laboratoire : INRIA-RENNES Ecole Doctorale : MATISSE Classification : Informatique Mots-clés : Algorithmes, Vie privée, Systèmes de recommandation (informatique), Réseaux poste à poste (informatique)
| |||
Résumé : Les systèmes de recommandation essayent de déduire les intérêts de leurs utilisateurs afin de leurs suggérer des items pertinents. Ces systèmes offrent ainsi aux utilisateurs un service utile car ils filtrent automatiquement les informations non-pertinentes, ce qui évite le problème de surcharge d’information qui est courant de nos jours. C’est pourquoi les systèmes de recommandation sont aujourd’hui populaires, si ce n’est omniprésents dans certains domaines tels que le World Wide Web. Cependant, les intérêts d’un individu sont des données personnelles et privées, comme par exemple son orientation politique ou religieuse. Les systèmes de recommandation recueillent donc des données privées et leur utilisation répandue nécessite des mécanismes de protection de la vie privée. Dans cette thèse, nous étudions la protection de la confidentialité des intérêts des utilisateurs des systèmes de recommandation appelés systèmes de filtrage collaboratif (FC). Notre première contribution est Hide & Share, un nouveau mécanisme de similarité, respectueux de la vie privée, pour la calcul décentralisé de graphes de K-Plus-Proches-Voisins (KPPV). C’est un mécanisme léger, conçu pour les systèmes de FC fondés sur les utilisateurs et décentralisés (ou pair-à-pair), qui se basent sur les graphes de KPPV pour fournir des recommandations. Notre seconde contribution s’applique aussi aux systèmes de FC fondés sur les utilisateurs, mais est indépendante de leur architecture. Cette contribution est double : nous évaluons d’abord l’impact d’une attaque active dite « Sybil » sur la confidentialité du profil d’intérêts d’un utilisateur cible, puis nous proposons une contre-mesure. Celle-ci est 2-step, une nouvelle mesure de similarité qui combine une bonne précision, permettant ensuite de faire de bonnes recommandations, avec une bonne résistance à l’attaque Sybil en question. Abstract : Recommendation systems try to infer their users’ interests in order to suggest items relevant to them. These systems thus offer a valuable service to users in that they automatically filter non-relevant information, which avoids the nowadays common issue of information overload. This is why recommendation systems are now popular, if not pervasive in some domains such as the World Wide Web. However, an individual’s interests are personal and private data, such as one’s political or religious orientation. Therefore, recommendation systems gather private data and their widespread use calls for privacy-preserving mechanisms. In this thesis, we study the privacy of users’ interests in the family of recommendation systems called Collaborative Filtering (CF) ones. Our first contribution is Hide & Share, a novel privacy-preserving similarity mechanism for the decentralized computation of K-Nearest-Neighbor (KNN) graphs. It is a lightweight mechanism designed for decentralized (a.k.a. peer-to-peer) user-based CF systems, which rely on KNN graphs to provide recommendations. Our second contribution also applies to user-based CF systems, though it is independent of their architecture. This contribution is two-fold: first we evaluate the impact of an active Sybil attack on the privacy of a target user’s profile of interests, and second we propose a counter-measure. This counter-measure is 2-step, a novel similarity metric combining a good precision, in turn allowing for good recommendations, with high resilience to said Sybil attack. |