Εξηγήσεις με αντιπαράδειγμα για συστήματα συστάσεων με προκαταλήψεις.
Φόρτωση...
Ημερομηνία
Συγγραφείς
Ζαφειρίου, Λεωνίδας
Zafeiriou, Leonidas
Τίτλος Εφημερίδας
Περιοδικό ISSN
Τίτλος τόμου
Εκδότης
Πανεπιστήμιο Ιωαννίνων. Πολυτεχνική Σχολή. Τμήμα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικής
Περίληψη
Τύπος
Είδος δημοσίευσης σε συνέδριο
Είδος περιοδικού
Είδος εκπαιδευτικού υλικού
Όνομα συνεδρίου
Όνομα περιοδικού
Όνομα βιβλίου
Σειρά βιβλίου
Έκδοση βιβλίου
Συμπληρωματικός/δευτερεύων τίτλος
Περιγραφή
Σήμερα, βασιζόμαστε σε μεγάλο βαθμό σε αυτόματους αλγόριθμους συστάσεων για να μας βοηθήσουν στη λήψη αποφάσεων σε πολλά θέματα, όπως τα περιεχόμενα που καταναλώνουμε, τα αντικείμενα που αγοράζουμε ή τις καριέρες που ακολουθούμε. Αυτοί οι αλγόριθμοι χρησιμοποιούν προηγμένες τεχνικές μηχανικής μάθησης που εκπαιδεύονται σε μεγάλους όγκους δεδομένων αλληλεπίδρασης των χρηστών. Ως αποτέλεσμα, ενσωματώνουν διάφορες προκαταλήψεις στις συστάσεις τους, όπου ορισμένες ομάδες χρηστών ή αντικειμένων αντιμετωπίζονται διαφορετικά. Παρόλο που αυτές οι προκαταλήψεις είναι ως ένα σημείο απαραίτητες ώστε να δοθούν εξατομικευμένες συστάσεις, μπορούν να οδηγήσουν σε άνιση αντιμετώπιση ορισμένων
ομάδων.
Η κατανόηση των προκαταλήψεων των συστημάτων συστάσεων είναι σημαντική για την παρακολούθηση της ορθής λειτουργίας του συστήματος συστάσεων και την επίτευξη της δικαιοσύνης. Ωστόσο, λόγω της πολυπλοκότητας των αλγορίθμων συστάσεων, αυτό γίνεται όλο και πιο δύσκολο. Για να αντιμετωπιστεί αυτό το ζήτημα, υπάρχει ένα ισχυρό κίνημα έρευνας προς την παραγωγή διαφορετικών τύπων εξηγήσεων για τη συμπεριφορά των αλγορίθμων. Ένας τύπος εξηγήσεων είναι οι εξηγήσεις με αντιπαράδειγμα, όπου αναζητούμε μια μικρή αλλαγή στα δεδομένα εισόδου που θα επιτύχει μια επιθυμητή αλλαγή στην έξοδο του αλγορίθμου σε μια συγκεκριμένη περίπτωση δεδομένων, για παράδειγμα, αύξηση του σκορ του συστήματος συστάσεων για ένα συγκεκριμένο ζεύγος χρήστη-αντικειμένου. Στην παρούσα εργασία, εξετάζουμε εξηγήσεις με αντιπαράδειγμα για τις προκαταλήψεις σε συστήματα συστάσεων. Δεδομένου ότι οι προκαταλήψεις καθορίζονται σε σχέση με ομάδες χρηστών και αντικειμένων αντί για συγκεκριμένα ζεύγη χρηστή-αντικειμένου, γενικεύουμε τον ορισμό των εξηγήσεων με αντιπαράδειγμα
για να αντιμετωπίσουμε αυτήν την περίπτωση. Εξετάζουμε διαφορετικούς τύπους εξηγήσεων. Αρχικά, εξετάζουμε τους μεμονωμένους χρήστες και αναζητούμε εξηγήσεις γιατί ένας χρήστης δεν λαμβάνει αρκετές προτάσεις για μια συγκεκριμένη κατηγορία αντικειμένων. Επεκτείνουμε αυτές τις εξηγήσεις στην περίπτωση που
έχουμε μια ομάδα χρηστών αντί για έναν μεμονωμένο χρήστη. Στη συνέχεια, εξετάζουμε τα μεμονωμένα αντικείμενα και αναζητούμε εξηγήσεις γιατί δεν προτείνονται σε μια συγκεκριμένη ομάδα χρηστών. Επεκτείνουμε και πάλι τις εξηγήσεις αυτές για την περίπτωση όπου έχουμε μία ομάδα αντικειμένων αντί για ένα μεμονωμένο
αντικείμενο.
Θεωρούμε ένα σύστημα συστάσεων τυχαίου περίπατου βασισμένου σε γραφήματα και προτείνουμε αλγορίθμους για τον υπολογισμό εξηγήσεων με αντιπαράδειγμα. Οι αλγόριθμοι μας χρησιμοποιούν εργαλεία Γραμμικής Άλγεβρας για τον αποδοτικό υπολογισμό της αλλαγής της πόλωσης του συστήματος συστάσεων και μπορούν να εφαρμοστούν και σε μεγάλα σύνολα δεδομένων. Κάνουμε πειραματική αξιολόγηση των αλγορίθμων μας χρησιμοποιώντας ένα σύνολο ταινιών, καθώς και συνθετικά δεδομένα. Τα πειράματά μας μελετάνε την δυσκολία εύρεσης εξηγήσεων για διάφορες περιπτώσεις και παρέχουν κατανόηση των χαρακτηριστικών του συνόλου δεδομένων τα οποία επηρεάζουν τις εξηγήσεις.
Today, we rely heavily on automated recommendation algorithms for assisting us in making several decisions, such as the content we consume, the items we buy, or the careers we pursue. These algorithms use sophisticated machine learning techniques that are trained on large quantities of user interaction data. As a result they incorporate various biases in their recommendations, where certain groups of users or items are treated differently. Understanding the recommender biases is important in monitoring the health of the recommendation system and achieving fairness. However, given the complexity of recommender algorithms, this is becoming increasingly difficult. To address this issue there is a strong research movement towards producing different types of explanations for the behavior of the algorithms. One type of explanations is counterfactual explanations where we look for a small number of changes in the input data that will achieve a desired change in the output of the algorithm on a specific data instance, e.g., increase the score of the recommender for a specific useritem pair. In this work, we consider counterfactual explanations for recommendation bias. Given that bias is defined with respect to groups of users and items instead of specific user-item pairs, we generalize the definition of counterfactual explanations to handle this case. We then consider a random-walk based recommender, and we propose algorithms for computing the counterfactual explanations. Our algorithms are efficient and they can be applied to large datasets. We perform an experimental evaluation of our algorithms using both real and synthetic data.
Today, we rely heavily on automated recommendation algorithms for assisting us in making several decisions, such as the content we consume, the items we buy, or the careers we pursue. These algorithms use sophisticated machine learning techniques that are trained on large quantities of user interaction data. As a result they incorporate various biases in their recommendations, where certain groups of users or items are treated differently. Understanding the recommender biases is important in monitoring the health of the recommendation system and achieving fairness. However, given the complexity of recommender algorithms, this is becoming increasingly difficult. To address this issue there is a strong research movement towards producing different types of explanations for the behavior of the algorithms. One type of explanations is counterfactual explanations where we look for a small number of changes in the input data that will achieve a desired change in the output of the algorithm on a specific data instance, e.g., increase the score of the recommender for a specific useritem pair. In this work, we consider counterfactual explanations for recommendation bias. Given that bias is defined with respect to groups of users and items instead of specific user-item pairs, we generalize the definition of counterfactual explanations to handle this case. We then consider a random-walk based recommender, and we propose algorithms for computing the counterfactual explanations. Our algorithms are efficient and they can be applied to large datasets. We perform an experimental evaluation of our algorithms using both real and synthetic data.
Περιγραφή
Λέξεις-κλειδιά
Πόλωση, Bias, Δικαιοσύνη, Fairness, Εξηγήσεις, Explanations
Θεματική κατηγορία
Παραπομπή
Σύνδεσμος
Γλώσσα
en
Εκδίδον τμήμα/τομέας
Πανεπιστήμιο Ιωαννίνων. Πολυτεχνική Σχολή. Τμήμα Μηχανικών Ηλεκτρονικών Υπολογιστών και Πληροφορικής
Όνομα επιβλέποντος
Tsaparas, Panayiotis
Εξεταστική επιτροπή
Tsaparas, Panayiotis
Pitoura, Evaggelia
Mamoulis, Nikos
Pitoura, Evaggelia
Mamoulis, Nikos
Γενική Περιγραφή / Σχόλια
Ίδρυμα και Σχολή/Τμήμα του υποβάλλοντος
Πανεπιστήμιο Ιωαννίνων. Πολυτεχνική Σχολή
Πίνακας περιεχομένων
Χορηγός
Βιβλιογραφική αναφορά
Ονόματα συντελεστών
Pitoura, Evaggelia
Αριθμός σελίδων
42 σ.
Λεπτομέρειες μαθήματος
item.page.endorsement
item.page.review
item.page.supplemented
item.page.referenced
Άδεια Creative Commons
Άδεια χρήσης της εγγραφής: Attribution-NonCommercial-NoDerivs 3.0 United States