CD-Labor for Weiterentwicklung des State-of-the-Art von Recommender-Systemen in mehreren Domänen

Ähnliche Produktempfehlungen können schnell eintönig wirken. Dies lässt sich ändern, indem die Empfehlungen diverser ausfallen und für einen Überraschungsmoment sorgen. Dabei sollte aber auch das Gesamtverhalten des Systems berücksichtigt werden, da Feedback-Schleifen zu mehr Bias und Filterblasen führen können.

In den letzten Jahren haben Recommender Systeme und Personalisierung immer mehr Aufmerksamkeit in Wissenschaft, Industrie und Gesellschaft erlangt. Die Zahl der Websites, Social-Media-Plattformen und Online-Systeme, die das Informationsbedürfnis und die Produktsuche ihrer User durch personalisierte Vorschläge unterstützen, nimmt rasant zu. Mit der zunehmenden Verbreitung von auf künstlicher Intelligenz und maschinellem Lernen basierenden Systemen wird auch mehr und mehr über deren Rolle und Auswirkungen diskutiert. Der umfangreiche öffentliche Diskurs über Filterblasen, Fake News, Micro-Targeting und verwandte Phänomene während der COVID-Krise und bei kürzlich stattgefundenen Wahlen zeigt ein starkes gesellschaftliches Interesse an diesem Thema. Für einige dieser Probleme können Personalisierung und Recommender Systeme verantwortlich gemacht werden – zumindest teilweise.

 

Viele traditionelle Empfehlungstechniken sind darauf ausgerichtet, die Genauigkeit („Accuracy“) vorherzusagen, d. h. sie zielen darauf ab, abzuschätzen, wie ein Benutzer/eine Benutzerin bestimmte Produkte bewertet und zwar basierend auf Logfiles früherer Interaktionen. Infolgedessen ähneln Empfehlungen dieser Systeme für einen bestimmten Benutzer/eine bestimmte Benutzerin tendenziell Produkten, die dieser Benutzer/diese Benutzerin zuvor gekauft oder konsumiert hat. Daher ist die „Accuracy“ dieser Systeme oft ziemlich hoch, d. h. die Empfehlungen des Systems sind korrekt, aber die Menschen sind nicht wirklich überrascht von dem, was ihnen vorgeschlagen wird. Die starke Berücksichtigung der „Accuracy“ kann darüber hinaus dazu führen, dass das System immer unfairer wird, also einen immer stärkeren Bias aufweist. Dies liegt an einer iterativen Verstärkung, bei der das System seine Empfehlungen immer mehr an das Feedback des Users anpasst, was zu einem immer engeren Empfehlungsraum führt („Filterblase“). Generell ist es aber heute unumstritten, dass die Qualität eines Recommender Systems deutlich über das Messen der „Accuracy“ hinausgeht. Daher werden zunehmend andere Lösungsdimensionen berücksichtigt („Beyond Accuracy“ Lösungen, z. B. Neuheit, Diversität oder Serendipität). Obwohl es dadurch deutliche Verbesserungen gibt, sind viele entscheidende Herausforderungen nach wie vor ungelöst. Insbesondere fehlt ein tieferes Verständnis dafür, wie die „Accuracy“ eines Systems durch das Optimieren auf „Beyond Accuracy“ Lösungen beeinflusst wird. Darüber hinaus fehlt es eindeutig an Forschung, die untersucht, wie sowohl „Accuracy“ als auch „Beyond Accuracy“ Lösungen dynamisch mit Bias zusammenhängen, z. B. ob auch Systeme, die auf Diversität u. Ä. optimieren, letztendlich unfair werden. Darüber hinaus werden in der Regel sehr einfache Usermodelle berücksichtigt, und „Beyond Accuracy“ Lösungen werden weder an die Bedürfnisse oder Vorlieben bestimmter User oder Usergruppen noch an unterschiedliche Domänen (z. B. Nachrichten vs. Mode) angepasst. Studien zeigen jedoch deutlich, dass diese Aspekte berücksichtigt werden sollten, auch bei der Untersuchung von Fairness bzw. Bias.

 

Dieses CD-Labor setzt sich mit solchen Fragen auseinander. Es werden neuartige Ansätze entwickelt, die sich besser an die Domäne sowie an Vorlieben und Bedürfnisse verschiedener User oder Usergruppen anpassen und gleichzeitig Bias entdecken. Zu diesem Zweck werden unter anderem „Beyond Accuracy“ Maße wie Neuheit, Diversität und Serendipität in Betracht gezogen. Um dies zu erreichen, wird ein Multi-Level-Usermodell eingeführt, das die User in Bezug auf drei verschiedene Ebenen erfasst, nämlich der individuellen Ebene, der Gruppenebene und der Netzwerkebene. Um diese Ebenen gemeinsam zugänglich zu machen und im Rahmen von Empfehlungsalgorithmen einzusetzen, werden umfangreiche und vielschichtige Features extrahiert und für das Lernen von User- und Produkt-Embeddings in einem gemeinsamen metrischen Raum verwendet. Außerdem, um ein robustes Usermodell zu erhalten, das tatsächlich dabei hilft, „Beyond Accuracy“ Lösungen systematisch für verschiedene Domänen zu untersuchen, werden maschinelles Lernen und Data Mining mit Frameworks aus den Sozialwissenschaften (insbesondere mit Sozialer Netzwerkanalyse und Bourdieus Theorie des sozialen Raums) verbunden. Ein weiteres sehr wichtiges und insgesamt viel zu wenig erforschtes Ziel, ist das Modellieren der zeitlichen Dynamik verschiedener miteinander verbundener Ergebnisdimensionen (d. h. „Accuracy“, Diversität, Neuheit und Serendipität) sowie Bias. Darauf aufbauend wird ein Framework entwickelt, um die Fairness solcher Systeme zu erhöhen und Bias je nach Domäne zu minimieren.

Die zeitliche Dynamik von Bias in Recommender Systemen ist wenig erforscht. In diesem CD-Labor werden Methoden entwickelt, um das Verhalten verschiedener miteinander verknüpfter Ergebnisdimensionen ( Accuracy, Diversität, Neuheit und Serendipität) und Bias unter Berücksichtigung unterschiedlicher Domänen und einer Multi-Level-Sicht auf die User (individuelle, Gruppen- und Netzwerkebene) zu modellieren und vorherzusagen.

Links

Website zum CD-Labor

Christian Doppler Forschungsgesellschaft

Boltzmanngasse 20/1/3 | 1090 Wien | Tel: +43 1 5042205 | Fax: +43 1 5042205-20 | office@cdg.ac.at

© 2020 Christian Doppler Forschungsgesellschaft