Poznaj wielorękich bandytów, którzy pomagają nam personalizować Onet.pl

Wyobraź sobie, że spośród kilkuset artykułów musisz wybrać te, które najbardziej spodobają się użytkownikom. Dlaczego? Bo od tego zależy Twój zysk. Nie jest to ani łatwe, ani tak nieosiągalne jak mogłoby się wydawać. Dlatego podczas tej prezentacji pokażę, jak wykorzystaliśmy algorytm wielorękiego bandyty do stworzenia rekomendacji dla milionów użytkowników na stronie głównej onet.pl.
Wieloręcy bandyci są skutecznym rozwiązaniem dla problemów optymalizacyjnych, które wymagają równowagi między eksploracją i eksploatacją. Poza przekazaniem intuicji na temat metod wielorękich bandytów i omówieniem ich zastosowania w systemach rekomendacyjnych, przedstawię bandytów E-greedy, UCB i Thompson Sampling, powiem, za co najbardziej ich lubimy oraz pokażę, jak dobrać dla nich konfigurację w drodze symulacji.

speaker photo

Artur Bujak

Senior Data Scientist od dwóch lat tworzy rozwiązania ML w obszarze publishingu.

zobacz nagranie