"Model został wytrenowany... i co dalej?" - AI Inference

Po wytrenowaniu danego modelu, często przechodzi się do produktyzacji rozwiązania. Jak można przyspieszyć już wytrenowany model? Czy wystarczy "dorzucić większą ilości GPU"? Podczas prezentacji zostanie omówione: - czym jest ""inferencja"" i dlaczego jest tak istotna w świecie AI. - czy zawsze przy optymalizacji trzeba dokonać ingerencji w sam model. - jak poprawić wydajność AI pipelines bez (znaczącej) utraty jakości rozwiązania (... zazwyczaj:)). - czy AI to tylko zadanie dla Python'a.

speaker photo

Jan Iwaszkiewicz

Od 3 lat AI Frameworks Engineer w Intel'u, wcześniej GPU Software Developer. Głównie zajmuję się projektowaniem APIs i optymalizacją bibliotek. W wolnym czasie: rysunek, koszykówka i podróżowanie po świecie Open-source.

zobacz nagranie