HearAI, a ML - czyli o wyzwaniach w rozpoznawaniu języka migowego.

W swojej prezentacji opowiem o pół(tora)rocznym wolontariacie HearAI, którego celem było zbadanie możliwości automatyzacji tłumaczenia języka migowego. W odróżnieniu od większości istniejących badań, dane wykorzystane w procesie uczenia maszynowego opisane są w HamNoSys, czyli notacji opisującej charakterystykę poszczególnych znaków w języku migowym. Teoretycznie, umożliwia to wytrenowanie modelu niezależnego od języka migowego (tak, języków migowych jest wiele ;)). O stronie praktycznej opowiem podczas wystąpienia.

speaker photo

Marta Plantykow

CEO w HearAI. Magister kierunku Informatyka na Politechnice Gdańskiej z 8-letnim doświadczeniem w tworzeniu oprogramowania, entuzjastka Sztucznej Inteligencji.

zobacz nagranie