Google wyjaśnił, jak wyszukiwarka przetwarza treści wideo
Google skomentował, w jaki sposób jego system wyszukiwania przetwarza zawartość plików wideo. Szczegóły zostały udostępnione w marcowym odcinku podcastu Search Off The Record.
Menadżer produktu – Daniel Marshak, wyróżnił sześć głównych typów danych do ekstrakcji i analizy przez wyszukiwarkę:
- dźwięk do rozpoznawania dźwięków i słów występujących w wideo;
- znaki, symbole i nagłówki, które segmentują sekwencję wideo;
- komponent wizualny, który obejmuje obiekty żywe i nieżywe;
- dane strukturalne potrzebne do zrozumienia wideo przez system wyszukiwania;
- dane strukturalne, dzięki którym Google lokalizuje sekwencję wideo;
- fragmenty tekstu pod wideo.
Marshak szczególnie podkreśla znaczenie strukturyzacji danych, gdyż system wyszukiwania dąży do dogłębnego badania i zrozumienia treści wideo. Według przedstawiciela firmy, Google jest wciąż „na początku drogi” w tej kwestii.
W podcaście Marshak podzielił się również planami Google dotyczącymi zwiększenia liczby krótkich filmów w wynikach wyszukiwania. W przyszłości ten format może być wykorzystywany jako materiał edukacyjny przez system wyszukiwania.