Google forklarte hvordan søkemotoren fungerer med videoinnhold
Google kommenterte hvordan deres søkesystem prosesserer innhold i videofiler. Detaljene ble delt i mars-episoden av podcasten Search Off The Record.
Produktleder – Daniel Marshak, fremhevet seks hovedtyper av data for søkemotorekstraksjon og studie:
- lyd for å gjenkjenne lyder og ord funnet i videoen;
- tegn, symboler og overskrifter som segmenterer video sekvensen;
- den visuelle komponenten, som inkluderer levende og ikke-levende objekter;
- strukturerte data nødvendig for å forstå videoen med søkesystemet;
- strukturerte data som Google bruker for å lokalisere video sekvensen;
- tekstfragmenter under videoen.
Marshak understreker spesielt struktureringen av data, ettersom søkesystemet sikter på en dyptgående studie og forståelse av videoinnholdet. Ifølge selskapets representant, er Google fortsatt “på toppen av isfjellet” i denne sammenheng.
I podcasten delte Marshak også Googles planer om å øke antall korte videoer i søkeresultatene. I fremtiden kunne dette formatet brukes som et undervisningsmateriale av søkesystemet.