Google erklärt, wie die Suchmaschine mit Videoinhalten arbeitet
Google hat kommentiert, wie sein Suchsystem mit Videodateiinhalten umgeht. Details wurden in der Märzausgabe des Podcasts Search Off The Record geteilt.
Produktmanager Daniel Marshak hob sechs Hauptdatentypen hervor, die für die Extraktion und Untersuchung durch Suchmaschinen entscheidend sind:
- Audio zur Erkennung von Geräuschen und Wörtern im Video;
- Zeichen, Symbole und Überschriften, die die Videosequenz segmentieren;
- die visuelle Komponente, die lebende und unbelebte Objekte umfasst;
- strukturierte Daten, die für das Verständnis des Videos durch das Suchsystem erforderlich sind;
- strukturierte Daten, durch die Google die Videosequenz lokalisiert;
- Textfragmente unter dem Video.
-
-
Marshak betont insbesondere die Strukturierung der Daten, da das Suchsystem eine tiefgehende Untersuchung und ein Verständnis der Videoinhalte anstrebt. Laut des Unternehmensvertreters befindet sich Google diesbezüglich noch “an der Spitze des Eisbergs”.
Im Podcast teilte Marshak auch die Pläne von Google, die Anzahl der Kurzvideos in den Suchergebnissen zu erhöhen. In Zukunft könnte dieses Format vom Suchsystem als Lehrmaterial verwendet werden.