Visuelle Inhalte, KI und Co
26.09.2018, 09:15 Uhr
Das ist die Google-Suche der Zukunft
Zum 20. Geburtstag wirft Google einen Blick in die Zukunft der Suche. Kern ist die Frage: Wie können mehr Informationen für mehr Menschen in aller Welt zugänglich gemacht werden? Dabei stehen drei große Veränderungen der Google-Suche im Mittelpunkt.
Die Grundlage der neuen Suchfunktionen ist Künstliche Intelligenz.
(Quelle: shutterstock.com/chombosan)
Google verarbeitet jeden Tag Milliarden von Suchanfragen, rund 15 Prozent davon sind neu und werden zum ersten Mal gestellt. Eine solche Anzahl lässt sich nur durch einen Algorithmus effektiv bewältigen. Der PageRank-Algorithmus ist dabei die Grundlage der Suche. Er soll Nutzern die relevantesten und nützlichsten Informationen zur Verfügung stellen - das gilt bis heute. Zum 20. Geburtstag nun spendiert Google seiner Suche einige neue Features, die zeigen, wohin die Search-Reise geht.
Kern sind drei Funktionen. Neben dem Update für den Google Feed, der sich jetzt Discover nennt, gibt es nun die sogenannten Aktivitätskärtchen und Sammlungen, die in die Google-Suche eingebaut werden. Spannend ist aber vor allem der dritte Aspekt: Der Konzern baut mehr visuelle Elemente in die Google-Suche ein und gestaltet "Google Bilder" komplett neu.
Grundlage ist KI
Grundsätzlich ist die Basis dieser neuen Funktionen Künstliche Intelligenz (KI). "Jetzt können wir Sprache auf eine Weise verstehen, die noch nicht möglich war, als Google gegründet wurde. Diese neuen Entwicklungen sind unglaublich spannend, denn als ich vor 20 Jahren anfing, neuronale Netze zu erforschen, funktionierten diese noch nicht wirklich gut. Oder eher überhaupt nicht. Jetzt aber haben wir den Punkt erreicht, an dem neuronale Netze uns einen entscheidenden Schritt weiterhelfen, wenn es darum geht, nicht nur Worte zu verstehen, sondern Konzepte", erklärt Ben Gomes, VP, Search, Assistant und News.
Mit sogenannten Neural Embeddings, einer Form neuronaler Netze, kann Google Worte in allgemeinere Darstellungen der zugrundeliegenden Konzepte verwandeln. Diese Konzepte gleicht das Unternehmen in der Suchanfrage mit den Konzepten der Websites ab. Diese Methode nennt man "Neural Matching".
Auf diese Weise kann der Algorithmus Suchanfragen wie "Warum sieht mein Fernseher so komisch aus?" beantworten und die passenden Ergebnisse liefern, selbst wenn der genaue Wortlaut nicht auf der Website enthalten ist. KI kommt aber auch in anderen Feldern zum Einsatz, wenn es zum Beispiel darum geht, potenziell durch eine Überflutung gefährdete Gebiete vorauszusagen oder den Traumjob zu finden.
Maschinelles Sehen
Das leitet auch zum dritten neuen Aspekt über - den Updates für Google Bilder, Googles umfassende Suche nach visuellen Inhalten. Auch hier wird der Konzern verstärkt KI nutzen, um die Bildersuche visueller und angenehmer zu gestalten.
Die erste Neuerung betrifft das AMP-Projekt und die AMP Stories, eine Open-Source-Bibliothek, die es jedem ermöglicht, eine Geschichte im Netz zu veröffentlichen. Obwohl es damit die Nutzer auch visuelle Geschichten entdecken können, wird dieser Content ab sofort auch in Google Bilder und Discover angezeigt. "Mit Hilfe von Künstlicher Intelligenz beginnen wir ab sofort damit, AMP-Geschichten intelligent zu konstruieren und diese Inhalte in der Suche zu präsentieren", so das Unternehmen.
Neuer Algorithmus bei Google Bilder
Im Laufe des vergangenen Jahres hat Google den Algorithmus von Google Bilder überarbeitet, um Suchergebnisseiten einzuordnen, die sowohl gute Bilder als auch sehr gute Inhalte bieten. Daher ist die Autorität einer Webseite jetzt ein noch wichtigeres Signal für das Ranking. Wenn Nutzer zum Beispiel nach "Regale selber bauen" suchen, ist die Website hinter dem Bild jetzt eher eine Website für DIY-Projekte.
"Wir priorisieren auch neuere Inhalte, sodass es wahrscheinlicher ist, dass Nutzer eine Website besuchen, die kürzlich aktualisiert wurde", sagt Gomes. Und: "Wir priorisieren Websites, bei denen das Bild zentral auf der Seite selbst und weiter oben auf der Seite eingebunden ist. Wenn ihr also zum Beispiel ein bestimmtes Paar Schuhe kaufen möchtet, wird eine Produktseite, die extra für dieses Paar Schuhe erstellt wurde, priorisiert, im Gegensatz zu einer Übersichtsseite, die eine Reihe von Schuhen zeigt. Ab dieser Woche werden wir auch mehr Kontext zu Bildern anzeigen, einschließlich Bildunterschriften, die euch den Titel der Webseite verraten, auf der jedes Bild veröffentlicht wird."
Das sei wichtig, damit man die Seite hinter dem Bild auf den ersten Blick besser verstehen könne. Google schlägt oben auf der Seite auch verwandte Suchbegriffe vor, um Nutzer bei einer erweiterten Suche zu unterstützen. Das funktioniert schon auf Mobilgeräten - nun wird es auch auf den Desktop ausgerollt, denn hier sei ein größerer Bildschirm für komplexe Aufgaben wichtig.
"Wir priorisieren auch neuere Inhalte, sodass es wahrscheinlicher ist, dass Nutzer eine Website besuchen, die kürzlich aktualisiert wurde", sagt Gomes. Und: "Wir priorisieren Websites, bei denen das Bild zentral auf der Seite selbst und weiter oben auf der Seite eingebunden ist. Wenn ihr also zum Beispiel ein bestimmtes Paar Schuhe kaufen möchtet, wird eine Produktseite, die extra für dieses Paar Schuhe erstellt wurde, priorisiert, im Gegensatz zu einer Übersichtsseite, die eine Reihe von Schuhen zeigt. Ab dieser Woche werden wir auch mehr Kontext zu Bildern anzeigen, einschließlich Bildunterschriften, die euch den Titel der Webseite verraten, auf der jedes Bild veröffentlicht wird."
Das sei wichtig, damit man die Seite hinter dem Bild auf den ersten Blick besser verstehen könne. Google schlägt oben auf der Seite auch verwandte Suchbegriffe vor, um Nutzer bei einer erweiterten Suche zu unterstützen. Das funktioniert schon auf Mobilgeräten - nun wird es auch auf den Desktop ausgerollt, denn hier sei ein größerer Bildschirm für komplexe Aufgaben wichtig.
Google Lens
Vergangenes Jahr eingeführt, benutzen User die mobile Bilderkennungsanwendung Lens in ihrer Kamera und auf ihren Fotos, um zum Beispiel bestimmte Stücke eines Outfits zu finden, das ihnen gefällt, mehr über Sehenswürdigkeiten zu erfahren oder die Rasse des Hundes im Park zu identifizieren. In den kommenden Wochen wird Lens nun bei Google Bilder eingeführt.
Die KI hinter Google Lens analysiert Bilder und erkennt interessante Objekte darin. Wenn der Nutzer eines dieser Objekte auswählt, zeigt Lens relevante Bilder an, von denen viele mit Produktseiten verlinkt sind, so dass User ihre Suche fortsetzen oder den Artikel kaufen können.
Die KI hinter Google Lens analysiert Bilder und erkennt interessante Objekte darin. Wenn der Nutzer eines dieser Objekte auswählt, zeigt Lens relevante Bilder an, von denen viele mit Produktseiten verlinkt sind, so dass User ihre Suche fortsetzen oder den Artikel kaufen können.