Die Suche nach Informationen ist eine alltäglich wiederkehrende Notwendigkeit. Viele Menschen benötigen Informationen für die Arbeit, die Schule, Diskussionen, eine Reise oder schlichtweg für die Ausführung von Tätigkeiten. Darüber hinaus spielt auch die menschliche Neugier eine große Rolle beim Googlen. Deshalb spielen Suchmaschinen eine so große Rolle; allen voran Google. Allerdings ist auch die Einordnung von Informationen wichtiger denn je, während zudem nicht mehr nur Text als Eingabe- oder Ausgabeformat bei der Suche relevant ist. Deshalb denkt Google die Suche neu. Bereits Anfang 2022 wurde die Option Multisearch vorgestellt, die es Menschen auf Grundlage der Technologie Multitask Unified Model (MUM) ermöglicht, mehr als die Search Box zum Suchen zu nutzen. Mit Multisearch können User via Lens mit Bildern und Wörtern zugleich genau das suchen und entdecken, was sie mit Sprache allein womöglich nicht gefunden hätten.

Nun geht Google noch einen Schritt weiter. Im Rahmen der I/O 2022 stellte das Unternehmen eine neue Art der Suche vor. Sprache, Bilder und Text sollen kombiniert für das Sucherlebnis eingesetzt werden können, sodass Nutzer:innen unmittelbar und kontextbezogen Informationen zu Dingen finden, die sie sehen, an die sie denken oder die sie gehört haben. Zudem lassen sich künftig nicht nur einzelne Objekte, sondern ganze visuelle Szenen für die Suche erkennen.

Multisearch als Meilenstein bei Google: „Heute definieren wir die Google Suche neu“

Schon jetzt können User bei Google leicht Songs ermitteln, die sie gehört haben, aber deren Namen sie nicht kennen. Auch Pflanzensorten, die sie sehen, aber nicht kennen, lassen sich via Lens ermitteln. Viele Informationen, die vor Jahren noch zahlreiche Suchanfragen benötigt hätten, um auf sie zu stoßen, können heute einfacher hervorgebracht werden. Auch dank Googles Multisearch. Gleichzeitig mit Bildern und Text suchen zu können, ist eine der bedeutendsten Entwicklungen der vergangenen Jahre für die Suche, meint Prabhakar Raghavan, Senior Vice President bei Google. Nun erklärt er auf dem Google Blog The Keyword Deutschland:

Heute definieren wir die Google Suche neu und kombinieren unser Verständnis aller Arten von Informationen – Text, Sprache, Bild und mehr – damit ihr nützliche Informationen zu allem, was ihr seht, hört und erlebt, auf die intuitivste Weise finden könnt. Wir stellen uns eine Zukunft vor, in der ihr eure ganze Welt auf jede Art und Weise durchsuchen könnt.

Bald können Nutzer:innen die Multisearch-Optionen auch für lokale Informationen anwenden. Diese können beispielsweise ein Bild oder einen Screenshot verwenden und in der Suche „in meiner Nähe“ hinzufügen. Dann werden ihnen lokale Restaurants oder Einzelhändler:innen angezeigt, die die Kleidung, Haushaltswaren und Lebensmittel haben, nach denen sie auf diese Weise gesucht haben.

Eine Animation eines Telefons, die eine Suche zeigt. Ein Foto eines koreanischen Gerichts wird aufgenommen, dann wird in der Suche nach Restaurants gesucht, die es servieren und die in der Nähe der Nutzer:innen liegen.
Lokale Informationen mit Multisearch finden, © Google

Prabhakar Raghavan liefert auf dem Blog ein Anwendungsbeispiel:

Angenommen, ihr seht online ein leckeres Gericht, das ihr gerne probieren möchtet – aber ihr wisst nicht, was drin ist oder wie es heißt. Wenn ihr Multisearch verwendet, um es in eurer Nähe zu finden, scannt Google Millionen von Bildern und Rezensionen, die auf Webseiten und von unserer Community von Maps-Beitragenden gepostet wurden. So finden wir Ergebnisse zu Orten in der Nähe, die das Gericht anbieten. Nun könnt ihr das Gericht genießen, guten Appetit!

Google wird die lokalen Informationen in Multisearch später in diesem Jahr weltweit auf Englisch ausrollen. Daraufhin soll die Funktion dann für weitere Sprachen zur Verfügung gestellt werden.

Das Erkennen ganzer Szenen erleichtert die Suche per Kamera

Die visuelle Suche bei Google ist schon heute weit fortgeschritten. Bisher aber erkennen Googles Systeme die verschiedenen Objekte in einem Frame als isolierte Aspekte. Mitunter kann aber die gesamte Szene im Bild für Suchende von Interesse sein. Deshalb soll mit Multisearch auch eine Szenenerkennung bei der Google-Suche ermöglicht werden. Wenn User die Kamera hin- und herbewegen, können sie künftig Informationen über mehrere Objekte in einem größeren Kontext erhalten.

Eine Animation eines Telefons, das ein Bild von Schokoriegeln in einem Regal in einem Geschäft scannt, und dann eine Suche, die die Zutaten und Geschmacksrichtungen der Riegel anzeigt.
Szenenerkennung bei Google: Mehr Informationen auf einmal, © Google

Mithilfe diese Szenenerkennung sollen die Geräte von Usern – und mithin auch die User selbst – die Welt so verstehen, wie sie wahrgenommen wird; mit zusätzlichen Informationen aus dem reichhaltigen Fundus von Google. Die Funktion macht das Unternehmen künftig für Multisearch verfügbar, ein konkretes Roll-out-Datum gibt es aber noch nicht.

Bei Twitter schreibt Prabhakar Raghavan zur Search-Vision von Google:

[…] we believe that the way you search shouldn’t be constrained to typing keywords into a search box… we’re reimagining what it means to search again, so you can search any way, and anywhere.

Das lokale Google Ranking zu verbessern, sollte auf der Prioritätenliste jedes Unternehmens stehen. Das Salesurance E-Book zeigt auf, wie das Google Ranking funktioniert und welche Faktoren entscheiden, welches Unternehmen von Google auf den obersten Plätzen gerankt wird.

Jetzt herunterladen!

Powered by WPeMatico

Teile diesen Beitrag