Einfach einkreisen, suchen und finden […],
so bewirbt Google die neue Suchfunktion Circle to Search für Android Smartphones, die das Suchen nach einzelnen Elementen ohne den Wechsel zwischen Apps ermöglicht. User können mit einer einfachen Handbewegung – „zum Beispiel durch Einkreisen, Hervorheben, Kritzeln oder Tippen“ – beispielsweise Accessoires, Gebäude oder Kleidungsstücke in einem Video markieren und danach suchen.
We continue to use AI to make Search more helpful + intuitive. Building on features like Lens, Circle to Search is our next big advancement that lets you search what you see on @Android phones with a simple gesture without switching apps. #SamsungUnpacked https://t.co/LFCw6Of7Ag
— Sundar Pichai (@sundarpichai) January 17, 2024
Während dieses Feature Ende Januar für einige Smartphones ausgerollt wird, erweitert Google auch die KI-basierten Suchfunktionen über die Generative Search Experience und ermöglicht eine bildbasierte Multisearch. Zudem soll der KI-Bot Bard bald eine eigene Bildgenerierungsoption erhalten.
Wie Google die KI-Suche neu gestaltet: Circle to Search bis zur neuen Kombi-Search
Circle to Search ist nur eines des Elemente, die Google für die Suche der Zukunft bereitstellen möchte. Das Feature kommt laut Google-Pressesprecherin Hannah Samland am 31. Januar zunächst auf Pixel 8, Pixel 8 Pro und dann für die neue Samsung Galaxy S24-Serie (mit starkem AI-Fokus). Die neue Markierungsfunktion für den App-Kontext kann beispielsweise genutzt werden, um schnell herauszufinden, welche Kleidung ein Creator trägt. Cathy Edwards, Vice President im Search-Bereich Googles, erklärt auf dem Blog The Keyword Deutschland:
Ein Beispiel: Vielleicht möchtet ihr wissen, welche Kleidung ein Creator in seinem ‚Outfit des Tages‘-Video getragen hat, aber er oder sie hat die Marken nicht getaggt. Drückt dann einfach lange auf die Home-Taste oder die Navigationsleiste auf eurem Android-Smartphone, um Circle to Search zu aktivieren. Von dort aus könnt ihr jeden Artikel, den ihr seht, mit eurer bevorzugten Geste auswählen – etwa indem ihr die Sonnenbrille einkreist –, um schnell ähnliche Artikel von Anbietern im Internet zu finden. Ihr könnt auch auf die Tasche kritzeln oder auf die Stiefel tippen, um diese zu suchen – und das alles, ohne die App zu verlassen, in der ihr gerade seid. Wenn ihr alle Informationen habt, die ihr braucht, wischt einfach die Seite weg und kommt wieder zurück zum Video.
So kann die Suche mit der neuen Funktion in einer Android App aussehen (mit einem Klick aufs GIF gelangst du zur größeren Ansicht), © Google
Auch Insights zu einem Corn Dog können sich die Nutzer:innen holen, wenn sie diesen in einer App entdeckt haben. Mit der sogenannten Kombisuche – die dich gleichzeitig mit Text und Bildern suchen lässt – und den neuesten KI-basierten Upgrades (zunächst noch nicht verfügbar in Deutschland) können User „Konzepte, Ideen oder Themen anhand hilfreicher Informationen, die aus dem gesamten Web zusammengetragen werden, leichter verstehen“.
Mehr Informationen zum Essen über Googles Suchfunktionen erhalten (mit einem Klick aufs GIF gelangst du zur größeren Ansicht), © Google
Wer wiederum auf ihnen unbekannte Termini wie „Thrift flipping“ stößt und dazu etwa ein Shorts-Video sieht, kann direkt im Clip durch die neue Suchfunktion Informationen erhalten. Nach der Sucheinblendung, die über den Kontext informiert, kann das Video einfach weitergeschaut werden.
Multisearch mit Lens: Kamera draufhalten und Informationen erhalten
Neu bei Google ist ebenfalls die KI-fokussierte Multisearch, welche ein neues bildbasiertes Feature erhält.
Auf dem englischsprachigen The Keyword Blog von Google erklärt Elizabeth Reid, ebenso Vice President im Search-Bereich, wie User mithilfe von Lens in der Google App noch besser suchen können. Dazu müssen nur nur ihre Kamera auf ein Objekt ausrichten (oder ein Foto oder einen Screenshot hochladen) und eine Frage stellen. Das war bislang schon möglich, doch neuerdings bietet Google als Antworten nicht nur visuelle Entsprechungen und dazugehörige Erklärungen, sondern eine Reihe KI-basierter Antworten und Erläuterungen. Das heißt schlichtweg, dass User komplexere Fragen stellen und viel ausführlichere Antworten zu den bildbasierten Suchkontexten erhalten können. Reid liefert ein Beispiel, in dem eine Person ein ihr unbekanntes Brettspiel entdeckt und mit Lens nicht nur erfragt, welches es sein könnte, sondern auch, wie man es spielt.
Diese neue KI-basierte Multiübersicht in der Suche ist zunächst aber nur für englischsprachige Ergebnisse in den USA verfügbar. Dafür müssen Suchende nicht bei den Search Labs registriert sein. Die Suche mit Lens funktioniert auf diese Art und Weise über iOS und Android. Außerhalb der USA können sich User für die Search Generative Experience anmelden und Multisearch-Ergebnisse im Kontext des Features Circle to Search.
Derweil möchte Google auch die KI-Bildgenerierung fördern. Der App Researcher Dylan Roussel hat entdeckt, dass Google beim KI-Bot Bard einen KI-Generator auf Basis des Text-to-Image-Diffusion-Modells Imagen integrieren könnte. Dieses Update ist aber noch nicht bestätigt.
Back to the future?
Here’s what’s coming next in Bard. . . tomorrow.
Image generation with Bard will use Imagen, Google’s Text-to-Image “diffusion technology.”https://t.co/FNeiCsS2ar
Important: The content of this changelog may still be changed until officially released. pic.twitter.com/9yRNjHNrLq
— Dylan Roussel (@evowizz) January 17, 2024
Die Bildgenerierungsfunktion direkt in Google Bard könnte eines der neuen Features sein, die Google basierend auf User Feedback bereitstellt. Kürzlich fragten die Entwickler Chris Gorgolewski und Jack Krawczyk aus dem Bard Team die User öffentlich nach ihren Wünschen für den KI-Bot. Ganz oben auf der Wunschliste stand jedoch etwas anderes: eine dedizierte Bard App.
App, Multimodalität und weniger Halluzinationen:
Was sich User 2024 von Google Bard wünschen
© Mojahid Mottakin auf Unsplash