Google hat eine neue experimentelle Funktion namens Audio Overviews vorgestellt, die in den Suchergebnissen auf mobilen Geräten Audiofragmente generiert durch KI in Form von Podcasts integriert.
Mit dieser Funktion können Benutzer komplexe Fragen durch KI-generierte Audiofragmente beantwortet werden, die durch die Google-Gemini-Modelle erstellt werden. Dies ermöglicht es Benutzern, Informationen zu erhalten, ohne dass sie ihre Geräte halten müssen, wie der Telegraph berichtet.
Die Funktion Audio Overviews basiert auf den vorherigen Entwicklungen von Google in der KI, insbesondere der Plattform NotebookLM aus dem letzten Jahr, die es Benutzern ermöglichte, Dokumente in Diskussionen ähnlich wie Podcasts umzuwandeln.
Mit dieser Funktion will Google die Möglichkeiten, wie Benutzer Informationen durch Suchen erhalten, erweitern, über die üblichen Textfragmente hinaus.
Die Audiofragmente dauern etwa 40 Sekunden und Benutzer können die Geschwindigkeit und den Lautstärkepegel des Wiedergabeprozesses anpassen. Jeder Audiofragment enthält eine Verbindung zu den ursprünglichen Artikeln.
Der Vorstellung der Funktion Audio Overviews hat bei Verlegern Sorgen ausgelöst, die befürchten, dass dies zu einer weiteren Abnahme des Traffics auf ihren Webseiten führen könnte.
Während Google die Funktion als Möglichkeit sieht, die Zugänglichkeit von Technologie zu erhöhen, warnen Kritiker, dass dies zu einer Belastung für die Einnahmen der Verleger führen könnte.
Google sagt, dass diese Funktion besonders für Benutzer mit Sehbehinderungen oder die viele Dinge gleichzeitig tun, wie in einem Blog-Post der Firma heißt: „Die Audio-Übersichten bieten eine flexible Möglichkeit, Informationen zu erhalten“.
Diese Funktion ist nur über Google Labs für Suchen in englischer Sprache in den USA verfügbar. Aktuell wird sie in Google Labs getestet, wo Benutzer ihre Meinung über die Funktionsweise des Systems abgeben können. Je nach Ergebnis plant Google, diese Funktion in andere Länder auszuweiten. /Telegrafi/