Die Unternehmen, die sich mit künstlicher Intelligenz beschäftigen, stehen vor einer Herausforderung, mit der Menschen seit ihrer Existenz konfrontiert sind: wie sie Erinnerungen bewahren können.
OpenAI, Google, Meta und Microsoft haben sich in den letzten Monaten auf die Erinnerung konzentriert, indem sie Updates bekannt gegeben haben, die es Chatbots ermöglichen, mehr Informationen über die Nutzer zu speichern, um ihnen personalisierte Antworten zu geben.
Dieser Schritt wird als wichtiger Fortschritt angesehen, um die Hauptgruppen in der künstlichen Intelligenz zu überzeugen, Nutzer in einem wettbewerbsorientierten Markt von Chatbots und Agenten anzuziehen, und als Mittel, um Einnahmen aus fortschrittlichen Technologien zu generieren.
Trotzdem haben Kritiker gewarnt, dass dieser Fortschritt missbraucht werden könnte, um Nutzer für kommerzielle Zwecke auszunutzen und dass er zu Sorgen in Bezug auf Privatsphäre führen könnte, wie die Financial Times schreibt.
Identifikation des Kontexts aus externen Daten
Wenn ein Agent, der den Nutzer kennt, weil er Gespräche gespeichert hat, der gesamte Service attraktiver wird, und wenn man ein Produkt wie das verwendet, geht man nicht mehr zu einem anderen, sagte Pattie Maes, Professorin am MIT-Media-Labor und Expertin für den Austausch zwischen Menschen und künstlicher Intelligenz.
Chatbots mit künstlicher Intelligenz wie Google’s Gemini und OpenAI’s ChatGPT haben erhebliche Fortschritte gemacht, wie Telegrafi berichtet.
Die Verbesserungen umfassen die Erweiterung der Kontextfenster, die bestimmt, wie viele Gespräche ein Chatbot gleichzeitig speichern kann, und die Verwendung von Techniken wie dem Generieren, um den Kontext zu identifizieren, basierend auf externen Daten.
Organisationen, die sich mit künstlicher Intelligenz beschäftigen, haben auch die langfristige Speicherung von Modellen AI verbessert, indem sie Profile und Vorlieben der Nutzer speichern, um personalisierte Antworten zu geben.
Ein Chatbot kann beispielsweise speichern, ob ein Nutzer Vegetarier ist, und entsprechende Antworten geben, wenn er Rezepte oder Restaurants empfiehlt.
Im März erweiterte Google die Speicherung von Geminit, indem er den Suchverlauf des Nutzers einschloss, unter der Bedingung, dass der Nutzer dies akzeptiert, anstatt des ehemaligen Limites, das nur Gespräche mit dem Chatbot umfasste, und plant, dies in anderen Google-Anwendungen in Zukunft zu erweitern.
“Je besser der Chatbot den Nutzer kennt, desto besser kann er den Service anbieten”
Wenn ein Chatbot den Nutzer kennt, kann er den Service besser anbieten, sagte Michael Siliski, Produktmanagement-Direktor bei Google DeepMind.
ChatGPT von OpenAI und der Chatbot von Meta in WhatsApp und Messenger können sich an Gespräche erinnern, nicht nur an den aktuellen Sitzung. Nutzer können bestimmte Erinnerungen löschen und informiert werden, wenn der Modell eine Erinnerung mit einem Nachrichtenbild auf dem Bildschirm erstellt.
Die Unternehmen, die sich mit künstlicher Intelligenz beschäftigen, glauben auch, dass die verbesserte Speicherung von Modellen AI eine wichtige Rolle bei der Steigerung der Einnahmen durch Marketingpartner und Werbung spielen kann.
Der CEO von Meta, Mark Zuckerberg, sagte kürzlich, dass es eine große Möglichkeit für die Präsentation von Produkt- oder Werbeempfehlungen in ihrem Chatbot geben wird.
Im April verbesserte OpenAI die Funktionen von ChatGPT für den Kauf, um Produkte, Dienstleistungen und Bewertungen besser zu präsentieren. Die Firma sagte der Financial Times, dass es keine Partnerbeziehungen gibt.
Trotzdem hat die Einführung der verbesserten Speicherfähigkeit in großen Sprachmodellen auch Sorgen in Bezug auf Privatsphäre ausgelöst, da Regulierungsbehörden weltweit die Methoden überwachen, mit denen Modelle Nutzer manipulieren können, um Gewinne zu erzielen.
Die verbesserte Speicherfähigkeit kann auch zu einer Überforderung der Modelle führen, die versuchen, ihre Antworten mit den Vorlieben des Nutzers zu überstimmen, was zu Paragjykimen oder Fehlern führen kann.
OpenAI bat um Entschuldigung, nachdem sich herausgestellt hatte, dass ihr Modell GPT-4o zu komplimentös und leicht beeinflussbar war, und das Modell wurde in die vorherige Version zurückgesetzt.
In einer allgemeineren Weise können Modelle künstlicher Intelligenz “halluzinieren”, indem sie unechte oder unklare Antworten geben, und eine “Speicherüberschreitung” erleben, wenn Erinnerungen veraltet oder kontradiktorisch werden, was die Genauigkeit beeinträchtigt.
“Je mehr der System über Sie weiß, desto mehr kann es für negative Zwecke verwendet werden – um Sie zu überreden, etwas zu kaufen oder um Sie zu überzeugen, bestimmte Überzeugungen zu haben. Deshalb sollten Sie beginnen, über die grundlegenden Interessen der Unternehmen nachzudenken, die diese Dienste anbieten”, sagte Maes, Professorin am MIT.