[ad_1]

Google kündigt neue KI-gesteuerte Anzeigenoptionen und virtuelle Anproben für Kleidung an

Google hat zwei neue KI-gesteuerte Anzeigenkampagnenoptionen angekündigt und gleichzeitig einen neuen AR-Anprobenprozess eingeführt, der ebenfalls von KI unterstützt wird und genauere Visualisierungen bietet, wie Kleidung auf den Körper aussieht, basierend auf dem Körperbau.

Neue Anzeigenoptionen

Zunächst zu den neuen Anzeigentypen – Google hat die Optionen Demand Gen und Video View-Kampagnen eingeführt, mit denen KI bei der Erstellung und Zielausrichtung von Anzeigen unterstützt wird.

Mit Demand Gen-Kampagnen können Marken ihre Video- und Bildressourcen optimal nutzen, indem sie diese in verschiedene Google-Anzeigenformate übersetzen, um Reichweite und Attraktivität für bestimmte Nutzergruppen zu maximieren.

Wie von Google erklärt:

„Mit Demand Gen werden Ihre bestperformanten Video- und Bildressourcen in unsere visuellsten und unterhaltungsfokussierten Berührungspunkte integriert – YouTube, YouTube Shorts, Discover und Gmail. Diese Produkte erreichen über 3 Milliarden monatliche Nutzer, während sie streamen, scrollen und kommunizieren.“

Der Demand Gen-Prozess ermöglicht es Ihnen, Ihre Kampagnen auf jeder Oberfläche zu verwalten, wobei Ihre kreativen Elemente in jedem Format wiederverwendet werden.

Sie können diese dann mithilfe von Googles KI oder ähnlichen Segmenten basierend auf Ihrer Zielgruppenliste ausrichten.

Der Prozess sollte es Ihnen ermöglichen, das Beste aus Ihren kreativen Ressourcen herauszuholen und gleichzeitig die Zielausrichtung für optimale Reaktionen zu optimieren.

Google startet auch neue Video View-Kampagnen, mit denen Marken innerhalb einer einzigen Kampagne maximale Views über In-Stream-, In-Feed- und YouTube Shorts-Formate erzielen können.

„In ersten Tests haben Video View-Kampagnen im Durchschnitt 40% mehr Views im Vergleich zu In-Stream-überspringbaren Cost-per-View-Kampagnen erzielt.“

Googles entwickelte KI-Elemente ermöglichen im Wesentlichen eine bessere Zielausrichtung und Reichweite mit weniger manuellem Aufwand, und es könnte sich lohnen, diese neuen Optionen auszuprobieren, um zu sehen, welche Ergebnisse erzielt werden können.

Verbesserung des Online-Shopping-Erlebnisses

Google möchte auch das Online-Shopping-Erlebnis verbessern und bietet daher einen neuen generativen KI-Prozess zur Anprobe von Kleidung mit digitalen Modellen an, die Ihren Körperbau besser repräsentieren können.

Laut Google:

„Die virtuelle Anprobe von Kleidung zeigt Ihnen, wie Kleidungsstücke an verschiedenen realen Modellen aussehen. So funktioniert es: Unser neues generatives KI-Modell kann nur ein Kleidungsstücksbild nehmen und genau wiedergeben, wie es auf einer vielfältigen Gruppe von realen Modellen in verschiedenen Posen drapiert, fällt, anliegt, dehnt und Falten sowie Schatten bildet. Wir haben Menschen in verschiedenen Größen von XXS-4XL ausgewählt, die verschiedene Hauttöne (unter Verwendung der Monk Skin Tone Scale als Leitfaden), Körperformen, Ethnien und Haartypen repräsentieren.“

Dies erleichtert es Ihnen, mehr Einblick in die spezifische Passform von Kleidung zu erhalten, was ein großer Schritt bei der Verbesserung der AR-Anprobenoptionen und des Online-Shopping-Erlebnisses sein könnte.

Allerdings bin ich mir nicht sicher, ob es mit den Clothing Try-On AR-Tools von Snapchat mithalten kann, die jetzt in das ARES-Produktangebot integriert sind und auf mehreren Einzelhandelsflächen verfügbar sind. Bei diesem Prozess wird Ihr realer Körper verwendet, nicht eine simulierter Variation über ein digitales Schaufensterpuppe. Es fügt jedoch zusätzliche Qualifikationen zum Kaufprozess hinzu, was in der Überlegungsphase hilfreich sein könnte.

„US-Käufer können ab heute virtuell Damenoberteile von Marken wie Anthropologie, Everlane, H&M und LOFT anprobieren. Tippen Sie einfach auf Produkte mit dem „Anprobieren“-Abzeichen in der Suche und wählen Sie das Modell aus, das Ihnen am besten gefällt.“

Google sagt, dass dies im Laufe der Zeit auf weitere Regionen, Produkte und Modelle ausgeweitet wird.

Neue „geführte Verfeinerungen“ bei Produkt-Suchen

Zu guter Letzt hat Google „geführte Verfeinerungen“ zu Produkt-Suchen hinzugefügt, die es Ihnen ermöglichen, zusätzliche Kriterien wie Preis, Farbe, Musteroptionen und mehr hinzuzufügen.

Wie Sie sehen können, können Sie mit diesen neuen Tools Ihre Ergebnisse basierend auf Preis, Farbe, Musteroptionen und mehr präzisieren.

Die Übereinstimmungen basieren auf maschinellem Lernen und neuen visuellen Abgleichsalgorithmen, was einen weiteren Weg darstellt, wie Google fortschrittliche KI-Optionen in seine Suchwerkzeuge integrieren möchte – nicht als Ersatz für die traditionelle Suche, sondern als Ergänzung des Prozesses zur Verbesserung der Benutzerfreundlichkeit.

Das ist wichtig für Google, denn derzeit konzentriert sich viel der Diskussionen in der Branche darauf, wie generative KI die Google-Suche langfristig überflüssig machen wird, indem sie mehr semantische Suchoptionen ermöglicht und über konversationelle KI menschenähnlichere Antworten bietet. Es ist jedoch zu früh, um die volle Auswirkung in dieser Hinsicht vorherzusagen, aber es besteht die Möglichkeit, dass vereinfachte KI-Interaktionen zumindest einen Teil des Google-Suchverkehrs verdrängen werden, was für Google zu einem großen Problem werden könnte, wenn es mit den neuesten Trends nicht Schritt hält.

Deshalb entwickelt Google seine eigenen KI-Modelle und führt seine eigenen generativen KI-Funktionen ein.

Updates wie diese sind ein weiterer Schritt in diese Richtung, während Google weiterhin mit den Veränderungen im Nutzerverhalten Schritt hält.

Quelle