TikTok entwickelt sich zunehmend zur Suchplattform und Meta passt die Messung von Anzeigen an. Instagram erweitert Creator-Tools und verbessert das Profilraster, YouTube baut Shorts- und Kommentar-Funktionen aus und Threads testet neue Chat-Weiterleitungen. Außerdem stellt Google mit Nano Banana 2 ein schnelleres KI-Bildmodell vor. Hier sind die wichtigsten Entwicklungen im Überblick.

1. TikTok wird zur Suchmaschine: Studie zeigt deutlichen Wandel im Suchverhalten

TikTok entwickelt sich immer mehr zur Suchplattform. Das zeigt eine aktuelle Studie von Adobe, die einen klaren Wandel im digitalen Suchverhalten dokumentiert. Vor allem jüngere Zielgruppen nutzen die Plattform demnach nicht mehr nur zur Unterhaltung, sondern gezielt zur Informationssuche.

Laut der Untersuchung greifen viele Nutzer:innen bei Themen wie Produktempfehlungen, Tutorials, Restauranttipps oder Reiseideen direkt auf TikTok zurück. Damit wird die Plattform für zahlreiche Anwendungsfälle zur Alternative zu klassischen Suchmaschinen. Anstelle einer Liste von Links bevorzugen viele kurze, visuelle Inhalte mit direktem Praxisbezug.

Dieser sogenannte Search Shift betrifft nicht nur die Generation Z. Auch ältere Zielgruppen entdecken TikTok zunehmend als Recherchetool. Besonders bei Lifestyle-, Beauty-, Food- und Technikthemen spielt die visuelle Darstellung eine zentrale Rolle.

Dadurch verändert sich die Sichtbarkeit von Marken und Creator:innen im Netz. Inhalte müssen nicht mehr ausschließlich für die Google-Suche, sondern auch für die interne TikTok-Suche optimiert werden. Dabei gewinnen Keywords im gesprochenen Text, in Untertiteln und in der Beschreibung an Bedeutung.

Hier geht es zur Studie.

2. Meta ändert Klickmessung bei Anzeigen und passt Auswertung von Videoanzeigen an

Meta passt die Auswertung von Anzeigen an, damit Unternehmen den Einfluss ihrer Werbung besser nachvollziehen können. Das Ziel besteht darin, eindeutiger zu erkennen, welche Ergebnisse tatsächlich durch eine Anzeige erzielt wurden.

Bisher wurden im Ads Manager viele verschiedene Aktionen als Klick gewertet. Dazu zählten nicht nur echte Link-Klicks, sondern auch andere Interaktionen wie Likes, Kommentare, Shares oder das Speichern einer Anzeige. Dadurch konnten Unterschiede zwischen den Zahlen im Ads Manager und den Auswertungen anderer Analyse-Tools entstehen.

Künftig zählt bei der Klickauswertung nur noch ein tatsächlicher Klick auf einen Link. Das bedeutet: Nur wenn jemand auf den Link in einer Anzeige klickt und beispielsweise eine Website öffnet, wird dies als Klick berücksichtigt. Dadurch sollen die Ergebnisse besser mit Analyse-Tools wie Google Analytics vergleichbar sein.

Andere Interaktionen verschwinden jedoch nicht aus der Auswertung. Aktionen wie Likes, Kommentare, Shares oder Saves werden weiterhin erfasst. Sie werden künftig jedoch in einer eigenen Kategorie zusammengefasst, die anzeigt, wenn Nutzer:innen mit einer Anzeige interagieren, ohne direkt auf einen Link zu klicken.

Auch bei Videoanzeigen passt Meta die Auswertung an. Wenn sich jemand ein Video mindestens fünf Sekunden lang anschaut, gilt dies künftig bereits als stärkeres Interesse. Bisher lag diese Grenze bei zehn Sekunden. Meta begründet diese Änderung damit, dass viele Nutzer:innen bereits sehr schnell nach dem Ansehen eines Videos reagieren oder einen Kauf tätigen.

Zusätzlich arbeitet Meta mit Analyse-Anbietern wie Northbeam und Triple Whale zusammen. Das Ziel besteht darin, sowohl Klicks als auch Videoaufrufe besser in die Auswertung einzubeziehen, damit Unternehmen den tatsächlichen Einfluss ihrer Anzeigen besser verstehen können.

Die Änderungen werden im Laufe des Monats schrittweise eingeführt. Werbetreibende können die Anpassungen nach und nach im Meta Ads Manager sehen. An den Kosten für Anzeigen ändert sich nichts. Es handelt sich lediglich um eine neue Einordnung der Messwerte.

Mehr dazu gibt es hier.

3. Instagram Grid Visuals lassen sich jetzt per Vorschau anpassen

Instagram erweitert seine Videobearbeitungs-App „Edits“ erneut. Das Tool erhält mehrere neue Funktionen, mit denen Creator:innen ihre Reels kreativer gestalten können.

Zu den Neuerungen gehören elf zusätzliche Effekte für Personen und Objekte. Dazu zählen Effekte wie „Amplify“ oder „Clone Slide“, bei dem neben einer Person im Video ein schattenhaftes Abbild erscheint. Diese Effekte sollen bestimmte Elemente im Video stärker hervorheben.

Zusätzlich führt Instagram sogenannte Overlay Effects ein. Dabei lassen sich visuelle Elemente wie Glow- oder Pulse-Effekte über Inhalte legen, um bestimmte Bildbereiche hervorzuheben oder zusätzliche Informationen sichtbar zu machen.

Auch der Ideas Tab wird überarbeitet. Dieser Bereich dient als zentrale Ideensammlung für Reels. Dort finden Nutzer:innen unter anderem gespeicherte Audios, Reels, Content-Ideen und Notizen, um neue Inhalte zu planen.

Eine weitere Neuerung sind Auto-Highlight Captions. Damit können Creator:innen bestimmte Wörter in ihren Untertiteln farblich hervorheben. Dadurch werden wichtige Aussagen im Video stärker betont und sind für Zuschauer:innen schneller erkennbar.

4. Instagram erweitert Reels um automatische Highlights, Captions und neue Effekte

Instagram erweitert seine Videobearbeitungs-App „Edits“ weiter. Das Tool erhält mehrere neue Funktionen, mit denen Creator:innen ihre Reels kreativer gestalten können.

Zu den Neuerungen gehören elf zusätzliche Effekte für Personen und Objekte. Dazu zählen Effekte wie „Amplify“ oder „Clone Slide“, bei dem neben einer Person im Video ein schattenhaftes Abbild erscheint. Diese Effekte sollen bestimmte Elemente im Video stärker hervorheben.

Zusätzlich führt Instagram sogenannte Overlay Effects ein. Dabei lassen sich visuelle Elemente wie Glow- oder Pulse-Effekte über Inhalte legen, um bestimmte Bildbereiche hervorzuheben oder zusätzliche Informationen sichtbar zu machen.

Auch der Ideas Tab wird überarbeitet. Dieser Bereich dient als zentrale Ideensammlung für Reels. Dort finden Nutzer:innen unter anderem gespeicherte Audios, Reels, Content-Ideen und Notizen, um neue Inhalte zu planen.

Eine weitere Neuerung sind Auto-Highlight Captions. Damit können Creator:innen bestimmte Wörter in ihren Untertiteln farblich hervorheben. Dadurch werden wichtige Aussagen im Video stärker betont und sind für Zuschauer:innen schneller erkennbar.

5. Mehr Creator-Tools und Insights für persönliche Instagram-Accounts

Instagram erweitert die Creator-Funktionen und stellt die zusätzlichen Tools nun auch für persönliche Accounts bereit. Damit erhalten Nutzer:innen ohne Business- oder Creator-Profil Zugriff auf erweiterte Einblicke in die Performance ihrer Inhalte.

Künftig können auch persönliche Accounts bestimmte Insights einsehen, etwa zur Reichweite und Interaktion ihrer Beiträge. Das erleichtert die strategische Auswertung von Inhalten, ohne dass der Account-Typ gewechselt werden muss.

Neben den erweiterten Analysefunktionen stellt Instagram auch konkrete Empfehlungen zur Optimierung von Reels bereit. Creator:innen erhalten Hinweise zu Dos and Don’ts, um die Sichtbarkeit und Performance ihrer Inhalte zu verbessern.

Mit diesen Anpassungen öffnet Instagram zentrale Creator-Tools für eine breitere Nutzergruppe und senkt die Hürde für eine datenbasierte Optimierung von Inhalten.

Die erweiterten Tools werden schrittweise ausgerollt und sind nicht in allen Regionen gleichzeitig verfügbar.

6. YouTube erweitert Voice Replies und testet neue KI-Remix-Funktionen für Shorts

YouTube stellt die Funktion „Voice Replies“ nun einem breiteren Publikum zur Verfügung. Damit können Creator:innen direkt per Sprachnachricht auf Kommentare reagieren. Die Antworten erscheinen im Kommentarbereich und sollen die Interaktion persönlicher und direkter gestalten.

Zusätzlich testet YouTube neue KI-gestützte Remix-Optionen für Shorts. Mithilfe der Funktion „Add an Object“ können Nutzer:innen ein Objekt in ein bestehendes Video einfügen. Mit der Funktion „Reimagine“ ist es möglich, einen Frame aus einem Short per Prompt neu zu interpretieren und als eigenen Clip umzusetzen.

Die Voice-Replies-Funktion ist offiziell ausgerollt und für Creator:innen breit verfügbar. Die Remix-Funktionen befinden sich derzeit im Test und sind noch nicht global verfügbar.

7. Google veröffentlicht Nano Banana 2 für verbesserte Bildgenerierung

Google hat mit „Nano Banana 2“ eine neue Version seines KI-Bildmodells vorgestellt. Das Modell gehört zur Gemini-Familie und soll Bilder schneller erstellen, ohne dabei an Qualität zu verlieren.

Nano Banana 2 kann Motive stabiler zusammenführen und komplexe Szenen genauer darstellen. Dadurch wirken Übergänge natürlicher und Proportionen bleiben konsistenter, selbst wenn mehrere Elemente oder Figuren in einem Bild vorkommen.

Auch Texte innerhalb von Bildern lassen sich zuverlässiger generieren. Die Schrift wird klarer dargestellt und kann sogar innerhalb eines Bildes übersetzt werden. Zudem greift das Modell auf Informationen aus der Google-Suche zurück, um Inhalte realistischer darzustellen.

Ein weiterer Vorteil ist die flexible Bildproduktion. Bilder können in verschiedenen Seitenverhältnissen und Auflösungen bis hin zu 4K erstellt werden. Das ist besonders für Social-Media-Grafiken, Präsentationen oder Marketingvisuals relevant.

Nano Banana 2 wird derzeit in mehreren Google-Produkten eingeführt, darunter Gemini, AI Studio und die Gemini-API. In Gemini ersetzt das Modell Nano Banana Pro in einigen Modi, während Pro- und Ultra-Abonnent:innen weiterhin Zugriff auf Nano Banana Pro für spezialisierte Aufgaben behalten.

Hier lest ihr mehr.

8. Threads testet „DM me“-Sticker zur direkten Chat-Weiterleitung

Threads arbeitet an einer neuen Funktion, mit der Nutzer:innen andere Personen direkt aus einem Beitrag heraus in einen Chat weiterleiten können. Im Beitrag erscheint dazu ein „DM me“-Hinweis, über den sich eine private Unterhaltung starten lässt.

Die Idee dahinter ist, öffentliche Diskussionen schneller in den direkten Austausch zu überführen. Wer einen Beitrag sieht, kann nicht nur reagieren oder kommentieren, sondern auch direkt eine private Nachricht senden.

Die Funktion befindet sich derzeit im Test und ist noch nicht global verfügbar.