DATA & TARGETING

Daten in Programmatic: Das Abwägen von Qualität und Wirtschaftlichkeit

Von Frederik Timm, 16. Mai 2018
Bild: Stocksnapper - Adobe Stock

Wer im Programmatic Advertising seine Zielgruppen möglichst treffsicher ansprechen möchte, der muss auf die Qualität von 3rd-Party-Daten vertrauen. Denn nicht immer reichen dazu die Daten aus erster Hand. Viele Werbetreibende stehen deshalb vor der Aufgabe, die Wertigkeit der Daten von Drittanbietern zu prüfen und die Qualität mit der Wirtschaftlichkeit abzuwägen.

Die Zeiten, in denen Programmatic alleiniges Performance-Tool war, neigt sich dem Ende zu. Immer häufiger steuern Marken auch ihre Branding-Kampagnen programmatisch aus. Einen zentralen Vorteil gegenüber der klassischen Umfeldbuchung bieten ihnen dabei Daten. Durch sie lassen sich die Werbebotschaften an die richtige Zielgruppe zur richtigen Zeit ausspielen. Personalisierte Werbebotschaften – Stichwort Dynamic Creatives – können Streuverluste weiter minimieren.

Um an die Daten für diese gezielte Ansprache zu gelangen, bietet mittlerweile eine Vielzahl von Unternehmen ihre Dienste an. Es wird wichtiger, nachweisbar effizient einsetzbare Daten einzukaufen. Einer aktuellen Studie zufolge ist dies jedoch nicht immer ganz so einfach. So soll in Europa die On-Target-Percentage für demografische Daten bei beispielsweise Frauen im Alter zwischen 18 und 24 Jahren im Industriedurchschnitt bei nur 9 Prozent liegen. Doch wie lässt sich die Qualität von eingekauften Daten bewerten?

Vergleich zu AGOF-Zahlen

Natürlich steigert Targeting die Wahrscheinlichkeit, mit der Zielgruppe in Kontakt zu kommen. Dass es jedoch noch weit entfernt davon ist, 100 Prozent der Zielgruppe anzusprechen, zeigen Meldungen zur erschreckend geringen On-Target-Percentage.

Um beurteilen zu können, wie gut Targeting funktioniert, können Werbetreibende mit den Zahlen der AGOF prüfen, wie viele Personen in der Zielgruppe ohne ein Targeting angesprochen würden. An dieser Zahl muss sich nun das ausgewählte Targeting messen können. Ein geringer Prozentsatz im Vergleich zur Grundgesamtheit muss jedoch nicht immer schlecht sein. Ein Zuwachs von gerade mal zehn Prozentpunkten ist bei einer breiten Zielgruppe inakzeptabel, kann jedoch bei einer sehr spitzen Zielgruppe groß sein.

Datenqualität variiert stark

Bild: Crossmedia Presse

„Es gibt eine sehr große Spreizung in der Datenqualität“, erklärt Dirk Nögel, Director Digital Products & Innovation von der Mediaagentur Crossmedia. „Während durchaus sehr gut nutzbare Daten am Markt vorhanden sind, gibt es jedoch auch Daten, die ehrlicherweise als bloße Vermutung einzustufen sind.“

Es lässt sich zwischen „harten“ und hochgerechneten Daten unterscheiden. Der erste Datentyp sind Angaben, die vom Nutzer selbst gemacht wurden. Beispielsweise wird von E-Mail-Anbietern häufig auch das Geburtsdatum abgefragt. Auch wenn hier falsche Angaben gemacht werden können, gelten diese Daten erst mal als sehr zuverlässig. Daten, die dagegen aus Hochrechnungen entstanden sind, beispielsweise statistische Zwillinge, sind dagegen weniger valide. „Gerade bei hochgerechneten Zielgruppendaten lohnt die Verifizierung, um die Qualität sicherzustellen. Das sollte schon während der Kampagne nebenherlaufen“, rät Nögel.

Verifizierung durch Drittanbieter

Um die Qualität der Daten sicherzustellen, werden die Zielgruppendaten mit einem Panel von beispielsweise Nielsen, Meetrics oder Audience Project verglichen. Bei der Auslieferung der Kampagne werden die Werbemittel mit einem Code des jeweiligen Anbieters versehen und bei der Auslieferung überprüft, ob der angesprochene Nutzer Teil des Panels oder eine fremde Person ist. Bei Nutzern, die im Panel vorhanden sind, liegen auch Informationen vor, die dann mit den Zielgruppenvorgaben abgeglichen werden können.

Dadurch können Werbetreibende live auslesen, wie viele der Ad Impressions wirklich in der gewünschten Zielgruppe generiert wurden. Einziges Hindernis: die Fallzahl. Es muss erst eine gewisse Anzahl an Ads ausgeliefert werden, um genügend Fälle im Panel zu erzeugen und auf dieser Basis eine valide Einschätzung zu ermöglichen. Aus diesem Grund sollte man einen Anbieter wählen, der über ein möglichst großes Panel verfügt. Je größer das Panel ist, desto eher hat man die nötige Fallzahl zusammen und kann die Qualität der eingekauften Daten beurteilen.

Dirk Nögel rät zudem: „Wenn man eine Zielgruppe ansprechen möchte, deren Daten man aus verschiedenen Quellen beziehen kann, lohnt es sich, mehrere Anbieter gegeneinander laufen zu lassen und dann zügig auf den Best Performer zu optimieren. In den meisten Fällen hat man hier nach kurzer Zeit bereits ein gutes Bild von der Datenqualität. Das kann in entsprechend großen Kampagnen sogar bereits nach dem ersten Kampagnentag sein.“

Wirtschaftlich bleiben

Wer nicht gleich mehrere Datenanbieter nebeneinander testen möchte, der kann die Daten auch in einer Data Management Platform (DMP) mit anderen Segmenten matchen. Allerdings ist dies mit großem Aufwand verbunden, weiß Dirk Nögel. Hierbei ist es seiner Meinung nach wirtschaftlicher, die Kampagne mit vielen Drittanbietern zu starten und dann zu optimieren.

Auch hochgerechnete Daten hätten ihre Daseinsberechtigung. So müssten Werbetreibende immer zwischen der Genauigkeit der Daten und der Reichweite, die sie erzielen möchten, abwägen. Auch sei es wichtig, zu Beginn zu klären, woher die Daten stammen, und sicherzustellen, dass der Anbieter plausibel erklären kann, wie sie erhoben wurden und auf welcher Basis ein Merkmal zugeschrieben wird.

Mit der Zeit würde man ein Gespür dafür entwickeln, welche Daten gute Ergebnisse erzielen, berichtet Dirk Nögel. Bei Crossmedia geht man jedoch auf Nummer sicher: „Wir haben uns eine kleine Datenbank aufgebaut, die Nucleus Insights Database, in der wir einsehen können, welche Reichweite und Genauigkeit wir bereits mit bestimmten Datenanbietern erzielt haben und welche Kosten dahinterstehen. Das erleichtert uns das Abwägen dieser Faktoren.“

Denn am Ende gilt, trotz möglichst genauem Targeting auch wirtschaftlich zu bleiben.