Marcus Koerner und Marko Sarstedt im Interview: Vertrauen? Wie der Marktforschungs – Avatar nicht zur Blackbox wird.

Künstliche Intelligenz verändert die Marktforschung grundlegend: Daten lassen sich heute in nie dagewesenem Umfang erzeugen, simulieren und analysieren. Doch mit dieser neuen Freiheit wächst eine entscheidende Herausforderung: die Frage nach der Belastbarkeit der Ergebnisse. Was bedeutet Qualität in einer Welt, in der Befragte auch synthetisch sein können? Welche neuen Maßstäbe braucht die Branche? Und wie müssen Unternehmen ihr Verständnis von Daten und Studien weiterentwickeln?

Im Gespräch diskutieren Marko Sarstedt und Marcus Körner, warum die Zukunft der Marktforschung nicht in mehr Daten liegt, sondern in der Fähigkeit, ihre Qualität messbar, nachvollziehbar und überprüfbar zu machen.

Gesprächspartner:

  • – Prof. Dr. Dr. h.c. Marko Sarstedt, Leiter des Instituts für Marketing an der Munich School of Management der Ludwig-Maximillians-Universität München
  • – Marcus Körner, Geschäftsführender Gesellschafter der IWD market research GmbH

 

Synthetische Befragungen gelten als einer der größten Umbrüche in der Marktforschung. Was macht diese Entwicklung so fundamental?

Marcus Körner: Wir erleben aktuell nicht einfach eine methodische Erweiterung, sondern eine strukturelle Transformation der Marktforschung. Während Daten früher primär durch klassische Erhebungsprozesse generiert wurden, also durch Interviews, Befragungen oder Beobachtungen, entstehen sie heute zunehmend innerhalb technologischer Systeme. Künstliche Intelligenz generiert Antworten, simuliert Verhaltensweisen und produziert Daten in einem Umfang und einer Geschwindigkeit, die bisher nicht möglich waren.

Das Entscheidende ist: Damit verschiebt sich der Ort der Wertschöpfung. Qualität entsteht nicht mehr ausschließlich im Feld oder im Studiendesign, sondern entlang eines gesamten Systems, von der Datenbasis über die Modellarchitektur bis hin zur Ergebnisinterpretation. Marktforschung wird damit stärker zu einem systemischen Prozess, bei dem mehrere Ebenen gleichzeitig kontrolliert und bewertet werden müssen.

Marko Sarstedt: Aus wissenschaftlicher Perspektive ist diese Entwicklung deshalb so fundamental, weil sie die Art und Weise verändert, wie wir Daten konzeptualisieren. Mit sogenannten „Silicon Samples“ arbeiten wir erstmals mit synthetischen Repräsentationen von Befragten, die nicht direkt auf realen individuellen Erfahrungen beruhen, sondern auf statistischen Mustern und Trainingsdaten großer Sprachmodelle.

Das eröffnet enorme Potenziale, etwa für skalierbare Simulationen oder die schnelle Generierung von Szenarien, bspw. für Sensitivitätsanalysen. Gleichzeitig stellt sich jedoch eine zentrale erkenntnistheoretische Frage: In welchem Ausmaß können diese Modelle tatsächliches menschliches Verhalten valide abbilden? Genau diese Diskrepanz zwischen Simulation und Realität ist der Kern der aktuellen wissenschaftlichen Diskussion.

 

Bedeutet das, dass unser bisheriges Verständnis von Qualität nicht mehr ausreicht?

Marcus Körner: Unser klassisches Qualitätsverständnis war stark prozessorientiert. Wir haben Qualität daran festgemacht, ob eine Stichprobe sauber gezogen wurde, ob Feldarbeit kontrolliert war und ob Fragebögen methodisch korrekt konstruiert wurden. Diese Kriterien bleiben wichtig, aber sie adressieren nur einen Teil der heutigen Realität.

In einer Welt, in der Daten auch synthetisch erzeugt werden können, reicht Prozessqualität allein nicht mehr aus. Entscheidend ist vielmehr die Ergebnisqualität, also die Frage, wie robust, stabil und valide die generierten Erkenntnisse sind. Qualität wird damit selbst zum Messgegenstand.

Ich bin überzeugt, dass sich daraus ein neues Paradigma entwickelt: Studien werden künftig systematisch mit einem nachvollziehbaren Qualitätsprofil versehen sein müssen, eine Art „Quality Score“, der Transparenz über die Güte der Ergebnisse schafft und Vergleichbarkeit ermöglicht.

In einer Welt, in der Daten auch synthetisch erzeugt werden können, reicht Prozessqualität allein nicht mehr aus. Entscheidend ist die Ergebnisqualität, also wie robust, stabil und valide Erkenntnisse tatsächlich sind.

Marko Sarstedt: Diese Entwicklung deckt sich stark mit aktuellen wissenschaftlichen Erkenntnissen. In unseren Analysen sehen wir, dass synthetische Stichproben zwar in bestimmten Bereichen valide Ergebnisse liefern können, in vielen Fällen jedoch signifikant von realen Daten abweichen.

Das bedeutet: Qualität kann nicht mehr ausschließlich über die Einhaltung methodischer Standards definiert, sondern muss über empirische Validität abgesichert werden. Wir müssen stärker in Kategorien wie Replizierbarkeit, externe Validität und Modellstabilität denken.

Insbesondere die Frage, ob Ergebnisse konsistent reproduziert werden können und ob sie mit etablierten empirischen Befunden übereinstimmen, wird zum zentralen Qualitätskriterium.

 

Wo liegen aktuell die größten Risiken synthetischer Befragungen?

Marko Sarstedt: Ein wesentliches Risiko liegt in der inhärenten Abhängigkeit von Trainingsdaten. Sprachmodelle basieren auf großen, häufig öffentlich verfügbaren Datensätzen, die bestimmte kulturelle, soziale und sprachliche Verzerrungen enthalten. Diese werden nicht nur reproduziert, sondern können durch die Modelllogik sogar verstärkt werden.

Hinzu kommt die ausgeprägte Sensitivität gegenüber Prompt-Design. Bereits geringfügige Veränderungen in der Formulierung, Struktur oder Reihenfolge von Fragen können zu systematischen Abweichungen in den Ergebnissen führen. Das stellt eine erhebliche Herausforderung für die Standardisierung und Vergleichbarkeit von Studien dar.

Ein weiteres Problem ist die häufig reduzierte Varianz in synthetischen Antworten. Während reale Stichproben natürliche Streuungen aufweisen, tendieren LLM-basierte Antworten zu einer gewissen Glättung, was die Identifikation von Segmenten oder Zusammenhängen erschweren kann.

Synthetische Marktforschung hat nur dann einen Wert, wenn sie sich an der Realität messen lässt.

Marcus Körner: Aus praktischer Sicht sehe ich vor allem ein Risiko in der Fehlinterpretation von Ergebnissen. Die erzeugten Daten wirken oft sehr plausibel und sind visuell überzeugend aufbereitet. Das verleitet dazu, sie als valide Realität zu interpretieren, ohne die zugrunde liegenden Mechanismen ausreichend zu hinterfragen.

Ein weiterer kritischer Punkt ist die zunehmende Geschwindigkeit der Ergebnisproduktion. Studien können heute in kürzester Zeit erstellt werden, aber Geschwindigkeit ist kein Qualitätsindikator. Wenn Validierungsschritte übersprungen oder verkürzt werden, entsteht eine gefährliche Scheinsicherheit.

 

Welche neuen Qualitätsmetriken werden in Zukunft entscheidend sein?

Marcus Körner: Wir bewegen uns klar in Richtung multidimensionaler Qualitätsmodelle. Einzelne Kennzahlen werden nicht ausreichen, vielmehr wird es darum gehen, ein integriertes Qualitätsprofil zu entwickeln.

Zentrale Dimensionen sind aus meiner Sicht: Ergebnisstabilität: Wie konsistent sind Ergebnisse bei Wiederholung? Prompt-Robustheit: Wie sensitiv reagiert das System auf Variationen in der Fragestellung? Externe Validität: In welchem Maße stimmen Ergebnisse mit realen Daten überein? Longitudinale Konsistenz: Bleiben Modelle und Personas über Zeit stabil? Erklärbarkeit: Lassen sich Ergebnisse nachvollziehbar begründen? Unsicherheitsmessung: Wie groß ist die inhärente Streuung der Ergebnisse?

Diese Dimensionen lassen sich perspektivisch in einem Quality Dashboard zusammenführen, das Transparenz und Vergleichbarkeit schafft.

Marko Sarstedt: Ich würde diese Perspektive um eine stärker statistisch-methodische Komponente ergänzen. Aus unserer Sicht ist es entscheidend, die Verteilungen synthetischer Daten systematisch zu analysieren und mit realen Referenzverteilungen zu vergleichen.

Dabei spielen nicht nur Lagemaße, sondern auch die Varianz eine entscheidende Rolle. Nur wenn die statistischen Eigenschaften synthetischer Daten denjenigen realer Stichproben entsprechen, können wir von validen Ergebnissen sprechen.

Darüber hinaus empfehlen wir, mehrere Modelle parallel einzusetzen und deren Ergebnisse zu triangulieren. Unterschiede zwischen Modellen liefern wertvolle Hinweise auf Unsicherheiten und potenzielle Verzerrungen.

 

Welche Rolle spielt die Validierung gegen reale Daten?

Marko Sarstedt: Die Validierung ist das zentrale Element jeder Anwendung synthetischer Daten. Ohne einen systematischen Abgleich mit realen Daten fehlt die Grundlage für jede belastbare Interpretation.

Dabei sollte die Validierung auf mehreren Ebenen erfolgen: auf individueller Ebene (z. B. Antwortmuster einzelner synthetischer Befragter), auf aggregierter Ebene (z. B. Verteilungen und Mittelwerte) sowie im Hinblick auf bekannte empirische Zusammenhänge.

Erst wenn synthetische Daten diese Tests bestehen, können sie sinnvoll in Entscheidungsprozesse integriert werden. Dies ist ein kontinuierlicher Prozess, schließlich ändern sich die Einstellungen unserer Zielgruppen laufend.

Die Zukunft der Marktforschung wird nicht durch die Menge der Daten entschieden, sondern durch die Fähigkeit, ihre Qualität transparent zu belegen und zu validieren.

Marcus Körner: Ich sehe das genauso und würde es noch zuspitzen: Synthetische Marktforschung hat nur dann einen Wert, wenn sie sich an der Realität messen lässt.

In der Praxis bedeutet das, dass wir hybride Modelle brauchen, in denen reale Daten als Referenz- und Kalibrierungspunkt dienen. Synthetische Daten können dann ihre Stärken ausspielen, etwa in der Skalierung oder Simulation, ohne die Bodenhaftung zur Realität zu verlieren.

 

Wohin entwickelt sich die Technologie – Generalmodelle oder Spezialisierung?

Marko Sarstedt: Die aktuelle Entwicklung deutet klar auf eine zunehmende Spezialisierung hin. Generalistische Modelle stoßen insbesondere bei komplexen verhaltenswissenschaftlichen Fragestellungen an Grenzen, da ihnen kontextspezifisches Wissen und tiefere Verhaltensmodelle fehlen.

Spezialisierte Modelle, die auf bestimmte Zielgruppen, Branchen oder Fragestellungen trainiert sind, zeigen hier deutlich bessere Ergebnisse. Diese Entwicklung wird durch Fortschritte in Bereichen wie Fine-Tuning, Retrieval-Augmented Generation und multimodale Modellarchitekturen weiter beschleunigt.

Marcus Körner: Das deckt sich vollständig mit unseren aktuellen Erfahrungen. Wir bewegen uns in Richtung hochspezialisierter Zielgruppenmodelle, also Avatare, die auf spezifische Märkte, Konsumentengruppen und Fragestellungen trainiert sind.

Der Mehrwert entsteht genau dort, wo Modelle nicht mehr generisch sind, sondern tief in reale Daten, Kontexte und Marktmechaniken eingebettet sind. Das ist aus meiner Sicht der nächste große Entwicklungsschritt in der Marktforschung.

 

Was bedeutet das alles für Unternehmen und Entscheider?

Marcus Körner: Unternehmen achten schon heute auf die Qualität von Studien, doch die neuen Spielregeln der KI-getriebenen Marktforschung erfordern ein erweitertes Qualitätsverständnis. Sie müssen ihre Rolle weiterentwickeln: vom klassischen Nutzer von Studien hin zum aktiven, methodisch versierten Bewerter von Datenqualität und Ergebnisvalidität. Das bedeutet konkret: Ergebnisse müssen nicht nur interpretiert, sondern auch hinsichtlich ihrer Entstehung hinterfragt werden. Transparenz über Datenquellen, Modelllogik und Validierung wird zur Voraussetzung für fundierte Entscheidungen.

Langfristig wird Qualität zum entscheidenden Differenzierungsmerkmal im Markt. Die Anbieter, die in der Lage sind, ihre Ergebnisse nachvollziehbar zu erklären und zu validieren, werden sich durchsetzen.

Marko Sarstedt: Ich würde ergänzen, dass Unternehmen eine gewisse methodische Kompetenz im Umgang mit KI-gestützten Verfahren aufbauen müssen. Synthetische Befragungen sind kein „Plug-and-Play“-Instrument, sondern erfordern ein tiefes Verständnis ihrer Funktionsweise und Limitationen.

Nur wenn diese Kompetenz vorhanden ist, können die Potenziale der Technologie sinnvoll genutzt und gleichzeitig Fehlinterpretationen vermieden werden.

 

Ein Satz zur Zukunft der Marktforschung im KI-Zeitalter?

Marcus Körner: „Die Zukunft der Marktforschung wird nicht durch die Menge der Daten entschieden, sondern durch die Fähigkeit, ihre Qualität transparent zu belegen und zu validieren.“

Marko Sarstedt: „Der Fortschritt synthetischer Marktforschung wird nicht an ihrer Skalierbarkeit gemessen, sondern an ihrer empirischen Nähe zur Realität.“

Kurzportrait

Prof. Dr. Dr. h.c. Marko Sarstedt ist Institutsdirektor für Marketing an der Ludwig-Maximilians-Universität München (Munich School of Management), Chief Marketing Officer (CMO) der LMU und Adjunct Research Professor an der Babeș-Bolyai-Universität in Cluj (Rumänien).

Marcus Körner ist Geschäftsführer und Inhaber der IWD market research GmbH mit Sitz in Magdeburg und der MTI Market Twin Intelligence GmbH in Potsdam. 

Geschrieben von

Kategorie

Tagged

+49 (0)391 7347 053

Mo-Fr 08:00-18:00 Uhr

Kontaktformular

Produktanfrage stellen

info@iwd-marketresearch.de

Senden Sie uns eine E-Mail

Bewerbung als Interviewer

Werde Teil des Teams