Volkswagen Usability Test

Eine Nutzerstudie zur Optimierung des VW Vergleichstools

Das Vergleichstool für Fahrzeuge auf der Volkswagen Seite wurde optimiert – Doch bevor die geplanten Verbesserungen in die Entwicklung gingen, musste die grundlegende Frage geklärt werden: Entsprechen die Prototypen der tatsächlichen Nutzerlogik?

Datum

2024

Services

UX Research

Meine Rolle & Verantwortung

  • End-to-End Studienownership: Planung, Setup, Durchführung, Analyse & Reporting

  • Kombinierte Analyse quantitativer Daten (Klickraten, Heatmaps) und qualitativer Insights (Bewertungen, Freitext)

  • Klare Kommunikation der Erkenntnisse und Empfehlungen an das Team und den Kunden VW

Alle dargestellten Visuals und Zahlen wurden aus Gründen der Vertraulichkeit verfälscht.

Ein hybrides Studien-Design

Die vorgelegten Konzepte des Designteams waren vielversprechend, aber ihr wahrer Wert würde sich erst in der Interaktion mit Nutzern zeigen. Es ergaben sich drei konkrete Fragen, die es zu prüfen galt:

1. Können Nutzer Features wie das Hinzufügen oder Entfernen von Modellen intuitiv finden?
2. Wie wirken sich verschiedene Interface-Entwürfe auf Usability und Task-Erfolg aus?
3. Zeigen sich klare Nutzerpräferenzen für eine der Varianten?

Die Studie musste in der Lage sein, die Leichtigkeit der Nutzung zu bewerten, den Aufgaben-Erfolg präzise zu verfolgen und gleichzeitig Raum für detailliertes Nutzerfeedback zu schaffen. Die Wahl des richtigen Ansatzes war der Schlüssel, um mit den verfügbaren Werkzeugen aussagekräftige Ergebnisse zu liefern.

Die Logik hinter dem Klick

Um unsere offenen Fragen zu beantworten, entwickelte ich einen kombinierten Klicktest mit integrierten Follow-up-Fragen. Diese Methode erlaubte es mir, das Verhalten der Nutzer objektiv zu messen („Wo klicken sie? Schaffen sie es, die Aufgabe zu lösen?“) und gleichzeitig subjektive Einschätzungen und Begründungen zu erfassen („Wie einfach fanden sie es? Warum?“). Nach jedem Task fragte ich mittels Likert-Skala und offenen Fragen nach der empfundenen Schwierigkeit und den Erwartungen der Nutzer.

“Eine Kombination aus Klicktest und qualitativer Befragung lieferte mir sowohl das “Was” als auch das “Warum” des Nutzerverhaltens.”

Die Studie umfasste drei konkrete Tasks:

  1. Das Entfernen eines Automodells aus dem Vergleichstool

  2. Ein A/B-Test zweier CTA-Varianten zum Hinzufügen eines Automodells. Jede Testperson bekam lediglich Aufgabe A oder B vorgelegt, um einen Lerneffekt durch Wiederholung zu vermeiden.

  3. Die Evaluation eines komplett alternativen Konzepts um zum Vergleichstool zu gelangen

Auf der Suche nach dem Fehler

Als die ersten quantitativen Ergebnisse eintrafen, warfen sie ein Rätsel auf: Die objektiven Success Rates waren überraschend niedrig, doch subjektiv bewerteten die meisten Teilnehmer die gleichen Tasks als “einfach”. Statt die Daten oberflächlich zu akzeptieren, überprüfte ich mein Test-Setup. Meine Likert-Skala war von „einfach“ zu „schwierig“ sortiert, entgegen der üblichen Sortierung von „schwierig“ zu „einfach“. Konnte die Sortierung der Likert-Skala die Testergebnisse verzerrt haben?

Um diese Annahme zu testen, wiederholte ich die Studie mit umgekehrter Skalierung. Das Ergebnis war entscheidend und lehrreich: Die Daten blieben gleich. Der Widerspruch war real und kein Methodenfehler. Diese Erkenntnis war wertvoll – sie zeigte, dass Nutzer ihre eigenen Schwierigkeiten nicht immer korrekt reflektieren und unterstrich die Notwendigkeit, sowohl auf das quantitative Verhalten als auch auf das qualitative Feedback zu hören.

Um diese Annahme zu testen, wiederholte ich die Studie mit umgekehrter Skalierung. Das Ergebnis war entscheidend und lehrreich: Die Daten blieben gleich. Der Widerspruch war real und kein Methodenfehler. Diese Erkenntnis war wertvoll – sie zeigte, dass Nutzer ihre eigenen Schwierigkeiten nicht immer korrekt reflektieren und unterstrich die Notwendigkeit, sowohl auf das quantitative Verhalten als auch auf das qualitative Feedback zu hören.

Um diese Annahme zu testen, wiederholte ich die Studie mit umgekehrter Skalierung. Das Ergebnis war entscheidend und lehrreich: Die Daten blieben gleich. Der Widerspruch war real und kein Methodenfehler. Diese Erkenntnis war wertvoll – sie zeigte, dass Nutzer ihre eigenen Schwierigkeiten nicht immer korrekt reflektieren und unterstrich die Notwendigkeit, sowohl auf das quantitative Verhalten als auch auf das qualitative Feedback zu hören.

“Der Fehler lag nicht in der Likert-Skala, sondern in de rSelbstwahrnehmung der Testpersonen.”

“Der Fehler lag nicht in der Likert-Skala, sondern in der Selbstwahrnehmung der Testpersonen.”

Klare Signale für die Produktrichtung

Die Daten lieferten handfeste Antworten auf die Ausgangsfragen und Leitplanken für das Team.

  1. Ein klarer Gewinner im A/B-Test

Auf die Frage nach der optimalen Design-Variante gab es eine eindeutige quantitative Antwort: Variante A des „Hinzufügen“-Buttons erzielte eine Success Rate von 85%, Variante B lag bei nur 45%. Ein klares Signal für die Umsetzung

  2. Ein fundamentaler Usability-Hinweis

Die qualitativen Feedbacks offenbarten ein übergreifendes Problem: Nutzer waren oft unsicher, welche Interface-Elemente überhaupt zum Vergleichstool gehörten. Dies war ein kritischer Hinweis auf die Notwendigkeit einer klareren visuellen Abgrenzung und Hierarchie.

  3. Eine überraschend vielversprechende Alternative

Während die bestehenden Konzepte Optimierung brauchten, überzeugte das alternative Gesamtkonzept (Task 3) mit einer Success Rate von 95% und positiven qualitativen Kommentaren. Es zeigte nicht nur hohe Usability, sondern auch großes Potenzial für eine neuartigere Lösungsrichtung.

Vom Einzelkommentar zur Einsicht

Neben den quantitativen Zahlen erfragte ich ebenso das qualitative Feedback. Um aus der Fülle der einzelnen Nutzerkommentare handlungsableitbare Muster zu extrahieren, clusterte ich das qualitative Feedback in drei übergeordnete Themengebiete und bekam so ein klares Bild über die größten Stärken und Schwachstellen aus Nutzersicht.

Impact & Strategische Empfehlungen an das Team

Die Studie erreichte ihr Ziel: Sie lieferte priorisierte Next Steps und verhinderte, dass sich das Team in suboptimalen Designs verrannte. Auf Basis der Ergebnisse war meine Empfehlung eine phasenweise Umsetzung: der klare Gewinner (CTA Variante A) kann direkt in die Umsetzung gehen. Die CTA-Platzierung müsse optimiert und unklare Interface-Elemente des Tools überarbeitet werden.

Das Team bekam nicht nur klare Richtungsentscheidungen an die Hand, sondern gewann durch den scheinbaren Widerspruch zwischen Verhalten und Aussage aus den Testergebnissen auch ein tieferes Verständnis für seine Nutzer.

Copyright © 2026 Antonia Gilka