Volkswagen Usability Test
Eine Nutzerstudie zur Optimierung des VW Vergleichstools
Das Vergleichstool für Fahrzeuge auf der Volkswagen Seite wurde optimiert – Doch bevor die geplanten Verbesserungen in die Entwicklung gingen, musste die grundlegende Frage geklärt werden: Entsprechen die Prototypen der tatsächlichen Nutzerlogik?
Datum
2024
Services
UX Research
Meine Rolle & Verantwortung
End-to-End Studienownership: Planung, Setup, Durchführung, Analyse & Reporting
Kombinierte Analyse quantitativer Daten (Klickraten, Heatmaps) und qualitativer Insights (Bewertungen, Freitext)
Klare Kommunikation der Erkenntnisse und Empfehlungen an das Team und den Kunden VW
Alle dargestellten Visuals und Zahlen wurden aus Gründen der Vertraulichkeit verfälscht.
Ein hybrides Studien-Design
Die vorgelegten Konzepte des Designteams waren vielversprechend, aber ihr wahrer Wert würde sich erst in der Interaktion mit Nutzern zeigen. Es ergaben sich drei konkrete Fragen, die es zu prüfen galt:
1. Können Nutzer Features wie das Hinzufügen oder Entfernen von Modellen intuitiv finden?
2. Wie wirken sich verschiedene Interface-Entwürfe auf Usability und Task-Erfolg aus?
3. Zeigen sich klare Nutzerpräferenzen für eine der Varianten?
Die Studie musste in der Lage sein, die Leichtigkeit der Nutzung zu bewerten, den Aufgaben-Erfolg präzise zu verfolgen und gleichzeitig Raum für detailliertes Nutzerfeedback zu schaffen. Die Wahl des richtigen Ansatzes war der Schlüssel, um mit den verfügbaren Werkzeugen aussagekräftige Ergebnisse zu liefern.
Die Logik hinter dem Klick
Um unsere offenen Fragen zu beantworten, entwickelte ich einen kombinierten Klicktest mit integrierten Follow-up-Fragen. Diese Methode erlaubte es mir, das Verhalten der Nutzer objektiv zu messen („Wo klicken sie? Schaffen sie es, die Aufgabe zu lösen?“) und gleichzeitig subjektive Einschätzungen und Begründungen zu erfassen („Wie einfach fanden sie es? Warum?“). Nach jedem Task fragte ich mittels Likert-Skala und offenen Fragen nach der empfundenen Schwierigkeit und den Erwartungen der Nutzer.
“Eine Kombination aus Klicktest und qualitativer Befragung lieferte mir sowohl das “Was” als auch das “Warum” des Nutzerverhaltens.”
Die Studie umfasste drei konkrete Tasks:
Das Entfernen eines Automodells aus dem Vergleichstool
Ein A/B-Test zweier CTA-Varianten zum Hinzufügen eines Automodells. Jede Testperson bekam lediglich Aufgabe A oder B vorgelegt, um einen Lerneffekt durch Wiederholung zu vermeiden.
Die Evaluation eines komplett alternativen Konzepts um zum Vergleichstool zu gelangen
Auf der Suche nach dem Fehler
Als die ersten quantitativen Ergebnisse eintrafen, warfen sie ein Rätsel auf: Die objektiven Success Rates waren überraschend niedrig, doch subjektiv bewerteten die meisten Teilnehmer die gleichen Tasks als “einfach”. Statt die Daten oberflächlich zu akzeptieren, überprüfte ich mein Test-Setup. Meine Likert-Skala war von „einfach“ zu „schwierig“ sortiert, entgegen der üblichen Sortierung von „schwierig“ zu „einfach“. Konnte die Sortierung der Likert-Skala die Testergebnisse verzerrt haben?
Klare Signale für die Produktrichtung
Die Daten lieferten handfeste Antworten auf die Ausgangsfragen und Leitplanken für das Team.
Ein klarer Gewinner im A/B-Test Auf die Frage nach der optimalen Design-Variante gab es eine eindeutige quantitative Antwort: Variante A des „Hinzufügen“-Buttons erzielte eine Success Rate von 85%, Variante B lag bei nur 45%. Ein klares Signal für die Umsetzung
Ein fundamentaler Usability-Hinweis Die qualitativen Feedbacks offenbarten ein übergreifendes Problem: Nutzer waren oft unsicher, welche Interface-Elemente überhaupt zum Vergleichstool gehörten. Dies war ein kritischer Hinweis auf die Notwendigkeit einer klareren visuellen Abgrenzung und Hierarchie.
Eine überraschend vielversprechende Alternative Während die bestehenden Konzepte Optimierung brauchten, überzeugte das alternative Gesamtkonzept (Task 3) mit einer Success Rate von 95% und positiven qualitativen Kommentaren. Es zeigte nicht nur hohe Usability, sondern auch großes Potenzial für eine neuartigere Lösungsrichtung.
Vom Einzelkommentar zur Einsicht
Neben den quantitativen Zahlen erfragte ich ebenso das qualitative Feedback. Um aus der Fülle der einzelnen Nutzerkommentare handlungsableitbare Muster zu extrahieren, clusterte ich das qualitative Feedback in drei übergeordnete Themengebiete und bekam so ein klares Bild über die größten Stärken und Schwachstellen aus Nutzersicht.
Impact & Strategische Empfehlungen an das Team
Die Studie erreichte ihr Ziel: Sie lieferte priorisierte Next Steps und verhinderte, dass sich das Team in suboptimalen Designs verrannte. Auf Basis der Ergebnisse war meine Empfehlung eine phasenweise Umsetzung: der klare Gewinner (CTA Variante A) kann direkt in die Umsetzung gehen. Die CTA-Platzierung müsse optimiert und unklare Interface-Elemente des Tools überarbeitet werden.
Das Team bekam nicht nur klare Richtungsentscheidungen an die Hand, sondern gewann durch den scheinbaren Widerspruch zwischen Verhalten und Aussage aus den Testergebnissen auch ein tieferes Verständnis für seine Nutzer.
Copyright © 2026 Antonia Gilka







