Praktikum (4) – Gedanken zur Bewertung von Nutzeroberflächen

Last updated on 11. November 2014

In meinem vierten Artikel über mein Praktikum möchte ich meine Gedanken aus dem letzten Artikel fortführen und mich mit der Bewertung von Nutzeroberflächen beschäftigen. Denn es ist im Prozess der Entwicklung von Nutzeroberflächen auch wichtig, wenn man dann mehrere Oberflächen entwickelt hat, entscheiden zu können, welche davon am besten für das Endprodukt geeignet ist.

Reflexion

Zunächst möchte ich noch einmal kurz meinen bisherien Erkenntnisstand auffrischen und damit die Überleitung zu den Bewertungskriterien schaffen.
Meine Idee für ein mögliches Vorgehen beim Erstellen einer Benutzeroberfläche teilt sich in mehrere Schritte auf. Nach der Analyse der Aufgaben und der Erstellung einer Persona werden, anhand der Ziele der Persona, mehrere Entwürfe für mögliche Nutzeroberflächen erstellt. An diesem Punkt angekommen will der Entwickler nun wissen, welches der UI’s am besten für die Weiterentwicklung geeignet ist. Hierfür soll ein Vergleich dienen, um diese Frage zu klären.

Überlegungen für das weitere Vorgehen

Ausgehend von der oben beschriebenen Situation gibt es zu Anfang mehrere Schritte, die zu tun sind, bevor man mit dem Testen beginnen kann.

  • Geeignete Testgruppe zusammenstellen
    • Wer will das Produkt später nutzen? Testgruppe muss repräsentativ sein.
  • Eine Menge an Aufgaben definieren und verschiedene Metriken dafür festhalten:
    • Wie lange braucht der Nutzer für die Bearbeitung der Aufgabe?
    • Wie viele Fehler macht er dabei?
    • Schließt der Nutzer die Aufgabe erfolgreich ab?
    • Wie viele Klicks/Schritte benötigt er?
  • Einen Fragenkatalog aufstellen über die Befindlichkeiten und Wünsche des Nutzers nach der Nutzung des Programms

Wenn die oben aufgeführten Materialien und die Testgruppe zusammengestellt ist, werden die Usability-Tests mit den ersten Entwürfen durchgeführt. Aus den daraus gewonnenen Daten kann man nun abwägen, welches der UI’s für die Weiterentwicklung in Betracht gezogen werden kann. Weiterhin können aus den gesammelten Daten Optimierungsmöglichkeiten erschlossen werden. Es folgt darauf ein Redesign des favorisierten Mockups in einer oder mehreren Varianten. Um messen zu können, ob es tatsächlich eine Verbesserung der Usability mit Hilfe des Redesigns gegeben hat, ist es an dieser Stelle notwendig einen wiederholten Test mit neuen Nutzern durchzuführen. Würde man die alte Testgruppe wieder befragen könnte es zu Verfälschungen des Ergebnisses kommen, da diese bereits Vorkenntnisse über die zu testende Oberfläche und ihre Arbeitsweise besitzen. Auch hier ist es wichtig, wieder eine repräsentative Nutzergruppe zu finden. Der wiederholte Test sollte mit den gleichen Aufgaben und Rahmenbedingungen wie der erste Test laufen – nur so lassen sich die Ergebnisse auch vergleichen! Treten bei dem erneuten Test neue Usability-Probleme auf, kann man diese in einem erneuten Redesign beheben. Auch hier erfolgt wieder eine Absicherung durch einen Usability-Test. Das kann sich so lange wiederholen, wie es notwendig ist.

Das zu testende UI kann dabei zu Beginn ein Papier-Mockup, ein Klick-Dummy oder später auch ein alle Funktionen simulierender Prototyp oder gar das tatsächliche Produkt selbst sein. Je nach Fortgeschrittenheit der Entwicklung kann man abwägen, welche der UI-Repräsentationen zum jeweiligen Zeitpunkt am geeignetsten ist.

Zusätzlich zu den Tests mit den Nutzern ist es ebenso jederzeit möglich sich auf die Personas zu berufen. Diese stellen während der Entwicklung des UI’s den Bezugspunkt für das Design dar. Man kann immer hinterfragen: „Würde Persona XY das genau so tun?“

Marlene Knoche Verfasst von:

Informatikerin mit Hang zur Kunst. - Theaterbegeistert, mag Katzen und Kaffee.

2 Kommentare

  1. Bernd
    24. Oktober 2012
    Antworten

    Wie groß sollte denn eine Gruppe von Testnutzern sein, damit sie repräsentativ ist?

  2. Marlene Knoche
    24. Oktober 2012
    Antworten

    Da gibt es mehrere Auffassungen, wie viele Teilnehmer man für einen solchen Test haben sollte. Die Grenze scheint da bei 5 Nutzern zu liegen. Die einen meinen 5 seien genug, die anderen stimmen dagegen. Laut einer Studie von 1994 können 5 Teilnehmer schon 80% der Usability-Probleme finden. In der Literatur wird auch beschrieben, dass 5 Teilnehmer durchaus ausreichend sein können, wenn der Umfang der getesteten Funktionen auf 5 bis 10 eingeschränkt ist und die Teilnehmer gute Repräsentanten sind. Um letzteres zu erreichen, muss der Personenkreis natürlich möglichst den potentiellen späteren Nutzern entsprechen.

Schreibe einen Kommentar zu Bernd Antworten abbrechen

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Time limit is exhausted. Please reload CAPTCHA.