Beschreiben Sie mindestens 5 Qualitätsfaktoren.
Zuverlässigkeit
Effizienz
Integrität
Verwendbarkeit
Wartbarkeit
Beschreibe den Qualitätsfaktor “Zuverlässigkeit” und gib eine mögliche Metrik an, um diese Qualitätsfaktoren messen zu können.
Beschreibung:
Die Fähigkeit eines Systems, die verlangte Funktionalität unter gegebenen Randbedingungen für eine bestimmte Zeit zu erfüllen.
Metrik:
Mean Time Between Failures (MTBF), Fehlerhäufigkeit.
Beschreibe den Qualitätsfaktor “Effizienz” und gib eine mögliche Metrik an, um diese Qualitätsfaktoren messen zu können.
Das Ausmaß, in dem ein System seine Leistungen mit einem Minimum an Ressourcenverbrauch erbringt.
Antwortzeit, Ressourcennutzung (CPU, Speicher)
Beschreibe den Qualitätsfaktor “Integrität” und gib eine mögliche Metrik an, um diese Qualitätsfaktoren messen zu können.
Das Ausmaß, in dem ein System unberechtigte Zugriffe auf Programme und Daten bzw. deren unberechtigte Veränderung verhindert.
Anzahl der erfolgreichen/fehlgeschlagenen unberechtigten Zugriffsversuche.
Beschreibe den Qualitätsfaktor “Verwendbarkeit” und gib eine mögliche Metrik an, um diese Qualitätsfaktoren messen zu können.
Die Leichtigkeit, mit der ein Benutzer die Bedienung eines Systems, die Vorbereitung von Daten dafür und die Interpretation seiner Ergebnisse lernen kann.
Benutzerzufriedenheit, Zeit zur Erledigung von Aufgaben, Fehlerquote bei der Benutzung
Beschreibe den Qualitätsfaktor “Wartbarkeit” und gib eine mögliche Metrik an, um diese Qualitätsfaktoren messen zu können.
Die Leichtigkeit, mit der ein System geändert werden kann, um Fehler zu beheben, seine Fähigkeiten zu erhöhen oder es an eine veränderte Umgebung anzupassen.
Zeit zur Fehlerbehebung, Anzahl der gefundenen und behobenen Fehler
Wie definiert die IEEE die Qualitätsfaktoren?
Die IEEE definiert Qualitätsfaktoren als die Eigenschaften eines Softwareprodukts, die erfüllt sein müssen, um eine hohe Qualität sicherzustellen.
Zu diesen Faktoren gehören:
Korrektheit
Flexibilität
Testbarkeit
Portabilität
Beschreiben Sie kurz den Goal-Question-Metrik Ansatz.
= hierarchisches Modell zur Messung der Softwarequalität.
Es besteht aus drei Stufen:
Konzeptuelle Stufe (Ziele):
Festlegung von Zielen in Bezug auf Produkte, Prozesse oder Ressourcen unter Berücksichtigung aktueller Bedürfnisse und Sichtweisen.
Operative Stufe (Fragen): Formulierung von Fragen, die das zu messende Objekt (Produkt, Prozess, Ressourcen) aus der benötigten Sichtweise charakterisieren.
Quantitative Stufe (Metriken): Zuordnung konkreter gemessener Werte zu den Fragen, entweder subjektiv oder objektiv erfasst
Welche Zusammenhänge bestehen zwischen analytischen und konstruktiven Maßnahmen?
Konstruktive Maßnahmen
Vorgehensmodelle, Methoden und Werkzeuge, Richtlinien und Standards, die die Erzeugung qualitativ hochwertiger Software fördern.
Analytische Maßnahmen
begleiten den gesamten Softwareentwicklungsprozess und umfassen Inspektionen, Reviews und Testmethoden zur Überprüfung der Übereinstimmung des Produkts mit den Soll-Vorgaben
Was ist der Unterschied zwischen formellen und informellen Reviews? Wann werden sie eingesetzt?
Formelle Reviews:
Strukturierte und dokumentierte Überprüfungen
häufig durch ein Meeting (z.B., Inspektionen, Walkthroughs).
Einsatz:
Frühe Phasen: Anforderungs- und Design-Dokumente, um Fehler frühzeitig zu erkennen.
Informelle Reviews:
Unstrukturierte Überprüfungen
oft ohne Dokumentation (z.B., Ad-hoc Reviews).
Späte Phasen: Code- und Testdokumente, um Implementierungsfehler zu identifizieren
Welche Arten von Reviews kennen Sie? Wann werden sie eingesetzt?
Software Requirements Review (SRR)
Überprüfung der Anforderungsdokumente vor der Entwurfsphase.
Preliminary Design Review (PDR)
Überprüfung des Softwareentwurfs und der Architektur vor der detaillierten Ausarbeitung.
Critical Design Review (CDR)
Bewertung des detaillierten Designs vor der Implementierung.
In-Process Review (IPR)
Kontinuierliche Überprüfung während des Entwicklungsprozesses.
Management Review (MR)
Beurteilung des Projektstatus und der Managementaktivitäten.
Code Walkthrough
Überprüfung des Codes, um Fehler zu finden und zu beheben.
Technical Review
konkreten Bestandteil der Software zu bewerten, die Übereinstimmung von Spezifikation oder Standards mit dem Softwareprodukt selbst zu überprüfen und auch um Fehler zu finden
Welche Rollen sind bei Reviews / Inspektionen zu beachten?
Moderator
Organisation und den Ablauf der Review
Einhaltung des Prozesses und leitet die Diskussion.
Leser
präsentiert das zu überprüfende Dokument
sorgt für die angemessene Geschwindigkeit des Reviews.
Schreiber
protokolliert die Ergebnisse der Review-Sitzung
erstellt das Review-Protokoll
Gutachter
bereitet sich auf die Review vor
beteiligt sich aktiv an der Überprüfung
Autor
Ersteller des zu überprüfenden Dokuments
beantwortet Fragen
stellt Hintergrundinformationen bereit
Erklären Sie den Ablauf von Reviews bzw. Inspektionen.
Planung: Festlegung der Reviews im QS-Plan, Erstellung der Arbeitspakete und Bestimmung der Teilnehmer.
Initialisierung: Überprüfung der Eingangskriterien und Zusammenstellung des Review-Teams.
Vorarbeitung: Untersuchung des Prüflings durch die Reviewer und Markierung der Mängel.
Durchführung: Präsentation des Prüflings, Diskussion und Dokumentation der gefundenen Fehler.
Überarbeitung: Autor überarbeitet das Dokument basierend auf den gefundenen Fehlern.
Nachverfolgung: Überprüfung der Korrekturen und Entscheidung über eine mögliche Re-Inspektion.
Erläutern Sie die Zusammenhänge zwischen Qualitätsmanagement und Qualitätssicherung.
Qualitätsmanagement
= umfasst die Planung, Steuerung und Überwachung aller qualitätsrelevanten Aktivitäten
Qualitätssicherung
= ein Teil des Qualitätsmanagements und beinhaltet konkrete Maßnahmen zur Sicherstellung der Produkt- und Prozessqualität.
Erklären Sie kurz die unterschiedlichen Testebenen, die im Rahmen des Softwareentwicklungsprozesses zum Einsatz kommen.
Modultest
= Test einzelner Module gegen ihre Designvorgaben.
Integrationstest
= Aufdecken von Fehlern im Zusammenspiel mehrerer Module.
Systemtest
= Prüfung des Gesamtsystems gegen die Spezifikation.
Alphatest
= Anwender testen das Produkt in der Umgebung des Herstellers.
Betatest
= Ausgewählte Kunden testen das Produkt in ihrer eigenen Umgebung vor der Markteinführun.
Erläutern Sie den grundlegenden Unterschied zwischen Blackbox und Whitebox-Testfällen?
Blackbox-Testfälle:
Fokus: Überprüfung der Funktionalität ohne Kenntnis der internen Struktur
Methode: Verwendung definierter Ein- und Ausgaben
Whitebox-Testfälle:
Fokus: Untersuchung der inneren Struktur und der Programmwege.
Methode: Überprüfung des Kontroll- und Datenflusses innerhalb des Programms.
Last changeda month ago