Fakultät für Informatik

TU München - Fakultät für Informatik
Software- and Systems Engineering Research Group

TUM
 
 

Agenda

Es sprechen Studenten über ihre abgeschlossenen Diplomarbeiten und Systementwicklungsprojekte.

Am Mittwoch, 30.05.18, ab 15:00 Uhr, im Raum „McCarthy“ 01.11.051:

ZeitVortragenderTyp(Betreuer)Titel
15:00 - 15:25:Stefanie EinwangMA (Elmar Jürgens, Rainer Niedermayr)Empirische Untersuchung der Priorisierung von automatisierten Tests für eingebettete Systeme auf Basis kürzlich durchgeführter Code-Änderungen
15:25 - 15:50:Andreas HornMA (Maximilian Junker, Henning Femmer)Auswirkungen automatischer Anforderungsanalysen auf die Qualität und Effizienz manueller Anforderungs-Reviews

Empirische Untersuchung der Priorisierung von automatisierten Tests für eingebettete Systeme auf Basis kürzlich durchgeführter Code-Änderungen

Die Ausführung von Regressionstests ist in der Entwicklung von eingebetteten Systemen im Fahrzeugumfeld von großer Bedeutung. Die Absicherung erfolgt dabei u.a. mit automatisierten Hardware-in-the-Loop Tests. Dabei stehen oftmals nicht ausreichend Ressourcen für die regelmäßige Durchführung der gesamten Testmenge zur Verfügung, so dass eine geeignete Auswahl und Priorisierung der durchzuführenden Testfälle erfolgen muss. Um dies zu erreichen, wird in dieser Arbeit der Einsatz eines Testauswahl- und -priorisierungsalgorithmus in einem eingebetteten System untersucht, der auf Basis von Software-Änderungen und Coverage-Informationen eine Testfallreihenfolge vorschlägt. Dazu wird ein vorhandener Algorithmus zur Testfallauswahl und -priorisierung in der Software-Analyse-Suite Teamscale so erweitert, dass er für den C++ Quellcode eines Steuergeräts eingesetzt werden kann. Hierfür ist zum einen erforderlich, dass aufgezeichnete Coverage-Informationen von Testfällen in Teamscale hochgeladen werden können, zum anderen muss die vorgeschlagene Testfallreihenfolge auch von dem eingesetzten Testautomatisierungssystem ASIA berücksichtigt werden. Beide Systeme werden in der praktischen Umsetzung dieser Arbeit entsprechend erweitert. Anhand mehrerer empirischer Evaluationen auf Basis einer Softwarekomponente des Steuergeräts BDC wird die Effizienz des Testauswahl- und –priorisierungsverfahrens untersucht und mit anderen Verfahren verglichen. Es zeigt sich, dass durch die Hinzunahme der Informationen aus den Software-Änderungen Fehler effizienter gefunden werden können. Im Vergleich mit anderen Verfahren konnte ein Fehler durchschnittlich mit einer Zeitersparnis von 59% und mit 61% weniger ausgeführten Testfällen entdeckt werden.

Auswirkungen automatischer Anforderungsanalysen auf die Qualität und Effizienz manueller Anforderungs-Reviews

Qualitätsdefekte in Anforderungsdokumenten haben einen großen negativen Einfluss auf die nachfolgenden Aktivitäten des Softwareenwicklungsprozesses, wie Architekturdesign, Implementierung und das Testen. Eine weit verbreitete Methode, um die Anzahl von Qualitätsdefekten in Anforderungsdokumenten zu minimieren, ist das manuelle Review dieser Anforderungsdokumente. Jedoch sind manuelle Reviews in der Praxis häufig sehr ineffizient, da sie viel Zeit benötigen und somit viel Geld kosten [FFWE17]. Deshalb entwickelten Femmer et al. [FFWE17] die sogenannten Requirements Smells als einen zu manuellen Reviews komplementären Ansatz, der es ermöglicht, potentielle Qualitätsdefekte in Anforderungsdokumenten durch automatische Anforderungsanalysen noch vor dem manuellen Review zu erkennen. Das Ziel dieser Arbeit ist es zu untersuchen, welche Auswirkungen diese automatischen Anforderungsanalysen auf die Qualität und Effizienz manueller Anforderungs-Reviews haben. Ein erster wichtiger Beitrag dieser Arbeit ist deshalb die Entwicklung eines Experimentdesigns. Mit diesem Experimentdesign ist es möglich zu analysieren, ob es einen Einfluss von automatischen Anforderungsanalysen auf die Anzahl der Anmerkungen des Reviewers für bestimmte Befundkategorien gibt und ob es einen Einfluss auf die Gesamtanzahl der festgestellten Qualitätsmängel innerhalb eines Feedback-Zyklus, bestehend aus Anforderungsanalysen und dem manuellen Review, gibt. Außerden ermöglicht das Experiment zu untersuchen, ob es einen Einfluss durch die Verwendung von Anforderungsanalysen auf die Zeit gibt, die der Reviewer für das manuelle Review benötigt. Ein zweiter Beitrag der Arbeit besteht darin, mit der Durchführung des entworfenen Experiments in der industriellen Praxis erste Daten bezüglich der Auswirkungen automatischer Anforderungsanalysen auf das manuelle Review zu erhalten. Die Ergebnisse des Experiments zeigen, dass Anforderungsanalysen zu einer erhöhten Anzahl von im Reviewprozess festgestellten Qualitätsmängeln in Anforderungsdokumenten führen und somit die Möglichkeit bieten, die Qualität von Anforderungsdokumenten zu erhöhen. Andere Einflüsse von Anforderungsanalysen auf die benötigte Zeit für das Review und auf die Anzahl der gefundenen Qualitätsprobleme des Reviewers in speziellen Kategorien von Qualitätsproblemen sind durch unser Experiment nicht signifikant nachweisbar. Deshalb empfehlen wir das Experiment in künftigen Arbeiten mit einer größeren Anzahl an Teilnehmern und längeren Experimentobjekten auszuweiten.

© Software & Systems Engineering Research Group
Sitemap |  Kontakt/Impressum
Letzte Änderung: 2018-05-25 16:02:37