TU München  Informatik  Software & Systems Engineering Lehre


Lehrstuhlseminar
Abstracts



Lehrstuhlseminar

Herrmannsdörfer: Road Trip durch den Südwesten der USA
Von Mitte März bis Anfang April habe ich zusammen mit meiner Freundin eine 3-wöchige Reise durch den Südwesten der USA angetreten. Unser über 4000 Meilen langer Weg hat uns durch die Bundesstaaten Kalifornien, Arizona, Utah und Nevada geführt - vorbei an wunderschönen Landschaften wie z.B. Grand Canyon, Monument Valley und Death Valley sowie bekannten Städten wie z.B. Las Vegas, San Francisco und Los Angeles. Allerdings hat unsere Reise auch zu nicht so bekannten Orten geführt, die aber nicht weniger beeindruckend waren. An unseren Eindrücken möchte ich euch im Rahmen dieser Perlen-Diashow teilhaben lassen.

Slåtten: Model Checking Service Specifications
One challenge with many traditional approaches to specify reactive systems is that service specifications are distributed among the components participating in each service. This makes it hard to change a service specification and still maintain a good overview of the consequences. The SPACE method, in contrast, enables the explicit specification of services in the form of collaborations from which systems are composed. Once development is complete, service specifications are transformed into component specifications that are in turn used as input to code generators to produce the deployable code. SPACE is supported by the Arctis tool suite. It provides an editor where UML collaborations and activities are used to specify service structure and behavior, respectively. Arctis provides syntactic inspectors, but previously did not have the capability to analyze the behavior of the service specifications. Two additions to the tool suite were realized through my project and master's thesis: the formulator and the analyzer. These are tools that together enable behavioral analysis of services or whole systems without requiring any formal methods knowledge from the user. The formulator automatically transforms the service-oriented model to temporal logic (TLA). The analyzer runs a model checker (TLC) and visualizes any error traces in terms of the UML model (as opposed to the temporal logic specification). Further, the analyzer attempts to not only detect symptoms, but set diagnoses and even provide automatic fixes, in some cases.

Spichkova: Computational Logic Mix
In diesem Vortrag werden einige Highlights der Lehre- und Forschungssthemen des "Computational Logic" Studiengangs (2000 - 2003) an der TU Dresden präsentiert:

  • Fluent Calculus (eine Version von Situation Calculus) - ein Formalismus zur Beschreibung von dynamischen Systemen in FOL.und
  • Attempto Controlled English (ACE) - eine Teilmenge von Englisch, die für die Erstellung formaler Spezifikationen dienen soll.

Lundkvist: Diagram Reconciliation
In this talk we discuss how to create and update diagrams after the execution of a model transformation. This is achieved by creating an independent diagram reconciliation tool component that is based on a mapping language from the abstract syntax to the concrete syntax of a modeling language. This approach allows us to decouple model transformation from diagram handling in model transformation languages and tools.

Schätz: Choose your weapon - entry level
Klassischerweise definiert man Semantiken in der Informatik algebraisch, operationell, oder denotationell. Aber was ist der Unterschied, warum gibt es überhaupt verschiedene Formen, was macht man damit, und wie hängen sie zusammen? Der Vortrag beantwortet diese und weitere Fragen am Beispiel der Semantik synchron-reaktiver Systeme. Achtung: Einsteigerveranstaltung - für Fortgeschrittene nicht geeignet.

Wagner: Empirisches Software Engineering - Methoden und Relevanz
Die Forschung im Software Engineering ist traditionell sehr theoretisch geprägt. Jedoch ist in einem Ingenieursgebiet, das sehr stark durch die ausführenden Personen bestimmt ist, eine rein theoretische Forschung unzureichend. Viele interessante Fragen können nur durch empirische Studien beantwortet werden. Aufgrund der Schwierigkeiten und des Aufwands solcher Studien, wie auch ihrer manchmal falschen Verwendung, ist empirisches Software Engineering immer noch umstritten. Der Vortrag gibt eine Einführung in das Themengebiet, stellt das grundlegende Handwerkszeug vor und versucht auch vor Fallstricken zu warnen.

Herrmannsdörfer: Gekoppelte Evolution von Metamodellen und Modellen
Ich werde über meine Diplomarbeit am Lehrstuhl berichten, die in Zusammenarbeit mit der BMW Car IT durchgeführt wurde. Um die Komplexität bei der Entwicklung heutiger Fahrzeugfunktionen zu beherrschen, werden Modelle als Abstraktionsmittel bei der BMW Car IT eingesetzt. Diese Modelle und die zugehörigen Metamodelle werden speziell für die Problemdomäne entwickelt. Bedingt durch sich ändernde Anforderungen und technologischen Fortschritt, sind die Problemdomänen kontinuierlichem Wandel unterworfen. Da sich Änderungen der Problemdomäne in der Regel auf die zugehörigen Metamodelle auswirken, müssen existierende Modelle entsprechend angepasst werden. Die manuelle Durchführung dieser Anpassungen ist jedoch aufwändig und fehleranfällig, und schränkt die Wiederverwendung bestehender Modelle in der Praxis ein. Dieser Vortrag stellt mit COPE einen Ansatz zur semi-automatischen Anpassung von Modellen bei Änderung ihres Metamodells vor. COPE basiert auf einer Analyse, die auf den Geschichten zweier Metamodelle bei der BMW Car IT durchgeführt wurde. Die Analyse zeigte, dass der Aufwand zur Migration erheblich reduziert werden kann, wenn man die Wiederverwendung von Wissen zur Anpassung von Modellen ermöglicht.

Hölzl: QVT & Co
Query / View / Transformation ist eine OMG-Spezifikation, die die Meta Object Facilities 2.0 um Modelltransformationen erweitert. Nach einer Proposal und Abstimmungsphase liegt nun die engültige Version der QVT-Spezifikation vor.
In diesem Vortrag werde ich die vorgeschlagenen Sprachen vorstellen und die wesentlichen Elemente der jetztigen Spezifikation diskutieren. Darüberhinaus werde ich aufzeigen wie sich die Ansätze unseres Lehrstuhls zu diesem Thema einordnen lassen.

Kof: Requirements Engineering
Wenn ein Projekt schief geht, liegt es in 50% der Fälle an Requirements Engineering-Fehlern, so lauten die Umfrageergebnisse aus unterschiedlichsten Quellen. Dabei existieren in der RE-Forschung Ansätze, die theoretisch alle Probleme der Praxis lösen könnten. Im Vortrag werden Ansätze für unterschiedliche RE-Aufgaben präsentiert, die für aktuelle RE-Forschung repräsentativ sind.

Kalaus: Sharepoint und V-Modell XT
Das V-Modell XT ist ein Vorgehensmodell, dass sehr stark auf die Unterstützung durch Werkzeuge angewiesen ist und darum auch eine breite Unterstützung für verschiedene Werkzeughersteller bereitstellt. Der Aufbau auf einem Metamodell gestattet es, die Strukturen des V-Modell XT maschinenlesbar für verschiedene Werkzeuge nutzbar zu machen. Das Metamodell enthält alle notwendigen Informationen, um große Teile der für die Teamorganisation und Kollaboration notwendigen Werkzeuginhalte automatisch zu generieren. Dieser Beitrag präsentiert einen Ansatz, der ausgehend von einem projektspezifischen V-Modell die automatische Erzeugung eines SharePoint 2007 Teamportals ermöglicht. Grundlage hierfür ist ein Generatorsystem, das auf dem Metamodell des V-Modell XT aufbaut und nach Minimal-Impact Strategie transparent auf den Standardwerkzeugen des V-Modells aufsetzt und diese erweitert, ohne tief in die Systeminfrastruktur des Zielsystems einzugreifen. Für die Zukunft geplant sind unter anderem: Repräsentation von Produktzustandsmodellen im Kollaborationsportal durch Workflows. Ausbau von Projekt-Cockpit-Funktionalität und Controlling-Funktionen. Rollenbasierte Sichten auf das Projektportal. Anbindung an Projektplanungswerkzeuge (MS Project). Vorstellbar ist auch die Nutzung des Portals als Werkzeug nicht nur für Projektleiter und Projektmitarbeiter. Zur Ermittlung empirischer Daten zu V-Modell XT-Projekten kann das Werkzeug ebenfalls projektübergreifendes Tool für Management, Qualitätsmanagement und Controlling herangezogen werden. Das Konzept wurde in einem Open-Source Projekt umgesetzt und ist auf CodePlex frei verfügbar.

Neidhardt: Vermessung der Erde
Unser Heimatplanet Erde unterliegt als komplexes System zahlreichen Einflüssen sowohl aus dem Universum als auch aus seinem Inneren selbst. Sie bestimmen einen Großteil der globalen und lokalen Gegebenheiten auf der Erdoberfläche. Gezeiten, Plattentektonik und auch Wetterverhältnisse, um nur einige zu nennen, verändern den Planeten stetig. Das Wissen um solche Geschehnisse und die Kenntnis darüber, in welchem Umfang sie unser tägliches Leben beeinflussen, ist nicht mehr nur im Interesse einzelner Wissenschaftler, sondern dringt Dank der Nutzung von moderner Technik mehr und mehr in unser alltägliches Leben vor. Denkt man z.B. nur an das Global Positioning System (GPS), das heutzutage in immer mehr Verkehrsmitteln Einzug hält und die weltweite Positionsbestimmung via Satelliten mit geodätischen Empfängern im Post-Processing bereits auf wenige Millimeter genau erlaubt, wird schnell klar, dass Geodaten immer wichtiger werden. Die Erbringung solcher Daten durch flächendeckend verteilte, permanente Messeinrichtungen ist dabei wesentlicher Bestandteil. Die Anforderungen hierzu werden jedoch immer höher. Eine steigende Anzahl von verschiedenartigsten Messdaten muss immer genauer erfasst werden und von den Observatorien in immer kürzerer Zeit zu den Auswertezentren gelangen, ohne dass hierbei größere Ausfallzeiten entstehen dürfen, da sonst die Kontinuität von Zeitreihen beeinflusst werden könnte. Ohne den Einsatz u.a. von moderner Informationstechnik ein nicht realisierbares Vorhaben. Verschiedenste Bereiche der Informatik finden hierbei anwendungsbezogen von der Datengewinnung bis hin zur Analyse ihre Anwendung. Angesichts von drohendem Klimawandel, Katastrophenschutz, Rohstoff- und Agrarplanungen auch ein immer interessanter werdendes Einsatzgebiet für die Informatik.

Schulte-Herbrüggen: Quantum Computing as an Engineering Problem: An Optimal-Control-Based Quantum Compiler

Quantum control plays a key role in quantum technology, e.g. for steering all kinds of quantum hardware systems be it in nanotechnology, in spectroscopy or in quantum electronics.
In terms of computation, quantum systems provide a unique potential for coherent parallelisation that may exponentially speed up algorithms as in Shor's prime factorisation. The quantum compilation task translating quantum software into a sequence of classical controls steering the quantum hardware lends itself to be tackled by optimal control. It is computationally demanding since the classical resources needed grow exponentially with the size of the quantum system. Thus, in collaboration with computer scientists at TUM, we developed C++ code running on the HLRB parallel cluster to find optimised quantum machine code.
Fundamentals and recent research results on relaxation- protected quantum controls will be highlighted.
Refs:
EURO-PAR Procs., Lect. Notes Comput. Sci. 4128 751 (2006).
Phys. Rev. A 72 042331 (2005).
and a recent e-print, 2006

Deißenböck: Kontinuierliche Qualitätsanalyse mit ConQAT

Im Laufe der letzten zwei Jahre wurde im Kompentenzzentrum Software-Maintenance das Qualitätsanalyse-Framework ConQAT entwickelt. Das Frameworkbasiert auf einer leistunsfähigen und überaus flexiblen Architektur, die es erlaubt, Qualitätsanalysen effizient an den sich ändernden Projektkontext anzupassen. Da das Framework nun kurz vor seinem ersten öffentlichen Release steht, möchten wir die Möglichkeit nutzen, den Lehrstuhl-Mitarbeitern in diesem Vortrag eine Einführung zu geben und Anwendungsgebiete aufzuzeigen. Wir weisen daraufhin, dass das Framework aufgrund seiner Flexibilität auch für Mitarbeiter außerhalb des Qualitätsumfelds interessant sein könnte.

Hummel: Inferenz einer azyklischen Internet-Hierarchie

Das im Internet vorherrschende inter-domain Routing-Protokoll BGP erlaubt eine Filterung von Routen nach bestimmten Regeln (Policies). Diese werden insbesondere genutzt um kommerzielle Interessen durchzusetzen, d.h. die Durchleitung von Daten wird nur zahlenden Kunden gestattet. Da diese Regeln einen entscheidenden Einfluss auf die Stabilität und Qualität des Rounting im Internet haben, ist es von großem Interesse diese Policies, und damit die Geschäftsbeziehungen zwischen verschiedenen Providern, zu kennen. Da diese Beziehungen häufig als Geschäftgeheimnis angesehen werden, wird nach Möglichkeiten gesucht, diese aus öffentlich zugänglichen Daten zu gewinnen. Dieser Vortrag stellt Verfahren vor, mit denen aus den Routing-Tabellen einiger weniger öffentlich zugänglicher Router die Geschäftbeziehungen des gesamten Internet hergeleitet werden können. Der Schwerpunkt liegt hierbei auf einem neuen Ansatz, der berücksichtigt, dass der entstehende Beziehungsgraph vermutlich keine gerichteten Kreise enthält. Erste Experimente bestätigen, dass sich dadurch die Vorhersagegenauigkeit deutlich erhöht.

Marschall: Das SE-Book

Die Service-Unit-Systems-Integration der T-Systems ist mit 12000 Mitarbeitern eines der größten Softwarehäuser Deutschlands. Im Herbst vergangenen Jahres wurde für die Systems-Integration mit dem "Software-Engineering-Book" (SE-Book) ein neuer Standardprozess für das Software-Engineering entwickelt. Das Prozessmodell dient als unternehmensweiter Standard für alle Software-Entwicklungsprojekte der T-Systems. Das SE-Book gliedert sich in seiner aktuellen Form in zehn Module, welche die einzelnen Phasen des Entwicklungsprozesses, Querschnittsaufgaben und die Projektplanung abdecken. Es legt jeweils die notwendigen Tätigkeiten, Rollen und Ergebnistypen fest und stellt einheitliche Vorlagen, Ratgeber und Checklisten für die Projektmitarbeiter zur Verfügung. Angesichts der Vielzahl und Heterogenität der Projekte des Unternehmens in Bezug auf Größe wie auch fachliche und technische Anforderungen, muss dieses Prozessmodell einerseits die notwendige Flexibilität aufweisen, um in allen Projekten anwendbar zu sein. Andererseits muss sein Einsatz die Verwendung unternehmensweit einheitlicher Begriffe, Abläufe und Ergebnisse in der Software-Entwicklung sicherstellen. Die nahtlose Einbettung des Entwicklungsprozesses in die Prozesslandschaft der T-Systems, Transparenz für unsere Kunden, Konformität zu wichtigen Standards (wie die Erfüllung des CMMI-Reifegrades 3), aber auch gute Handhabbarkeit und Praxistauglichkeit für unsere Mitarbeiter waren weitere wesentliche Einflussfaktoren bei der Entwicklung des SE-Book. In 29 Pilotprojekten wurden erste Erfahrungen mit dem SE-Book gesammelt, die in einer überarbeiteten, und mittlerweile unternehmensweit eingesetzten Version Berücksichtigung fanden. Auch zur Verwendung dieser Version, liegen mittlerweile zahlreiche Erfahrungen aus Projekten der T-Systems vor. Im Rahmen des Vortrags werden Struktur und Inhalt des SE Books vorgestellt. Es wird erläutert, wie die unterschiedlichen Anforderungen an ein unternehmensweites Prozessmodell zur Software-Entwicklung umgesetzt wurden. Die im praktischen Einsatz des Prozessmodells gewonnen Erkenntnisse werden dargestellt und ein Ausblick auf die zukünftige Weiterentwicklung des SE-Books gewährt.

Robles: Mining Software Repositories

Software repositories such as source control systems, archived communications, and defect tracking systems are used to help manage the progress of software projects. Software practitioners and researchers are beginning to recognize the potential benefit of mining this information to support the development and maintenance of software systems, improve software design/reuse, enhance the development with the acquired knowledge and empirically validate novel (and not so novel) ideas and techniques. This talk tries to give a fast overview of the research on this issue, that is now proceeding to uncover the ways in which mining these repositories can help to understand software development, to support predictions about software development, and to plan various aspects of software projects.

Dornbusch: User-Toolkits

Das Buzzword Web 2.0 ist in aller Munde. Jenseits der Terminologie gibt es unverkennbar ein paar fundamentale Veränderungen in der Entwicklung des Internets, deren Implikation sich auch auf die Entwicklung von Software auswirken. Neben den technischen Veränderungen (offene APIs durch Webservices, Desktop-"Look and Feel", usw.) ist ein zentrales Konzept den Nutzer in die Wertschöpfung mit einzubeziehen und an seiner Kreativität zu partizipieren. Meine Dissertation aus dem Jahre 2005 hat sich mit dem Thema beschäftigt, wie technisch unversierte Nutzer mit Hilfe von speziellen Werkzeugen (User Toolkits) Software erstellen können. In Verbindung mit Web 2.0-Kozepten ergeben sich daraus interessante neue Ansätze. In meinem Vortrag möchte ich einen kurzen Überblick über die Möglichkeit der User-zentrierten Softwareentwicklung am Beispiel Web 2.0 geben und darstellen, welche Herausforderungen sich daraus ableiten lassen.

Berghofer: Ein Isabelle-Tutorial

Isabelle ist ein generischer, interaktiver Theorembeweiser, der von der Gruppe von Prof. Tobias Nipkow and der TUM in Kooperation mit Prof. Larry Paulson von der Universität Cambridge entwickelt wird, und in den vergangenen Jahren bereits für viele größere Anwendungen, wie die Formalisierung der Programmiersprache Java sowie den Beweis der Kepler-Vermutung eingesetzt wurde. Darüberhinaus spielt Isabelle eine wichtige Rolle im Projekt Verisoft, an dem der Lehrstuhl von Prof. Broy beteiligt ist.
Nach einer kurzen Einführung in die Thematik sollen anhand einiger einfacher Beispiele die wichtigsten von Isabelle unterstützten Spezifikations- und Beweistechniken wie Datentypen, rekursive Funktionen sowie Induktionsbeweise demonstriert werden.

18.10.2006; Wagner; Sensitivitätsanalyse quantitativer Modelle

Sensitivitätsanalyse ist die Analyse von quantitativen Modellen so dass der Einfluss der Eingabeparameter auf die Ausgabe bewertet werden kann. Insbesondere ist es oft interessant zu wissen, welche Eingabeparameter die wichtigsten sind bezgl. verschiedener Kriterien. Dazu gehört z.B. die Identifikation der Parameter, für die sich genauere Forschungen am meisten lohnen. Ausserdem ist es oft wichtig das Modell zu vereinfachen, indem man Parameter weglässt, die keine signifikante Auswirkung auf die Ausgabe haben. In den letzen Jahren wurden hierzu einige interessante Verfahren entwickelt, die unabhängig vom eigentlichen Modell funktionieren. Der Vortrag stellt diese Verfahren vor und wie sie für Modell des Software Engineering angewandt werden können.

08.11.2006; Laurent; Partnerprozesse bei BMW

The globalization offers big potential for businesses due to its innovation ability, its flexibility, cost reduction, time reduction, and improving quality, but it is still a challenge to use this potential nowadays. The challenges that follow from the processes of globalization become apparent looking at the example of global networking in the automotive industry. Globally distributed cooperation between different domains is in effect a fact of the daily work. Moreover globalization has created a need to collaborate and compete with counterparts thousands of miles away.
The Virtual Project Space is a web-application for collaborative engineering integrated in the B2B-Portal at BMW (collaboration portal for BMW partners), which supports in principle management, informative and communication processes with functions like workflows, tasks-management, conferencing, shared folders, knowledge-systems and so on. Nevertheless each project at BMW has its own character, goal, processes, methods, processes and therefore other requirements for an IT-support-system. This lecture presents the virtual project space, an IT-platform based on flexible architectures permitting a free configuration of functionalities and tools and the various possibilities of configuration following actual business and engineering processes.

15.11.2006; Penzenstadler; Vergleich von Ansätzen für SPLE mit Case Study zu Czarnecki's Ansatz

Ich werde über meine Diplomarbeit bei Fraunhofer ESK in Zusammenarbeit mit der Uni Passau berichten, die im Rahmen des Projektes "mobilsoft" (Teilprojekt 6) gestellt wurde. Dabei habe ich verschiedene Ansätze zu Software Product Line Engineering miteinander verglichen und anschließend den Ansatz ausprobiert, der uns am "anwendbarsten", also sinnvoll und direkt umsetzbar erschien. Das war Czarnecki's Ansatz der Generativen Programmierung mit Hilfe seines Prototyps FMP (Feature Model Plugin für Eclipse). Ich habe anhand eines kleinen Beispiels ausprobiert, wie weit man bei der Automatisierung des Entwicklungsprozesses gehen kann und wie weit es noch Sinn macht.

22.11.2006; Pfaller; CLP zum Laufen bringen

Im Gegensatz zur prozeduralen oder objektorientierten Programmierung sind deklarative Programmierparadigmen, wie Constraint- und Logikprogrammierung vielen Software-Entwicklern kaum vertraut. Die Kombination aus den beiden genannten Ansätzen führt zur Constraint-Logik-Programmierung (CLP). Obwohl seit langem konkrete CLP-Sprachimplementierungen und Werkzeuge dafür existieren beschränkt sich der Einsatz hier immer noch auf wenige Nischen und CLP wird dort nur von verhältnismäßig wenigen Experten verwendet.
Ursachen dafür sind sicher zum einen, dass CLP nur bei der Lösung spezifischer Problemstellungen (beispielsweise Optimierungsaufgaben) tatsächlich Vorteile bietet und der deklarative Ansatz dieser Sprachen sehr konträr zu den bekannteren imperativen Sprachen ist. Andererseits existiert aber auch wesentlich weniger einführende Literatur, welche die praktische Anwendung dieses Programmierparadigamas dem Einsteiger nahe bringt. Zudem gibt es keine CLP-Implementierung welche sich als eindeutiger Standard durchgesetzt hat, so dass alleine die Wahl einer bestimmten Sprache zu Beginn unübersichtlich ist.
Im wesentlichen will der Vortrag diese Kernfrage wohl jedes CLP-Neulings beantworten: "Ich will versuchen etwas mit CLP zu entwickeln - wo fange ich an, wie arbeitete ich mich hier am besten ein?" Dazu werden die grundlegenden Konzepte dieses Programmierparadigmas vorgestellt, die Abgrenzung zwischen Logikprogrammierung, Prolog und CLP angegeben und erweiterte Konzepte wie funktional-logische Programmierung angegeben. Schließlich werden konkrete Sprachimplementierungen und Werkzeuge vorgestellt und Hinweise für einführende Literatur und Tutorials gegeben.

06.12.2006; Jürgens, Feilkas; Domain Specific Languages

Domain Specific Languages (DSLs) sind problemorientierte Sprachen, die einen hohen Abstraktionslevel und Spezialisierungsgrad aufweisen. Durch ihre Verwendung soll die Entwicklerproduktivität gesteigert und damit die Entwicklungs- und Wartungskosten von Software gesenkt werden.

Der Begriff der DSLs wird in den letzten Jahren allerdings im Zusammenhang mit allerlei Buzzwords wie Model Driven Architecture, Model Driven Development, Model Integrated Computing, Generative Programming, Language Oriented Programming oder Software Product Lines verwendet. Dadurch läuft man als Informatiker Gefahr, sie voreilig als "Yet another Buzzword" abzutun.

In diesem Vortrag wollen wir
  • Verschiedene Definitionen von DSLs vorstellen
  • DSLs zu (einigen der oben genannten) verwandten Ansätzen in Beziehung setzen
  • Unser Verständnis der Chancen und Grenzen des Einsatzes von DSLs erläutern um eine Grundlage für ein gemeinsames Verständnis von DSLs zu schaffen
15.12.2006; Pretschner; Nutzungskontrolle

Nutzungskontrolle (engl. usage control) erweitert die klassische Zugriffskontrolle (engl. access control) um Konzepte der Einschränkung möglicher Verwendungen eines Datums, nachdem der Zugriff auf dieses Objekt erfolgt ist. Gleichermaßen relevant in Datenschutz und Intellectual Property Management und offenbar besonders anspruchsvoll in verteilten Szenarien, werden Anforderungen der Art "muss in 30 Tagen gelöscht werden", "darf nur zu wissenschaftlichen Zwecken verwendet werden" und "ohne Bezahlung erfolgt die Wiedergabe nur in reduzierter Qualität" behandelt. Wir diskutieren zentrale Herausforderungen, fundamentale Konzepte, deren sprachliche Spiegelung in Policies sowie existierende Enforcement-Mechanismen und präsentieren aktuelle Arbeiten an der Schnittstelle von Softwaretechnik und formalen Methoden.

20.01.2007; Romberg; SE BMW Antriebsentwicklung

In diesem Vortrag werde ich ein wenig auf die Situation der BMW-Antriebsentwicklung im Moment eingehen und welche auf das Software Engineering bezogenen Herausforderungen sich daraus ergeben. Zusätzlich wird es darum gehen, ein paar liebgewonnene Rezepte aus der Informatik auf ihre Eignung für den (stark regelungstechnisch geprägten) Antriebsbereich abzuklopfen.

24.01.2007; Hager; Wie gehe ich mit Kunden um?

Kundenzufriedenheit ist ein in vielen Bereichen wichtiges Thema, wenn es darum geht, langfristige Kundenbeziehungen zu entwickeln und zu erhalten. Der Vortrag geht auf ausgewählte Themen im Umgang mit Kunden ein. Insbesondere wird der Umgang mit Kunden in Konfliktsituationen, Lösung von Konfliktsituationen und das Erreichen von Sympathie beim Kunden näher besprochen.

26.04.2006; Fox; A Formal Approach to Aspect-Orientation

We lay a formal foundation for a software programming, design and engineering approach that is widely known as aspect-orientation. Despite its popularity, it remains unclear what aspect-orientation really means. There are numerous techniques and methods around, which all claim to offer some kind of support for aspects. But what precisely is aspect-orientation? How are aspects composed or interwoven? What is the underlying engineering principle? In this paper we propose a formal model in order to substantiate the matter. The intention is to contribute a sound platform for the discussion and research on aspect-orientation. We base aspect-orientation on the notion of communication refinement. Furthermore, we classify aspects by their property of transparency and whether aspect weaving preserves the means of communication or not. This work is not yet concluded and the authors would be glad to receive further feedback on the subject.

10.05.2006; Polivaev (Giesecke & Devrient); Testentwicklung für Chipkarten

Giesecke & Devrient (G&D) ist führender internationaler Anbieter von Banknotenpapier, Banknotendruck, Banknotenbearbeitungssystemen sowie Karten und komplexen Systemlösungen in den Bereichen Telekommunikation, elektronischer Zahlungsverkehr, Gesundheit, Identifizierung, Transport und IT-Sicherheit (PKI). Die Zuverlässigkeit unserer Produkte wird durch Qualitätssicherungsmassnahmen gewährleistet. Dabei spielen umfangreiche und systematische Tests eine wichtige Rolle. In diesem Vortrag wird Einblick in Techniken der Testentwicklung im Division "Card Solutions – Payment" gegeben.

24.05.2006; Hammerschall; V-Modell

V-Modell XT meets Reality – Erfahrungen mit der organisationsspezifisc hen Einfhrung des V-Modell XT bei Witt Weiden.

21.06.2006; Rittmann; Dienstbegriffe

Sabine Rittmann wird ber ihre Ergebnisse der Zusammenarbeit mit Michael Meiss inger zum Thema Dienstbegriffe berichten.

Dienste, Features, Services – hinter diesen Begriffen verbirgt sich ei n Hype der seit einigen Jahren die Informatikwelt immer st�ker erobert. Obwohl eigentlich kaum einer so genau wei� was sich hinter diesen Schlagw�tern verbirr gt, wie sie definiert werden und wie sie (gegebenenfalls) von einander angegrenz t werden, treten sie in immer mehr Dom�en auf (z.B. Telekommunikation, Internett , Middleware, ...). In diesem Vortrag geht es weniger darum, die einzelnen Dienst-/Feature-/Service- Ans�ze detailliert zu beschreiben. Vielmehr ist es Ziel, einen �erblick ber vv erschiedenen Definitionen und Ans�ze zu geben. Basierend auf einem (im Augenblick entstehenden) Dienstevergleich, werden Ans�zz e rund um Dienste/Features/Services kurz vorgestellt. Dabei werden sowohl prominente Ans�t ze (Zave/Jackson, Web Services, ...), als auch Lehrstuhleigene (Focus/Janus, Inserve, Sch�z'scher Ansatz, ...) betrachtet und miteinander verglichen.

05.07.2006; Deißenböck; Produkt-Qualität

Einen der einflussreichsten Beiträge zum Thema Produkt-Qualität stellt das 1984 von David A. Garvin veröffentlichte Papier "What does 'Product Quality' Really Mean?" dar. Das Papier diskutiert grundsätzlihche Fragestellungen zum Thema Produkt-Qualität unabhängig von der Produkt-Domäne. Meiner Meinung nach besticht dieses Papier sowohl durch seine Erkenntnisse als auch durch die Präsentation und sollte zum Repertoire jedes Qualitäts-Interessierten gehören.

Dieser Vortrag fasst das Papier von Garvin zusammen und erläutert seine Definitionen und Dimensionen von Produkt-Qualität. Abschließend sollen Garvins Erkenntnisse im Kontext von Software-Produkten diskutiert werden.

26.07.2006; Langmead; Deep Source Code Analysis

In this presentation, discover the latest methods to find bugs in software using advanced static analysis parsing techniques. From architectural level design problems such as spaghetti code, or clustering, to memory leaks, NULL pointer dereferences, buffer overflows and security problems, more and more software defects can now be detected earlier in the software lifecycle by using static analysis. This reduces the cost of a defect by pushing detection time back to so-called "time zero" The talk will also cover some dynamic testing techniques including wrapping, unit testing and code coverage analysis.

A technical demonstration of all these concepts will be provided, using several market leading testing tools.

16.11.05; Deißenböck et. al.; Einführung in das Lehrstuhl-Wiki

Es wird eine erste Version unseres neu eingerichteten Lehrstuhl-Wikis vorgestellt. Das Wiki soll zur besseren Organisation der Lehrstuhl-internen Kommunikation genutzt werden, wie z.B. schnelle Informationen über Konferenzen oder geplante Lehrveranstaltungen. Die geplanten Strukturen werden kurz erklärt und wenn gewünscht eine Einführung in die Benutzung von Wikis gegeben.

30.11.05; Romberg; Eine Lanze für Datenflussmodelle/Focus

Was haben Matlab Simulink, (Auto)Focus, und Standard ML gemeinsam? Auf den ersten Blick vielleicht nicht viel – auf den zweiten jedoch lassen sich alle drei (mit etwas Gewalt) als Datenflusssprachen/formalismen interpretieren. Auf der Basis der gemeinsamen Grundlagen (keine Seiteneffekte, Reihenfolge = Datenabhängigkeit, (meist) Totalität) schauen wir uns die prinizipielle Eignung solcher Sprachen/Formalismen fuer verschiedene Zwecke (SW-Architektur, Programmierung, Verifikation) an, mit besonderem Augenmerk auf synchrone Datenflusssprachen/Embedded. Aus dem Titel des Vortrags könnt ihr den Bias des Referenten erraten. Wenn die Zeit reicht, koennen wir noch ein paar Sachen aus dem kommerziellen Umfeld (UML-RT, ASCET, ...) dagegenhalten.

14.12.2005; Leucker; How to Write a Paper

In diesem Vortrag werden wir sehr subjektiv auf die Gedanken, Gefühle und Motive bei der Veröffentlichung von wissenschaftlichen Arbeiten eingehen. Schon an dieser Formulierung laesst sich erkennen, dass im Vortrag nicht das Verfassen sondern vielmehr das Veröffentlichen eines Beitrages im Vordergrund stehen wird. Im Gegensatz zu wissenschaftlichen Papieren, in denen wir eine klare mathematisch korrekte logische Argumentation postulieren, werden wir in dem Vortrag zwar nicht an logischer Klarheit der Argumentation sparen, uns aber von der mathematischen Logik ab- und der eigenen eher dem philosophisch orientierten psychologischem Gedankwerk zuwenden. Sämtliche Schlussfolderungen sind daher insbesondere fuer Anhaenger von majoristischen Entscheidungsprozessen angreifbar, da die zugrundeliegende Argumentationslogik singulaere Validierungzustimmung aufweisen duerfte, und sollten somit vom Zuhörer durchaus auch hinterfragt werden. Letzteres ist somit als Ziel des Vortrages zu definieren.

08.02.2006; Franz Huber; IT am Lehrstuhl Broy

Dieser Vortrag ist sicherlich kein typischer Perlenvortrag. Es geht hier weniger um die Präsentation eines wissenschaftlichen Themas, sondern vielmehr darum, einen kleinen Einblick in den Mikrokosmos unserer Systemverwaltung, oder auf Neudeutsch, in unsere "IT Group", zu geben.

Im Laufe des Vortrags werden wir dabei verschiedene Aspekte dieses Themas streifen, wie etwa unsere interne Organisationsstruktur, die von uns betriebenen Systeme und Dienste, sowie Werkzeuge, die wir einsetzen, um für uns intern die Arbeit einfacher und effizienter zu machen. Aus Gründen der Aktualität wird dabei auch kurz auf unser neues "Request Tracking System", dessen Produktivbetrieb derzeit beginnt, eingegangen.

Als letzten Baustein der Rundum-Erneuerung der Lehrstuhl-IT werden wir in den kommenden Monaten unsere komplette Serverlandschaft sowohl hardwareseitig als auch software-/systemseitig auf eine neue Basis stellen. Dieses aktuell bereits laufende Vorhaben werden wir zum Abschluß des Vortrags genauer beleuchten und auf damit möglich werdende neue Services und Nutzungsmodelle für unsere Server eingehen.


Dienstag, 19. Juli 05
Sebastian Winter, Lst. Broy:
Adaptive Systeme

Zusammenfassung

Unter einem adaptiven System versteht man im Allgemeinen ein System, das sich selbständig an unterschiedliche Gegebenheiten anpasst. In zahlreichen Domänen werden adaptive Systeme bereits eingesetzt, jedoch bleiben aus Sicht des Software-Engineerings einige kritische Fragen zur Entwicklung adaptiver Systeme offen.

Der Vortrag stellt Beispiele aus unterschiedlichen Bereichen vor und erläutert anhand eines Prototypen konkret das Design und die Verwendung einer adaptiven Nutzerschnittstelle. Besondere Aufmerksamkeit gilt hierbei den einzelnen Komponenten, welche typischerweise für die Realisierung eines adaptiven Systems notwendig sind.

Im Vortrag werden u. a. folgende Fragen behandelt:

  • Was ist ein adaptives System bzw. wann ist ein System adaptiv?
  • Welche Vorteile haben adaptive Systeme?
  • Aus welchen Komponenten besteht ein adaptives System?
  • Wie gestaltet sich die Architektur eines adaptiven Systems?
  • Wie spezifiziert man ein adaptives System?

Vor allem soll der Vortrag die Möglichkeit bieten, das Thema kontrovers zu diskutieren.
Dauer: ca. 45 min



Dienstag, 28. Juni 05
Martin Rappl, Lst. Broy:
Abstraktion -- Anspruch und Wirklichkeit

Zusammenfassung

Abstraktion ist eine gängige Technik in der Wissenschaft, um durch eine Fokussierung auf wesentliche Informationen die Komplexität zu reduzieren. Modellierungs- und Verifikationsverfahren bieten üblicherweise eine Reihe von Abstraktionstechniken an, um deren Einsatz handhabbar zu gestalten. Was viele Leute aber nicht wissen: Die Entwickler von Entwurfsmethoden und von Verifikationsverfahren arbeiten größtenteils unabhängig voneinander und entwickeln auf ihren Anwendungszweck hin abgestimmte, aber grundsätzlich verschiedene Abstraktionstechniken. Dieser Vortrag gibt einen Überblick über gängige Techniken, vergleicht diese untereinander und regt zur Diskussion an.
Dauer: ca. 45 min



Dienstag, 7. Juni 05
Peter Dornbusch, Jan Romberg, Lst. Broy:
Patente anmelden -- (relativ) leichtgemacht

Zusammenfassung

Es gibt verschiedene Gründe, warum das Anmelden von Patenten aus Forschungsinstitutionen heraus allgemein als wichtig erachtet wird: Verbesserung der Wettbewerbsfähigkeit, Wissenstransfer, Einnahmequelle für die Forschungseinrichtung usw. usw. Für den einzelnen Erfinder lockt die Aussicht auf eigene kommerzielle Verwertung, und im eigenen Lebenslauf sind Patente sowieso nie verkehrt. Wir wollen in einem Rundumschlag ein paar Hintergründe beleuchten und grob die Schritte, die zur Anmeldung des eigenen Patents aus der Uni heraus notwendig sind, darstellen, also: Abwicklung über Uni oder Industriepartner? Muss ich meine Erfindung überhaupt dem Arbeitgeber melden? Wie sieht eine Erfindungsmeldung aus? Wie kann der Patentanwalt mir helfen? Wie sieht eine Patentschrift aus? Was ist im Zusammenhang mit Publikationen usw. zu beachten?
Dauer: ca. 45 min



Dienstag, 3. Mai 05
Andreas Bauer, Johannes Grünbauer, Lst. Broy:
Netzsicherheit? I don't care

Zusammenfassung

Man muss nicht gleich als paranoid gelten, um einfache und etablierte Verfahren einzusetzen, die helfen, Privat- und Sicherheit im Netz zu gewaehrleisten. Deshalb werden in diesem Vortrag exemplarisch grundlegende Vorgehensweisen praesentiert, die schon laengst zum guten Ton moderner Internet-Kommunikation gehoeren sollten und trotzdem derzeit nur von einer verschwindend geringen Minderheit muendiger Computer-Benutzer eingesetzt werden. Aus dem Inhalt: sicherer Email-Transfer, PGP/GPG, SSL-Verschluesselung, Case-Beispiel: Ebay und Key-Signing HOWTO (Wer sich schon einen GPG-Schlüssel generiert hat, kann diesen nebst Fingerprint gerne mitbringen, dann können wir die Schlüssel gegenseitig signieren -- es tut auch nicht weh). P.S. Je mehr Mitarbeiter diesen Vortrag besuchen, desto besser/sicherer fuer alle.
Dauer: ca. 45 min



Mittwoch, 26. Januar 05
Daniel Ratiu, Lst. Broy:
Infrastructure Tools for Reverse Engineering

Zusammenfassung

The current reverse engineering community is faced with the problem of analysing large and heterogeneous systems. Many analyses are defined in the literature for different purposes and for different parts of a software system. Currently the analyses are carried out mostly by stand-alone tools and the results given by a particular investigation can hardly be combined with the results given by others. Two important causes are that these analyses are performed on different data models and there is no infrastructure tool which facilitates the integration of multiple analyses. Memoria and Insider are Java based tools developed at the LOOSE Research Group from Timisoara (Romania). Memoria (Meta-model for Reverse-engineering, Inspection and Analysis) is a unified meta-model whose main purpose is to facilitate the uniform structural analysis of Java and C++ systems. It is used as an underlying data model for Insider which is an infrastructure tool that offers the possibility to integrate independent analyses in a common framework. The purpose of this presentation is to introduce Insider and Memoria and the way in which they facilitate the integration of different analyses for Java and C++ systems.
Dauer: ca. 45 min



Mittwoch, 19. Januar 05
Jan Jürjens, Lst. Broy:
Playing the Devil's Advocate: Verifying Real-Time Systems

Zusammenfassung

In diesem Vortrag möchte ich kurz einige Ideen zur modell-basierten Spezifikation und Verifikation verlässlicher und insbesonderer zeitkritischer Systeme diskutieren. Das Ziel ist, visuelle Spezifikationsnotationen für softwarebasierte Systeme (wie AutoFocus oder UML) mit echtzeit-relevanten Informationen zu erweitern, zum Beispiel Annahmen über die unterliegende Hardware (wie Übertragungsverzögerungen) oder Echtzeit-Anforderungen (wie Deadlines). Die Spezifikationen können anschliessend hinsichtlich der Anforderungen und relativ zu den Hardwareannahmen formal und automatisch verifiziert werden.
Dauer: ca. 45 min



Mittwoch, 12. Januar 05
Florian Deissenböck, Christian Pfaller, Lst. Broy:
Asien ist anders

Zusammenfassung

Dass Asien anders ist, dürfte spätestens nach Karaoke und Tamagotschis jedem klar geworden sein. Wie anders es allerdings ist, merkt man unserer Meinung nach allerdings erst, wenn man es am eigenen Leib erfahren hat. In unserem Vortrag geben wir einen (anekdotisch geprägten) Überblick über kulturelle Unterschiede zwischen Asien und der westlichen Welt, sowie über unsere eigenen Erfahrungen in Singapur bzw. Thailand. Speziell gehen wir dabei auf politische und gesellschaftliche Differenzen ein, welche die Arbeit (auch für Informatiker) in Asien bzw. mit Asiaten erschweren können.
Dauer: ca. 45 min



Mittwoch, 01. Dezember 04
Tilman Seifert, Lst. Broy:
CMMI und Konsorten - Fortentwicklung der Reifegradmodelle

Zusammenfassung

Wie wir beim letzten Perlen-Vortrag über Agile Methoden gesehen haben, erhitzen sich die Gemüter um die Wahl der richtigen Vorgehensweise. Dieser Vortrag zeigt, wie Reifegradmodelle die Bewertung der Qualität und Angemessenheit von Entwicklungsprozessen unterstützen, und wie sie zur Prozessverbesserung eingesetzt werden können. Bekanntester Vertreter ist hier das CMMI, das kurz vorgestellt wird. Nicht nur Software-Systeme und Vorgehensmodelle, sondern auch Reifegradmodelle entwickeln sich weiter. Der Vortrag versucht, aktuelle Strömungen und Trends aufzuzeigen und zu diskutieren.
Dauer: ca. 45 min


Mittwoch, 17. November 04
Gerd Beneken, Lst. Broy:
Agile Methoden im Überblick

Zusammenfassung

Fast jeder Berater hat bereits seine eigene agile Methode erfunden. Alles ist neuerdings agil: Produktlinien, Dokumentation, Architektur, ...

Ist die agilen Bewegung nur um eine Modewelle, wie es die große Zahl von Veröffentlichungen erahnen lässt, oder handelt es sich tatsächlich um etwas, das die Software-Entwicklung effizienter und effektiver macht?

Der Vortrag versucht, agile Methoden mit traditionellen Herangehensweisen wie dem RUP (Rational Unified Process) zu vergleichen und herauszuarbeiten, unter welchen Bedingungen agile Methoden die Erwartungen erfüllen können. Über eine möglichst kontroverse Diskussion würde sich der Referent freuen.
Dauer: ca. 45 min


Mittwoch, 10. November 04
Leonid Kof, Lst. Broy:
Semantik der natürlichen Sprache

Zusammenfassung

In dem Vortrag gehe ich erst darauf ein, was man unter der Semantik natürlicher Sprache versteht.

Der Rest des Vortrags stellt unterschiedliche Ansätze zur Semantikberechnung vor:

  • direkte Berechnung
  • direkte Berechnung und Auflösung der Pronomina
  • Verb Frames
  • Parsing and Semantic annotation
Ich weiß, dass diese Auflistung dem Unbeteiligten ziemlich spanisch vorkommt. Diese Konzepte werden aber auch während des Vortrags eingeführt.
Dauer: ca. 45 min
Mittwoch, 27. Juli 04
Markus Pizka, Lst. Broy:
Abenteuer Häuslebau

Zusammenfassung

Zum Abschluss des Semesters widmet sich der letzte Perlen-Vortrag dieses Semesters einem weniger technischen Thema: dem Bau eines Eigenheims. Der Vortrag beruht auf 1+1/2 Jahren persönlicher Erfahrungen und beantwortet so wichtige Fragen wie "was tun, wenn im Keller ein See angelegt wurde" oder "Schatz, die Tür geht nicht auf, Sie haben die Heizung dahinter montiert". Wie sich zeigt ist der Bau eines Hauses ein komplexes und umfangreiches Projekt bei dem es, ganz analog zu einem Software-Großprojekt, insbesondere auf die richtige Projektorganisation und die Projektleitung ankommt. Bei ca. 20 beteiligten Unternehmen ist dies allerdings schwierig. Dazu gesellen sich Nebenschauplätze, wie Großbanken, die u.U. nach wie vor Schwierigkeiten mit Prozentrechnen haben. Kurzum, wer sich darüber gewundert hat, warum ich in den vergangenen Monaten in einem rapiden Tempo sichtbar ergraut bin bekommt hier die Antwort. Aber - wie immer - hat die Geschichte ein gutes Ende :-)
Dauer: ca. 45 min


Mittwoch, 9. Juni 04
Peter Dornbusch, Lst. Broy/CDTM:
Unternehmer gesucht! -- Entrepreneurship an den Münchner Unis

Zusammenfassung

Niemand wird bestreiten, dass an den deutschen Universitäten viele intelligente Köpfe arbeiten, die immer wieder aufs Neue innovative Ideen hervorbringen. Leider bleiben die Ideen oftmals in den Köpfen oder zumindest an der Universität. Wenn man öffentliche Diskussionen, wie etwa die Debatte über den Innovationsstandort Deutschland, verfolgt, so wird oft bemängelt, dass in Deutschland sehr gute Lösungen für komplexe Probleme erdacht werden, nur der Schritt zum marktfähigen Produkt bleibt in der Regel aus.

Seit längerer Zeit sind sich die Universitäten über diese Schwäche bewusst, und unabhängig von irgendwelchen Diskussionen hat sich vieles im Verborgenen getan. Es gibt mittlerweile eine umfangreiche Kompetenz an der TU München zu dem Thema, wie aus einer Idee ein marktfähiges Produkt oder eine Dienstleistung wird, und wie man erfolgreich eine Firma gründet, um dieses Produkt oder diese Dienstleistung zu realisieren.  

Ziel des Vortrags ist es, ein umfassendes Bild abzugeben, welche Unterstützung ein Gründer durch die TU München und ihr Umfeld bekommen kann.
Dauer: ca. 45 min


Mittwoch, 19. Mai 04
Andreas Fleischmann, Lst. Broy:
Softskills für Software-Ingenieure

Zusammenfassung

Seit etlichen Jahren führen wir am Lehrstuhl Broy Softwaretechnikpraktika (STP) durch, in denen studentische Teams von rund 12 Studierenden ein Semester lang ein größeres Projekt bearbeiten. Die Rückmeldungen der Studierenden deuten darauf hin, dass die größten Schwierigkeiten in diesem Projekt in der Zusammenarbeit als Team und im Projektmanagement liegen, und nicht auf fachlicher Seite. Das kann, positiv gesagt, daran liegen, dass das benötigte Informatik-Fachwissen in den Vorlesungen bereits hinreichend gut vermittelt wurde, oder auch, dass es den Studierenden in einem STP leichter fällt, fachliche Defizite zu überwinden. Andererseits deuten die Rückmeldungen auf Verbesserungsbedarf in Bezug auf die Teamfähigkeit der Studierenden hin.

Ähnliche Erfahrungen hatte ich auch an der TU Darmstadt gemacht und dort gemeinsam mit Kollegen ein Teamtraining für studentische Projektteams entworfen. Dieses Training wird seit letztem Jahr in einer angepassten Form auch hier an unserem Lehrstuhl den STP-Teilnehmern angeboten. In dem Vortrag möchte ich vorstellen, was bislang in diesen Teamtrainings den Studierenden vermittelt wurde, welche Ziele wir mit dem Training verfolgen und welche Erfahrungen wir dabei gemacht haben.
Dauer: ca. 45 min


Mittwoch, 28. April 04
Ulrike Hammerschall, Lst. Broy:
Das V-Modell 200x - ein modulares Vorgehensmodell

Zusammenfassung

Das V-Modell ist für viele Unternehmen und Behörden eine Richtschnur für die Organisation und Durchführung von IT-Vorhaben. Es verbessert die Produktqualität und die Kooperation zwischen Firmen und Behörden bei gemeinsamen IT-Projekten - insbesondere bei der Entwicklung komplexer und langlebiger Systeme. Das aktuell gültige V-Modell wurde bereits im Jahr 1997 fertiggestellt und seitdem nicht mehr überarbeitet. Es spiegelt demzufolge nicht mehr den aktuellen Stand der Informationstechnologie wider. Ausgehend von den erkannten Verbesserungspotentialen und Weiterentwicklungsmöglichkeiten wird das V-Modell überarbeitet und voraussichtlich Ende 2004 als V-Modell 200x. fertig gestellt. Um die Anwendbarkeit, Erweiterbarkeit und Anpassbarkeit des V-Modells zu verbessern, wird das V-Modell 200x nach einem "Baukastenprinzip" aufgebaut. Dabei ist der Vorgehensbaustein das zentrale Grundelement. Ein Vorgehensbaustein kapselt inhaltlich zusammengehörige Aktivitäten, Produkte und Rollen. Vorgehensbausteine sind Einheit, die eigenständig verwendet werden können und unabhängig änder- und erweiterbar sind. So können auf Basis des V-Modell 200x unterschiedliche Arten von Projekten unterstützt und sogar organisationsspezifische Vorgehensmodelle erstellt und weiterentwickelt werden. Die projektspezifische Anpassung des V-Modells erfolgt dabei anhand eines einfachen Tailoringverfahrens über das weiterer Vorgehensbausteine identifiziert und ihre Produkte und Aktivitäten eingebunden werden können. Neben der projektspezifischen Anpassung ist zusätzlich auch die Anpassung an unterschiedliche Entwicklungsansätze, wie zum Beispiel Wasserfallmodell, evolutionäre und agile Entwicklung möglich. In der Präsentation wird auf die Grundkonzepte des V-Modells 200x eingegangen. Insbesondere wird das Konzept des Vorgehensbausteins mit seinen Produkten und Aktivitäten im Detail erläutert, sowie das Tailoringkonzept zur Anpassung des Modells an verschiedene Projekttypen und Vorgehensmodelle vorgestellt.
Dauer: ca. 45 min


Mittwoch, 14. April 04
Patrick Keil, Lst. Broy:
VWL für Informatiker

Zusammenfassung

Unser "Analyse-Objekt" ist ein kleines Software-Unternehmen in einem beliebigen Land. Anhand dieses Beispiels werden die beiden Disziplinen der VWL, Makro- und Mikro-Ökonomie, ihre Abgrenzungen sowie einige grundlegenden Erkenntnisse der beiden Disziplinen vorgestellt und diskutiert. Ein Schwerpunkt des Vortrages ist die Vertragstheorie, die sich mit den Problemen unseres Software-Unternehmens beschäftigt, wenn dieses in Interaktion mit anderen Marktteilnehmern (Mitarbeiter, Lieferanten, Kunden, Staat) tritt. Daraus lassen sich sowohl einige "Faustregeln" für die Projektarbeit ableiten, als auch gleichzeitig die wichtigsten Analysemethoden der VWL aufzeigen.
Dauer: ca. 45 min


Dienstag, 13. Januar '04
Christian Salzmann, BMW CarIT:
AUTOSAR

Zusammenfassung:

AUTOSAR steht für "AUTomotive Open System ARchitecture" und ist ein internationales Kosortium der wichtigsten Automobilhersteller, Zulieferer und Softwaretool-Hersteller. Ziel des Kosortium ist es die Schnittstellen, die Beschreibungstechniken und (teilweise) die Vorgehensweisen für die Entwicklug von Steuergeräte-Software im Fahrzeug zu Standardisieren.
Durch AUTOSAR soll zunächst eine einheitliche Softwarearchitektur für Steuergeräte im Fahrzeug definiert werden, die übergreifend über Fahrzeugdomänen einheitliche Standards für OEMs, Zulieferer und reine Softwaredienstleister bietet. Hierzu werden Modelle und Generierungsverfahren definiert, die von abstrakten Spezifikationen auf die konkreten Plattformen abgebildet werden. Damit stellt AUTOSAR einen ersten Schritt dar, von der eng verwobenen Hard- und Software Sicht, die immer noch im Automotive Bereich vorherrscht, wegzukommen und eine klare Trennung (inkl. Schnittstellen) zwischen Steuergeräte Hard- und Software zu erreichen.
Im Vortrag werde ich die Ziele, die Konzepte und den momentanen Status von AUTOSAR verstellen. Insbesondere werden ich auf die grundlegenden Konzepte, wie die Modellbasierung und die generativen Ansätze diskutieren.
Dauer: ca. 45 min


Dienstag, 2. Dezember '03
Alexander Pretschner:
Software-Produktlinien

Zusammenfassung:

Computerwissenschaftler bemühen vergleichsweise häufig die Ingenieurwissenschaften, wenn es um Ansätze zur Lösung der nunmehr seit 35 Jahren fortbestehenden "Software-Krise" geht. Sieht man einmal von Fehlleistungen wie der beim Bau der Londoner Millenium Bridge ab, liegt ein Grund für des Ingenieurs vermuteten Erfolg darin, daß er Wissen und Entwicklungsartefakte systematisch zu erstellen, zu managen und wiederzuverwenden in der Lage ist.
SW-Produktlinien stellen einen Ansatz zur systematischen Wiederverwendung dar. Die drei fundamentalen Aspekte sind dabei erstens die Entwicklung wiederverwendbarer "core assets", zweitens die Entwicklung des spezialisierten Produkts und drittens das Management. Wiederverwendung wird also insbesondere auch als organisatorisches Problem angesehen, dessen Lösung über sozialpädagogische Bekenntnisse zum menschelnden Miteinander hinausgeht.
Der Vortrag präsentiert die zentralen Ideen, die so mancher Zuhörer mit "ist doch klar!" zu kommentieren müssen meinen wird.
Dauer: ca. 45 min


Dienstag, 18. November '03
Bernhard Schätz:
IT does matter: Produktivitätsgewinne durch CASE tools

Zusammenfassung:

Nachdem sich die Schere zwischen nachgefragter Software und verfügbarem Entwicklerpotenzial in den letzten Jahren weiter geöffnet hat, wird Produktivität zum Schlüsselfaktor in der Softwareindustrie. Werkzeughersteller versprechen "Steigerung bis 35%" oder "in Kombination mit Prozessbesserung Steigerung bis 175%". Gleichzeitig ist aber das oft zitierte "Productivity Paradox" zu beobachten: die Einführung von Informationsverarbeitung hat in vielen Wirtschaftsbereichen nicht zu einer deutlichen Steigerung der Produktivität geführt. Im Rahmen des Vortrags werden daher kurz die verschiedenen Klassen von CASE-Werkzeugen angerissen, statistische Erkenntnisse hinsichtlich des Produktivitätsgewinns vorgestellt, das Problem der Lernkurve im CASE-Einsatz angesprochen, und erläutert, warum im Bereich der Softwareindustrie das Produktivitätsparadox nur scheinbar keine deutliche Verbesserung feststellen lässt.
Dauer: ca. 45 min; Folien (
pdf:753K)


Dienstag, 4. November '03
Patrick Keil:
Zukunft der IT - die SETIK II-Studie

Zusammenfassung:

Zum dritten Mal entstand im Auftrag des Bundesamtes für Sicherheit in der Informationstechnik (BSI) am Lehrstuhl eine Studie, die die Trends in der IuK-Technik der nächsten zehn Jahre evaluiert (ein Großteil der Kapitel ist mittlerweile elektronisch verfügbar). In den Bereichen

  • IT-Sicherheit
  • Technologien (unterteilt in Rechnertechnik, Rechnernetze, Softwaretechnik, Datenbanken) und
  • Anwendungen
wurden Expertenbefragungen durchgeführt, um die zukünftige Bedeutung verschiedener Tools, Sprachen, Technologien etc. einschätzen zu können.
Der Vortrag stellt kurz das Vorgehen bei der Erstellung der Studie vor. Danach werden ausgewählte Ergebnisse aus den verschiedenen untersuchten Bereichen präsentiert und diskutiert. Der Schwerpunkt liegt dabei auf der IT-Sicherheit, dem Software-Engineering und den Anwendungen.
Dauer: ca. 45 min; Folien (pdf: 887K)


Dienstag, 21. Oktober '03
Alexander Ziegler:
Wissenschaftstheorie

Zusammenfassung:

Für das ingenieurgemäße Arbeiten ist es sinnvoll, die dem zugrundegelegte Theorie und deren Methoden und Paradigmen zu kennen. Nicht anders verhält es sich für die wissenschaftliche Arbeit, wo analog die theoretischen Grundlagen das entsprechende Werkzeug darstellen.
Der Vortrag präsentiert wissenschaftstheoretische Schulen und Sichtweisen, die für die tägliche Arbeit nutzbar gemacht werden sollen. Herausgegriffen wird dabei aus dem Gesamtkomplex des wissenschaftlichen Arbeitens die Wissenschaftstheorie, bei der im Vordergrund die Überprüfung von Schlüssen steht. Hierüber wird eine Einführung geboten und die präsentierten Ansätze wie der Empirismus, der Rationalismus oder der Falsifikationismus zur Diskussion gestellt.
Ausgeklammert werden hingegen Techniken wissenschaftlichen Arbeitens und Präsentierens wie Zitationstechniken oder Techniken der Literaturrecherche, sowie wissenschaftliche Methoden wie mathematische Beweise oder Statistiken und Umfragen.
Dauer: ca. 45 min; Folien


Dienstag, 17. Juni '03
Klaus Schmidt:
Secure Software Engineering: SAP R/3 Sicherheit

Zusammenfassung:

Viele Unternehmen setzen auf SAP R/3 als umfassendes, zentrales und in die Ablauforganisation eingebettetes ERP-System. Die Sicherheit des SAP-Systems war deshalb seit jeher sowohl für die Unternehmen als auch für den Hersteller SAP ein wichtiger Bestandteil der Funktionalität. Allerdings wurde Sicherheit zunächst hauptsächlich auf die mächtigen Möglichkeiten des Berechtigungskonzeptes im R/3-System bezogen. Durch die Metamorphose der SAP-Architektur von einer Client-Server Architektur zu einer Web-orientierten Technologie und den damit verbundenen Möglichkeiten des direkten Einsatzes des SAP R/3 als Unternehmensportal für Kunden, Partner, Lieferanten und Mitarbeiter müssen nun auch andere Aspekte wie System- und Netzwerksicherheit, Informationssicherheit und Datenschutz in die betrieblich-organisatorischen sowie die technische Prozesse mit einbezogen werden. Kryptographische Methoden ermöglichen nicht nur eine sichere Authentisierung der Nutzer, sondern ebenso eine umfassende Verschlüsselung der übertragenen und verarbeiteten Daten.
Dauer: ca. 45 min; Folien (
pdf: 655K)


Dienstag, 10. Juni '03
Andreas Bauer:
Open Source Development in a Nutshell

Zusammenfassung:

Keine Frage, "Open-Source" ist zu einem In-Thema avanciert, welches die Gemueter nicht nur bewegt, sondern bei Zeiten auch zu erhitzen vermag. Trotzdem ist das Konzept und die Philosophie dahinter heute noch weitgehend unverstanden, denn nur die wenigsten haben genuegend Einblick in diese Bewegung, um auch die Gruende fuer den augenscheinlichen Erfolg selbst grosser Open-Source Projekte zu erkennen. Deshalb soll dieser Vortrag einen Blick hinter die Kulissen von grossen Open-Source Projekten gewaehren und auf die Fragen eingehen, warum und wie Open-Source ueberhaupt funktioniert.
Dauer: ca. 45 min; Folien (
pdf: 95K)


Dienstag, 27. Mai '03
Sascha Molterer:
MetA - Methodik der Architekturbeschreibung bei BMW

Zusammenfassung:

Bei der BMW AG werden für die Erstellung von Individualsoftware im Business-Bereich Prozeß- und Dokumentationsvorgaben zur Projektdurchführung vorgegeben. Bislang beschränkten sich dabei die Vorgaben zur Dokumentation der IT-Architekturauf die Erstellung einer einzelnen Grafik am Ende der Design-Phase eines Projekts.
Im letzten Jahr wurde eine Methodik entwickelt, die über alle Phasen eines Projekts Hilfsmittel zur Beschreibung einer IT-Architektur vorgibt. Dabei wurden insbesondere drei Sichten (Konzeptionelle Sicht, Funktionale Sicht und Ausführungs-/Verteilungssicht) definiert, mit denen die IT-Architektur für verschiedene Zielgruppen graphisch beschrieben werden kann. Darüberhinaus werden den Projekten Vorlagen zur textuellen Beschreibung von Anforderungen, Randbedingungen, Entwurfsentscheidungen und übergreifenden Aspekten einer IT-Architektur bereitgestellt.
Im Vortrag werden die verschiedenen Sichten und textuellen Vorgaben zur Dokumentation einer IT-Architektur vorgestellt. Anhand eines Beispiels werden anschließend die Dokumentationsaufgaben eines IT-Architekten in den einzelnen Projektphasen dargestellt.
Dauer: ca. 45 min


Dienstag, 13. Mai '03
Gerd Beneken:
Standardarchitekturen: sd&m-QUASAR und BMW-Musterarchitekturen - Ein Erfahrungsbericht

Zusammenfassung:

Softwarearchitektur wird immer wieder neu erfunden. Standardprobleme wie Persistenz oder Fehlermanagement werden in Individualsoftware-Projekten immer wieder neu gelöst. Höhere Erstellungs- und Wartungsaufwände sowie geringere Gesamtqualität sind die Folge.
Seit mehreren Jahren versucht sd&m, dieses Problem über QUASAR (QUalitäts- Software-ARchitektur) in den Griff zu bekommen. BMW geht es über Musterarchitekturen an. Der Vortrag stellt beide Ansätze vor, berichtet praktische Erfahrungen in der Umsetzung und versucht eine erste Bewertung.
Dauer: ca. 45 min


Dienstag, 29. April '03
Wolfgang Prenninger:
Erfahrungen mit AutoFocus in der MOST-NetworkMaster-Fallstudie

Zusammenfassung:

In diesem Vortrag werden die Erfahrungen im "MOST-Projekt" vorgestellt. MOST ist ein Netzwerktyp, der in Mittel- und Oberklasse-Automobilen zur Vernetzung von Multimediageräten verwendet wird. In Rahmen des Projekts wurde für BMW mit unserem Werkzeug AutoFocus ein wichtiger Teil des MOST-Netwerkmanagements modelliert.
Der Vortrag gibt einen Überblick über das methodische Vorgehen und Schwierigkeiten etc., die beim Modellieren großer Systeme im Allgemeinen und im Speziellen (d.h.: mit AutoFocus) auftreten.
Dauer: ca. 45 min


Dienstag, 15. April '03
Leo Kof:
Parsing natürlicher Sprache

Zusammenfassung:

Es besteht kein Zweifel daran, dass Parsen der natürlichen Sprache eine wichtige Aufgabe ist. Seit den Anfangsjahren der Informatik wurde auf dem Gebiet intensiv geforscht (z.B. stammt die Grammatikhierarchie von Chomsky aus dem Jahre 1957), aber erst in letzter Zeit sind Parser entwickelt worden, die gute Ergebnisse auf nicht domänenspezifischen Texten zeigen.
In dem Vortrag stelle ich verschiedene Parsermodelle für Englisch vor und vergleiche sie. Es wird vor allem die Frage "Wie wird geparst?" behandelt und nicht "Warum ausgerechnet so?", weil die letztere auch unter Linguisten umstritten ist.
Dauer: ca. 45 min; Folien (
PPT: 214K)


Dienstag, 21. Januar '03
Uwe Franzen:
Die Success Story EWSD (elektronisches Wählsystem Digital)

Zusammenfassung:

Der Vortrag stellt das öffentliche Vermittlungssystem EWSD der Fa. Siemens in seiner Grundstruktur kurz dar und geht dann ein auf vier wesentliche Faktoren,die zu dem weltweiten Erfolg dieses Systems mit beigetragen haben:

  • Systemdesign
  • Entwicklungsprozess
  • Qualitätsmanagement
  • Service

Dauer: ca. 45 min


Dienstag, 7. Januar '03
Michael von der Beeck:
Drive-by-wire-Projekt

Zusammenfassung:

Der Vortrag stellt Arbeiten im Rahmen des Drive-By-Wire-Projektes bei BMW vor. Insbesondere werden folgende Aktivitäten vorgestellt:

  • Einsatz von UML-RT zur (abstrakten) Funktionsnetzmodellierung
  • enge Integration von Anforderungsmanagement und Funktionsnetzmodellierung
  • werkzeugübergreifendes Versions- und Konfigurationsmanagement
  • Integration mit der BMW-Bordnetzdatenbank
  • Definition eines sicherheitsorientierten Entwicklungsprozessen (IEC 61508)
  • Übergang von UML-RT-Funktionsnetzen zu Ascet-Modellen
  • Migration von UML-RT zu UML 2.0
Wenn genügend Zeit bleibt und Interesse besteht, moechte ich anschliessend kurz auf die wesentlichen Unterschiede zwischen meiner früheren Tätigkeit an der Uni und meiner jetzigen Tätigkeit bei BMW eingehen.
Dauer: ca. 45 min; Folien


Dienstag, 17. Dezember '02
Jan Philipps:
Michael Jackson's Problem Frames

Zusammenfassung:

Michael Jackson (der ohne Handschuh) entwickelte in den letzten Jahren Konzepte und Notationen zur Analyse von Softwareentwicklungsproblemen. Unter anderem durch Reduktion auf bekannte Problemklassen sollen Entwickler befähigt werden, zu erwartende Fragestellungen und Schwierigkeiten zu identifizieren und entsprechende Beschreibungs- und Lösungstechniken zuzuordnen.
Der Vortrag gibt einen Ueberblick ueber diese "Problem Frames" und stellt einige Querbezuege zum Requirements Engineering her. Zur Zielgruppe zaehlen alle, denen die am Lehrstuhl verbreiteten "Box & Arrow"-Diagramme viel zu konkret sind.
Dauer: ca. 45 min; Folien (
pdf: 806K)


Dienstag, 5. November '02
Bernhard Schätz:
"Was kostet dieses Stück Software?": Kostenschätzung mit FPA und CoCoMo

Zusammenfassung:

In diesem Vortrag wird mit CoCoMo eine konstruktive Methode von B.Boehm vorgestellt. Bei der konstruktive Methode wird nicht per Analogie geschätzt sondern mittels eines Modells der zu erstellenden Software sowie des Erstellers. Im Vortrag wird die erweiterte Variante mit Function Point Analysis vorgestellt. Dabei wird weniger auf die konkrete Mathematik als auf die Prinzipien des Modells eingegangen.
Schwerpunkte des Vortrags sind.

  • Wie misst man Software, vor allem vor der Erstellung?
  • Wie genau kann man schätzen?
  • Welche Faktoren beeinflussen die Erstellung?
  • Welche Rolle spielt der Mitarbeiter, welche die Systemkomplexität?

Dauer: ca. 45 min; Folien (
pdf: 1344K)


Dienstag, 9. Juli '02
Tobias Hain:
GUIs

Zusammenfassung:

Graphische Benutzeroberflächen haben sich als Mensch/Maschine-Schnittstelle durchgesetzt. Für die Realisierung steht ein ganzer Zoo von Frameworks und Laufzeitumgebungen bereit. In diesem Zusammenhang werden Technologien wie z.B. Java Swing, Servlets/Java Server Pages, ASP(.NET), KDE und Gnome eingesetzt. Der Vortrag liefert einen Überblick über die gebotenen Funktionalitäten, Möglichkeiten und Grenzen dieser Technologien. Diskutiert werden auch die unterschiedlichen Architekturen, die sich aus den jeweiligen Anforderungen bzgl. der Mehrbenutzerfähigkeit und des Client/Server-Schnittes ergeben.
Dauer: ca. 45 min; Folien (
pdf:230K)


Dienstag, 25. Juni '02
Christian Prehofer, Docomo Eurolabs:
Technologien für zukünftige Mobilfunknetze

Zusammenfassung:

Der Vortrag behandelt Visionen und Technologien für zukünftige Mobilfunknetze. Auf Basis der gegenwärtigen Netze (UMTS in Japan) werden Anforderungen und Technologietrends für die Nachfolgegeneration 4G) untersucht. Neben den Fortschritten in der Übertragungstechnik und Netzwerktechnik ist dabei Flexibilität und die schnelle Einführung von neuen Diensten essentiell. Hierbei stehen vor allem flexible Technologien im Vordergrund, die in zukünftigen Mobilfunksystemen offene Programmierplatformen und Reconfigurierbarkeit bereitstellen. Beispiel sind mobile Java, software defined radio (SDR) und aktive Netze.
Dauer: ca. 45 min; Folien (
pdf: 563K)


Dienstag, 11. Juni '02
Alexander Schmidt, BetaResearch:
Digitales Fernsehen

Zusammenfassung:

Digitales Fernsehen, Premiere (World?), interaktives Fernsehen, Monopole, Verschlüsselung, diskriminierungsfreier Zugriff, öffentlich-rechtlich gegen Kirch, Common Interface, MHP, ARD-digital ohne Fußball-WM -- das sind viele heiß diskutierte (und oft nur halb verstandene) Begriffe. Dieser Perlenvortrag über Technologie und Anwendungen des digitalen Fernsehens schafft Klarheit. Er gibt einen Einblick in die digitale Übertragung von Fernsehbildern nach DVB-Standard, die Verschlüsselung und die Technologie der Empfangsgeräte. Anschließend wird die Multimedia Home Platform vorgestellt, die als neuer europäischer Standard das interaktive Fernsehen endgültig etablieren soll.
Dauer: ca. 45 min; Folien [
pdf: 197K]


Dienstag, 28. Mai '02
Peter Braun:
XML und XMI

Zusammenfassung:

Mit der eXtensible Markup Language (XML) steht seit 1998 eine Metasprache zur Verfügung mit deren Hilfe eigene Dokumentbeschreibungssprachen definiert werden können. Die XML bietet die Möglichkeit strukturierte Daten in Form einer Textdatei abzulegen.
Eine spezielle Anwendung der XML ist das XML Metadata Interchange (XMI) Format. Gerade im CASE-Tool Bereich gewinnt die XMI konforme Speicherung von Modellen zunehmend an Bedeutung.
Der Vortrag gibt einen kurzen Überblick über die Geschichte von XML, bevor auf den XMI Standard eingegangen wird. Nach der Schilderung der Problemstellung, die zur Entwicklung des XMI Standards geführt haben, wird anhand eines Beispiels das Stream based Model Interchange Format vorgestellt, wie es mit XMI verwirklicht wurde.
Dauer: ca. 45 min; Folien (
pdf: 149K)


Dienstag, 14. Mai '02
Bernhard Schätz
There's more to V than just SE!

Zusammenfassung:

Mit dem Entwicklungsstandard für IT-Systeme des Bundes - Vorgehensmodell, kurz auch als V-Modell bezeichnet, hat das Bundesamt für Wehrbeschaffung ein normiertes Vorgehen für die Abwicklung von IT-Projekten vorgelegt. Das V-Modell legt dabei seinen Schwerpunkt auf die Planung, Steuerung und Verfolgung von großen bis sehr großen IT-Entwicklungs- und Beschaffungsprojekten. Das V-Modell wird vielfach - und fälschlicherweise - auf das Wasserfall-Modell des Moduls SE reduziert. Tatsächlich bietet es aber darüberhinaus allgemeine Unterstützung für die Projektabwicklung hinsichtlich Projektmanagement, Qualitätssicherung, und Konfigurationsmanagement mit umfassender Definition von Aktivitäten, Produkten und Rollen, aber auch spezielle Anpassung wie für den Einsatz im Bereich Sicherheitskritischer Systeme oder für die Inkrementelle Entwciklung. Da die umfassende Behandlung all dieser Themen nich immer sinnvoll ist, ist das Anpassen ('Tailoring') integraler Bestandteil des V-Modells.

Der Vortrag gibt einen kurzen Abriss der Module SE, PM, KM, und QS, und deren Vernetzung, das Tailoring, sowie einen Ausblick auf zusätzliche Erweiterungen. Zielgruppe sind V-Modell-Neulinge, die nach dem Vortrag gezielt sich selbst über Auschnitte des V-Modells informieren wollen.
Dauer: ca. 45 min; Folien (
pdf:1.9M)


Dienstag, 30. April '02
Jan Romberg
Kein Anschluß unter dieser URL: IP-Telephonie mit dem Session Initiation-Protokoll

Zusammenfassung:

Mit dem Wachstum des Internet ergibt sich ein Trend hin zu mehr internetbasierten Anwendungen - von den klassischen Diensten (WWW, e-Mail, Newsgroups) hin zu Diensten aus der Telekommunikationsdomäne wie einfache (Sprach-)telefonie, Videokonferenzen etc. In meinem kleinen Vortrag möchte ich mit dem Session Initiation Protocol ein 1999 standardisiertes Signalprotokoll für Multimedia-Sessions vorstellen. SIP vereinigt Nachrichtenformate für die Einrichtung, Modifizierung und Beendigung von Sitzungen. SIP-Einladungen tragen Medienbeschreibungen, die es den Teilnehmern gestatten, gemeinsame Formate für die ausgetauschten Medienströme auszuhandeln. Sogenannte SIP Proxys sind Plattformen für orts- und präsenzbasierte Dienste wie z.B. das automatische Weiterleiten von Anrufen. Mit SIP verbinden sich ausserdem eine Reihe von anderen (teils vorhandenen, teils neuen) Technologien, die gemeinsam eine sehr flexible Architektur für internetbasierte Kommunikationsdienste ermoeglichen. Die zukünftige kommerzielle Bedeutung von SIP lässt sich ganz gut an der Tatsache erahnen, dass SIP sowohl Teil der aktuellen Windows XP- Distribution als auch Teil der UMTS-Protokollfamilie ist.
Dauer: ca. 45 min; Folien (
pdf: 636K)


Dienstag, 5. Februar '02
Jochen Oelert
Businesspläne

Zusammenfassung:

Mit dem Gründungsboom Ende der 90er Jahre kam es in Mode, Business Pläne zu schreiben. Dabei war den meisten jedoch nicht ganz einsichtig, wozu man einen solchen Business Plan braucht, denn: "Planung ersetzt den Zufall durch den Irrtum."
In dem Vortrag wird dementsprechend zunächst darauf eingegangen, welchen Sinn und Zweck ein Business Plan hat und aus welchen Komponenten er in der Regel besteht. Dabei wird erläutert, dass ein Gründer zunächst ein ganz eigenes Interesse an einem solchen Plan hat. Der Business Plan ist ein Instrument, der es ihm erlaubt, mit "Komplexität" und "Zeitdruck" in der Gründungsphase umgehen zu können.
In den meisten Fällen ist der Business Plan auch der erste Schritt zur Finanzierung des Geschäftsmodells. Dementsprechend ist der Adressat die Bank oder ein potentieller Investor. Dabei ändern sich jedoch die Interessen und damit die Beurteilungskriterien. Investoren sind letztlich an drei Punkten eines Business Plans interessiert: "People", "Product", "Potential".
Der Vortrag wird auf die Gründe eingehen, warum für einen Investor gerade diese Punkte von besonderer Bedeutung sind. Ein Gründer sollte sich bzw. den Business Plan hinsichtlich dieser Kriterien ausrichten - was sich gerade für Newcomer, für die Phase des Entwicklungsbeginns und in einem noch nicht vorhandenen und damit nicht bezifferbaren Markt als überaus schwierig erweisen kann. Der Vortrag wird abgerundet durch Hinweise, wie man mit solchen Schwierigkeiten umgehen kann. Letztlich muss nicht nur das Produkt am Markt, sondern auch der Business Plan beim Investor gut positioniert werden.
Dauer: ca. 45 min; Folien (
pdf: 547K)


Dienstag, 22. Januar '02
Alexander Pretschner
Was ist eine Chipkarte?

Zusammenfassung:

Anwendungen von Chipkarten sind u.a. GSM-Karten in Handies, Krankenversicherungskarten, Raumzugangskontrollsysteme, Berechnung digitaler Signaturen für sichere Datenübertragung oder die Speicherung von Patientendaten.
Im Vortrag wird eine gezwungenermaßen grobe Einführung in diese Thematik gegeben. Es wird erläutert, wie Chipkarten zur (sicheren) Speicherung von Daten verwendet werden und daß nicht-proaktive Karten, wie sie in älteren GSM-Handies vorhanden sind, im wesentlichen als ein Dateisystem verstanden werden können. Dementsprechend wird ein Überblick über ein typisches Chipkartenbetriebssystem und seine Funktionalität gegeben. Wenn Zeit bleibt, werden "aktive" Karten, die die Programmierung mit etwa JavaCard erlauben, kurz vorgestellt.
Bemerkungen über die Physik einer Chipkarte und Kryptographie sowie ggf. Modellierungsmöglichkeiten solcher Geräte runden den Vortrag ab.
Dauer: ca. 45 min; Folien (
pdf: 358K)


Dienstag, 8. Januar '02
Jan Jürjens
Prinzipien des Entwurfs sicherer Systeme

Zusammenfassung:

Einige "rules of prudent security engineering" (die man auch "security patterns" nennen könnte) werden vorgestellt, und es wird überlegt, ob man sie mithilfe formaler Techniken durchsetzen kann.
Dauer: ca. 45 min; Folien (
pdf:53K)


Dienstag, 18. Dezember '01
Alexander Wißpeintner
Model Checking

Zusammenfassung:

Model Checking ist eine vollautomatische Verifikationstechnik zur Überprüfung von Systemen mit endlichem Zustandsraum. Ist eine geforderte Eigenschaft des Systems nicht erfüllt, dann liefert der Model Checking Algorithms ein Gegenbeispiel. Model Checking wird heute hauptsächlich zur Verifikation von Hardware-Schaltungen und Kommunikationsprotokollen eingesetzt. Hierbei kommen zwei unterschiedliche Algorithmen zum Einsatz. Explicit-State Model Checking zählt die einzelnen erreichbaren Zustände des Systems auf und überprüft in jedem Zustand die vom System zu erfüllenden Eigenschaften. Bei symbolischen Model Checking wird der Zustandsübergangsgraph des Systems als boolsche Formel in BDDs dargestellt und durch symbolische Umformungen überprüft, ob eine Eigenschaft von dem System erfüllt wird.
In dem Vortrag werden die beiden Ansätze Explicit-State Model Checking und Symbolic Model Checking vorgestellt. Zur Beschreibung von Systemeigenschaften wird häufig Temporallogik verwendet. Der Vortrag geht auf zwei Arten der Temporallogik, Linear Temporal Logic (LTL) und Computation Tree Logic (CTL), ein. Die Model Checking Technik kann nur auf Systeme mit relativ kleinem Zustandsraum angewendet werden. Mit zunehmender Systemfunktionalität steigt jedoch die Zahl der Zustände des Systems häufig exponentiell an. Diese Tatsache wird als "State Explosion Problem" bezeichnet. Um trotzdem möglichst große Systeme überprüfen zu können, werden verschiedene Techniken zur Effizienzsteigerung des Model Checking eingesetzt. Einige der Techniken, wie beispielsweise Partial Order Reduction und Bit State Hashing, werden im Vortrag erklärt.
Dauer: ca. 45 min; Folien (
pdf: 478K)


Dienstag, 20. November '01
Katherine Mickan
A learning system for information extraction in a general domain

Zusammenfassung:

Information extraction is a field of natural language processing which attempts to analyse unrestricted text in order to extract information about pre-specified types of events, entities or relationships. In this talk an overview will be given of the problems faced by an information extraction system. This will make it clear that machine learning needs to be applied to information extraction to make it more feasible. An example of an algorithm used to do this (by Dayne Freitag) will be explained along with the strengths and weaknesses of the approach.
Dauer: ca. 45 min; Folien (
pdf: 3.2M, gzipped PS: 4.8M)


Dienstag, 6. November '01
Bernhard Schätz:
Fair Merge, Brock/Ackermann, Divergence - Klassische Fehler semantischer Modelle

Zusammenfassung:

Die Konstruktion von Semantiken bewegt sich immer im Spannungsfeld zwischen Ausdruckmächtigkeit vs. Einfachkeit. Auf der einen Seite will man komplexe Systeme modellieren (faire Mischkomponenten, rückgekoppelte Systeme, allgemeine Ereignisse), auf der anderen Seite werden einfache Modelle, Spezifikationen, Schlußregeln gewünscht.
Dies hat wiederholt zu klassischen Fehlern wie partiellen oder nichtkompositionalen Semantiken geführt. Der Vortrag stellt dazu Klassiker solcher Irrtümer vor, unter anderem:

  • Fair Merge Anomalie
  • Brock/Ackermann Anomalie
  • Nichtkompositionalität der synchronen Spursemantik
  • CSP und Divergenz
  • Perfect Synchrony
und diskutiert an Beispielen, daß einfache Modelle auch zu eingeschränken Möglichkeiten führen und umgekehrt.
Dauer: ca. 45 min; Folien (
pdf: 165K)


Dienstag, 23. Oktober '01
Alexander Vilbig:
Was ist Bioinformatik?

Zusammenfassung:

Unter diesem sehr allgemeinen Titel möchte ich einige ausgewählte Themen und Ansätze aus dem interdisziplinären Bereich zwischen Biologie und Informatik etwas näher vorstellen. Dies umfaßt einerseits die Anwendung "klassischer" Algorithmen zur Klärung biologischer Fragestellungen, beispielsweise die effiziente Berechnung von Sequenz-Alignments und Verwandtschaftsbeziehungen zwischen Arten aufgrund ihrer genetischen Ähnlichkeit. Andererseits werden auch Ansätze aufgeführt, die Erkenntnisse der modernen Biologie zur Lösung bestimmter allgemeiner Probleme in der Informatik heranziehen, etwa sog. Genetische Algorithmen zur Optimierung kombinatorischer Fragestellungen.
Der Vortrag selbst ist als Einführung in die Bioinformatik konzipiert und erhebt daher keinen Anspruch auf eine vollständige Übersicht über diesen sehr lebendigen und heterogenen Forschungsbereich. Vielmehr soll ein grundsätzliches Interesse geweckt werden, das durch angegebene, weiterführende Literatur und Ressourcen im WWW vertieft werden kann. Grundkenntnisse der Molekularbiologie sind nicht erforderlich (aber hilfreich).
Dauer: ca. 45 min; Folien (
gzipped PS: 2988KB, pdf: 2607KB)


Dienstag, 7. August '01
Markus Pizka:
Architektur-Trends im Bereich Betriebssysteme

Zusammenfassung:

Von kleinen Monolithen über Mikrokerne zu großen Monolithen ...
Dauer: ca. 45 min; Folien (
pdf: 379K)


Dienstag, 17. Juli '01
Guido Wimmel:
Security und formale Methoden

Zusammenfassung:

Aufgrund der zunehmenden Vernetzung von Informationssystemen spielt der Aspekt der Informationssicherheit (Security) eine immer größere Rolle. Mit Hilfe von formalen Sicherheitsmodellen kann die Sicherheitsstrategie von Systemen auf abstraktem Niveau modelliert und analysiert werden. Im Vortrag werden generische Sicherheitsmodelle aus dem Bereich der Zugriffs- und Informationsflußkontrolle vorgestellt und diskutiert, beispielsweise Zugriffsmatrix, Bell-LaPadula und Non-Interference.
Dauer: ca. 45 min; Folien (
gzipped PS: 52K)


Dienstag, 3. Juli '01
Peter Braun:
CASE-Tools dieser Welt

Zusammenfassung:

CASE-Tools sind seit einiger Zeit in aller Munde. Der Vortrag bietet neben einer kurzen Geschichte der CASE-Tools eine Einteilung in unterschiedliche Kategorien von Software-Entwicklungs- Umgebungen. Insbesondere der Bereich der methodenorientierten CASE - Umgebungen wird anhand von einigen Beispielen (DOORS, The UML Suite, ASCET-SD, ...) weiter vertieft.
Dauer: ca. 45 min; Folien (
pdf: 1.9MB)


Dienstag, 19. Juni '01
Martin Strecker:
Compilerverifikation

Zusammenfassung:

Seit kurzem läuft in unserer Arbeitsgruppe ein Projekt zur Verifikation von Java-Compilern mit Isabelle -- Anlaß genug, sich mit einigen Techniken der Compiler-Verifikation zu befassen. Im einzelnen beschäftigt sich der Vortrag mit:

  • Korrektheitsbeweis von Compilern (a priori)
  • Nachweis der korrekten Übersetzung einzelner Programme (a posteriori)
  • Compiler-Testverfahren

Dauer: ca. 45 min; Folien (
pdf:117 K)


Dienstag, 22. Mai '01
Rupert Stützle:
B2B Marketplaces - when the dust settles

Zusammenfassung:

Vor etwa 2 Jahren begann eine wahre Flut von Business-to-Business-Marktplätzen über das Internet hereinzubrechen, auf denen von Automobilteilen über Telekommunikations-Bandbreiten bis zu Backzutaten alles gehandelt werden soll, was man legal handeln kann. Seitdem ist der Internet-Hype erheblich abgekühlt, was auch auf diesem Gebiet zu einer gewissen Ernüchterung geführt hat.
Der Vortrag ist ursprünglich aus einer internen Initiative zum Aufbau von Know-How bei McKinsey entstanden. Er versucht zu klären, ob es sich nur um eine kurzfristige Modeerscheinung oder um eine dauerhafte Entwicklung handelt. Unter anderem beschäftigt er sich mit folgenden Fragen:

  • Welche Funktionen erfüllen diese Marktplätze?
  • Wie kann man die verwirrende Vielfalt von Markplätzen klassifizieren?
  • Welche Modelle sind in den verschiedenen Industrien überlebensfähig?
  • Wer sind die natürlichen Betreiber von Marktplätzen?
Eine Reihe von Beispielen illustrieren die Ergebnisse.
Dauer: ca. 45 min; Folien


Dienstag, 8. Mai '01
Stefan Berghofer:
Proof Carrying Code

Zusammenfassung:

Beim Herunterladen von mobilem Code z.B. aus dem Internet stellt sich zwangsläufig die Frage nach dessen Sicherheit. Als interessante Alternative zu traditionellen Lösungsansätzen dieses Problems, wie Authentifizierung, Hardware- und Betriebssystem-basierter Speicherschutz, sowie Typsysteme und virtuelle Maschinen, wurde 1997 von G. Necula und P. Lee das Konzept des "Proof-Carrying Code" vorgeschlagen. Hierbei wird Code zusammen mit einem Beweis von Sicherheitseigenschaften verschickt, der vom Empfänger mit Hilfe eines relativ kleinen und daher vertrauenswürdigen Programms leicht überprüft werden kann. In diesem Vortrag soll versucht werden, die Hintergründe dieses Verfahrens und dessen Anwendung etwas genauer zu beleuchten.
Dauer: ca. 45 min; Folien (
gzipped PS: 118K)


Dienstag, 24. April '01
Bernhard Rumpe:
Extreme Programming&Modeling und Konsorten

Zusammenfassung:

Nach einer kompakten Einführung in wesentliche Elemente des XP wird eine kritische Durchleuchtung dieser "Light-weight Software-Entwicklungsmethode" vorgenommen.
Zwei potentielle Erweiterungen bzw. Verbesserungen werden vorgeschlagen: Hierarchisches XP und Xtreme Modelling (eine Übertragung von XP-Ideen auf die UML).
Der Vortrag wurde bereits bei der Modellierung'2001 gehalten.
Dauer: ca. 45 min; Folien (
pdf: 230K)


Dienstag, 6. Februar '01
Ingolf Krüger:
Software Architecture, Design Patterns, and Refactoring

Zusammenfassung:

Zentrale Erfolgsfaktoren des Entwurfs komplexer Softwaresysteme sind die Auswahl, Bewertung, Beschreibung und Realisierung tragfähiger Software-Architekturen. Im Rahmen des Vortrags diskutieren wir zunächst kurz verschiedene Möglichkeiten, dem sehr allgemeinen Begriff "Software-Architektur" Bedeutung beizumessen. Auf der Basis dieser Begriffsbildung beleuchten wir wesentliche Bestandteile von Software-Architekturen, sowie die für die Auswahl einer Architektur grundlegenden Einflußfaktoren.
Beschreibungstechniken für Architekturen bilden den zweiten Schwerpunkt unserer Betrachtungen. Hier haben sich Architecture Description Languages (ADLs) und, mit mehr "Marktmacht", Architektur- und Design-Patterns als Lösungsansätze herauskristallisiert. Wir sehen uns Beispiele für Architekturmuster an und diskutieren Einsatzmöglichkeiten, Stärken und Schwächen dieses Ansatzes zur Architekturbeschreibung.
Ändern sich die Anforderungen an ein System, so kann das auch Änderungen an der Software-Architektur zur Folge haben. In den letzten Jahren hat "Refactoring" als Technik der systematischen Veränderung bestehender Programmtexte an Bedeutung gewonnen; das Ziel ist hier die schrittweise Einführung von Qualitätsmerkmalen -- wie etwa Änderbarkeit und Wiederverwendbarkeit -- in gegebene Programme. Wir gehen der Frage nach, wie Refactoring und Architektur- bzw. Design-Pattern aus methodischer Sicht zusammenhängen; daraus ergeben sich Einsatzmöglichkeiten für Refactoring-Techniken im Architekturentwurf.
Dauer: ca. 45 min; Folien (
pdf:5.2M)]


Dienstag, 23. Januar '01
Andreas Günzler:
Die Laplace-Transformation

Zusammenfassung:

Die Laplace-Transformation ist ein in der Praxis unentbehrliches Hilfsmittel zur Lösung von Differentialgleichungen. Vor allem im Bereich der Steuer- und Regelungstechnik spielt sie eine wichtige Rolle. Der Vortrag gibt einen Überblick über Definition und grundlegende Eigenschaften der Laplace-Transformation und zeigt ihre Anwendung zur Lösung linearer Differentialgleichungen auf.
Dauer: ca. 45 min; Folien (
pdf:169K)


Dienstag, 16. Januar '01
Birgit Schieder:
Kategorientheorie

Zusammenfassung:

Der Vortrag gibt einen ersten Einblick in die Kategorientheorie. Einige Grundbegriffe geben eine Vorstellung vom Inhalt der Kategorientheorie, einige Anwendungsbeispiele von ihrer Modellvielfalt. Aufgrund der Kürze des Vortrags kann dieser lediglich einen ersten Eindruck von Kategorientheorie vermitteln.
Dauer: ca. 45 min; Zusammenfassung (
pdf:106K)


Dienstag, 12. Dezember '00
Bernhard Schätz:
Besinnliches zur Weihnachtszeit - Kompositionalität

Zusammenfassung:

Nach Dijkstras "Goto considered harmful" wurde durch die strukturierte Programmierung die Bedeutung der Modularität in den 70ern zum Allgemeingut des SW-Engineering und fand starke Verbreitung durch Sprachen wie N.Wirths Pascal. Mit der Zunahme der Rechenleistung gewann gleichzeitig der Einsatz paralleler Algorithmen an Bedeutung und schlug sich in Sprachen wie Simula nieder.
Das mangelnde Verständnis für einen geeigneten Modul- oder Komponentenbegriff für die Behandlung parallel ablaufender Programme führte wegen der hohen Komplexität solcher Systeme zu unbefriedigenden Problemen im Entwicklungsprozeß, wie 1969 in Garmisch als "Software Crisis" dokumentiert. Da auch die formale Welt keine geeigneten Konzepte anbieten konnte, führte das fehlende grundlegende Verständnis ebenso zu ungeeigneten Programmiersprachen und Programmen wie Beweisverfahren und Kalkülen. Das formale Verständnis, daß die Reaktivität der entscheidene Faktor ist und nicht die Parallelität, führte schließlich zum wesentlichen Durchbruch. Dieses neue Konzept der reaktiven Komponenten führte nicht nur zu handlichen denotationellen und operationellenSemantiken und entsprechenden Kalkülen sondern auch zu entsprechenden Konzepten in Progammmiersprachen, wie den Monitoren oder dem Ada-Task-Konzept.

Der Vortrag wird in 45 Minuten wichtige Grundkonzepte aus der Kompositionalität beleuchten, beginnend bei axiomatischen Semantiken und "freedom of interference" über das Konzept des reaktiven Systems bis hin zu einem strukturverträglichen Verfeinerungsbegriff denotationeller und operationeller Semantiken.
Dauer: ca. 45 min; Folien (
pdf: 250K)


Dienstag, 28. November '00
Max Breitling:
Fehler und Fehlertoleranz: Begriffe und Techniken

Zusammenfassung:

Der Begriff des Fehlers ist im allgemeinen sehr vielfältig interpretierbar: Fehler können auftreten in der Spezifikation, im Design, in der Implementierung oder während der Ausführung eines Systems. Fehler will man aber eigentlich vermeiden, oder wenigstens erkennen und/oder ihre Auswirkungen tolerieren können. Der Umgang mit Fehlern im Rahmen einer Systementwicklung ist dennoch kaum systematisiert.
Ich möchte im Vortrag einen Überblick geben über den Fehlerbegriff mit zugehörigen Klassifikationen, wie er sich in der Literatur einigermaßen etabliert hat. Ich werde den Begriff der Fehlertoleranz diskutieren mit ihren prinzipiellen Techniken sowohl für Hardware- als auch Softwarefehler und dabei auch formale Ansätze ansprechen.
Dauer: ca. 45 min; Folien (
pdf: 169K)


Dienstag, 14.November '00
Alexander Pretschner:
Abstrakte Interpretation

Zusammenfassung:

Vereinfacht gesagt, besteht die Abstrakte Interpretation darin, zwei unterschiedliche Semantiken eines Programms miteinander in Beziehung zu setzen (z.B. Variablen mit Mengen von Variablenwerten und Zustände mit Mengen von Zuständen). Dieser Vortrag behandelt zunächst Datenabstraktionen in Form von Galois-Verbindungen. Das konkrete Programm muß dann so modifiziert werden, daß es mit abstrakten Datentypen (Mengen konkreter Werte) rechnen kann - dabei sollen aber bestimmte Eigenschaften des abstrakten auf das konkrete System übertragen werden können. Im Vortrag wird deshalb auf die Definition eigenschaftserhaltender abstrakter Operationen (und Transitionen) eingegangen. Wenn Zeit bleibt, wird die Idee von Widening- und Narrowingoperationen zur beschleunigten (bzw. endlichen) Berechnung oberer Fixpunktapproximationen kurz erläutert.
Dieser Vortrag ist ein Lückenbüßer. Deshalb darf er Grundwissen über Bereichs- und Fixpunkttheorie voraussetzen.
Dauer: ca. 45 min; Folien (
pdf: 168K)


Dienstag, 31. Oktober '00
Thomas Stauner:
Hybride Systeme

Zusammenfassung:

Getrieben von neuen, anspruchsvollen Anwendungen einerseits und anfänglichen Erfolgen bei der Übertragung formaler Methoden auf gemischt diskret-kontinuierliche (hybride) Systeme andererseits, bilden diese Systeme mittlerweile einen wichtigen Bestandteil der Forschung im Bereich eingebetteter Systeme.
Der Vortrag erklärt den Einsatzbereich hybrider Systeme und gibt einen Überblick über etablierte Methoden zur Behandlung solcher Systeme. Zum besseren Verständnis des Problembereichs werden darüberhinaus einige Standardmethoden aus der Regelungstechnik vorgestellt.
Dauer: ca. 45 min; Folien (
pdf:212K)


Dienstag, 18. Juli '00
Bernhard Schätz:
Von völlig abstrakt bis fair: 13 Schlagworte reaktiver Systeme

Zusammenfassung:

Der Vortrag soll Interesse für die theoretischen Grundlagen reaktiver Systeme weckenen und wird dazu eine kleine Auswahl von Themen präsentieren. Der Vortrag kann ganz sicher das Themengebiet nicht erschöpfend behandeln. Vielmehr sollen einige Zusammenhänge zwischen den Schlagwörtern aufgedeckt werden. Eine kleine Auswahl von möglichen Schlagworten ist dabei:

  • Fair: Stark, schwach, und was hat das mit Stetigkeit und Lebendigkeit zu tun?
  • True Concurrency: Petrinetze, Spuren und das Axiom der beliebigen Sequentialisierung
  • Äquivalenz: Bisimilar oder spuräquivalent? Wem reicht was?
  • Völlig abstrakt: Kontexte mit Löchern
  • Operational/denotational: zwei Semantiken, eine Lösung?
  • Sicherheit und Lebendigkeit: TopoLogisch?
  • Kompositionalität: gehts auch ohne?
  • Prozessalgebra: Wieviel Axiome hätten Sie gerne?
  • Synchron/asynchron: Takt, Deadlock und Nichtdeterminismus
Eigene Schlagwörter können - möglichst nach Absprache mit dem Referenten - mitgebracht werden.
Dauer: ca. 45 min; Folien (
pdf: 146K)


Dienstag, 4. Juli '00
Heiko Loetzbeyer
Techniken im Software-Test

Zusammenfassung:

Der Vortrag "Techniken im Software-Test" gibt eine grundlegende Einführung in die Problematik beim Test von Software. Der Schwerpunkt des Vortrages liegt in der Vorstellung der gängigen Methoden und Techniken im Software-Test. Behandelt werden insbesondere Whitebox- und Blackboxtechniken, aber auch manuelle Prüfmethoden. Anschließend wird ein kurzer Überblick über den aktuellen Forschungstand bei der Testfallermittlung gegeben.
Dauer: ca. 45 min; Folien (
pdf: 160K)


Dienstag, 20. Juni '00
Maurice Schoenmakers
Infrastrukturen mobiler Systeme: Jini, UPnP und andere

Zusammenfassung:

Dynamische, mobile Systeme stellen an die Software Anforderungen, die über die bisherigen Anforderungen an verteilte Systeme hinausgehen. Daher entwickelten sich verschiedene Infrastrukturen für mobile Systeme: Jini, UPnP, Salutation, SLP usw. Der Vortrag stellt die Anforderungen vor, die verschiedenen generellen Lösungsvarianten und vergleicht die o.g. Realisierungen miteinander. Anhand kleiner Beispiele wird die technische Anwendung illustriert und die zukünftige Entwicklung diskutiert.
Dauer: ca. 45 min


Dienstag, 6. Juni '00
Markus Wenzel:
Computer-assisted formal reasoning --- So what?

Zusammenfassung:

Kann man formale Logik sinnvoll in der Praxis anwenden? Ohne auf verschiedene Auffassungen der Begriffe "sinnvoll" oder "Praxis" einzugehen, werden wir uns genauer mit formaler Logik und einigen Grundvoraussetzungen für deren Anwendung beschäftigen. Dazu soll zunächst ein umfassender Einblick in Logik an sich gegeben werden. Hierbei werden u.a. verschiedene Klassen logischer Systeme vorgestellt. Auf dieser Basis wird dann diskutiert, welche formalen Grundlagen sich für allgemein verwendbare Werkzeuge zum formalen Schließen besonders gut eignen. Dabei wird insbesondere aus der Perspektive von HOL (Higher-Order Logic) argumentiert.
Dauer: ca. 45 min; Folien (
pdf: 130K)


Dienstag, 23. Mai '00
Jan Philipps:
Synchrone Programmiersprachen

Zusammenfassung:

Gegen Ende des letzten Jahrhunderts wurde vornehmlich in Frankreich eine Familie sogenannter synchroner Programmiersprachen entwickelt. Diese Sprachen eignen sich besonders für Anwendungen im Grenzbereich zwischen Software und Hardware, wie etwa eingebettete Steuerungssysteme oder Signalverarbeitungsalgorithmen.
In dem Vortrag wird ein kurzer Überblick über die Geschichte und die Eigenheiten synchroner Programmiersprachen gegeben. Mit Esterel und Lustre werden zwei dieser Sprachen vorgestellt; anschließend wird kurz diskutiert, wo man sie in freier Wildbahn antreffen kann.
Dauer: ca. 45 min; Folien (
pdf: 156K)


Dienstag, 9. Mai '00
Alexander Pretschner:
Constraint- und Logikprogrammierung

Zusammenfassung:

Zunächst wird eine kurze Einführung in die Logikprogrammierung gegeben. Kurz diskutiert werden deklarative und operationelle Semantik (Resolution) insb. in bezug auf Vollständigkeit, Effizienz und das Problem der Negation. Es folgt eine Einführung in die Constraintprogrammierung, und anhand der Defizite beider Paradigmen wird ihre Integration in die Constraint-Logik-Programmierung (CLP) diskutiert. Falls es die Zeit zuläßt, wird außerdem kurz über Constraint Handling Rules gesprochen, die eine Definition neuer Constraint Handler per CLP gestatten. Die Nennung von Projekten/Sprachen/Forschergruppen/Trends soll helfen, einen groben Überblick über das Gebiet zu vermitteln.
Dauer: ca. 45 min.



 Jan Romberg, Markus Pizka