Prof. Dr. rer. nat. habil. Gunter Saake

Arbeitsgruppenleiter

Prof. Dr. rer. nat. habil. Gunter Saake

Fakultät für Informatik (FIN)
Institut für Technische und Betriebliche Informationssysteme (ITI)
Gebäude 29, Universitätsplatz 2, 39106, Magdeburg, G29-110
Sprechzeiten: nach Vereinbarung per E-Mail: anja.buch@ovgu.de
Vita

Gunter Saake was born in 1960 in Göttingen, Germany. He received the diploma and the Ph. D. degree in computer science from the Technical University of Braunschweig, F. R. G., in 1985 and 1988, respectively. From 1988 to 1989 he was a visiting scientist at the IBM Heidelberg Scientific Center where he joined the Advanced Information Management project and worked on language features and algorithms for sorting and duplicate elimination in nested relational database structures. In January 1993 he received the Habilitation degree (venia legendi) for computer science from the Technical University of Braunschweig. Since May 1994, Gunter Saake is full professor for the area Databases and Information Systems at the Otto-von-Guericke-University Magdeburg. From April 1996 to March 1998, he was dean of the faculty for computer science at the Otto-von-Guericke-University Magdeburg and was again elected as Dean in 2012. 

Gunter Saake participated in a national project on object bases for experts and in the European BRA working groups IS-CORE, ModelAge, ASPIRE and FIREworks. His research interests include conceptual design of data base applications, query languages for complex data base structures and languages, semantics and methodology for object-oriented system specification and application development in distributed and heterogeneous environments. He is member of ACM, IEEE Computer Society, GI and of the organization committee of GI AK `Foundations of Information Systems'. Besides being author and co-author of scientific publications, he is author of a book "Object-oriented Modelling of Information Systems", co-author of four lecture books on Database Concepts, a book on Java and Databases, a lecture book on Object Databases and a book on Building efficient applications using Oracle8 (all in German).

Projekte

Aktuelle Projekte

Learning Adaptivity in Heterogeneous Relational Database Systems (LARDS)
Laufzeit: 01.04.2022 bis 01.04.2026

With the ever-increasing heterogeneity of hardware, the database community is tasked with adapting to the new reality of diverse systems with a rich set of different architectures, capabilities and properties.
The traditional workflow of hand-tuning implementations to the underlying hardware, for peak performance, is commonly considered untenable for an ever-growing variety of hardware with different performance characteristics. Systems like Micro-Adaptivity in Vectorwise or HAWK have been studied as solutions, but their adoption remains limited.
This project aims to explore solutions for a fully adaptive query execution engine and techniques that allow for simple adoption. To achieve this goal, we plan to tackle four problems.
At first, investigate on how to build micro-optimizations into a hardware-oblivious query pipeline in an efficient and simple-to-maintain way, while still offering a large optimization space. Afterwards, we investigate how to select the best optimizations automatically and in an on-the-fly adapting way, depending on the query and hardware properties.
As a third step, we investigate on the integration of the previous research results into a traditional query execution pipeline and query plan generation.
In the last phase of the project, we will explore techniques that can be used to augment the demonstrator with OLTP capabilities and introduce micro-optimizations into transaction processing.

Projekt im Forschungsportal ansehen

Compositional Feature-Model Analyses
Laufzeit: 01.01.2021 bis 01.01.2026

Feature modeling is widely used to systematically model features of variant-rich software systems and their dependencies. By translating feature models into propositional formulas and analyzing them with solvers, a wide range of automated analyses across all phases of the software development process become possible. Most solvers only accept formulas in conjunctive normal form (CNF), so an additional transformation of feature models is often necessary.
In this project, we investigate whether this transformation has a noticeable impact on analyses and how to influence this impact positively. We raise awareness about CNF transformations for feature-model analysis and mitigate it as a threat to validity for research evaluations to ensure reproducibility and fair comparisons. Furthermore, we investigate other steps in the feature-model analysis process, their alternatives, and their interactions; for instance, we study the potential and impact of knowledge compilation, interfaces, slicing, and evolution on feature-model analyses.
Our vision for this project is to lay a foundation for a compositional feature-model analysis algebra; that is, to understand how complex analyses are made of simple parts, how they can be re-assembled, and how those parts interact with each other.

Projekt im Forschungsportal ansehen

Eine allgemeine Speicher-Engine für moderne Speicherhierarchien
Laufzeit: 01.10.2022 bis 30.09.2025

Die wissenschaftliche Forschung wird zunehmend von datenintensiven Problemen bestimmt. Da die Komplexität der untersuchten Probleme zunimmt, steigt auch der Bedarf an hohem Datendurchsatz und -kapazität. Das weltweit produzierte Datenvolumen verdoppelt sich etwa alle zwei Jahre, was zu einer exponentiellen Datenflut führt. Diese Datenflut stellt eine direkte Herausforderung für Datenbankmanagementsysteme und Dateisysteme dar, die die Grundlage für eine effiziente Datenanalyse und -verwaltung bilden. Diese Systeme verwenden verschiedene Speichergeräte, die traditionell in Primär-, Sekundär- und Tertiärspeicher unterteilt waren. Mit der Einführung der disruptiven Technologie des nichtflüchtigen Arbeitsspeichers (NVRAM) begannen diese Klassen jedoch miteinander zu verschmelzen, was zu heterogenen Speicherarchitekturen führte, bei denen jedes Speichergerät sehr unterschiedliche Leistungsmerkmale aufweist (z. B. Persistenz, Speicherkapazität, Latenz). Eine große Herausforderung ist daher die Ausnutzung der spezifischen Leistungscharakteristika dieser Speichergeräte.
Zu diesem Zweck wird SMASH die Vorteile einer gemeinsamen Speicher-Engine untersuchen, die eine heterogene Speicherlandschaft verwaltet, einschließlich herkömmlicher Speichergeräte und nichtflüchtiger Speichertechnologien. Das Herzstück dieser Speicher-Engine werden B-epsilon-Bäume sein, da diese zur effizienten Nutzung dieser unterschiedlichen Geräte verwendet werden können. Darüber hinaus werden Strategien zur Datenplatzierung und -migration untersucht, um den durch die Übertragung von Daten zwischen verschiedenen Geräten verursachten Overhead zu minimieren. Durch den Wegfall der Notwendigkeit flüchtiger Caches kann die Datenkonsistenz besser sichergestellt werden. Auf der Anwendungsseite wird die Speicher-Engine Key-Value- und Objekt-Schnittstellen bieten, die für eine Vielzahl von Anwendungsfällen genutzt werden können, zum Beispiel für das Hochleistungsrechnen (HPC) und für Datenbankmanagementsysteme. Aufgrund der immer größer werdenden Kluft zwischen der Leistung von Rechen- und Speichergeräten sowie deren stagnierender Zugriffsleistung sind außerdem Techniken zur Datenreduzierung sehr gefragt, um den Bandbreitenbedarf beim Speichern und Abrufen von Daten zu verringern. Wir werden daher Forschungsarbeiten zu Datentransformationen im Allgemeinen und zu den Möglichkeiten externer und beschleunigter Transformationen durchführen. Übliche HPC-Workflows werden durch die Integration von SMASH in das bestehende JULEA-Storage-Framework unterstützt, während Datenbanksysteme die Schnittstelle von SMASH direkt nutzen können, um Daten zu speichern oder abzurufen.

Projekt im Forschungsportal ansehen

Optimizing graph databases focussing on data processing and integration of machine learning for large clinical and biological datasets
Laufzeit: 01.12.2021 bis 30.04.2025

Graphdatenbanken stellen eine effiziente Technik zur Speicherung und zum Zugriff auf hochgradig
verknüpfte Daten unter Verwendung einer Graphstruktur dar, wie z.B. Verbindungen zwischen Messdaten zu Umweltparametern oder klinischen Patientendaten. Die flexible Knotenstruktur macht es einfach, die Ergebnisse verschiedener Untersuchungen hinzuzufügen. Dies reicht von einfachen Blutdruckmessungen über die neuesten CT- und MRT-Scans bis hin zu hochauflösenden Omics-Analysen (z.B. von Tumorbiopsien, Darmmikrobiom-Proben). Allerdings wird das volle Potenzial der Datenverarbeitung und -analyse mittels Graphdatenbanken in biologischen und klinischen Anwendungsfällen noch nicht vollständig ausgeschöpft. Insbesondere die riesige Menge an miteinander verbundenen Daten, die geladen, verarbeitet und analysiert werden müssen, führt zu zu langen Verarbeitungszeiten, um in klinische Arbeitsabläufe integriert werden zu können. Um dieses Ziel zu erreichen sind neuartige Optimierungen von Graph-Operatoren sowie eine geeignete Integration von Analyseansätzen notwendig.
Dieses Projekt zielt darauf ab, die oben genannten Probleme in zwei Richtungen zu lösen: (i) Vorschlag geeigneter Optimierungen für Graphdatenbank-Operationen, auch unter Einsatz moderner Hardware, und(ii) Integration von Algorithmen des maschinellen Lernens für eine einfachere und schnellere Analyse der biologischen Daten. Für die erste Richtung untersuchen wir den Stand der Technik von Graphdatenbanksystemenund deren Speicherung sowie ihr Verarbeitungsmodell. Anschließend schlagen wir Optimierungen für effiziente
operationale und analytische Operatoren vor. Für die zweite Richtung stellen wir uns vor, Algorithmen des maschinellen Lernens näher an ihre Datenlieferanten - die Graphdatenbanken - heranzubringen. Zu diesem Zweck füttern wir in einem ersten Schritt die Algorithmen des maschinellen Lernens direkt mit dem Graphen als Eingabe, indem wir geeignete Graphenoperatoren entwerfen. In einem zweiten Schritt integrieren wir das maschinelle Lernen direkt in die Graphdatenbank, indem wir spezielle Knoten hinzufügen, die das Modell des Algorithmus für maschinelles Lernen repräsentieren.
Die Ergebnisse unseres Projekts sind verbesserte Operatoren, die sowohl moderne Hardware als auch Integrationskonzepte für Algorithmen des maschinellen Lernens nutzen. Unsere allgemein entwickelten Ansätze werden das Verarbeiten und Analysieren riesiger Graphen in einer Fülle von Anwendungsfällen über unseren angestrebten Anwendungsfall der biologischen und klinischen Datenanalyse hinaus vorantreiben.

Projekt im Forschungsportal ansehen

Unveiling the Hidden Gems: Exploring Unexpected Rare Pattern Mining in Data
Laufzeit: 20.08.2018 bis 31.03.2025

Pattern mining is the task of finding statistically relevant patterns in data that can provide valuable insights and knowledge. However, most existing pattern mining methods use a single threshold to determine the frequency of the patterns, which may not reflect the diversity and specificity of the data items. This may lead to two problems: (1) if the threshold is too low, it may generate too many patterns, many of which are redundant or uninteresting; (2) if the threshold is too high, it may miss some patterns, especially the rare ones that occur infrequently but have high significance or utility.

The rare pattern problem is a challenging and important issue in pattern mining, as rare patterns may represent unknown or hidden knowledge that can inform and inspire various domains and applications, such as medical diagnosis, fraud detection, or anomaly detection. Several studies have attempted to address this problem by mining frequent patterns, including rare ones, using different minimum item support thresholds (MIS) for each item. This approach can generate a complete set of frequent patterns without losing any significant ones. However, this approach is also very costly and inefficient, as it may still produce many redundant or useless patterns that consume a lot of time and memory.

The primary objective of this project is to enhance an efficient and effective method for mining rare patterns, without generating the complete set of frequent patterns. The method is based on frequent closed itemset mining, which is a technique that can reduce the number of patterns by eliminating those that are included in other patterns with the same frequency. The method also aims to avoid generating a large number of rules, and instead, to discover only those rules that are rare and generate more actionable insights. Therefore, the method can mine only the most interesting patterns, which are those that are rare, closed, and have high utility or significance. The method can be applied to various data sets and domains, such as health data, where rare patterns may represent rare diseases, hidden connections, or complex interactions. The project aims to evaluate the performance and quality of the method, and to compare it with other existing methods for rare pattern mining. The project also aims to demonstrate the usefulness and impact of the method, and to show how it can discover novel and intriguing patterns that can drive meaningful change.

Projekt im Forschungsportal ansehen

Optimizing graph databases focussing on data processing and integration of machine learning for large clinical and biological datasets
Laufzeit: 01.12.2021 bis 30.11.2024

Graphdatenbanken stellen eine effiziente Technik zur Speicherung und zum Zugriff auf hochgradig
verknüpfte Daten unter Verwendung einer Graphstruktur dar, wie z.B. Verbindungen zwischen Messdatenzu Umweltparametern oder klinischen Patientendaten. Die flexible Knotenstruktur macht es einfach, dieErgebnisse verschiedener Untersuchungen hinzuzufügen. Dies reicht von einfachen Blutdruckmessungenüber die neuesten CT- und MRT-Scans bis hin zu hochauflösenden Omics-Analysen (z.B. von Tumorbiopsien,Darmmikrobiom-Proben). Allerdings wird das volle Potenzial der Datenverarbeitung und -analyse mittelsGraphdatenbanken in biologischen und klinischen Anwendungsfällen noch nicht vollständig ausgeschöpft.Insbesondere die riesige Menge an miteinander verbundenen Daten, die geladen, verarbeitet und analysiertwerden müssen, führt zu zu langen Verarbeitungszeiten, um in klinische Arbeitsabläufe integriert werdenzu können. Um dieses Ziel zu erreichen sind neuartige Optimierungen von Graph-Operatoren sowie eine
geeignete Integration von Analyseansätzen notwendig.
Dieses Projekt zielt darauf ab, die oben genannten Probleme in zwei Richtungen zu lösen: (i) Vorschlag
geeigneter Optimierungen für Graphdatenbank-Operationen, auch unter Einsatz moderner Hardware, und(ii) Integration von Algorithmen des maschinellen Lernens für eine einfachere und schnellere Analyse der biologischenDaten. Für die erste Richtung untersuchen wir den Stand der Technik von Graphdatenbanksystemen
und deren Speicherung sowie ihr Verarbeitungsmodell. Anschließend schlagen wir Optimierungen für effizienteoperationale und analytische Operatoren vor. Für die zweite Richtung stellen wir uns vor, Algorithmen desmaschinellen Lernens näher an ihre Datenlieferanten - die Graphdatenbanken - heranzubringen. Zu diesemZweck füttern wir in einem ersten Schritt die Algorithmen des maschinellen Lernens direkt mit dem Graphenals Eingabe, indem wir geeignete Graphenoperatoren entwerfen. In einem zweiten Schritt integrieren wir dasmaschinelle Lernen direkt in die Graphdatenbank, indem wir spezielle Knoten hinzufügen, die das Modell des Algorithmus für maschinelles Lernen repräsentieren. Die Ergebnisse unseres Projekts sind verbesserte Operatoren, die sowohl moderne Hardware als auch Integrationskonzepte für Algorithmen des maschinellen Lernens nutzen. Unsere allgemein entwickeltenAnsätze werden das Verarbeiten und Analysieren riesiger Graphen in einer Fülle von Anwendungsfällen überunseren angestrebten Anwendungsfall der biologischen und klinischen Datenanalyse hinaus vorantreiben.

Projekt im Forschungsportal ansehen

Abgeschlossene Projekte

ADAMANT-II: Adaptive Data Management in Evolving Heterogeneous Hardware/Software Systems
Laufzeit: 01.01.2021 bis 31.12.2023

Heterogene Systemarchitekturen bestehend aus CPUs, GPUs und FPGAs bieten vielfältige Optimierungsmöglichkeiten im Vergleich zu rein CPU-basierten Systemen. Zur vollständigen Ausnutzung dieses Optimierungspotenzials reicht es jedoch nicht, bestehende Softwarekonzepte unverändert auf nicht-von-Neumann-Architekturen wie beispielsweise FPGAs zu übertragen. Vielmehr erfordern die zusätzlichen Verarbeitungsmöglichkeiten dieser Architekturen den Entwurf neuartiger Verarbeitungskonzepte. Dies ist bereits in der Planung der Anfrageverarbeitung zu berücksichtigen. In der ersten Projektphase entwickelten wir hierfür bereits ein erstes Konzept, welches die gerätespezifischen Merkmale in unserer Plug’n’Play Architektur berücksichtigt. Allerdings sehen wir die Notwendigkeit zu dessen Weiterentwicklung, um eine noch bessere Ausnutzung der spezifischen Eigenschaften der Hardwarearchitekturen zu erreichen. Für die zweite Projektphase stellen wir daher die Hypothese auf, dass bekannte Verfahren zur Abbildung von Anfragen auf der Ebene einzelner Operatoren nicht ausreichen sind, um die erweiterten Verarbeitungsmöglichkeiten heterogener Systemarchitekturen auszunutzen.
Unser Ziel ist daher die Erforschung neuartiger Verarbeitungskonzepte und Verfahren zur Abbildung von Anfragen für heterogene Systeme, welche von der üblicherweise verwendeten Granularität auf Ebene einzelner Operatoren abweichen. Wir werden Verarbeitungseinheiten entwickeln, die eine größere Funktionalität als einzelne Operatoren bereitstellen und sich über mehrere Geräte hinweg erstrecken. Diese Verarbeitungseinheiten sind in sich heterogen und kombinieren die spezifischen Eigenschaften einzelner Architekturen. Im Ergebnis ermöglicht unsere heterogene Systemarchitektur das Bereitstellen von Datenbankoperationen und Funktionen, die in klassischen Datenbanksystemen nicht verfügbar oder nicht effizient realisierbar sind.
Zu Demonstrationszwecken haben wir drei Anwendungsfälle identifiziert, welche von heterogenen Systemarchitekturen stark profitieren können: Verarbeitung von Datenströmen mit hohem Aufkommen, approximative Anfrageverarbeitung und dynamische Multianfrageverarbeitung. Hochvolumige Datenströme erfordern eine Hardwarearchitektur, die eine Verarbeitung der Daten ohne vorherige Zwischenspeicherung ermöglicht. Dafür stellen FPGAs eine vielversprechende Plattform durch ihr datenstrombasiertes Verarbeitungsprinzip dar. Darüber hinaus eignen sich sowohl FPGAs als auch GPUs für approximierende Anfragenverarbeitungen, da sie arithmetische Operationen mit reduzierter Genauigkeit und die Realisierung von approximativen, hardwarebeschleunigten Samplingtechniken ermöglichen. Die dynamische Multianfrageverarbeitung ist aus Systemsicht sehr anspruchsvoll, da variable Systemlasten die Effizienz zuvor aufgestellter Anfragepläne reduzieren können. Hier ermöglichen die zahlreichen Parallelitätsebenen in heterogenen Systemen eine bessere Verteilung der Systemlasten.

Projekt im Forschungsportal ansehen

A ranking-based automated approach for supporting Literature Review research methodologies.
Laufzeit: 01.07.2020 bis 30.06.2023

Literature reviews in general are methodologies of research which aim to gather and evaluate available evidence regarding a specific research topic. A common scientific method for performing this literature reviews is Systematic Literature Review (SLR). Another method is called Systematic mapping study (SMS). Their process if conducted manually can be very time and effort consuming. Therefore, multiple tools and approaches were proposed in order to facilitate several stages of this process. In this PhD thesis, we aim to evaluate the quality of these literature reviews studies using combined aspects. We measure the quality of the study`s included primary selected papers by combining social and academic Influence in a recursive way. Additionally, we will apply a machine learning ranking model based on a similarity function that is built upon bibliometrics and Altmetrics quality criteria and full text relevancy. In order to achieve the proposed approach, we begin with investigating the current state of the art in different directions, mainly the most effective and commonly used quality measures of publications, Altmetrics, Bibliometrics and machine learning text related techniques. A method for assessing the quality of these literature reviews research methods, would definitely be useful for the scientific research community in general, as It would save valuable time and reduce tremendous required effort.

Projekt im Forschungsportal ansehen

Digitales Programmieren im Team - Adaptive Unterstützung für kollaboratives Lernen
Laufzeit: 01.03.2020 bis 28.02.2023

Das kollaborative Programmieren ist Kernbestandteil des beruflichen Alltags in der Informatik. Diese auf einer technischen und sozialen Ebene komplexen Vorgänge werden im Informatikstudium oftmals abstrakt behandelt und spielen in Fachkonzepten zum Programmierenlernen eine untergeordnete Rolle. Im Rahmen von Gruppenarbeiten müssen sich die Lernenden organisieren, koordinieren und ihre Lernprozesse regulieren - kognitiv anspruchsvolle Tätigkeiten. Um das Potential kollaborativer Lernformen für das Erlernen von Programmiersprachen und die Förderung sozialer Kompetenzen ausschöpfen zu können, müssen die Lernenden bei Bedarf didaktische Unterstützung erhalten, sowohl vor dem als auch während des Lernprozesses. Im Teilprojekt DiP-iT-OVGU werden wir - unterstützt durch die Projektpartner - auf der Basis empirischer Studien ein digitales Fachkonzept zum kollaborativen Programmierenlernen entwickeln und evaluieren, welches diesbezügliche (medien-)didaktische Ansätze enthält. Dabei zielen wir auf die Ermöglichung des Transfers an andere Hochschulen. Auf informationstechnischer Ebene wird hierfür ein Prozessmodell entwickelt, das die Nachnutzbarkeit von Forschungsdaten und die Übertragbarkeit von Datenmodellen (z.B. zur adaptiven didaktischen Unterstützung) in andere Lehrveranstaltungen bzw. Lehr-Lernsysteme ermöglicht. Das Teilprojekt ordnet sich in das Gesamtprojekt mit folgenden Zielstellungen ein:

  • Analyse und Systematisierung von Einstellungen und Vorerfahrungen bei den Akteuren,
  • Entwicklung konzeptioneller, mediendidaktischer Kriterien für die Einbindung kollaborativen Programmierenlernens in Lehrveranstaltungen,
  • Entwicklung geeigneter Lehr-Lern-Szenarien und Erstellung eines diesbezüglichen digitalen Fachkonzepts,
  • empirische Fundierung durch formative und summative Evaluation,
  • Untersuchung der Effektivität von Formen der instruktionalen Anleitung angelehnt an die Bedarfe der Lernenden,
  • Unterstützung des Transfers der Erkenntnisse, inhaltlich und technisch.

Projekt im Forschungsportal ansehen

DiP-iT:Digitales Programmieren im Team
Laufzeit: 01.02.2020 bis 31.01.2023

Das kollaborative Programmieren ist Kernbestandteil des beruflichen Alltags in der Informatik. Diese auf einer technischen und sozialen Ebene komplexen Vorgänge werden im Informatikstudium oftmals abstrakt behandelt und spielen in Fachkonzepten zum Programmierenlernen eine untergeordnete Rolle. Im Rahmen von Gruppenarbeiten müssen sich die Lernenden organisieren, koordinieren und ihre Lernprozesse regulieren - kognitiv anspruchsvolle Tätigkeiten. Um das Potential kollaborativer Lernformen für das Erlernen von Programmiersprachen und die Förderung sozialer Kompetenzen ausschöpfen zu können, müssen die Lernenden bei Bedarf didaktische Unterstützung erhalten, sowohl vor dem als auch während des Lernprozesses. Im Teilprojekt DiP-iT-OVGU werden wir - unterstützt durch die Projektpartner - auf der Basis empirischer Studien ein digitales Fachkonzept zum kollaborativen Programmierenlernen entwickeln und evaluieren, welches diesbezügliche (medien-)didaktische Ansätze enthält. Dabei zielen wir auf die Ermöglichung des Transfers an andere Hochschulen. Auf informationstechnischer Ebene wird hierfür ein Prozessmodell entwickelt, das die Nachnutzbarkeit von Forschungsdaten und die Übertragbarkeit von Datenmodellen (z.B. zur adaptiven didaktischen Unterstützung) in andere Lehrveranstaltungen bzw. Lehr-Lernsysteme ermöglicht. Das Teilprojekt ordnet sich in das Gesamtprojekt mit folgenden Zielstellungen ein:

  • Analyse und Systematisierung von Einstellungen und Vorerfahrungen bei den Akteuren,
  • Entwicklung konzeptioneller, mediendidaktischer Kriterien für die Einbindung kollaborativen Programmierenlernens in Lehrveranstaltungen,
  • Entwicklung geeigneter Lehr-Lern-Szenarien und Erstellung eines diesbezüglichen digitalen Fachkonzepts,
  • empirische Fundierung durch formative und summative Evaluation,
  • Untersuchung der Effektivität von Formen der instruktionalen Anleitung angelehnt an die Bedarfe der Lernenden,
  • Unterstützung des Transfers der Erkenntnisse, inhaltlich und technisch.

Projekt im Forschungsportal ansehen

Query Acceleration Techniques in Co-Processor-Accelerated Main-memory Database Systems
Laufzeit: 31.08.2019 bis 31.03.2022

Das Projekt adressiert den aktuellen Schwerpunkt von Analysen in Hauptspeicherdatenbanken auf moderner Hardware: Heterogenität der Prozessoren und deren Einbindung in die Anfrageverarbeitung. Aufgrund der Vielzahl von Optimierungen und Varianten von Algorithmen und unbegrenzte Anzahl an Anwendungsfällen, ist das Erstellen des perfekten Anfrageplanes nahezu unmöglich.
Ziel der Habilitation ist es, (1) einen umfassenden Katalog von vielversprechenden Algorithmenvarianten aufzustellen, (2) eine optimale Auswahl der Varianten im Zuge der übergeordneten Anfrageoptimierung zu erlangen, (3) als auch Lastverteilung im Co-Prozessorbeschleunigten System zu erreichen.

  1. Der Variantenkatalog umfasst als weitere Dimensionen sowohl die Ausführung auf den spaltenorientierten Daten, als auch unter Nutzung von speziellen Indexstrukturen und beinhaltet unterschiedliche Ergebnisrepräsentationen. Aus allen möglichen Dimension wird dann eine Abstraktionsschicht entwickelt, sodass ein Algorithmus unabhängig von dessen Optimierungen definiert werden kann. Dadurch soll jede Variante effizient, mit wenig redundantem Code generiert und ausgeführt werden können.
  2. Aufgrund des enormen Variantenraumes bestehend aus den Dimensionen der Varianten inklusive dem Einfluss der ausführenden Prozessoren ist die Wahl einer auszuführenden Variante nicht trivial. Ziel ist es hier lern-basierte Methoden in Hinblick auf die Eignung zur Algorithmenauswahl gegenüber zu stellen, um valide Entscheidungen zu treffen. Die zu treffenden Entscheidungen sollen des Weiteren auch ausgeweitet werden auf das Erstellen von Indexen als auch der Datenverteilung in Ziel (3).
  3. Die Lastenverteilung in Co-Prozessorbeschleunigten Systemen wird durch den Grad der Parallelisierung beeinflusst. Dieser Grad teilt sich in mehrere Dimensionen, da Datenbankoperationen in kleinere Funktionseinheiten (sog. Primitive) aufteilen können. Diese Primitive können entweder auf dem ganzen Datenbestand laufen oder partitioniert ausgeführt werden. All diese Optimierungspotentiale (unterschiedliche Granularitätsstufen und Partitionierungsgrößen) müssen analysiert und optimal gewählt werden, um unter der gegebenen und zukünftigen Anfragelast eine angemessene Performanz zu ermöglichen. Ziel ist es, ein Modell lernen zu lassen, um optimale Verteilungen und optimierte Pläne zu erstellen. Wichtig ist hierbei, dass das Modell auch Rückschlüsse auf dessen Entscheidungen zulässt, um eine Generalisierbarkeit zu erreichen.

Projekt im Forschungsportal ansehen

EXtracting Product Lines from vAriaNTs (EXPLANT II)
Laufzeit: 01.09.2019 bis 28.02.2022

Eine Software-Produktlinie (SPL) ermöglicht die systematische Verwaltung einer Menge von wiederverwendbaren Softwareartefakten und damit die effiziente Generierung verschiedener Varianten einer Software. In der Praxis erstellen Entwickler jedoch häufig Softwarevarianten ad-hoc, indem sie Softwareartefakte kopieren und an neue Anforderungen anpassen (Clone-and-Own). Die hierbei fehlende Systematik und Automatisierung macht die Wartung und Weiterentwicklung der Varianten oft zeitaufwendig und fehleranfällig. Wir schlagen daher eine schrittweise Migration von geklonten Softwarevarianten in eine kompositionale (d.h. modular aufgebaute) SPL vor.
In der ersten Projektphase konnten wir bereits beachtliche Ergebnisse bei der Varianten-erhaltenden Transformation und den entsprechenden Analysen auf Modell- und Codeebene erzielen. In der zweiten Phase wollen wir nun auf den daraus gewonnenen Erkenntnisse aufbauen. Dies sind im Besonderen: (1) Eine nur auf Code-Klon Detektion basierende automatisierte Migration erzeugt keine kohärenten Softwareartefakte mit einer bestimmten Funktionalität. (2) Einige potentielle Kooperationspartner hatten Bedenken ihre Systeme zu migrieren, da sie die Einführung neuer Fehler befürchten. (3) Annotative SPL scheinen weniger fehleranfällig und somit robuster gegenüber Änderungen zu sein, als bisher angenommen.
Aufgrund der Probleme mit industriellen Partnern (2) kamen wir zu dem Schluss, dass weitere Forschungen, insbesondere zur Qualitätssicherung von migrierten SPL, Überführungskosten und Eigenschaften von Softwareartefakten notwendig sind. Wir wollen daher untersuchen, welche Kostenfaktoren bei der Überführung und beim Einsatz von SPL eine Rolle spielen und wie stark deren Einfluss jeweils ist. Weiterhin planen wir Qualitätsmetriken für migrierte SPL aufzuzeigen. In der ersten Projektphase haben wir bereits einen teil-automatisierten Migrationsprozess vorgeschlagen (1), welchen wir nun weiter ausbauen und neue Analysen integrieren wollen. Dabei wollen wir vor Allem untersuchen, ob sich nützliche Informationen, insbesondere über die Intention der Entwickler, aus weiteren Quellen, als dem Code beziehen lassen. Vielversprechende Ansätze sind hier die Analyse von Versionsverwaltungssystemen und die Analyse von existierenden Verhaltens- und Architektur-Modellen eines Systems. Des Weiteren haben wir vor, zur Steigerung des Automatisierungsgrads weitere Refactorings, wie z.B. "Move Method" einzusetzen. Um die Struktur und damit auch die Wartbarkeit der resultierenden Modularisierung zu verbessern, planen wir außerdem unseren Migrationsprozess auf Multi-Software-Produktlinien zu erweitern. Dadurch ließen sich einzelne Funktionalitäten eines Systems besser auftrennen. Ebenfalls wollen wir untersuchen, welche Granularität für migrierte Softwareartefakte am besten geeignet ist und ob annotative Verfahren (3) für migrierte SPL Vorteile gegenüber kompositionalen Verfahren bringen können.

Projekt im Forschungsportal ansehen

MetaProteomeAnalyzer Service (MetaProtServ)
Laufzeit: 01.12.2016 bis 31.12.2021

Die Metaproteomik zielt auf die Erforschung zellulärer Funktionen komlexer Lebensgemeinschaften und ergänzt die Metagenomik and Metatranscriptomik als häufig eingesetzte Werkzeuge in der mikrobiellen Ökologie (z.B. humanes Darm-Mikrobiome, Biogasanlagen). Bioinformatische Werkzeuge, die für die Proteomik von Reinkulturen entwickelt wurden, können nicht zufriedenstellend Ergebnis benutzt werden. So führen Datenbanksuchen für die Proteinidentifizierung mit Metagenomsequenzen zu einer hohen Zahl redundanten Hits in den Suchergebnissen in Bezug auf Taxonomy und Funktion identifizierten Proteine. Für eine bessere Auswertung von Metaproteomdaten wurde deshalb MetaProteomAnalyzer (MPA) Software entwickelt. Im Rahmen von MetaProtServ soll das benutzerfreundliche Programm mit einer graphischen Oberfläche als Webservice verfügbar gemacht werden, um mehr Wissenschaftler von den Vorteilen der Metaproteomik zu überzeugen. Gezieltes Training von Anwendern und ein individueller Support sollen die Zugänglichkeit dieser Software in der wissenschaftlichen Gemeinschaft erleichtern. Die Funktionalität und die Wartungsfreundlichkeit werden für den zukünftigen Webservice sowie für eine eigenständige Version parallel basierend auf einem gemeinsamen Code und einer gemeinsamen Struktur weiterentwickelt. Die Software wird beispielsweise um Schnittstellen für den Import und Export von Metaproteomdaten (mzIdentML) erweitert. Der Webservice wird zukünftig vom de.NBI-Zentrum Bielefeld-Gießen (Center for Microbial Bioinformatics) gehostet, mit dem das de.NBI-Partnerprojekt MetaProtServ assoziiert ist.

Projekt im Forschungsportal ansehen

COOPeR: Cross-device OLTP/OLAP PRocessing
Laufzeit: 01.09.2016 bis 30.06.2021

Heutzutage stehen Datenbanksysteme vor zwei Herausforderungen. Auf der einen Seite müssen Datenbanksysteme Online-Transaction-Processing (OLTP) und Online-Analytical-Processing (OLAP) kombinieren, um Echtzeitanalysen von Geschäftsprozessen zu ermöglichen. Die Echtzeitanalysen von Geschäftsprozessen ist notwendig, um die Qualität der erstellten Berichte und Analysen zu verbessern, weil aktuelle Daten für die Analyse verwendet werden an Stelle von historischen Daten,die in traditionellen OLAP-Systemen verarbeitet werden. Auf der anderen Seite, werden Computersysteme zunehmend heterogener, um bessere Hardware-Leistung bereitzustellen. Die Architektur wechselt hierbei von Computersystemen mit Single-Core- CPUs zu Multi-Core-CPUs unterstützt von Ko-Prozessoren. Datenbanksysteme müssen beide Trends berücksichtigen, um die Qualität der Systeme zu verbessern, um die Leistung zu erhöhen, und um sicherzustellen, dass Datenbanksysteme künftigen Anforderungen (z.B. komplexere Anfragen oder erhöhte Datenvolumen) genügen.Leider konzentrieren sich aktuelle Forschungsansätze, jeweils nur auf eine der beiden Herausforderungen, entweder auf die Kombination von OLTP und OLAP Workloads in traditionellen CPU-basierte Systeme oder auf Ko-Prozessor-Beschleunigung für einen einzigen Workload-Typ. Daher gibt es keinen ganzheitlichen Ansatz der beide Herausforderungen berücksichtigt. In diesem Projekt wollen wir beide Herausforderungen von Datenbanksystemen berücksichtigen, um eine effiziente Verarbeitung von kombinierten OLTP/ OLAP-Workloads in hybriden CPU/Ko-Prozessor-Systemen zu ermöglichen. Dies ist notwendig, um Echtzeit-Business-Intelligence zu realisieren. Die größte Herausforderung ist hierbei die ACID-Eigenschaften für OLTP und kombinierten OLTP/OLAP-Workloads in hybriden Systemen zu gewährleisten, und gleichzeitig eine effiziente Verarbeitung der kombinierten Workloads zu ermöglichen.

Projekt im Forschungsportal ansehen

Recommending Cloned Features for Adopting Systematic Software Reuse
Laufzeit: 01.05.2018 bis 30.04.2021

Organizations heavily rely on forking (or cloning) to implement customer-specific variants of a system. While this approach can have several disadvantages, organizations fear to extract reusable features later on, due to the corresponding efforts and risks. A particularly challenging, yet poorly supported, task is to decide what features to extract. To tackle this problem, we aim to develop an analysis system that proposes suitable features based on automated analyses of the cloned legacy systems. To this end, we are concerned with a several closely related research areas: Cost modeling for software product lines; empirical studies on system evolution, processes, and human factors; as well as concepts to derive reusable features from clones based on, for example, feature location and code clone detection.

Projekt im Forschungsportal ansehen

Adaptive Data Management in Evolving Heterogeneous Hardware/Software Systems (ADAMANT)
Laufzeit: 01.10.2017 bis 31.12.2020

Die Entwicklung von Datenbanksystemen steht vor großen Herausforderungen: Zum einen wandeln sich die Anwendungsszenarien von reinen relationalen zu graph- oder strombasierten Analysen. Zum anderen wird die eingesetzte Hardware heterogener, da neben gewöhnlichen CPUs auch spezialisierte, hoch performante Co-Prozessoren wie z.B. Graphics Processing Unit oder Field Programmable Gate Arrays (FPGAs) eingesetzt werden. Es konnte gezeigt werden, dass durch Operatoren, die für einen speziellen Co-Prozessor optimiert wurden, ein Performancegewinn erreicht wird. Jedoch sind die meisten Ansätze zur Verarbeitung auf einem einzigen Prozessortyp limitiert und betrachten nicht das Zusammenspiel aller (Co-)Prozessoren. Dadurch bleibt Optimierungs- und Parallelisierungspotential ungenutzt. Darüber hinaus bieten Betrachtungen eines einzelnen Operators auf einem einzigen (Co-)Prozessor wenige Möglichkeiten zur Verallgemeinerung für neue Anwendungsgebiete oder Co-Prozessortypen. Im Rahmen dieses Projektes entwerfen wir Konzepte zur Integration von unterschiedlichen Operatoren und heterogenen (Hardware-)Co-Prozessortypen für adaptive Datenbanksysteme. Wir entwickeln Optimierungsstrategien, die die individuellen Eigenschaften der Co-Prozessortypen und die diesen Systemen inhärente Parallelität ausnutzen. Dabei betrachten wir relationale und graphbasierte Analysen, sodass die hergeleiteten Konzepte nicht auf ein bestimmtes Anwendungsszenario beschränkt sind. Wir werden Schnittstellen und Konzepte zur Abstraktion der Operatoren und Co-Prozessortypen definieren. Des Weiteren müssen die Eigenschaften von Operatoren und Co-Prozessortypen allen Systemebenen zur Verfügung stehen, sodass die Softwareebene besondere Charakteristika der (Co-)Prozessortypen und die Hardwareebene unterschiedliche Eigenschaften von Operatoren und Daten berücksichtigt. Die Verfügbarkeit dieser Charakteristika ist von hoher Relevanz für die globale Anfrageoptimierung, um eine passende Ausführungsmethode zu wählen. Es ist außerdem nötig, den Entwurfsraum der Anfrageverarbeitung auf heterogenen Hardwarearchitekturen zu analysieren und dabei auf Parallelität in der Funktion, den Daten, und zwischen (Co-)Prozessoren zu achten. Aufgrund der dadurch hervorgerufenen Komplexität des Entwurfsraums verfolgen wir einen verteilten Ansatz, in dem die Optimierung soweit möglich an die niedrigsten Ebenen delegiert wird, da diese Informationen über die spezifischen Charakteristika haben. So werden diese effizienter ausgenutzt. Um eine gegenseitige Beeinflussung der Optimierungen zweier Ebenen zu vermeiden, beachten wir auch Optimierungsstrategien zwischen Ebenen. Dabei werden wir auch lernbasierte Methoden einsetzen, um durch eine Evaluierung von Optimierungsentscheidungen zur Laufzeit künftige Entscheidungen zu verbessern. Auch sind diese Methoden am besten geeignet Charakteristika zu erfassen, die zur Entwurfszeit nicht berücksichtigt wurden, wie es häufig mit der Laufzeitrekonfiguration von FPGAs erfolgt.

Projekt im Forschungsportal ansehen

Efficient and Effective Entity Resolution Under Cloud-Scale Data
Laufzeit: 01.07.2014 bis 30.04.2020

There might exist several different descriptions for one real-world entity. The differences may result from typographical errors, abbreviations, data formatting, etc. However, the different descriptions may lower data quality and  lead to misunderstanding. Therefore, it is necessary to be able to resolve and clarify such different descriptions. Entity Resolution (ER) is a process to identify records that refer to the same real-world entity. It is also known under several other names. If the records to be identified are all located within a single source, it is called de-duplication. Otherwise,  in the field of computer science it is also typically referred to data matching, record linkage, duplicate detection, reference reconciliation, object identification. In the database domain, ER is synonymous with similarity join. Today, ER plays a vital role in diverse areas, not only in the traditional applications of census, health data or national security, but also in the network applications of business mailing lists, online shopping, web searches, etc. It is also an indispensable step in data cleaning, data integration and data warehousing. The use of computer techniques to perform ER dates back to the middle of the last century. Since then, researchers have developed many techniques and algorithms for ER due to its extensive applications. In its early days, there are two general goals: efficiency and effectiveness, which means how fast and how accurately an ER task can be solved. In recent years, the rise of the web has led to the extension of techniques and algorithms for ER. Such web data (also known as big data) is often semi-structured, comes from diverse domains and exists on a very large scale. These three properties make big data qualitatively different from traditional data, which brings new challenges to ER that require new techniques or algorithms as solutions. To be specific, specialized similarity measures are required for semi-structured data; cross-domain techniques are needed to handle data from diverse domains; parallel techniques are needed to make algorithms not only efficient and effective, but also scalable, so as to be able to deal with the large scale of the data. This project focuses on the last point: parallelize the process of entity resoution. The specific research direction is to explore several big data processing frameworks to know their advantages and disadvantages on performing ER.

Projekt im Forschungsportal ansehen

Software Product Line Feature Extraction from Natural Language Documents using Machine Learning Techniques
Laufzeit: 11.05.2016 bis 29.02.2020

Feature model construction from the requirements or textual descriptions of products can be often tedious and ineffective. In this project, through automatically learning natural language documents of products, cluster tight-related requirements into features in the phase of domain analysis based on machine learning techniques. This method can assist the developer by suggesting possible features, and improve the efficiency and accuracy of feature modeling to a certain extent.

This research will focus on feature extraction from requirements or textual descriptions of products in domain analysis. Extract the descriptors from requirements or textual descriptions of products. Then, descriptors are transformed into vectors and form a word vector space. Based on clustering algorithm, a set of descriptors are clustered into features. Their relationships will be inferred. Design the simulation experiment of feature extraction from natural language documents of products to prove that it can handle feature-extracting in terms of machine learning techniques.

Projekt im Forschungsportal ansehen

Legal Horizon Scanning
Laufzeit: 04.04.2017 bis 30.11.2019

Every company needs to be compliant with national and international laws and regulations. Unfortunately, staying complied is a challenging tasks based on the volume and velocity of laws and regulations. Furthermore, laws are often incomplete or inconclusive, whereby also court judgments need to be considered for compliance. Hence, companies in different sectors, e.g. energy, transport, or finance, are spending millions of dollars every year to ensure compliance each year. In this project, we want to automate the process of identifying and analyzing the impact of (changing) laws, regulations, and court judgments using a combination of Information Retrieval, Data Mining and Scalable Data Management techniques. Based on the automated identification and impact analysis, not only the costs for compliance can be reduced, but also the quality can be increased.

Projekt im Forschungsportal ansehen

GPU-accelerated Join-Order Optimization
Laufzeit: 01.10.2016 bis 09.11.2019

Different join orders can lead to a variation of execution times by several orders of magnitude, which makes join-order optimization to one of the most critical optimizations within DBMSs. At the same time, join-order optimization is an NP-hard problem, which makes the computation of an optimal join-order highly compute-intensive. Because current hardware architectures use highly specialized and parallel processors, the sequential algorithms for join-order optimization proposed in the past cannot fully utilize  the computational power of current hardware architectures. Although existing approaches for join-order optimization such as dynamic programming benefit from parallel execution, there are no approaches for join-order optimization on highly parallel co-processors such as GPUs. 
In this project, we are building a GPU-accelerated  join-order optimizer by adapting existing join-order optimization approaches. Here, we are interested in the effects of GPUs on join-order optimization itself as well as the effects for query processing. For GPU-accelerated DBMSs, such as CoGaDB, using GPUs for query processing, we need to identify efficient scheduling strategies for query processing and query optimization tasks such that the GPU-accelerated optimization does not 
slow down query processing on GPUs.

Projekt im Forschungsportal ansehen

(Semi)-Automatic Approach to Support Literature Analysis for Software Engineers
Laufzeit: 01.11.2017 bis 31.10.2019

Researchers perform literature reviews to synthesize existing evidence regarding a research topic. While being important means to condense knowledge, conducting a literature analysis, particularly, systematic literature review, requires a large amount of time and effort. Consequently, researchers are considering semi-automatic approaches to facilitate different stages of the review process. Surveys have shown that two of the most time consuming tasks within the literature review process are: to select primary studies and to assess their quality. To assure quality and reliability of the findings from a literature study, the quality of included primary studies must be evaluated. Despite being critical stages, these still lack the support of semi-automatic tools and hence, mostly performed manually. In this PhD thesis, we aim to address this gap in the current state of research and develop techniques that support the selection and assessment of primary studies for literature analyses. For the assessment of studies, we begin with exploring the information available from the digital libraries most commonly used by software engineering researchers, such as, the ACM Digital Library, IEEE Xplore, Science Direct, Springer Link, Web of Science. The information regarding authors, citation counts and publication venues are particularly important as these can provide an initial insight about the studies. Hence, a tool that captures such bibliographic information from the digital libraries and score the studies based on defined quality metrics, would certainly be beneficial to accelerate the process. However, for accurate assessment, the approach could be further extended to an in-depth full text investigation. We believe, developing such a strategy would indeed be useful for researchers conducting literature analyses, particularly software engineers, or any other research domain.

Projekt im Forschungsportal ansehen

Graph-Based Analysis of Highly-Configurable Systems
Laufzeit: 01.11.2015 bis 01.11.2018

Todays's software systems are getting more complex every day and contain an increasing number of configuration options to customize their behavior. Developers of these highly-configurable systems face the challenge of finding faults within the variable source code and maintaining it without introducing new ones.

In order to understand variable source code of even medium-sized systems developers have to rely on multiple analysis techniques. However, current analysis techniques often do not scale well with the
number of configuration options or utilize heuristics which lead to results that are less reliable.

We propose an alternative approach for analyzing highly-configurable systems based on graph theory.

Both variability models, which describe a system's configuration options and their interdependencies, and variable source code can be represented by graph-like data structures.

Therefore, we want to introduce novel analysis techniques based on well-known graph algorithms and evaluate them regrading their result quality and performance during runtime.

Projekt im Forschungsportal ansehen

Secure Data Outsourcing to Untrusted Clouds
Laufzeit: 01.10.2014 bis 30.09.2018

Cloud storage solutions are being offered by many big vendors like Google, Amazon & IBM etc. The need of Cloud Storage has been driven by the generation of Big Data in almost every corporation. The biggest hurdle in outsourcing data to Cloud Data vendors is the Security Concern of the data owners. These security concerns have become the stumbling block in large scale adoption of Third Party Cloud Databases. The focus of this PhD project is to give a comprehensive framework for the Security of Outsourced Data to Untrusted Clouds. This framework includes Encrypted Storage in Cloud Databases, Secure Data Access, Privacy of Data Access & Authenticity of Stored Data in the Cloud. This security framework will be based on Hadoop based open source projects.

Projekt im Forschungsportal ansehen

On the Impact of Hardware on Relational Query Processing
Laufzeit: 01.09.2013 bis 31.08.2018

Satisfying the performance needs of tomorrow typically implies using modern processor capabilities (such as single instruction, multiple data) and co-processors (such as graphics processing units) to accelerate database operations. Algorithms are typically hand-tuned to the underlying (co-)processors. This solution is error-prone, introduces high implementation and maintenance cost and is not portable to other (co-)processors. To this end, we argue for a combination of database research with modern software-engineering approaches, such as feature-oriented software development (FOSD). Thus, the goal of this project is to generate optimized database algorithms tailored to the underlying (co-)processors from a common code base. With this, we maximize performance while minimizing implementation and maintenance effort in databases on new hardware. Project milestones: 

  • Creating a feature model: Arising from heterogeneous processor capabilities, promising capabilities have to be identified and structured to develop a comprehensive feature model. This includes fine-grained features that exploit the processor capabilities of each device.
  • Annotative vs. compositional FOSD approaches: Both approaches have known benefits and drawbacks. To have a suitable mechanism to construct hardware-tailored database algorithms using FOSD, we have to evaluate which of these two approaches is the best for our scenario.
  • Mapping features to code: Arising from the feature model, possible code snippets to implement a feature have to be identified.
  • Performance evaluation: To validate our solution and derive rules for processor allocation and algorithm selection, we have to perform an evaluation of our algorithms.

Projekt im Forschungsportal ansehen

Model-Based Refinement of Product Lines
Laufzeit: 01.04.2015 bis 31.03.2018

Software product lines are families of related software systems that are developed by taking variability into account during the complete development process. In model-based refinement methods (e.g., ASM, Event-B, Z, VDM), systems are developed by stepwise refinement of an abstract, formal model.

In this project, we develop concepts to combine model-based refinement methods and software product lines. On the one hand, this combination aims to improve the cost-effectiveness of applying formal methods by taking advantage of the high degree of reuse provided by software product lines. On the other hand, it helps to handle the complexity of product lines by providing means to detect defects on a high level of abstraction, early in the development process.

Projekt im Forschungsportal ansehen

EXtracting Product Lines from vAriaNTs (EXPLANT)
Laufzeit: 16.02.2016 bis 15.02.2018

Software-Produktlinien fördern die strategische Wiederverwendung von Software und den systematischen Umgang mit Variabilität. In der Praxis werden Wiederverwendung und Variabilität jedoch häufig ad hoc realisiert, indem Artefakte kopiert und angepasst werden (der Clone-and-Own-Ansatz). Aufgrund mangelnder Automatisierung ist die Übertragung von Änderungen (z.B. Fehlerbeseitigungen, Performance-Verbesserungen) auf mehrere geklonte Produktvarianten sowie der Austausch von Funktionalität zwischen Varianten zeitaufwendig und fehleranfällig.

Zur Lösung schlagen wir die schrittweise Überführung geklonter Produktvarianten in eine kompositionale Software-Produktlinie (SPL) vor. Die Varianten werden zunächst unverändert in eine initiale SPL integriert. Anschließend wird diese SPL mittels kleiner, Semantik-erhaltender Schritte in eine gut strukturierte, modulare Ziel-SPL transformiert. Ein derartiges Vorgehen bietet gegenüber existierenden Ansätzen zur Überführung von Produktvarianten in SPLs folgende Vorteile:

1) Die SPL kann unmittelbar produktiv eingesetzt werden. Bisher waren lange Produktionsstopps erforderlich, da die Überführung nicht unterbrochen werden konnte.

2) Der kompositionale Implementierungsansatz begünstigt die Wartbarkeit. Die Probleme der in der Praxis verbreiteten annotativen SPL-Implementierungsansätze (u. a. wenig modularer, schlecht verständlicher Programm-Code) werden vermieden.

3) Die Semantik-Erhaltung der ursprünglichen Varianten wird garantiert.

Kernziel unseres Projekts ist die Erforschung Varianten-erhaltender Refactorings. Darunter verstehen wir konsistente Transformationen auf Modell- und Implementierungsebene, die Semantik-erhaltend bezüglich aller möglichen Produkte der SPL sind. Diese Refactorings werden wir mit Code-Clone-Erkennung kombinieren, um den Grad der Wiederverwendung schrittweise zu erhöhen und somit den Wartungsaufwand und die zukünftige Defektrate zu senken. Zudem werden wir Feature-Lokalisierungstechniken in multiplen Produktvarianten erforschen. In Verbindung mit Varianten-erhaltendem Refactoring ermöglichen diese Techniken die schrittweise Feature-orientierte Extraktion von Funktionalität aus multiplen Produktvarianten. Durch Komposition der extrahierten Features können nicht nur die ursprünglichen Varianten rekonstruiert werden. Es werden darüber hinaus neue Varianten möglich, sodass noch gezielter auf Anforderungen reagiert werden kann.

Projekt im Forschungsportal ansehen

A Personalized Recommender System for Product-Line Configuration
Laufzeit: 15.01.2015 bis 31.12.2017

Today s competitive marketplace requires industries to understand the unique and particular needs of their customers. Software product line enables industries to create individual products for every customer by providing an interdependent set of features that can be configured to form personalized products. However, as most features are interdependent, users need to understand the impact of their gradual decisions in order to make the most appropriate choices. Thus, especially when dealing with large feature models, specialized assistance is needed to guide the users personalizing valid products. In this project, we aim using recommender system and search-based software engineering techniques to handle the product configuration process in large and complex product lines.

Projekt im Forschungsportal ansehen

Software Product Line Testing
Laufzeit: 01.10.2013 bis 30.09.2017

Exhaustively testing every product of a software product line (SPL) is a difficult task due to the combinatorial explosion of the number of products. Combinatorial interaction testing is a technique to reduce the number of products under test. In this project, we aim to handle multiple and possibly conflicting objectives during the test process of SPL.

Projekt im Forschungsportal ansehen

Southeast Asia Research Network: Digital Engineering
Laufzeit: 01.06.2013 bis 31.05.2017

German research organizations are increasingly interested in outstanding Southeast Asian institutions as partners for collaboration in the fields of education and research. Bilateral know-how, technology transfer and staff exchange as well as the resultant opportunities for collaboration are strategically important in terms of research and economics. Therefore, the establishment of a joint research structure in the field of digital engineering is being pursued in the project "SEAR DE Thailand" under the lead management of Otto von Guericke University Magdeburg (OvGU) in cooperation with the Fraunhofer Institute for Factory Operation and Automation (IFF) and the National Science and Technology Development Agency (NSTDA) in Thailand.

Projekt im Forschungsportal ansehen

Modern Data Management Technologies for Genome Analysis
Laufzeit: 01.12.2013 bis 31.12.2016

Genome analysis is an important method to improve disease detection and treatment. The introduction of next generation sequencing techniques allows to generate genome data for genome analysis in less time and at reasonable cost. In order to provide fast and reliable genome analysis, despite ever increasing amounts of genome data, genome data management and analysis techniques must also improve. In this project, we develop concepts and approaches to use modern database management systems (e.g., column-oriented, in-memory database management systems) for genome analysis. Project's scope:

  • Identification and evaluation of genome analysis use cases suitable for database support
  • Development of data management concepts for genome analysis using modern database technology with regard to chosen use cases and data management aspects such as data integration, data integrity, data provenance, data security
  • Development of efficient data structures for querying and processing genome data in databases for defined use cases
  • Exploiting modern hardware capabilities for genome data processing

Projekt im Forschungsportal ansehen

Nachhaltiges Variabilitätsmanagement von Feature-orientierten Software-Produktlinien (NaVaS)
Laufzeit: 01.09.2014 bis 31.08.2016

Die Verwendung von Produktlinientechnologie, wie sie beispielsweise in der Automobilbranche seit Jahrzehnten erfolgreich eingesetzt wird, bietet enormes Potential um die Softwareentwicklung zu revolutionieren. Angelehnt an die Wiederverwendung von Motortypen, die mit verschiedenen Karosserien eines Automobilherstellers kombiniert werden können, ermöglichen Softwareproduktlinien die Erstellung von maßgeschneiderten Softwareprodukten auf der Basis gemeinsamer Softwarebestandteile. Ziel des Projektes NaVaS ist es daher, die Entwicklung von Softwareprodukten auf der Basis von Softwareproduktlinien zu vereinfachen und somit die Etablierung dieser Entwicklungstechnologie voranzutreiben.

Kernarbeit des Projektes
Zur Unterstützung der Entwicklung von Softwareproduktlinien wird im Projekt NaVaS eine Softwareentwicklungsumgebung zur Erstellung von Produktlinien entwickelt. Diese basiert auf einem bereits bestehenden Forschungsdemonstrator und wird sowohl funktional und auch aus Anwendersicht den Anforderungen im kommerziellen Gewerbe und der Forschung angepasst. Hierbei werden langjährige Erfahrung bei der Entwicklung maßgeschneiderter Software seitens der METOP GmbH und der Erforschung alternativer Technologien seitens der Universität Magdeburg verschmolzen und deren Praktikabilität mit Hilfe von geeigneten assoziierten Partnern aus Industrie und Forschung sichergestellt. Die Bereitstellung einer Entwicklungsumgebung für Softwareproduktlinien, entsprechend des Forschungsdemonstrators, eröffnet somit neue Möglichkeiten. Entwicklungszeiten würden sich stark verkürzen und damit Produkte schneller am Markt verfügbar sein. Durch den zusätzlich geringeren Wartungsaufwand könnten weitere Kosten eingespart werden.

Projekt im Forschungsportal ansehen

Software Product Line Languages and Tools III
Laufzeit: 01.07.2012 bis 31.12.2015

In this project we focus on research and development of tools and languages for software product lines. Our research focuses usability, flexibility and complexity of current approaches. Research includes tools as FeatureHouse, FeatureIDE, CIDE, FeatureC++, Aspectual Mixin Layers, Refactoring Feature Modules, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including type systems, refactorings, design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more. 

  • FeatureIDE: An Extensible Framework for Feature-Oriented Software Development
  • SPL2go: A Catalog of Publicly Available Software Product Lines

Projekt im Forschungsportal ansehen

A Hybrid Query Optimization Engine for GPU accelerated Database Query Processing II
Laufzeit: 01.04.2014 bis 31.03.2015

Performance demands for database systems are ever increasing and a lot of research focus on new approaches to fulfill performance requirements of tomorrow. GPU acceleration is a new arising and promising opportunity to speed up query processing of database systems by using low cost graphic processors as coprocessors. One major challenge is how to combine traditional database query processing with GPU coprocessing techniques and efficient database operation scheduling in a GPU aware query optimizer. In this project, we develop a Hybrid Query Processing Engine, which extends the traditional physical optimization process to generate hybrid query plans and to perform a cost based optimization in a way that the advantages of CPUs and GPUs are combined. Furthermore, we aim at a database architecture and data model independent solution to maximize applicability.

  • HyPE-Library
    • HyPE is a hybrid query processing engine build for automatic selection of processing units for coprocessing in database systems. The long-term goal of the project is to implement a fully fledged query processing engine, which is able to automatically generate and optimize a hybrid CPU/GPU physical query plan from a logical query plan. It is a research prototype developed by the Otto-von-Guericke University Magdeburg in collaboration with Ilmenau University of Technology
  • CoGaDB
    • CoGaDB is a prototype of a column-oriented GPU-accelerated database management system developed at the University of Magdeburg. Its purpose is to investigate advanced coprocessing techniques for effective GPU utilization during database query processing. It uses our hybrid query processing engine (HyPE) for the physical optimization process. 

Projekt im Forschungsportal ansehen

Clustering the Cloud - A Model for Self-Tuning of Cloud Datamanagement Systems
Laufzeit: 01.10.2011 bis 31.03.2015

Over the past decade, cloud data management systems became increasingly popular, because they provide on-demand elastic storage and large-scale data analytics in the cloud. These systems were built with the main intention of supporting scalability and availability in an easily maintainable way. However, the (self-) tuning of cloud data management systems to meet specific requirements beyond these basic properties and for possibly heterogeneous applications becomes increasingly complex. Consequently, the self-management ideal of cloud computing is still to be achieved for cloud data management. The focus of this PhD project is (self-) tuning for cloud data management clusters that are serving one of more applications with divergent workload types. It aims to achieve dynamic clustering to support workload based optimization. Our approach is based on logical clustering within a DB cluster based on different criteria such as: data, optimization goal, thresholds, and workload types.

Projekt im Forschungsportal ansehen

Analysis Strategies for Software Product Lines
Laufzeit: 01.02.2010 bis 31.12.2014

Software-product-line engineering has gained considerable momentum in recent years, both in industry and in academia. A software product line is a set of software products that share a common set of features. Software product lines challenge traditional analysis techniques, such as type checking, testing, and formal verification, in their quest of ensuring correctness and reliability of software. Simply creating and analyzing all products of a product line is usually not feasible, due to the potentially exponential number of valid feature combinations. Recently, researchers began to develop analysis techniques that take the distinguishing properties of software product lines into account, for example, by checking feature-related code in isolation or by exploiting variability information during analysis. The emerging field of product-line analysis techniques is both broad and diverse such that it is difficult for researchers and practitioners to understand their similarities and differences (e.g., with regard to variability awareness or scalability), which hinders systematic research and application. We classify the corpus of existing and ongoing work in this field, we compare techniques based on our classification, and we infer a research agenda. A short-term benefit of our endeavor is that our classification can guide research in product-line analysis and, to this end, make it more systematic and efficient. A long-term goal is to empower developers to choose the right analysis technique for their needs out of a pool of techniques with different strengths and weaknesses.

  • Stepwise Migration of Cloned Product Variants to a Compositional Software Product Line: This part of the project aims at consolidating such cloned product families into a well-structured, modular software product line.  The consolidation process is semi-automatic and stepwise, where each step is a small, semantics-preserving transformation of the code, the feature model or both.  These semantics-preserving transformations are called variant-preserving refactorings.
  • Projekt im Forschungsportal ansehen

    Consistent data management for cloud gaming
    Laufzeit: 01.07.2012 bis 31.12.2014

    Cloud storage systems are able to meet the future requirements of the Internet by using non-relational database management systems (NoSQL DBMS). NoSQL system simplifies the relational database schema and the data model to improve system performances, such as system scalability and parallel processing. However, such properties of cloud storage systems limit the implementation of some Web applications like massively multi-player online games (MMOG). In the research described here, we want to expand existing cloud storage systems in order to meet requirements of MMOG. We propose to build up a transaction layer on the cloud storage layer to offer flexible ACID levels. As a goal the transaction processing should be offered to game developers as a service. Through the use of such an ACID level model both the availability of the existing system and the data consistency during the interactivity of multi-player can be converted according to specific requirements.

    Projekt im Forschungsportal ansehen

    Load-balanced Index Structures for Self-tuning DBMS
    Laufzeit: 01.01.2010 bis 31.12.2014

    Index tuning as part of database tuning is the task of selecting and creating indexes with the goal of reducing query processing times. However, in dynamic environments with various ad-hoc queries it is difficult to identify potentially useful indexes in advance. The approach for self-tuning index cogurations developed in previous research provides a solution for continuous tuning on the level of index configurations, where configurations are a set of common index structures. In this project we investigate a novel approach, that moves the solution of the problem at hand to the level of the index structures, i.e. to create index structures which have an inherently self-optimizing structure.

    Projekt im Forschungsportal ansehen

    Minimal-invasive integration of the provenance concern into data-intensive systems
    Laufzeit: 01.11.2013 bis 31.12.2014

    In the recent past a new research topic named provenance gained much attention. The purpose of provenance is to determine origin and derivation history of data. Thus, provenance is used, for instance, to validate and explain computation results. Due to the digitalization of previously analogue process that consume data from heterogeneous sources and increasing complexity of respective systems, it is a challenging task to validate computation results. To face this challenge there has been plenty of research resulting in solutions that allow for capturing of provenance data. These solutions cover a broad variety of approaches reaching from formal approaches defining how to capture provenance for relational databases, high-level data models for linked data in the web, to all-in-one solutions to support management of scientific work ows. However, all these approaches have in common that they are tailored for their specific use case. Consequently, provenance is considered as an integral part of these approaches that can hardly be adjusted for new user requirements or be integrated into existing systems. We envision that provenance, which highly needs to be adjusted to the needs of specific use cases, should be a cross-cutting concern that can seamlessly be integrated without interference with the original system.

    Projekt im Forschungsportal ansehen

    MultiPLe - Multi Software Product Lines
    Laufzeit: 01.03.2012 bis 31.10.2014

    Aus der zunehmenden Verbreitung von Softwareproduktlinien resultieren Multi-Software-Produktlinien (kurz Multiproduktlinien), komplexe Softwaresysteme, die aus einer Vielzahl voneinander abhängigen Softwareproduktlinien erstellt werden. Ziel des Projektes ist die Erarbeitung von Konzepten und Methoden zur systematischen Entwicklung von Multiproduktlinien. Schwerpunkt der zweiten Projektphase ist die Verallgemeinerung entwickelter Konzepte, um Kompositionssicherheit und Interoperabilität in heterogenen Multiproduktlinien zu erreichen, die mit unterschiedlichen Programmierparadigmen und Variabilitätsmechanismen entwickelt werden. Dazu muss für alle gültigen Konfigurationen einer Multiproduktlinie sichergestellt werden, dass die Konfiguration der beteiligten Produktlinien aufeinander abgestimmt sind, so dass die von einer Produktlinie benötigte Funktionalität von einer anderen Produktlinie bereitgestellt wird (semantische Interoperabilität) und syntaktische Korrektheit z. B. von Methodenaufrufen (syntaktische Interoperabilität) garantiert wird. Ziel ist es daher, Kompositionssicherheit auf Modellebene zu erreichen, um von Implementierungsdetails zu abstrahieren, sowie Interoperabilität auf Implementierungsebene (z. B. Typsicherheit) über unterschiedliche Variabilitätsmechanismen hinweg zu garantieren. Nur so ist eine skalierende Anwendung der Produktlinientechnologie zur Entwicklung komplexer heterogener Softwaresysteme möglich.

    Projekt im Forschungsportal ansehen

    A Hybrid Query Optimization Engine for GPU accelerated Database Query Processing
    Laufzeit: 01.04.2012 bis 31.03.2014

    Performance demands for database systems are ever increasing and a lot of research focus on new approaches to fulfill performance requirements of tomorrow. GPU acceleration is a new arising and promising opportunity to speed up query processing of database systems by using low cost graphic processors as coprocessors. One major challenge is how to combine traditional database query processing with GPU coprocessing techniques and efficient database operation scheduling in a GPU aware query optimizer. In this project, we develop a Hybrid Query Processing Engine, which extends the traditional physical optimization process to generate hybrid query plans and to perform a cost based optimization in a way that the advantages of CPUs and GPUs are combined. Furthermore, we aim at a database architecture and data model independent solution to maximize applicability.

    • HyPE-Library
      • HyPE is a hybrid query processing engine build for automatic selection of processing units for coprocessing in database systems. The long-term goal of the project is to implement a fully fledged query processing engine, which is able to automatically generate and optimize a hybrid CPU/GPU physical query plan from a logical query plan. It is a research prototype developed by the Otto-von-Guericke University Magdeburg in collaboration with Ilmenau University of Technology
    • CoGaDB
      • CoGaDB is a prototype of a column-oriented GPU-accelerated database management system developed at the University of Magdeburg. Its purpose is to investigate advanced coprocessing techniques for effective GPU utilization during database query processing. It uses our hybrid query processing engine (HyPE) for the physical optimization process.  

    Projekt im Forschungsportal ansehen

    STIMULATE -> Management/Nachwuchs -> Management und Organisationsstruktur
    Laufzeit: 01.03.2013 bis 28.02.2014

    Konzepte zur verbesserten Operationsvorbereitung und -durchführung, als auch einer langfristigen Qualitätssicherung werden im Projekt betrachtet. Es wird ein Rahmenkonzept entwickelt, dass als Grundlage für die Entwicklung eines Daten- und Prozessmodells für den Forschungscampus mit dem Ziel einer effizienten Integration und Neuentwicklung innovativer Infrastrukturen dient. Die provenance-sensitive Speicherung und Verarbeitung medizinischer Daten liefert einen angepassten Trade Off zwischen den Anforderungen an die Speicherung und Verarbeitung der Daten in Bezug auf Nachvollziehbarkeit bzw. Reproduzierbarkeit auf der einen und den Anforderungen des Datenschutzes auf der anderen Seite.

    Projekt im Forschungsportal ansehen

    ViERforES-II: Interoperabilität
    Laufzeit: 01.01.2011 bis 30.09.2013

    Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von ViERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.

    Die Bereitstellung von Lösungen zur gesamtheitlichen Betrachtung komplexer Produkte oder Anlagen in der Entwicklung, dem Tests und während des Betriebes stellt die Informationstechnik vor große Herausforderungen. Unter anderem müssen unabhängig voneinander modellierte Komponenten in einen Gesamtkontext eingebracht werden, wofür die virtuelle oder erweiterte Realität als integrierter Arbeitsbereich nutzbar gemacht werden kann. Ziel des Teilprojektes "Interoperabilität für digitale Produkte mit eingebetteten Systemen" ist daher die Sicherstellung der Interoperabilität der beteiligten heterogenen Systeme und der von diesen verwalteten Modelle. Dies reicht von der syntaktischen (verschiedene Schnittstellen, Datenmodelle, etc.) über die semantische (Bedeutung und Zusammenhang von unterschiedlich modellierten Daten und Funktionalitäten) bis zur pragmatischen Ebene (Verwendung durch Nutzer, Unterstützung von Arbeitsabläufen, Kooperation).

    In der 2. Phase sollen insbesondere die nicht-funktionale Interoperabilität zwischen Systemen sowie die Interoperabilität zwischen heterogenen Simulationssystemen betrachtet werden.

    Projekt im Forschungsportal ansehen

    ViERforES-II: Vertrauenswürdige Systeme
    Laufzeit: 01.01.2011 bis 30.09.2013

    In diesem Arbeitspaket des Teilprojekts "Vertrauenswürdige Systeme" wird die Zuverlässigkeit eingebetteter Systeme auf Quelltextebene mit Fokus auf Programmverständnis und Wartbarkeit untersucht. Es geht darum, Konzepte und Visualisierungen zur Verbesserung des Programmverständnisses zu untersuchen und zu implementieren. Ergebnis auf dieser Ebene soll eine prototypische Komponente für eine Entwicklungsumgebung sein, in der Konzepte zur optimalen Unterstützung des Programmverständnisses umgesetzt sind. Dadurch sollen z.B. Sicherheitslücken bereits auf Quelltextebene erkannt und behoben werden sowie die Wartung von Software unterstützt werden, sodass Wartungskosten gesenkt werden. Durch umfassende empirische Untersuchungen soll gezeigt werden, dass durch die umgesetzten Konzepte Gefährdungen der Security gesenkt werden können sowie die Wartung von Software veressert wird.

    Projekt im Forschungsportal ansehen

    Virtuelle und Erweiterte Realität für höchste Sicherheit und Zuverlässigkeit Eingebetteter Systeme - Phase II (ViERforES II)
    Laufzeit: 01.01.2011 bis 30.09.2013

    Unter dem Titel Virtuelle und Erweiterte Realität für höchste Sicherheit und Zuverlässigkeit eingebetteter Systeme (ViERforES) begann ein Verbund aus universitärer und anwendungsorientierter Forschung sich den Herausforderungen zu stellen, die der verstärkte Einsatz moderner Informations- und Kommunikationstechnologien in den Anwendungsfeldern Automotive/Mobilität, Medizintechnik / Neurowissenschaften und Energiesysteme mit sich bringt.
    Die Gemeinsamkeit der genannten drei Anwendungsfelder besteht darin, dass die in diesen Bereichen zu entwickelnden Produkte ihre Funktionalität durch einen wachsenden Anteil an Software realisieren. Damit die Produkte aus Deutschland weiterhin ihrem Anspruch an eine hohe Qualität und Zuverlässigkeit gerecht werden, ist es notwendig neue Methoden des Engineerings zu entwickeln. Die bisher etablierten Methoden der Produkt- und Prozessentwicklung müssen folglich auch auf das Software-Engineering erweitert werden.
    Die erreichten Ergebnisse von ViERforES wurden durch den Aufbau von Demonstratoren in jedem Anwendungsfeld gezeigt. Dadurch konnten Industrieunternehmen gewonnen werden, die das Projektkonsortium in dem nun anschließenden Projekt ViERforES II verstärken. Ihre Aufgabe ist es, die anwendungsnahe Weiterentwicklung der Demonstratoren zu unterstützen, so dass die Funktionserprobung ihrer Produkte und Prozesse zukünftig in einer virtuellen Umgebung erfolgen kann.

    Projekt im Forschungsportal ansehen

    Digi-Dak (Digitale Fingerspuren) - Teilprojekt "Datenvorverarbeitung und Datenhaltung"
    Laufzeit: 01.01.2010 bis 31.05.2013

    Das Projekt Digi-Dak widmet sich der Erforschung von Mustererkennungstechniken für Fingerspuren, welche mittels berührungsloser optischer 3D Oberflächensensortechnik erfasst werden. Das generelle Ziel ist es, eine Verbesserung/Unterstützung der kriminalistischen Forensik (Daktyloskopie) zu erzielen. Insbesondere liegt der Fokus des Projektes dabei auf potentiellen Szenarien in präventiven und forensischen Prozessen, speziell auch für die Überlagerung von Spuren oder die Altersdetektion.   Ziel des Teilprojektes Datenvorverarbeitung und Datenhaltung ist es, die erfassten (dreidimensionalen) Sensordaten aufzubereiten und so zu speichern, dass der automatisierte Prozess der Fingerspurenerfassung unterstützt bzw. verbessert wird. In diesem Rahmen werden Methoden zur effizienten Speicherung und Anfragebearbeitung von hochdimensionalen Daten erforscht. Darüber hinaus sollen Methoden und Konzepte erforscht werden, die die Beweiskraft der erfassten Fingerspuren auch nach deren Vor- bzw. Weiterverarbeitung gewährleisten.

    Projekt im Forschungsportal ansehen

    Optimierungs- und Selbstverwaltungskonzepte für Data-Warehouse-Systeme
    Laufzeit: 01.01.2011 bis 12.04.2013

    Data-Warehouse-Systeme werden seit einiger Zeit für Markt- und Finanzanalysen in vielen Bereichen der Wirtschaft eingesetzt. Die Anwendungsgebiete dieser Systeme erweitern sich dabei ständig, und zusätzlich steigen die zu haltenenden Datenmengen (historischer Datenbestand) immer schneller an. Da es sich oft um sehr komplexe und zeitkritische Anwendungen handelt, müssen die Analysen und Berechnungen auf den Daten immer weiter optimiert werden. Dazu allein reicht die stetig steigende Leistung von Rechner- und Serversystemen nicht aus, da die Anwendungen immer neue Anforderungen und komplexer werdende Berechnungen benötigen. Dadurch wird auch klar, daß der zeitliche und finanzielle Aufwand zum Betrieb solcher Systeme immens ist.

    Im Rahmen dieses Projekts soll untersucht werden, welche Möglichkeiten existieren, bisherige Ansätze zu erweitern und neue Vorschläge in bestehende System zu integrieren um die Leistung dieser zu steigern. Um dieses Ziel zu erreichen sollen Ansätze aus dem Bereich des Self-Tunings genutzt werden, denn so können die Systeme sich autonom an ständig ändernde Rahmenbedingungen und Anforderungen anpassen. Diese Ansätze sollen durch Erweiterungen wie zum Beispiel die Unterstützung von Bitmap-Indexen verbessert werden. Weiterhin soll Bezug genommen werden auf tiefere Ebenen der Optimierung, wodurch eine physische Optimierung möglich (autonom) und erleichtert werden soll.

    Projekt im Forschungsportal ansehen

    Software Product Line Languages and Tools II
    Laufzeit: 01.01.2011 bis 30.06.2012

    This project focuses on research and development of tools and languages for software product line development. The research aims at improving usability, flexibility and complexity of current approaches. This includes tools as FeatureC++, FeatureIDE, and CIDE as well as concepts like Aspect Refinement, Aspectual Mixin Layers, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more.

    Projekt im Forschungsportal ansehen

    MultiPLe - Multi Software Product Lines
    Laufzeit: 01.09.2009 bis 31.12.2011

    Die zunehmende Verbreitung von Softwareproduktlinien in allen Bereichen der Softwareentwicklung resultiert in komplexen Softwaresystemen, die aus einer Vielzahl von Instanzen unterschiedlicher Produktlinien erstellt werden. Beispielsweise können ein Datenbankmanagementsystem und ein Betriebssystem jeweils als Produktlinie entwickelt und ein Gesamtsystem aus Instanzen dieser Produktlinien erstellt werden. Ein solches aus mehreren voneinander abhängigen Produktlinien bestehendes System kann als Multi-Software-Produktlinie aufgefasst werden. Zur Erstellung eines konkreten Gesamtsystems werden die einzelnen Produktlinieninstanzen entsprechend der vom Nutzer gewünschten Funktionalität maßgeschneidert, müssen zusätzlich aber aufeinander abgestimmt werden, um ein funktionsfähiges Gesamtsystem zu erhalten.

    Ziel dieses Projektes ist die Erarbeitung von Konzepten und Methoden zur Entwicklung von Multi-Software-Produktlinien, die aus mehreren, voneinander abhängigen Produktlinien bestehen. Dazu sollen Grundlagen zur Modellierung, Implementierung und automatisierten Komposition von Multi-Software-Produktlinien erarbeitet werden.

    Projekt im Forschungsportal ansehen

    COMO B3 - IT-Security Automotive
    Laufzeit: 01.09.2007 bis 31.08.2011

    Immer mehr IT-Komponenten finden den Weg in ein (Kraft)-Fahrzeug, sei es zur Steigerung des Komforts oder der Sicherheit. Die entsprechenden autarken Steuergeräte kommunizieren dabei über verschiedene Bussysteme und begründen dabei das IT-System Automobil. Durch das erhöhte Aufkommen von Kommunikation (auch über externe Schnittstellen, z.B. car-2-car) steigt sowohl das Sicherheitsrisiko/-bedürfnis als auch die zu verarbeitenden Daten.
    Im Teilprojekt B3 des Forschungsprojektes COmpetence in MObility (COMO) sollen daher Konzepte für das automotive System geschaffen werden, um sowohl die Sicherheit im Auto dauerhaft zu gewaehrleisten (z.B. Abwehr gegen Angriffe auf IT-Komponenten) als auch das hohe Datenaufkommen auf effiziente Art und Weise durch Infrastruktursoftware (z.B. DBMS) zu handhaben.
    Für das Datenmanagement wird dabei eine Produktlinienentwicklung angestrebt, die durch Anwendung neuer Programmiertechniken sowohl den ressourcenbedingten Einschränkungen im Automobil gerecht wird als auch die Kosten für die Neuentwicklung einzelner Komponenten durch Wiederverwendung minimiert.

    Projektpartner sind Prof. J.Dittmann (AG Multimedia & Security) und Prof. G.Saake (AG Datenbanken) vom Institut für technische und betriebliche Informationssysteme (ITI) der OvGU als auch Prof. U. Jumar vom Institut für Automation und Kommunikation (ifak) der OvGU.

    Projekt im Forschungsportal ansehen

    Datenschnittstellen und ganzheitliche Modelle für die funktionale Simulation (C1 Automotive)
    Laufzeit: 01.09.2007 bis 31.08.2011

    Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten.
    Ziel dieses Teilprojektes, welches im Rahmen des COmpetence in MObility (COMO) Projektes läuft, beinhaltet die Beschreibung, Spezifikation und Entwicklung von Modell- und Schnittstellenwerkzeugen zur Verwaltung der Daten. Die Sammlung von Werkzeugen umfasst Datentransformationen, Meta-Datenbank, die Informationen über Modelle, Komponenten und das System enthält.
    Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden.

    Projektpartner des Teilprojektes sind Prof. U. Gabbert vom Institut für Mechanik (IFME) Magdeburg, Prof. R. Kaspar vom Institut für Mobile Systeme (IMS) Magdeburg und Prof. M. Schenk vom Institut für Logistik und Materialflusstechnik (ILM) Magdeburg.

    Projekt im Forschungsportal ansehen

    Referenzdatenmodelle für mechatronischen Entwurf, Modellbildung und Simulation (C3 Automotive)
    Laufzeit: 01.09.2007 bis 31.08.2011

    Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten.
    Das Teilprojekt C3, des COmpetence in MObility (COMO) Projektes, beinhaltet die Entwicklung einer Referenzdatenbank zur Verwaltung von komplexen Modellen und Abhängigkeiten, sowie die Spezifikation von Referenzdatenmodellen für den mechatronischen Entwurf, die Modellbildung und Simulation.
    Das ganzheitliche Referenzdatenmodell wird verschiedenartige (u.a. mechanische, elektrische, regelungstechnische) Modelle in virtuelle Produktkomponenten integrieren. Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden.

    Projektpartner des Teilprojektes ist Prof. M. Schenk vom Fraunhofer-Institut für Fabrikbetrieb und -automatisierung (IFF) Magdeburg.

    Projekt im Forschungsportal ansehen

    Reflective and Adaptive Middleware for Software Evolution of Non-Stopping Information Systems
    Laufzeit: 01.04.2008 bis 31.08.2011

    Auch moderne Informationssysteme sind noch weit davon entfernt in unserer schnell-lebigen wettbewerbsorientierten Welt flexibel zu agieren bzw. zu reagieren. Neben der einfachen und flexiblen Inbetriebnahme bzw. Anpassung von Informations- und Geschäftsdiensten muss ein Höchstmaß an Qualität und Sicherheit gewährleistet werden. Um dieses zu erreichen, fokussiert der vorliegende Antrag auf die rigorose Entwicklung von selbstadaptiven und kontext-sensitiven verteilten Informationssystemen, welche sich dynamisch zur Laufzeit weiterentwickeln. Unser Ansatz sieht die Interaktion mit der Umwelt im Mittelpunkt. Als erster Schritt, wird eine reflexive Middleware entwickelt. Die Basisebene dieser Middleware wird UML-basiert entworfen und implementiert. Die darüberliegende Metaebene steuert die Evolution des Verhaltens und der Struktur mittels eines Script-basierten Ansatzes. Weiterhin enthält sie eine Instanz, welche die Konsistenz während der Adaption überwacht. Diese reflexive Middlewarewird dann um eine domänen-spezifische Architektur erweitert. Diese ermöglicht dynamische Rekonfiguration auf Basis von Graphtransformation und -rewriting sowie die Spezifikation von Eigenschaften mittels temporaler Logiken. Die formale Konsistenzprüfung zur Laufzeit basiert auf Transformationsmodellen, welche Verhalten und Struktur auf Basis- sowie auf Metaebene adaptieren. Neben einer Machbarkeitsstudie werden die Ergebnisse in einer realen Anwendung (europäisches Verkehrskontrollsystem; UTCS) auf ihre praktische Relevanz hin überprüft.

    Projekt im Forschungsportal ansehen

    Optimierungs- und Selbstverwaltungskonzepte für Data-Warehouse-Systeme
    Laufzeit: 15.04.2007 bis 31.12.2010

    Data-Warehouse-Systeme werden seit einiger Zeit für Markt- und Finanzanalysen in vielen Bereichen der Wirtschaft eingesetzt. Die Anwendungsgebiete dieser Systeme erweitern sich dabei ständig, und zusätzlich steigen die zu haltenenden Datenmengen (historischer Datenbestand) immer schneller an. Da es sich oft um sehr komplexe und zeitkritische Anwendungen handelt, müssen die Analysen und Berechnungen auf den Daten immer weiter optimiert werden. Dazu allein reicht die stetig steigende Leistung von Rechner- und Serversystemen nicht aus, da die Anwendungen immer neue Anforderungen und komplexer werdende Berechnungen benötigen. Dadurch wird auch klar, daß der zeitliche und finanzielle Aufwand zum Betrieb solcher Systeme immens ist.

    Im Rahmen dieses Projekts soll untersucht werden, welche Möglichkeiten existieren, bisherige Ansätze zu erweitern und neue Vorschläge in bestehende System zu integrieren um die Leistung dieser zu steigern. Um dieses Ziel zu erreichen sollen Ansätze aus dem Bereich des Self-Tunings genutzt werden, denn so können die Systeme sich autonom an ständig ändernde Rahmenbedingungen und Anforderungen anpassen. Diese Ansätze sollen durch Erweiterungen wie zum Beispiel die Unterstützung von Bitmap-Indexen verbessert werden. Weiterhin soll Bezug genommen werden auf tiefere Ebenen der Optimierung, wodurch eine physische Optimierung möglich (autonom) und erleichtert werden soll.

    Projekt im Forschungsportal ansehen

    Software Product Line Languages and Tools
    Laufzeit: 25.11.2006 bis 31.12.2010

    This project focuses on research and development of tools and languages for software product line development. The research aims at improving usability, flexibility and complexity of current approaches. This includes tools as FeatureC++, FeatureIDE, and CIDE as well as concepts like Aspect Refinement, Aspectual Mixin Layers, and formalization of language concepts. The research centers around the ideas of feature-oriented programming and explores boundaries toward other development paradigms including design patterns, aspect-oriented programming, generative programming, model-driven architectures, service-oriented architectures and more.

    Projekt im Forschungsportal ansehen

    ViERforES - Interoperabilität für digitale Produkte mit eingebetteten Systemen
    Laufzeit: 01.09.2008 bis 31.12.2010

    Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von VIERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.

    Die Bereitstellung von Lösungen zur gesamtheitlichen Betrachtung komplexer Produkte oder Anlagen in der Entwicklung, dem Tests und während des Betriebes stellt die Informationstechnik vor große Herausforderungen. Unter anderem müssen unabhängig voneinander modellierte Komponenten in einen Gesamtkontext eingebracht werden, wofür die virtuelle oder erweiterte Realität als integrierter Arbeitsbereich nutzbar gemacht werden kann. Ziel des Teilprojektes "Interoperabilität für digitale Produkte mit eingebetteten Systemen" ist daher die Sicherstellung der Interoperabilität der beteiligten heterogenen Systeme und der von diesen verwalteten Modelle. Dies reicht von der syntaktischen (verschiedene Schnittstellen, Datenmodelle, etc.) über die semantische (Bedeutung und Zusammenhang von unterschiedlich modellierten Daten und Funktionalitäten) bis zur pragmatischen Ebene (Verwendung durch Nutzer, Unterstützung von Arbeitsabläufen, Kooperation).

    Projekt im Forschungsportal ansehen

    ViERforES - Koordination
    Laufzeit: 01.09.2008 bis 31.12.2010

    Aufgabe des Teilprojektes ist die Koordinierung der Zusammenarbeit der Projektleiter der Teilprojekte der Anwendungsbereiche und Querschnittthemen des Projektes VIERforES sowie Präsentation, Außendarstellung.

    Projekt im Forschungsportal ansehen

    ViERforES - Sichere Datenhaltung in eingebetteten Systemen
    Laufzeit: 01.09.2008 bis 31.12.2010

    Die Funktionalität neuer Produkte wird durch einen zunehmenden Anteil von Software in Form von Eingebetteten Systemen erzielt. Im Zusammenwirken mit anderen funktionsbestimmenden Komponenten komplexer technischer Systeme erfordert das neue Techologien zur Beherrschung von höchster Sicherheit und Zuverlässigkeit von Produktentwicklungen. Ziel von VIERforES ist es, durch Einsatz von Virtueller und Erweiterter Realität auch nicht physikalische Produkteigenschaften sichtbar zu machen und so adäquate Methoden und Werkzeuge für das Engineering zu entwickeln.

    Ziel des Teilprojektes "Sichere Datenhaltung in eingebetteten Systemen" ist es, den Stand der Technik bezüglich Safety und Security sowie ihrer Wechselwirkungen unter dem speziellen Fokus auf eingebettete Systeme aufzuzeigen und in der Kooperation mit Kaiserslautern auf die Anwendungsgebiete abzubilden. Bedrohungen für dieses spezifische Umfeld sollen analysiert und modelliert (z.B. unter Einbeziehung bestehender Schemata wie der CERT-Taxonomie) werden und dem Anwender über Virtual Engineering greifbar gemacht werden. Ein weiterer Schwerpunkt ist die Entwicklung einer Produktlinie für sichere Datenhaltung in eingebetteten Systemen und Konzepte für die Verfügbarkeit dieser Produktlinie im Virtual Engineering.

    Projekt im Forschungsportal ansehen

    Lastbalancierte Indexstrukturen zur Unterstützung des Self-Tuning in DBMS
    Laufzeit: 03.03.2007 bis 31.03.2010

    Indexstrukturen werden seit langer Zeit in Datenbankmanagementsystemen eingesetzt, um bei grösen Datenmengen den Zugriff auf Datenobjekte zu beschleunigen. Dabei werden Datenräume in der Regel gleichmäßig indexiert, um möglichst konstante Zugriffskosten zu erzielen. Weiterhin sind die Indexstrukturen dafür optimiert, den gesamten Datenbereich zu beschreiben, wodurch in der Regel große Indexinstanzen entstehen. Im Rahmen dieses Projektes wird untersucht, welche Möglichkeiten existieren, um Indexe im Rahmen eines Self-Tuning besser an aktuelle Anforderungen eines Systems anzupassen. Im Gegensatz zur parallel betriebenen Forschungen an Indexkonfigurationen sollen hierbei die Indexe selber adaptiv sein, indem sie sich an das Lastverhalten in Form von Zugriffen auf bestimmte Datenbereiche selbständig anpassen. Resultierende Indexstrukturen müssen  dementsprechend nicht mehr höhenbalanciert sein und können gegebenenfalls dünnbesetzt sein oder den Datenraum nur partiell überdecken.

    Projekt im Forschungsportal ansehen

    Methoden und Werkzeuge zum Bau feingranular konfigurierbarer Datenbankfamilien für Anwendungen im Bereich eingebetteter Systeme
    Laufzeit: 01.04.2006 bis 30.09.2008

    Die Einsatzbereiche von Rechensystemen werden immer vielfältiger. Mikroprozessoren finden sich heute bereits in jedem Automobil, jedem Flugzeug und selbst in Küchengeräten undWaschmaschinen. Aktuelle Entwicklungen wie "Ambient Intelligence", "Ubiquitous Computing" und "Pervasive Computing" werden diesen Trend noch verstärken.Häufig benötigen auch derartige "eingebettete" Rechensysteme Infrastruktursoftware zur Datenhaltung, die vieles mit klassischen Datenhaltungssysteme (DBMS), die üblicherweise im Großrechner und PC Bereich eingesetzt werden, gemein hat. Allerdings verhindern dieHeterogenität der Hardware, die teilweise extremen Ressourcenbeschränkungen (die Mehrzahl der eingebetteten Rechensysteme arbeitet noch immer mit 8-Bit Mikroprozessortechnik) unddie unterschiedlichen Anforderungen der häufig sehr speziellen Anwendungsprogramme den Einsatz von Standardlösungen. Die Entwickler reagieren auf dieses Problem in der Regel mit Eigenentwicklungen, so dass das Rad sprichwörtlich immer wieder neu erfunden wird.Das Ziel dieses Vorhabens ist es, Methoden und Werkzeuge zu evaluieren und zu verfeinern, die für den Bau anwendungsspezifisch konfigurierbarer DBMS zielführend sind. Derartige Techniken könnten durch Wiederverwendung Entwicklungskosten reduzieren, ohne auf der anderen Seite die Hardwarekosten zu erhöhen. Neben der Konstruktion von DBMS Familien soll dabei auch die Analyse von Anwendungen betrachtet werden, um so den Aufwand für die Konfigurierung derpassenden DBMS Variante durch Automatisierung zu minimieren.Die aus dem Projekt gewonnenen Erkenntnisse sind über die Domäne der eingebetteten DBMS hinaus von Wert, da allgemeine Methoden und Werkzeuge zur Erstellung von Software-Produktlinien entwickelt und bewertet werden. Durch die Anforderungen an Skalierbarkeit und Effizienz sowie die Komplexität und semantische Ausdruckskraftverwendeter Anfragesprachen wie SQL sind eingebettete DBMS zu diesem Zweck ein ideales Experimentierfeld.Das Vorhaben wird in enger Zusammenarbeit zwischen Forschern aus dem Datenbankumfeld und dem Bereich der eingebetteten Systemsoftware durchgeführt. Bestehende Erfahrungen mit Programmfamilien und passenden Implementierungstechniken, die im Bereich eingebetteter Betriebssysteme gesammelt wurden, werden dabei mit Expertenwissen über die Datenbankdomäne vereint.

    Projekt im Forschungsportal ansehen

    Reflective and Adaptive Middleware for Software Evolution of Non-Stopping Information Systems
    Laufzeit: 15.10.2005 bis 31.03.2008

    Auch moderne Informationssysteme sind noch weit davon entfernt in unserer schnell-lebigen wettbewerbsorientierten Welt flexibel zu agieren bzw. zu reagieren. Neben der einfachen und flexiblen Inbetriebnahme bzw. Anpassung von Informations- und Geschäftsdiensten muss ein Höchstmaß an Qualität und Sicherheit gewährleistet werden. Um dieses zu erreichen, fokussiert der vorliegende Antrag auf die rigorose Entwicklung von selbstadaptiven und kontext-sensitiven verteilten Informationssystemen, welche sich dynamisch zur Laufzeit weiterentwickeln. Unser Ansatz sieht die Interaktion mit der Umwelt im Mittelpunkt. Als erster Schritt, wird eine reflexive Middleware entwickelt. Die Basisebene dieser Middleware wird UML-basiert entworfen und implementiert. Die darüberliegende Metaebene steuert die Evolution des Verhaltens und der Struktur mittels eines Script-basierten Ansatzes. Weiterhin enthält sie eine Instanz, welche die Konsistenz während der Adaption überwacht. Diese reflexive Middlewarewird dann um eine domänen-spezifische Architektur erweitert. Diese ermöglicht dynamische Rekonfiguration auf Basis von Graphtransformation und -rewriting sowie die Spezifikation von Eigenschaften mittels temporaler Logiken. Die formale Konsistenzprüfung zur Laufzeit basiert auf Transformationsmodellen, welche Verhalten und Struktur auf Basis- sowie auf Metaebene adaptieren. Neben einer Machbarkeitsstudie werden die Ergebnisse in einer realen Anwendung (europäisches Verkehrskontrollsystem; UTCS) auf ihre praktische Relevanz hin überprüft.

    Projekt im Forschungsportal ansehen

    Virtuelle Entwicklungs- und Logistikplattform (TP 13 Automotive)
    Laufzeit: 01.10.2005 bis 30.09.2007

    Ein ganzheitliches Virtual Engineering von der Entwicklung bis hin zur Fertigung von Produkten erfordert die Verbindung unterschiedlicher ingenieurwissenschaftlicher Disziplinen bezogen auf die Betrachtungsebenen und Detaillierungsgrade in ihren Modellwelten. Als vorteilhaft hat sich in diesem Zusammenhang die Verwendung von Modellkomponenten erwiesen, die sich an dem Modul- und Schnittstellenkonzept der Produkte orientieren. Die hierfür benötigten ingenieurwissenschaftlichen Grundlagen und Modellierungskonzepte sollen im Rahmen dieses interdisziplinären Projektes erarbeitet und anhand einer prototypischen Softwareplattform zur Unterstützung der Produktentstehungsprozesse erprobt werden. Damit soll ein Beitrag zur Weiterentwicklung virtueller Technologien bzw. zur Verbesserung von deren Anwendbarkeit bei Engineering- und Planungsprozessen geleistet werden. Projektpartner sind Prof. R. Kasper vom Institut für Mobile Systeme der OvGU Magdeburg, Prof. U. Gabbert vom Institut für Mechanik der OvGU Magdeburg sowie Prof. M. Schenk vom Fraunhofer-Institut für Fabrikbetrieb und -automatisierung (IFF) Magdeburg.

    Projekt im Forschungsportal ansehen

    Lastbalancierte Indexstrukturen zur Unterstützung des Self-Tuning in DBMS
    Laufzeit: 01.10.2004 bis 02.03.2007

    Indexstrukturen werden seit langer Zeit in Datenbankmanagementsystemen eingesetzt, um bei grösen Datenmengen den Zugriff auf Datenobjekte zu beschleunigen. Dabei werden Datenräume in der Regel gleichmäßig indexiert, um möglichst konstante Zugriffskosten zu erzielen. Weiterhin sind die Indexstrukturen dafür optimiert, den gesamten Datenbereich zu beschreiben, wodurch in der Regel große Indexinstanzen entstehen. Im Rahmen dieses Projektes wird untersucht, welche Möglichkeiten existieren, um Indexe im Rahmen eines Self-Tuning besser an aktuelle Anforderungen eines Systems anzupassen. Im Gegensatz zur parallel betriebenen Forschungen an Indexkonfigurationen sollen hierbei die Indexe selber adaptiv sein, indem sie sich an das Lastverhalten in Form von Zugriffen auf bestimmte Datenbereiche selbständig anpassen. Resultierende Indexstrukturen müssen  dementsprechend nicht mehr höhenbalanciert sein und können gegebenenfalls dünnbesetzt sein oder den Datenraum nur partiell überdecken.

    Projekt im Forschungsportal ansehen

    Werkzeugunterstützung für die Entwicklung von Produktlinien
    Laufzeit: 01.10.2004 bis 31.08.2006

    Produktlinientechnologien bzw. Domain Engineering stellen wichtige Methoden zur Erstellung von wiederverwendbarer, konfigurierbarer und beherrschbarer Software dar. Ziel des Projektes ist die durchgehende Unterstützung des Produktlinien bzw. Domain Engineering Prozesses. Im Moment gibt es eine Vielzahl von Methoden und Werkzeugen zur Unterstützung der einzelnen Phasen des Domain Engineering (Analyse, Entwurf, Implementierung, Konfigurierung). Allerdings besteht zwischen diesen oftmals keinerlei Zusammenhang. Dadurch können nicht alle Informationen einer Phase in eine folgende übernommen werden und gehen somit verloren. Diese Informationen fehlen bei späteren Erweiterungen, Anpassungen und Wartungsarbeiten. Deshalb m"ussen viele einmal spezifizierte Eigenschaften der zu erstellenden Software mehrmals neu eingegeben bzw. implementiert oder spezifiziert werden. Des Weiteren wird in diesem Projekt FeatureC++, eine merkmalsorientierte Erweiterung zu C++, entwickelt. Die Idee auch für die Anwendungsentwicklung mit C++ eine Sprachunterstützung  anzubieten (Hierher nur Java mit AHEAD). Weiterhin soll damit gezeigt werden, das die Entwicklungsumgebung sowie der Entwicklungsprozess unabhängig von einer Sprache (AHEAD – Java, FeatureC++ – C++) oder speziellen Werkzeugen ist. Der Prozess und die Werkzeuge folgen lediglich dem Paradigma der Merkmalsorientierung.

    Projekt im Forschungsportal ansehen

    Hochkonfigierbares Datenmanagement
    Laufzeit: 01.10.2002 bis 02.03.2006

    Die Einsatzbereiche von Rechensystemen werden immer vielfältiger. Mikroprozessoren finden sich heute bereits in jedem Automobil, jedem Flugzeug und selbst in Waschmaschinen. Aktuelle Entwicklungen wie "Ubiquitous Computing" und "Pervasive Computing" werden diesen Trend noch verstärken. Häufig benötigen auch derartige "eingebettete" Rechensysteme Infrastruktursoftware zur Datenhaltung, die vieles mit klassischer Datenhaltung in DBMS gemein haben. Allerdings verhindern die Heterogenität der Hardware, die teilweise extremen Ressourcenbeschränkungen und die unterschiedlichen Anforderungen der häufig sehr speziellen Anwendungsprogramme den Einsatz von Standardlösungen. Um zu verhindern, dass Entwickler darauf mit Eigenentwicklungen reagieren bedarf es spezieller anpassbarer DBMS für die Anwendungsdomäne der eingebetteten Systeme. Das Ziel dieses Vorhabens ist es, Methoden und Werkzeuge zu evaluieren und zu verfeinern, die für den Bau anwendungsspezifisch konfigurierbarer DBMS zielführend sind. Dabei soll neben der Konstruktion der DBMS Familie auch die Analyse von Anwendungen betrachtet werden, um so den Aufwand f"ur die Konfigurierung der passenden DBMS Variante durch Automatisierung zu minimieren.

    Projekt im Forschungsportal ansehen

    Relevance-Feedback
    Laufzeit: 01.03.2002 bis 01.03.2006

    Bei der Suche in Bilddatenbanken ohne textuelle Annotationen ist man von automatisch extrahierten Metadaten abhängig. Beim Relevance-Feedback erfolgt die Suche interaktiv auf den extrahierten Daten. Bei den extrahierten Daten handelt es sich um Merkmalen wie Farbe und Form. Diese so genannten low-level-Merkmale können ein gesuchtes Bild nur vage beschrieben. Daher entspricht die Ergebnismenge einer Anfrage auf diesem Datenraum in der Regel nicht genau den Vorstellungen des Nutzers.Durch mehrere iterative Schritte während eines Anfrageprozesses kann die menschliche Beurteilung mit in die Anfrageausführung einbezogen werden. Bei einer unbefriedigenden Ergebnismenge gibt es mehrere Verfahren, bei denen durch iterative Anfrageformulierung eine Verbesserung der Ergebnismenge erreicht werden kann. Ein Beispiel wäre die Bewertung der Ergebnismenge durch den Nutzer. Die bewertete Anfrage wird als neue Anfrage an das System geschickt. Eine benutzerorientierte Unterstüzung bei der Iteration ist durch eine geeignete Präsentation der Ergebnismenge möglich.

    Projekt im Forschungsportal ansehen

    Ähnlichkeitsbasierte Operationen für die Integration strukturierter Daten
    Laufzeit: 01.10.2000 bis 02.08.2005

    Die Behandlung von Diskrepanzen in Daten ist immer noch eine große Herausforderung und zum Beispiel relevant zur Beseitigung von Duplikaten aus semantisch überlappenden Datenquellen als auch zur Verbindung komplementärer Daten aus verschiedenen Quellen. Entsprechende Operationen können meist nicht nur auf Wertegleichheit basieren, da nur in wenigen Fällen über Systemgrenzen hinweg gültige Identifikatoren existieren.Die Verwendung weiterer Attributwerte ist problematisch, da fehlerhafte Daten und unterschiedliche Darstellungsweisen ein häufiges Problem in diesem Kontext sind. Deshalb müssen solche Operation auf der Ähnlichkeit von Datenobjekten und -werten basieren.Dieser Probleme wird sich in dem Promotionsprojekt von Herr Eike Schallehn angenommen, indem ähnlichkeitsbasierte Operationen entsprechend einem leichtgewichtigen, generischen Rahmen bereitgestellt werden. Die ähnlichkeitsbasierte Selektion, der Verbund und die Gruppierung werden bezüglich ihrer allgemeinen Semantik und besonderer Aspekte der zugrunde liegenden Ähnlichkeitsrelationen diskutiert. Entsprechende Algorithmen für die Datenbearbeitung werden für materialisierte und virtuelle Datenintegrationsszenarien beschrieben. Implementierungen werden vorgestellt und bezüglich der Anwendbarkeit und Effizienz der vorgestellten Ansätze evaluiert.

    Projekt im Forschungsportal ansehen

    Optimierung von Ähnlichkeitsanfragen in Multimedia-Datenbanksystemen
    Laufzeit: 01.01.2003 bis 01.08.2005

    Für die Suche in Multimedia-Datenbanksystemen müssen neben exakten  Ergebnissen auch solche einbezogen werden, die der gewünschten Information  möglichst nahe kommen, d.h. ähnlich sind. Eine Anfrage könnte etwa sein,  in einer Bilddatenbank die Bilder zu finden, die möglichst ähnlich zu  einem bestimmten Vorgabebild sind. Die "Ähnlichkeit" wird jedoch von  verschiedenen Faktoren, wie der subjektiven Einschätzung des Nutzers und   der Gewichtung von Teilanfragen beeinflusst. Da solche Faktoren allgemein  nicht durch ein System vorhersagbar sind, ist es notwendig, sie in die Anfragesprache des Systems zu integrieren. Dabei eignet sich zur Anfrageformulierung eine kalkülbasierte QBE-Sprache aufgrund des  deklarativen Charakters für den Anwender. Für die Anfrageverarbeitung   durch den Computer hingegegen eignet sich eine algebrabasierte Sprache  besser.Die aus deklarativen Nutzeranfragen erzeugten Algebraausdrücke stellen im  Allgemeinen nicht die bestmögliche Berechnungsvorschrift dar, so dass eine  Optimierung sinnvoll bzw. notwendig ist. Eine besondere Berücksichtigung  bei der Optimierung verlangt dabei die Behandlung der in die Sprache  eingebetteten Ähnlichkeitswerte.

    Projekt im Forschungsportal ansehen

    Suche in Multimedia-Datenbanken
    Laufzeit: 02.03.2005 bis 01.08.2005

    Das langfristige Ziel ist die Erforschung der Nutzung von Datenbankkonzepten zur Verwaltung von Multimedia-Daten. Der Schwerpunkt liegt auf Methoden und Werkzeugen zur Suche nach Multimedia-Daten. Wichtige Forschungsergebnisse sollen dabei anhand von Prototypen validiert und demonstriert werden.Die Suche nach Multimedia-Daten erfordert die Spezifikation von Anfragen, welche durch den Forschungsschwerpunkt "Gewichten von Anfragen" abgedeckt wird. Dazu wurde die Anfragesprache WS-QBE entwickelt, welche eine QBE-ähnliche Anfragespezifikation von Ähnlichkeitsanfragen erlaubt. WS-QBE-Anfragen werden über eine Kalkülsprache in eine Ähnlichkeitsalgebra überführt, in der eine Optimierung und anschließend die Ergebnisberechnung ausgeführt wird. Zum effizienten Finden von Ergebnissen sind hochdimensionale Indexstrukturen notwendig. Oft kann ein Anfrageergebnis nur mittels mehrerer Anfrage-Iterationen gefunden werden. Dazu werden Konzepte des Relevance Feedbacks verwendet.

    Projekt im Forschungsportal ansehen

    Parallel SQL Based Frequent Pattern Mining
    Laufzeit: 01.01.2002 bis 01.05.2005

    Data mining auf gorßen relationalen Datenbanken hat an popularität gewonnen und seine Besonderheiten sind wohl bekannt.Die Perfomance von SQL gestütztes Data Mining fällt bekannterweise hinter spezialisierten Implementationen zurück.

    Projekt im Forschungsportal ansehen

    Indexunterstützung für Anfrageoperationen in Mediatorsystemen
    Laufzeit: 01.04.2003 bis 31.03.2005

    Viele Benutzer und Applikationen benötigen die Integration von semi-strukturierten Daten aus autonomen, heterogenenen Web-Datenquellen. In den letzten Jahren entstanden Mediator-Systeme, die Domain-Knowledge in Form von Ontologien oder Vokabularen benutzen, um das Problem der strukturellen Heterogenität zu lösen. Allerdings haben viele Anwender nicht das notwendige Wissen über Daten und deren Struktur sowie über die Anfragesprache, um diese Daten sinnvoll zu nutzen. Somit ist es notwendig einfach zu benutzende Anfrageschnittstellen, d.h. Keyword-Suche und Browsing, bereitzustellen.Das Ziel des Projektes ist eine indexbasierte Realisierung von Keyword-Suchen in konzeptbasierten Mediatorsystemen. Um globale Anfragen effizient auszuführen, wird ein Index auf der globalen Ebene aus Anfrageergebnissen aufgebaut und aktuell gehalten. Zusätzlich sollen neben Stichwortanfragen auch Stringähnlichkeitsoperationen unterstützt werden.

    Projekt im Forschungsportal ansehen

    Selbstverwaltung von Indexkonfigurationen in DBMS
    Laufzeit: 01.04.2003 bis 31.03.2005

    Ein Hauptmittel zum Tuning von Datenbanken ist das Anlegen von Indexen zur Beschleunigung der Ausführung einer Vielzahl von Operationen. Jedoch ist das Anlegen der geeigneten Indexe eine schwierige Aufgabe, die genaues Wissen über die Nutzung der Daten und die Arbeitsweise des jeweiligen Datenbankmanagementsystems voraussetzt. Zur Unterstützung dieser Aufgabe wurden in den letzten Jahren von den DBMS-Herstellern Werkzeuge entwickelt, die zum Beispiel typische Anfragen oder Anfrage-Logs analysieren und eine statische Empfehlung für eine Indexkonfiguration ableiten.In der Praxis existieren Datenbanken aber in einem sehr dynamischen Umfeld, wo sich neben typischen Nutzungsprofilen (Anfragen) auch die Daten selber und ebenfalls zur Verfügung stehenden Systemressourcen permanent ändern. Im Rahmen dieses Projektes wird untersucht, wie basierend auf einer kontinuierlichen Analyse des Systems und seiner Nutzung automatisch die aktuelle Indexkonfiguration an sich ändernde Anforderungen angepasst werden kann.

    Projekt im Forschungsportal ansehen

    Konsistenzsicherung bei serverseitigen Änderungen für Datenbestände mobiler Clients
    Laufzeit: 01.11.2004 bis 01.03.2005

    Informationssystemen mit mobilen Klienten müssen die Restriktionen bei Hardware (leichtgewichtige Endgeräte), Energieversorgung (meist Akkumulatoren) und Netzwerknutzung (Kosten, Geschwindigkeiten, Verfügbarkeit) kompensieren. Oftmals kommen hierbei Techniken zum  Einsatz, welche Daten redundant auf dem Mobilgerät speichern. Das Spektrum reicht hierbei von Caching über Hoarding bis hin zur Replikation. Sie unterscheiden sich im Wesentlichen durch das Vorgehen, wie der Nutzer Einfluss auf die zwischenzuspeichernden Daten  nehmen kann. Beim Caching, insbesondere beim semantischen Caching, werden Anfrageergebnisse gepuffert und bei neuen Anfragen gegebenenfalls wiederverwendet. Hoarding-Techniken versuchen vorauszuahnen, welche Daten dem Nutzer eines Mobilgerätes später von Nutzen sein können. Replikationsverfahren erlauben ein gezieltes Anfordern von Daten. Bei allen drei Ansätzen wird jedoch eine künstliche Redundanz der Serverdaten erzeugt, die bei Änderungen zu Inkonsistenzen führt. Daher müssen sowohl Klient, als auch Server konsistenzsichernde    Maßnahmen unterstützen. Im Rahmen dieses Projektes wird daher untersucht, wie ein solcher Abgleich, abhängig vom gewählten  Zwischenspeicherungsansatz erfolgen kann.

    Projekt im Forschungsportal ansehen

    Suche in Multimedia-Datenbanken
    Laufzeit: 02.03.2000 bis 01.03.2005

    Das langfristige Ziel ist die Erforschung der Nutzung von Datenbankkonzepten zur Verwaltung von Multimedia-Daten. Der Schwerpunkt liegt auf Methoden und Werkzeugen zur Suche nach Multimedia-Daten. Wichtige Forschungsergebnisse sollen dabei anhand von Prototypen validiert und demonstriert werden.Die Suche nach Multimedia-Daten erfordert die Spezifikation von Anfragen, welche durch den Forschungsschwerpunkt "Gewichten von Anfragen" abgedeckt wird. Dazu wurde die Anfragesprache WS-QBE entwickelt, welche eine QBE-ähnliche Anfragespezifikation von Ähnlichkeitsanfragen erlaubt. WS-QBE-Anfragen werden über eine Kalkülsprache in eine Ähnlichkeitsalgebra überführt, in der eine Optimierung und anschließend die Ergebnisberechnung ausgeführt wird. Zum effizienten Finden von Ergebnissen sind hochdimensionale Indexstrukturen notwendig. Oft kann ein Anfrageergebnis nur mittels mehrerer Anfrage-Iterationen gefunden werden. Dazu werden Konzepte des Relevance Feedbacks verwendet.

    Projekt im Forschungsportal ansehen

    Softwaretechnische Methoden zur Entwicklung adaptiver verteilter Systeme
    Laufzeit: 01.12.2002 bis 31.12.2004

    Im Kontext der globalen Vernetzung gewinnen verteilte Systeme immer mehr an Bedeutung. Sie durchdringen immer mehr Bereiche des alltäglichen Lebens undmüssen immer flexibler auf äußere Einflüsse reagieren bzw. hinsichtlich dieser angepasst werden. Ziel dieses Promotionsvorhabens ist der wachsenden Komplexität dieser Systeme unter Beachtung des immer breiter werdenden Spektrums von potentiellen Anwendungen und Zielplattformen mittels moderner softwaretechnischer Methoden zu begegnen. Hierbei werden vor allem Aspektorientierte, Generative sowie Merkmalsorientierte Programmierung hinsichtlich Anpassbarkeit, Widerverwendbarkeit und Erweiterbarkeit von verteilten Systemen, ohne die Verständlichkeit und Wartbarkeit einzuschränken, untersucht. In diesem Rahmen wurden und werden außerdem neue Methoden wie konfigurierbares Binden, die kombinierte Anwendung der genannten Sprachparadigmen oder eine visuelle Werkzeugunterstützung entwickelt. Neben dieser statischen Sicht liegt der Fokus außerdem auf der dynamischen Anpassung von verteilten Systemen zur Laufzeit. In diesem Zusammenhang werden auf softwaretechnischer Ebene reflexive Architekturen und dynamisches Aspektweben untersucht. Auf konzeptioneller Ebene wird ein Zusammenhang zwischen Komplexitätsforschung, Kybernetik und selbst-organisierenden adaptiven dezentral-verteilten Systemen hergestellt.

    Projekt im Forschungsportal ansehen

    Adaptive Replikation von Daten in heterogenen mobilen Kommunikationsnetzen
    Laufzeit: 01.11.2000 bis 31.10.2004

    Moderne Kommunikationsnetze mit mobilem, drahtlosem Zugang eröffnen eine Vielzahl neuer Anwendungsgebiete. Die Mobilität der Endgeräte sowie die Ausdehnung der Netzwerke erfordern eine verteilte und redundante Verwaltung sowohl der Managementdaten als auch der eigentlichen Nutzdaten, um einen reibungslosen Betrieb sowie einen effizienten und kostengünstigen Zugriff zu gewährleisten. Daraus resultiert jedoch gleichzeitig auch die Notwendigkeit einer konsistenten Aktualisierung der einzelnen Kopien der Daten. Erschwert wird dies gleichzeitig durch die Heterogenität der Netze und der darauf aufbauenden Systemdienste, die durch die Vielfalt von Technologien und Betreibern bedingt ist. Gegenstand dieses Projektes sind daher Problemstellungen der Datenhaltung in heterogenen, mobilen Netzen. Ausgehend von der Analyse konkreter Anwendungsszenarien und sich daraus ergebender Möglichkeiten werden Replikationstechniken vor allem hinsichtlich der Anpassbarkeit (Adaptivität) an veränderte Rahmenbedingungen untersucht, wie Änderungen der Netztopologie, der Verfügbarkeit einzelner Knoten oder Netzsegmente sowie Veränderungen des Verhaltens bei der Datennutzung.

    Projekt im Forschungsportal ansehen

    Integration von Techniken der Softwarespezifikation für ingenieurwissenschaftliche Anwendungen
    Laufzeit: 01.01.1999 bis 31.12.2003

    Die Ablaufsteuerung vieler ingenieurwissenschaftlicher Anwendungen kann nur unvollständig durch Software realisiert werden. Äußere Einflüsse und menschliche Interaktionen ("offene Systeme") verhindern dies. Weiterhin müssen die spezifizierten Abläufe flexibel an neue Anforderungen und Rahmenbedingungen anpaßbar sein. In Abhängigkeit von der Flexibilität der beschriebenen Prozesse müssen Ablaufbeschreibungen häufig im laufenden Betrieb angepaßt werden. Daraus ergeben sich neue Anforderungen an Softwarespezifikationen, die von klassischen Methoden der Informatik nur unvollständig abgedeckt werden. Zielstellung ist die Erstellung einer Spezifikationssprache und -methode für ingenieurwissenschaftliche Anwendungen mit  Eigenschaften wie der Verwendung einer verbreiteten Notationen, der Zuordnung von Abläufen zu Objekten, einer hierarchischn Verhaltensverfeinerung, hoher Adaptierbarkeit und Flexibilität, einer guten Analysierbarkeit sowie der Generierbarkeit operationaler Abläufe. Die Spezifikationsmethodik soll anhand der Abläufe in einer konkreten Materialflußanlage mit Hilfe von Testfällen überprüft werden. Dabei soll insbesondere die Adaptierbarkeit von Ablaufbeschreibungen im Vordergrund stehen.

    Projekt im Forschungsportal ansehen

    MuSofT - Multimedia in der Software Technik
    Laufzeit: 01.03.2001 bis 31.12.2003

    Die Lehre in der Softwaretechnik soll im Rahmen von MuSofT - Multimedia in der SoftwareTechnik durch den Einsatz neuer Medien unterstützt werden. Die Softwaretechnik zählt in den Diplomstudiengängen für Informatik und Ingenieurinformatik an Fachhochschulen und Universitäten zu den Standardbestandteilen des Curriculums, sie wird in den Studiengängen der Informatik für das Lehramt in der Sekundarstufe II gelehrt und gehört in ingenieurwissenschaftlichen Studiengängen wie Elektro- und Informationstechnik sowie Energietechnik oder Maschinenbau/Logistik zunehmend zur Grundlagenausbildung. Das Projekt MuSofT hat sich zum Ziel gesetzt, die Lehre in diesem anwendungsorientierten Zweig der Informatik durch ein multimediales Angebot nachhaltig zu unterstützen, um auch in Veranstaltungen mit großen und sehr großen Studierendenzahlen die gewohnte und notwendige Qualität der Lehre aufrecht erhalten zu können.
    Im Rahmen des Teilprojektes 1.2 wird eine Lerneinheit zum Thema Entwurf von Informationssystemen gestaltet. Dabei wird insbesondere auf den Bereich der Datenbanksysteme fokussiert, die einen wichtigen Bestandteil in modernen Softwaresystemen darstellen. In den Vorlesungen werden neben der Datenbanktheorie auch praxisnahe Kenntnisse zum Entwurf von Datenbanken vermittelt. Für die verschiedenen Phasen des Datenbankentwurfs werden Lernmodule entwickelt, die sowohl die Unterstützung von Präsenzveranstaltungen wie Vorlesungen und Übungen, als auch des Selbststudiums ermöglichen.

    Projekt im Forschungsportal ansehen

    Internet-Datenbank für kriegsbedingt verbrachte Kulturgüter
    Laufzeit: 01.10.1999 bis 01.10.2003

    Ziel des Projektes ist die Konzeption und Realisierung einer Datenbank zur Verwaltung von kriegsbedingt verbrachten Kulturgütern (Beutekunst). In diesem Rahmen ist eine WWW-Schnittstelle zu entwickeln, die eine Recherche anhand verschiedener Kriterien ermöglicht und Aspekte der Abrechnung von Anfragen berücksichtigt.

    Projekt im Forschungsportal ansehen

    Föderations- und Integrationsdienste für die Informationsfusion
    Laufzeit: 01.01.2000 bis 31.03.2003

    Im Rahmen der Forschergruppe "Workbench für die Informationsfusion" beschäftigt sich das Projekt mit  Diensten zur Integration von Daten und Methodenbausteinen.  Zur Informationsfusion, d.h. zur Gewinnung von semantisch höherwertigen Informationen aus existierenden heterogenen Datenbeständen, werden sowohl Mechanismen zum transparenten und effizienten Zugriff auf diese Datenbestände als auch Methoden zur Integration, Fusion und Analyse der Daten benötigt.Im Rahmen des beantragten Projektes werden daher essentielle Aspekte einer Datenintegrationskomponente untersucht. Für die Informationsfusion müssen heterogen beschriebene Datenbestände integriert und in eine für Fusionsmethoden geeignete Darstellung transformiert werden. Hier soll eine Transformationsbeschreibung entwickelt werden, aus der möglichst automatisch Komponenten zum Datenzugriff generiert werden können. Da es sich oft um sehr grosse Datenbestände handelt, muß die Kombination von Datenbankzugriffen und Fusionsmethoden gemeinsam optimiert werden, um ein akzeptables Zeitverhalten zu erreichen. Hier muß ein gmeinsames Verarbeitungsmodell entwickelt und die klassische Datenbankoptimierungan dieses Modell angepaßt werden. Die Integration von temporären Zugriffsstrukturen und replizierten Daten ist ein weiterer Schwerpunkt des Projektes.

    Projekt im Forschungsportal ansehen

    Föderierungsdienst für heterogene Dokumentenquellen
    Laufzeit: 01.09.1999 bis 31.12.2001

    Ziel dieses Pojektes ist der Entwurf und die Implementierung eines Föderierungsdienstes zur Literatur- und Informationsrecherche in heterogenen Informationssystemen. Eine derartige Komponente ist notwendig, da im Anwendungsszenario des bundesweiten Projektes Global-Info heterogene und autonome Informationssysteme zusammengefaßt werden müssen, die in der Regel verteilt im Netz agieren und deren lokale Eigenschaften nicht beeinflußbar sind. Der Föderierungsdienst schließt dabei auch die Verwaltung von Metadaten der Föderation in einer Datenbank mit ein. Wesentliche Teilprobleme sind weiterhin Methoden zur Extraktion von Metadaten aus teilweise strukturierten Dokumenten und zur Erkennung identischer Informationsobjekte (Dokumente, Autoreninformationen, etc.).

    Projekt im Forschungsportal ansehen

    FIREworks: Feature Integration in Requirements Engineering
    Laufzeit: 01.05.1997 bis 30.04.2000

    Die von der EU im Rahmen des ESPRIT III Programms geförderte Working Group FIREworks ({F}eature {I}ntegration in {R}equirements {E}ngineering) hat sich als Aufgabe gesetzt, das Problem des Hinzufügens sogenannter Features (zusätzlicher Leistungsmerkmale) zu Spezifikationen von komplexen Softwaresystemen zu untersuchen.  Dieses Problem tritt z.B. f"ur Telekommunikationssysteme regelmäßig auf, wenn eine bestehende Spezifikation des Systems um weitere, neue Dienste ergänzt werden soll.  Bei diesem in der Praxis immer wieder auftretenden Anpassen eines bestehenden Systems an neue Anforderungen tritt oft auch ein weiteres Problem, das sogenannte Feature Interaction Problem, auf.  Verschiedene Features, die jeweils einzeln einem bestehenden System hinzugefügt werden können, führen, wenn sie gemeinsam hinzugefügt werden, zu Fehlfunktionen des Systems, weil sie sich gegenseitig beeinträchtigen.  Angestrebt wird eine Erkennung solcher unerwünschten  Interaktionen auf der Basis der System- und Feature-Spezifikationen.

    Projekt im Forschungsportal ansehen

    Werkzeuge und Komponenten für den effizienten Entwurf und die praxisgerechte Implementierung Föderierter Datenbanksysteme.
    Laufzeit: 01.03.1998 bis 28.02.2000

    Dieses Forschungsprojekt ist ein Anschlussprojekt an das im Februar 1998 ausgelaufene Landesprojekt zur Föderierung heterogener Datenbanksysteme und lokaler Datenhaltungskomponenten zur systemübergreifenden Konsistenzsicherung, gefördert unter FKZ 1987A/0025 Im Rahmen des Anschlussprojektes ist der konzeptionelle Entwurf und die Implementierung eines komponentenorientierten Föderierten Datenbanksystems geplant. Dabei sind die Aspekte anwendungsspezifische Konfigurierbarkeit und der praxisgerechte Einsatz zentrale Schwerpunkte der Forschungsbemühungen.

    Projekt im Forschungsportal ansehen

    Föderierung heterogener Datenbanksysteme und lokaler Datenhaltungskomponenten zur systemübergreifenden Integritätssicherung
    Laufzeit: 01.09.1995 bis 28.02.1998

    Ziel des Vorhabens ist die Entwicklung einer Basis-Informationsinfrastruktur als Grundlage integrierter und einheitlicher Datenhaltung füralle Phasen der Fabrikplanung. Dazu soll ein föderiertes heterogenes Informationssystem entstehen, das als Rahmensystem zur Integrationaller an der Fabrikplanung beteiligten Software-Werkzeuge einschließlich deren lokaler Datenbestände dient. Damit sollen bislangseparate Werkzeuge, die für Produktentwurf, Produktionsplanung und Fabriksimulation eingesetzt werden oder dafür noch entwickeltwerden, synergetisch zusammengefügt werden. Zentrale Aufgabe eines solchen föderierten Informationssystems ist neben der Bereitstellung einer homogenen Datenbankschnittstelle fürglobale Anwendungen die systemübergreifende Gewährleistung der Datenkonsistenz. Um diese zu gewährleisten, sollen aktiveMechanismen auf einer übergeordneten Ebene realisiert werden, um die Einzelsysteme mit ihren unterschiedlichen Möglichkeiten derIntegritätssicherung zu verbinden. Die Verbindung der Einzelsysteme verlangt die Integration der verschiedenen Datenschemata, welcheoft auf unterschiedlichen Datenmodellen basieren.

    Projekt im Forschungsportal ansehen

    Serviceangebot
    Wissenstransfer im Bereich Datenbanktechnologien


    Datenmanagement

    • in der Cloud
    • auf neuer Hardware (CPU, GPU, …)

    Self-Tuning Ansätze


    Bereitstellung von Softwaretechniken für Entwickler

    • Konfigurierbare Software (Software-Produktlinien, Multi-Produktlinien)
    • Wartbarkeit von Software (Refaktorisierung)
    Presse
    Die Forschung von Gunter Saake umfasst die Themengebiete Datenbanken und Softwaretechnik. Im Bereich Datenbanken befasst sich Gunter Saake insbesondere mit Datenbankoperationen auf moderner Hardware, dem konzeptuellen Design von Datenbank-Applikationen, mit Anfragesprachen für Datenbanken und mit analysezentrierten Datenbanken. Im Bereich Softwaretechnik treibt Gunter Saake die Untersuchung von Techniken voran, welche es erlauben, Programme modular zu entwickeln und zu konfigurieren. Diese Techniken umfassen Präprozessoren, Objekt-orientierte Programmierung, Aspekt-orientierte Programmierung und Feature-orientierte Programmierung. Zusätzlich engagiert sich Gunter Saake in der Entwicklung von Techniken für die virtuelle Realität.
    Publikationen

    2024

    • Rand Alchokr, Evelyn Starzew, Gunter Saake, Thomas Leich, and Jacob Krüger. The Impact of AI Language Models on Scientific Writing and Scientific Peer Reviews: A Systematic Literature Review. In Joint Conference on Digital Libraries, JCDL. IEEE, December 2024.
       
    • Bala Gurumurthy, Vasudev Raghavendra Bidarkar, David Broneske, Thilo Pionteck, and Gunter Saake. Exploiting Shared Sub-Expression and Materialized View Reuse for Multi-Query Optimization. In Journal of Information System Frontiers, June 2024. accepted.
       
    • Elias Kuiter, Tobias Heß, Chico Sundermann, Sebastian Krieter, Thomas Thüm, and Gunter Saake. How Easy is SAT-Based Analysis of a Feature Model?. In Proc. Int'l Working Conf. on Variability Modelling of Software-Intensive Systems (VaMoS), pages 149–151. ACM, February 2024.
       
    • Priyamvada Bhardwaj, Sadeq Darrab, David Broneske, Ingo Klose, and Gunter Saake. Enforcing right to be forgotten in cloud-based data lakes. Future of Information and Communication Conference (FICC), Springer, April 2024. published.
       
    • Rahul Mondal, Evelina Ignatova, Daniel Walke, David Broneske, Gunter Saake, and Robert Heyer. Clustering graph data: the roadmap to spectral techniques. Discover Artificial Intelligence, January 2024. (PDF)
       
    • Mustafa N Abbas, A Attea Bara’a, David Broneske, and Gunter Saake. An evolutionary algorithm with heuristic operator for detecting protein complexes in protein interaction networks with negative controls. IEEE Access, 2024.
       
    • Mohamad F Enaya, Thomas Klingbeil, Jacob Krüger, David Broneske, Frank Feinbube, and Gunter Saake. A Case Study on the Development of the German Corona-Warn-App. In Journal of Systems and Software. Elsevier, 2024.
       
    • Sadeq Darrab, Florian Kleinert, David Broneske, and Gunter Saake. Exploring the Advantages and Limitations of Association Rule Mining and Decision Trees for Pattern Mining in Heart Disease Data. The 20th International Conference on Advanced Data Mining and Applications (ADMA2024), Springer, June 2024. accepted.
       
    • Sajad Karim, Johannes Wünsche, David Broneske, Michael Kuhn, and Gunter Saake. A Design Proposal for a Unified B-epsilon-tree: Embracing NVM in Memory Hierarchies. In Uta Störl, editor, Proceedings of the 35th GI-Workshop Grundlagen von Datenbanken, Herdecke, Germany, May 22-24, 2024, volume 3710 of CEUR Workshop Proceedings, pages 43–50. CEUR-WS.org, 2024.
       
    • Chukwuka Victor Obionwu, Bhavya Baburaj Chovatta Valappil, Minu Genty, Maria Jomy, Visakh Padmanabhan, Sumat Singh Bedi Aishwarya Suresh, David Broneske, and Gunter Saake. Expert Agent Guided Learning with Transformers and Knowledge Graphs. volume Volume 1, pages 180–189. Proceedings of the 13th International Conference on Data Science, Technology and Applications DATA, scitepress, June 2024.
       
    • Sadeq Darrab, David Broneske, and Gunter Saake. Exploring the Predictive Factors of Heart Disease using Rare Association Rule Mining. Scientific Reports - Nature, July 2024.
       
    • Rand Alchokr, Gopalrao Abhishek, Gunter Saake, Thomas Leich, and Jacob Krüger. Scholarly Quality Measurements: A Systematic Literature Review. In International Conference on Theory and Practice of Digital Libraries, TPDL. Springer, September 2024.
       

    2023

    • Bala Gurumurthy, Vasudev Raghavendra Bidarkar, David Broneske, Thilo Pionteck, and Gunter Saake. What Happens When Two Multi-Query Optimization Paradigms Combine?. In Advances in Databases and Information Systems, September 2023.
       
    • Rick Adamy, Elias Kuiter, and Gunter Saake. Exploiting Structure: A Survey and Analysis of Structures and Hardness Measures for Propositional Formulas. Technical report, Qeios, September 2023.
       
    • Chukwuka Victor Obionwu, Kalu Oji Kalu, Paul Blockhaus, David Broneske, and Gunter Saake. A Strategy for Retrospective Evaluation of Students SQL Learning Engagements. pages 1–7. 2023 3rd International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), IEEE, May 2023.
       
    • Chukwuka Victor Obionwu, Maximilian Karl, David Broneske, Anja Hawlitschek, Paul Blockhaus, and Gunter Saake. A Strategy for Structuring Teams Collaboration in University Course Projects. pages 32–42. In Proceedings of the 20th International Conference on Smart Business Technologies (ICSBT 2023),, May 2023.
       
    • Chukwuka Victor Obionwu, S.M Laique Abbas, Visakh Padmanabhan, Taruna Tiwari, David Broneske, and Gunter Saake. Optical image recognition strategy for keyword extraction and page ranking for slide recommendation system. pages 2065–2070. 2023 3rd International Conference on Electrical, Computer, Communications and Mechatronics Engineering (ICECCME), IEEE, May 2023.
       
    • Victor Obionwu, Vincent Toulouse, David Broneske, and Gunter Saake. Automatic instructional feedback, and a Lecture Hub System, a Strategy towards Nurturing the acquisition of a structured engagement behavior. In International Conference on Data Management Technologies and Applications (pp. 219-242). Cham: Springer Nature Switzerland., May 2023.
       
    • Spoorthi Nijalingappa, Bala Gurumurthy, David Broneske, and Gunter Saake. Vertical Vectorized Hashing for Faster Group-By Aggregation. In Proceedings of the International Workshop on Big Data Management on Emerging Hardware (HardBD), April 2023. Accepted.
       
    • Bala Gurumurthy, David Broneske, Martin Schäler, Thilo Pionteck, and Gunter Saake. Novel Insights on Atomic Synchronization for Sort-Based Group-By on GPUs. Distributed and Parallel Databases (DAPD), April 2023.
       
    • Harish Kumar Harihara Subramanian, Bala Gurumurthy, Gabriel Campero Durand, David Broneske, and Gunter Saake. Out-of-the-Box Library Support for DBMSOperations On GPUs. Distributed and Parallel Databases (DAPD), April 2023.
       
    • Elias Kuiter, Sebastian Krieter, Jacob Krüger, Gunter Saake, and Thomas Leich. variED: An Editor for Collaborative, Real-Time Feature Modeling. In Proc. Software Engineering (SE). Gesellschaft für Informatik, February 2023.
       
    • Elias Kuiter, Sebastian Krieter, Chico Sundermann, Thomas Thüm, and Gunter Saake. Tseitin or not Tseitin? The Impact of CNF Transformations on Feature-Model Analyses. In Proc. Software Engineering (SE). Gesellschaft für Informatik, February 2023.
       
    • Rand Alchokr, Jacob Krüger, Yusra Shakeel, Gunter Saake, and Thomas Leich. Peer-reviewing and Submission Dynamics Around Top Software-Engineering Venues: A Juniors' Perspective. In Software Engineering, SE. GI, February 2023. Accepted.
       
    • Christopher Vox, David Broneske, Istiaque Mannafee Shaikat, and Gunter Saake. Data Streams: Investigating data structures for multivariate asynchronous time series prediction problems. In International Conference on Pattern Recognition Applications and Methods (ICPRAM), 2023. accepted.
       
    • Bala Gurumurthy, David Broneske, Gabriel Campero Durand, Thilo Pionteck, and Gunter Saake. ADAMANT: A Query Executor with Plug-In Interfaces for Easy Co-processor Integration. In IEEE International Conference on Data Engineering (ICDE), April 2023.
       
    • Chukwuka Victor Obionwu, Damanpreet Singh Walia, Taruna Tiwari, Tathagatha Ghosh, David Broneske, and Gunter Saake. Towards A Strategy for Developing a Project Partner Recommendation System for University Course Projects. pages 144–151. 6th World Conference on Computing and Communication Technologies (WCCCT 2023), IEEE, January 2023.
       
    • Chukwuka Victor Obionwu, Rahul Kumar, Suhas Shantharam, David Broneske, and Gunter Saake. Semantic Relatedness : A Strategy for Plagiarism Detection in SQL Assignments. pages 158–165. 2023 6th World Conference on Computing and Communication Technologies (WCCCT), IEEE, January 2023.
       
    • Rand Alchokr, Yusra Shakeel, Gunter Saake, Thomas Leich, and Jacob Krüger. Forecasting Publications' Success Using Machine Learning Prediction Models. In International Workshop on Bibliometric-Enhanced Information Retrieval, BIR, pages 77–89. CEUR-WS.org, April 2023. Accepted.
       
    • Rahul Mondal, Minh Dung Do, Nasim Uddin Ahmed, Daniel Walke, Daniel Micheel, David Broneske, Gunter Saake, and Robert Heyer. Decision tree learning in Neo4j on homogeneous and unconnected graph nodes from biological and clinical datasets. BMC Medical Informatics and Decision Making, 2023. (PDF)
       
    • Daniel Walke, Daniel Micheel, Kay Schallert, Thilo Muth, David Broneske, Gunter Saake, and Robert Heyer. The importance of graph databases and graph learning for clinical applications. Database: The Journal of Biological Databases and Curation, 2023. Accepted review about graph databases and graph machine learning. (PDF)
       
    • Rand Alchokr, Sanket Vikas Joshi, Gunter Saake, Thomas Leich, and Jacob Krüger. Investigating the Relation between Authors’ Academic Age and their Citations. In International Conference on Theory and Practice of Digital Libraries, TPDL, pages 106–113. Springer, September 2023.
       
    • Johannes Wünsche, Sajad Karim, Michael Kuhn, David Broneske, and Gunter Saake. Intelligent Data Migration Policies in a Write-Optimized Copy-on-Write Tiered Storage Stack. In Jean-Thomas Acquaviva, Shadi Ibrahim, and Suren Byna, editors, Proceedings of the 3rd Workshop on Challenges and Opportunities of Efficient and Performant Storage Systems, CHEOPS 2023, Rome, Italy, 8 May 2023, pages 17–26. ACM, 2023.
       
    • Paul Blockhaus, Gabriel Campero Durand, David Broneske, and Gunter Saake. Towards a Future of Fully Self-Optimizing Query Engines. In 34. Workshop Grundlagen von Datenbanken, 2023.
       
    • Chukwuka Victor Obionwu, Diptesh Mukherjee, Vishnu Devadas, Shimony Mittal, Anam Naimat Ghumman, Anjali Katherine John, Anja Buch, Andreas Nuernberger, and Gunter Saake. A Strategy for implementing Domain Based Task Generation and Evaluation System Using Text-Text Generative Models. International Conference on Advances in Education and Information Technology, Springer, September 2023. Accepted.
       
    • Chukwuka Victor Obionwu, Taruna Tiwari, Bhavya Baburaj Chovatta Valappil, Nishanth Raikar, Damanpreet Singh Walia, S.M Laique Abbas, chukwuemeka Okafor, David Broneske, and Gunter Saake. A Domain specific students’ assistance system for the provision of instructional feedback. pages 2065–2070. 2023 International Conference on Machine Learning and Applications (ICMLA), IEEE, September 2023.
       
    • Chukwuka Victor Obionwu, Rahul Raj Kanagaraj, David Broneske, Anja Buch, Christian Knopke, and Gunter Saake. A Mediation Strategy For Communication Between an internal Chat System and an Open Source Chat System. International Conference on Advances in Education and Information Technology, Springer, September 2023. Accepted.
       
    • Sadeq Darrab, Harshitha Allipilli, Sana Ghani, Harikrishnan Changaramkulath, Sricharan Koneru, David Broneske, and Gunter Saake. Anomaly Detection Algorithms: Comparative Analysis and Explainability Perspectives. page 90–104. Australasian Conference on Data Science and Machine Learning (AusDM23), Springer, 2023. published.
       
    • Rand Alchokr, Jacob Krüger, Yusra Shakeel, Gunter Saake, and Thomas Leich. An Empirical Analysis of Newcomers’ Contributions to Software-Engineering Conferences. In International Conference on Asia-Pacific Digital Libraries, ICADL, page 231–247. Springer, December 2023.
       
    • Chukwuka Victor Obionwu, Devi Prasad Ilapavuluri, David Broneske, and Gunter Saake. A Study Partner Recommender System Using a Community Detection Algorithm. Springer Nature Computer Science book series, November 2023. Accepted.
       
    • Sajad Karim, Johannes Wünsche, David Broneske, Michael Kuhn, and Gunter Saake. Assessing Non-volatile Memory in Modern Heterogeneous Storage Landscape using a Write-optimized Storage Stack. In Holger Schwarz, editor, Proceedings of the 34th GI-Workshop on Foundations of Databases (Grundlagen von Datenbanken), Hirsau, Germany, June 7-9, 2023, volume 3714 of CEUR Workshop Proceedings. CEUR-WS.org, 2023.
       

    2022

    • Elias Kuiter and Gunter Saake. A Survey and Comparison of Industrial and Academic Research on the Evolution of Software Product Lines. Technical report, arXiv, December 2022.
       
    • Elias Kuiter, Sebastian Krieter, Chico Sundermann, Thomas Thüm, and Gunter Saake. Tseitin or not Tseitin? The Impact of CNF Transformations on Feature-Model Analyses. In Proc. Int'l Conf. on Automated Software Engineering (ASE). ACM, October 2022.
       
    • Yusra Shakeel, Rand Alchokr, Jacob Krüger, Gunter Saake, and Thomas Leich. Are Altmetrics Useful for Assessing Scientific Impact: A Survey. In 14th International Conference on Management of Digital EcoSystems, MEDES, pages 144–147. ACM, October 2022. Accepted.
       
    • Richard May, Christian Biermann, Jacob Krüger, Gunter Saake, and Thomas Leich. A Systematic Mapping Study of Security Concepts for Configurable Data Storages. In SPLC, September 2022. accepted.
       
    • Rand Alchokr, Jacob Krüger, Yusra Shakeel, Gunter Saake, and Thomas Leich. On Academic Age Aspect and Discovering the Golden Age in Software Engineering. In International Conference on Cooperative and Human Aspects of Software Engineering, CHASE, May 2022. Pages 102–106.
       
    • Rand Alchokr, Manoj Borkar, Sharanya Thotadarya, Gunter Saake, and Thomas Leich. Supporting Systematic Literature Reviews Using Deep-Learning-Based Language Models. In 1st Workshop on Natural Language-based Software Engineering, NLBSE, May 2022. pp. 67-74.
       
    • Sadeq Darrab, David Broneske, and Gunter Saake. UCRP-miner: Mining Patterns that Matter. IEEE, May 2022.
       
    • Azeem Lodhi., Gunter Saake., and Klaus Turowski. Empirical Evaluation of BPMN Extension Language. In Proceedings of the 14th International Joint Conference on Knowledge Discovery, Knowledge Engineering and Knowledge Management - KMIS,, pages 239–247. INSTICC, SciTePress, 2022.
       
    • Christopher Vox, Jan Piewek, Andreas Udo Sass, David Broneske, and Gunter Saake. Integer Time Series Compression for Holistic Data Analytics in the Context of Vehicle Sensor Data. In International Conference on Connected Vehicles & Expo (ICVVE), 2022.
       
    • Victor Obionwu, Andreas Nürnberger, and Gunter Saake. A skill sharing platform for team collaboration and knowledge exchange. pages 365–372. 18th International Conference on Web Information Systems and Technologies (WEBIST 2022), SCITEPRESS, July 2022.
       
    • Yusra Shakeel, Rand Alchokr, Jacob Krüger, Gunter Saake, and Thomas Leich. Altmetrics and Citation Counts: An Empirical Analysis of the Computer Science Domain. In Joint Conference on Digital Libraries, JCDL. IEEE, June 2022. pp. 1-11.
       
    • Yusra Shakeel, Rand Alchokr, Jacob Krüger, Gunter Saake, and Thomas Leich. Incorporating Altmetrics to Support Selection and Assessment of Publications during Literature Analyses. In International Conference on Evaluation and Assessment in Software Engineering, EASE. IEEE, June 2022. Pages 180–189.
       
    • Rand Alchokr, Jacob Krüger, Yusra Shakeel, Gunter Saake, and Thomas Leich. Peer-reviewing and Submission Dynamics Around Top Software-Engineering Venues: A Juniors' Perspective. In International Conference on Evaluation and Assessment in Software Engineering, EASE. IEEE, June 2022. Pages 60–69.
       
    • Victor Obionwu, Vincent Toulouse, David Broneske, and Gunter Saake. Slide-Recommendation System: A Strategy for Integrating Instructional Feedback into Online Exercise Sessions. pages 541–548. SCITEPRESS, In Proceedings of the 11th International Conference on Data Science, Technology and Applications, June 2022.
       
    • Victor Obionwu, Andreas Nürnberger, Anja Hawlitschek, and Gunter Saake. Learner Centered Network Models: A Survey. In International Journal on Integrating Technology in Education, pages 71–90. International Journal on Integrating Technology in Education, June 2022.
       
    • Victor Obionwu, David Broneske, and Gunter Saake. A Collaborative Learning Environment using Blogs in a learning management system. In 11th International Conference on Knowledge and Education Technology, pages 213–232. International Conference on Computer Science and Education in Computer Science, Springer, November 2022.
       
    • Victor Obionwu, David Broneske, and Gunter Saake. Leveraging Educational Blogging to Assess the Impact of Collaboration on Knowledge Creation. In 13th International Conference on Distance Learning and Education (ICDLE 2022), pages 785–791. International Conference on Distance Learning and Education ICDLE 2022, IJIET, June 2022.
       
    • Rand Alchokr, Jacob Krüger, Yusra Shakeel, Gunter Saake, and Thomas Leich. A Closer Look into Collaborative Publishing at Software-Engineering Conferences. In International Conference on Theory and Practice of Digital Libraries, TPDL. Springer, September 2022. Pages 395–402.
       
    • Victor Obionwu, David Broneske, and Gunter Saake. Microblogs-A means for simulating informal learning beyond classrooms. In Proceedings of the 14th International Conference on Education Technology and Computers, pages 219–225. 14th International Conference on Education Technology and Computers (ICETC 2022), June 2022.
       
    • Victor Obionwu, Chukwuka, Christian Harnisch, Kalu Kalu, David Broneske, and Gunter Saake. An intervention strategy for mitigating the prevalence of syntax errors during task exercise engagements. pages 1–6. International Conference on Engineering and Emerging Technologies ICEET 2022, IEEE, September 2022.
       
    • Yusra Shakeel, Abhisar Bharti, Thomas Leich, and Gunter" Saake. Weighted Altmetric Scores to Facilitate Literature Analyses. In Linking Theory and Practice of Digital Libraries, TPDL. Springer International Publishing, 2022.
       
    • Victor Obionwu, David Broneske, and Gunter Saake. Topic maps as a tool for facilitating collaborative work pedagogy in knowledge management systems. pages 50–60. Proceedings of the 12th International Conference on Information Communication and Management, ACM, June 2022.
       

    2021

    2020

    2019

    2018

    2017

    2016

    2015

    2014

    2013

    • Gunter Saake and Kai-Uwe Sattler. Algorithmen und Datenstrukturen. Eine Einführung mit Java. dpunkt.verlag, 5 edition, November 2013.
       
    • Martin Schäler, Alexander Grebhahn, Reimar Schröter, Sandro Schulze, Veit Köppen, and Gunter Saake. QuEval: Beyond high-dimensional indexing à la carte. PVLDB, 6(14):1654–1665, September 2013.
       
    • Veit Köppen, Martin Schäler, Alexander Grebhahn, and Gunter Saake. BTW 2013 – Zwischen wissenschaftlicher Geschichte und moderner Herausforderung. Datenbank-Spektrum, June 2013.
       
    • Andreas Lübcke, Martin Schäler, and Gunter Saake. Dynamic Relational Data Management for Technical Applications. Technical Report 2, University of Magdeburg, Germany, March 2013.
       
    • Mario Pukall, Christian Kästner, Walter Cazzola, Sebastian Götz, Alexander Grebhahn, Reimar Schröter, and Gunter Saake. JavAdaptor - Flexible Runtime Updates of Java Applications. Software: Practice and Experience, 43(2):153–185, February 2013.
       
    • Gunter Saake, Kai-Uwe Sattler, and Andreas Heuer. Datenbanken. Konzepte und Sprachen. mitp, 5 edition, March 2013.
       
    • Sven Apel, Don Batory, Christian Kästner, and Gunter Saake. Feature-Oriented Software Product Lines - Concepts and Implementation. Springer, October 2013.
       
    • Volker Markl, Gunter Saake, Kai-Uwe Sattler, Gregor Hackenbroich, Bernhard Mitschang, Theo Härder, and Veit Köppen, editors. Datenbanksysteme für Business, Technologie und Web (BTW), 15. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 11.-15.3.2013 in Magdeburg, Germany. Proceedings, LNI. GI, 2013.
       
    • Janet Feigenspan, Christian Kästner, Sven Apel, Jörg Liebig, Michael Schulze, Raimund Dachselt, Maria Papendieck, Thomas Leich, and Gunter Saake. Do Background Colors Improve Program Comprehension in the #ifdef Hell?. Empirical Software Engineering, 18(4):699–745, 2013. (PDF)
       
    • Michael Soffner, Norbert Siegmund, Marko Rosenmüller, Janet Feigenspan, Thomas Leich, and Gunter Saake. A Variability Model for Query Optimizers. In Database and Information Systems VII. Selected Papers from the Tenth International Baltic Conference on Databases and Information Systems 2012, pages 15–28. IOS Press, January 2013.
       
    • Alexander Grebhahn, Martin Schäler, Veit Köppen, and Gunter Saake. Privacy-Aware Multidimensional Indexing. In 15. GI-Fachtagung Datenbanksysteme für Business, Technologie und Web (BTW), pages 133–147. Köllen-Verlag, 2013.
       
    • Janet Siegmund, Christian Kästner, Sven Apel, André Brechmann, and Gunter Saake. Experience from Measuring Program Comprehension—Toward a General Framework. In Software Engineering 2013, pages 239–257. Gesellschaft für Informatik, 2013.
       
    • Reimar Schröter, Thomas Thüm, Norbert Siegmund, and Gunter Saake. Automated Analysis of Dependent Feature Models. In International Workshop on Variability Modelling of Software-intensive Systems (VaMoS), pages 9:1–9:5, New York, NY, USA, January 2013. ACM.
       
    • Gunter Saake, Andreas Henrich, Wolfgang Lehner, Thomas Neumann, and Veit Köppen, editors. Datenbanksysteme für Business, Technologie und Web (BTW), - Workshopband, 15. Fachtagung des GI-Fachbereichs "Datenbanken und Informationssysteme" (DBIS), 11.-15.3.2013 in Magdeburg, Germany. Proceedings, LNI. GI, 2013.
       
    • Sebastian Breß, Felix Beier, Hannes Rauhe, Kai-Uwe Sattler, Eike Schallehn, and Gunter Saake. Efficient Co-Processor Utilization in Database Query Processing. Information Systems, 38(8):1084–1096, 2013. http://dx.doi.org/10.1016/j.is.2013.05.004.
       
    • Sebastian Breß, Norbert Siegmund, Ladjel Bellatreche, and Gunter Saake. An Operator-Stream-based Scheduling Engine for Effective GPU Coprocessing. In 17th East-European Conference on Advances in Databases and Information Systems (ADBIS), pages 288–301. Springer, 2013.
       
    • Sebastian Breß, Max Heimel, Norbert Siegmund, Ladjel Bellatreche, and Gunter Saake. Exploring the Design Space of a GPU-aware Database Architecture. In ADBIS workshop on GPUs In Databases (GID), pages 225–234. Springer, 2013.
       
    • Alsayed Algergawy and Gunter Saake. Combining multiple Features for Web Data Sources Clustering. In IEEE International Conference on E-Business Engineering (ICEBE), 2013.
       
    • Seham Moawed, Alsayed Algergawy, Amany Sarhan, Ali Eldosouky, and Gunter Saake. A Latent Semantic Indexing-based Approach to Determine Similar Clusters in Large-scale Schema Matching. In ADBIS Second International workshop on Ontologies Meet Advanced Information Systems, 2013.
       
    • Maik Mory, Andreas Wünsch, Sándor Vajna, and Gunter Saake. Verknüpfung interaktiver Visualisierungen im Digital Engineering. In Prof. Dr.-Ing. habil. Prof. E. h. Dr. h. c. mult. Michael Schenk, editor, 10. Fachtagung „Digital Engineering zum Planen, Testen und Betreiben technischer Systeme“, page 255–258, Magdeburg, 2013.
       
    • Maik Mory, Gunter Saake, and Veit Köppen. Workshop on Information Systems in Digital Engineering (ISDE) – Message from the Chairs. In Gunter Saake, Andreas Henrich, Wolfgang Lehner, Thomas Neumann, and Veit Köppen, editors, 15. Fachtagung des GI-Fachbereichs „Datenbanken und Informationssysteme“ (DBIS) : Datenbanksysteme für Business, Technologie und Web (BTW) – Workshopband, pages 139–140, 2013.
       
    • Azeem Lodhi, Veit Köppen, Stefan Wind, and Gunter Saake. An Analytical Business Process Modelling Language: An Illustrative Example. In Anne James, Xiang Fei, Kuo-Ming Chao, and Jen-Yao Chung, editors, In Proceedings of the 10th IEEE International Conference on e-Business Engineering (ICEBE 2013), pages 149–155, Coventry, United Kingdom, September 2013. IEEE Computer Society.
       

    2012

    2011

    2010

    2009

    • Marko Rosenmüller, Sven Apel, Thomas Leich, and Gunter Saake. Tailor-Made Data Management for Embedded Systems: A Case Study on Berkeley DB. Data and Knowledge Engineering, 68(12):1493–1512, December 2009.
       
    • Sagar Sunkle, Sebastian Günther, and Gunter Saake. Representing and Composing First-class Features with FeatureJ. Technical Report 17, Department of Computer Science, Otto-von-Guericke University of Magdeburg, Magdeburg, Germany, November 2009.
       
    • Mario Pukall, Christian Kästner, Sebastian Götz, Walter Cazzola, and Gunter Saake. Flexible Runtime Program Adaptations in Java - A Comparison. Technical Report 14, School of Computer Science, University of Magdeburg, November 2009.
       
    • Ateeq Khan, Azeem Lodhi, Veit Köppen, Gamal Kassem, and Gunter Saake. Applying Process Mining in SOA Environments. In Asit Dan, Frédéric Gittler, and Farouk Toumani, editors, Service-Oriented Computing (ICSOC/ServiceWave) 2009 Workshops, volume 6275 of LNCS, pages 293–302. Springer, November 2009.
       
    • Marko Rosenmüller, Norbert Siegmund, Gunter Saake, and Sven Apel. Combining Static and Dynamic Feature Binding in Software Product Lines. Technical Report 13, Fakultät für Informatik, Universität Magdeburg, September 2009.
       
    • Christian Kästner, Sven Apel, Syed Saif ur Rahman, Marko Rosenmüller, Don Batory, and Gunter Saake. On the Impact of the Optional Feature Problem: Analysis and Case Studies. In Proceedings of the 13th International Software Product Line Conference (SPLC), pages 181–190. SEI, August 2009.
       
    • A. Fahim, G. Saake, A. Salem, F. Torkey, and M. Ramadan. An Enhanced Density Based Spatial clustering of Applications with Noise. In Proc. International Conference on Data Mining (DMIN), pages 517–523, Las Vegas, Nevada, USA, July 2009.
       
    • Norbert Siegmund, Mario Pukall, Michael Soffner, Veit Köppen, and Gunter Saake. Using software product lines for runtime interoperability. In Proceedings of Workshop on Reflection, AOP and Meta-Data for Software Evolution (RAM-SE), pages 1–7. ACM, July 2009.
       
    • Syed Saif ur Rahman, Azeem Lodhi, and Gunter Saake. Cellular DBMS - Architecture for Biologically-Inspired Customizable Autonomous DBMS. In Proceedings of the First International Conference on the Networked Digital Technologies (NDT2009), pages 310–315, Ostrava, The Czech Republic, July 2009. IEEE Computer Society.
       
    • A. Algergawy, E. Schallehn, and G. Saake. Efficiently Locating Web Services Using A Sequence-based Schema Matching Approach. In 11th ICEIS, pages 287–290, May 2009.
       
    • Christian Kästner, Thomas Thüm, Gunter Saake, Janet Feigenspan, Thomas Leich, Fabian Wielgorz, and Sven Apel. FeatureIDE: Tool Framework for Feature-Oriented Software Development. In Proceedings of the 31th International Conference on Software Engineering (ICSE), pages 611–614. IEEE Computer Society, May 2009. Formal Demonstration paper.
       
    • Sandro Schulze, Tobias Hoppe, Jana Dittmann, and Gunter Saake. Pauschalisierte Sicherheitsbetrachtungen automotiver Systeme. In Arbeitskonferenz DACH Security. Universit, May 2009. 128–141.
       
    • Michael Biermann, Tobias Hoppe, Jana Dittmann, Sandro Schulze, and Gunter Saake. Adaption des Szenarios einer WiFi-Wurm-Epidemie auf den Automotive-Bereich zur Sensibilisierung und Aufklärung. In 11.Deutscher IT-Sicherheitskongress des BSI. SecuMedia Verlag, May 2009. to appear.
       
    • Christian Kästner, Sven Apel, and Gunter Saake. Sichere Produktlinien: Herausforderungen für Syntax- und Typ-Prüfungen. In Bernd Brassel and Michael Hanus, editors, Proceedings des 26. Workshop der GI-Fachgruppe Programmiersprachen und Rechenkonzepte, number 0915, pages 37–38. University of Kiel, May 2009.
       
    • Norbert Siegmund, Christian Kästner, Marko Rosenmüller, Florian Heidenreich, Sven Apel, and Gunter Saake. Bridging the Gap Between Variability in Client Application and Database Schema. In 13. GI-Fachtagung Datenbanksysteme für Business, Technologie und Web (BTW), pages 297–306. GI, March 2009.
       
    • A. Algergawy and G. Saake. A Classification Scheme of XML Data Clustering Techniques. In 4th ICICIS, pages 550–555. ACM, March 2009.
       
    • Marko Rosenmüller, Christian Kästner, Norbert Siegmund, Sagar Sunkle, Sven Apel, Thomas Leich, and Gunter Saake. SQL à la Carte – Toward Tailor-made Data Management. In Datenbanksysteme in Business, Technologie und Web (BTW), pages 117–136, March 2009.
       
    • Sandro Schulze, Mario Pukall, Gunter Saake, Tobias Hoppe, and Jana Dittmann. On the Need of Automotive Data Management in Automotive Systems. In Proceedings 13. GI-Fachtagung Datenbanksysteme für Business, Technologie und Web (BTW), Lecture Notes in Informatics, pages 217–227. Gesellschaft für Informatik (GI), March 2009.
       
    • Syed Saif ur Rahman, Azeem Lodhi, Nasreddine Aoumeur, Claus Rautenstrauch, and Gunter Saake. Intra-Service Adaptability For ECA-Centric Web Services Using Contract And Aspect. In Proceedings of The IADIS International Conference Information Systems 2009 (IS 2009). International Association for Development of the Information Society, IADIS Press, February 2009.
       
    • A. Algergawy, E. Schallehn, and G. Saake. Improving XML Schema Matching Performance Using Prüfer Sequences. Data and Knowledge Engineering, 68(8):728–747, August 2009.
       
    • A. Algergawy, R. Nayak, E. Schallehn, and G. Saake. Supporting Web Service Discovery By Assessing Web Service Similarity. In 13th East-European Conference on Advances in Databases and Information Systems (ADBIS-2009), Sept. 2009.
       
    • A. Algergawy, R. Nayak, and G. Saake. XML Schema Element Similarity Measures: A schema matching Context. In The 8th International Conference on Ontologies, DataBases, and Applications of Semantics (ODBASE 2009), LNCS 5871, pages 1246–1253, Nov. 2009.
       
    • Gunter Saake, Marko Rosenmüller, Norbert Siegmund, Christian Kästner, and Thomas Leich. Downsizing Data Management for Embedded Systems. Egyptian Computer Science Journal (ECS), 31(1):1–13, January 2009.
       
    • A. Fahim, A. Salem, F. Torkey, M. Ramadan, and G. saake. An Efficient K-Means with Good Initial Starting Points. Georgian Electronic Scientific Journal: Computer Science and Telecommunications, 2009.
       
    • A. Fahim, G. Saake, A. Salem, F. Torkey, and M. Ramadan. Improved DBSCAN for spatial databases with noise and different densities. Georgian Electronic Scientific Journal: Computer Science and Telecommunications, 2009.
       
    • Veit Köppen, Norbert Siegmund, Michael Soffner, and Gunter Saake. An Architecture for Interoperability of Embedded Systems and Virtual Reality. IETE Technical Review, 26(5):350–356, 2009.
       
    • Norbert Siegmund, Marko Rosenmüller, Guido Moritz, Gunter Saake, and Dirk Timmermann. Towards Robust Data Storage in Wireless Sensor Networks. IETE Technical Review, 26(5):335–340, 2009.
       
    • Syed Saif ur Rahman and Gunter Saake. Cellular DBMS: An Attempt Towards Biologically-Inspired Data Management. Technical Report FIN-012-2009, Department of Technical and Business Information Systems, Faculty of Computer Science, University of Magdeburg, 2009.
       
    • Anne E. James, Joshua Cooper, Keith Jeffery, and Gunter Saake. Research Directions in Database Architectures for the Internet of Things: A Communication of the First International Workshop on Database Architectures for the Internet of Things (DAIT 2009). In Dataspace: The Final Frontier, 26th British National Conference on Databases, BNCOD 26, Birmingham, UK, July 7-9, 2009. Proceedings, pages 225–233, 2009.
       
    • Syed Saif ur Rahman, Marko Rosenmüller, Norbert Siegmund, Gunter Saake, and Sven Apel. Specialized Embedded DBMS: Cell Based Approach. In DEXA '09: Proceedings of the 2009 20th International Workshop on Database and Expert Systems Application, pages 9–13. IEEE Computer Society, 2009.
       

    2008

    • Mario Pukall, Christian Kästner, and Gunter Saake. Towards Unanticipated Runtime Adaptation of Java Applications. In Proceedings of the 15th International Asia-Pacific Conference on Software Engineering (APSEC), pages 85–93. IEEE Computer Society, December 2008.
       
    • Norbert Siegmund, Marko Rosenmüller, Martin Kuhlemann, Christian Kästner, and Gunter Saake. Measuring Non-functional Properties in Software Product Lines for Product Derivation. In Proceedings of the 15th International Asia-Pacific Software Engineering Conference (APSEC), pages 187–194. IEEE Computer Society, December 2008. Acceptance rate: 30 % (66/221).
       
    • Marko Rosenmüller, Norbert Siegmund, Sven Apel, and Gunter Saake. Code Generation to Support Static and Dynamic Composition of Software Product Lines. In Proceedings of the 7th International Conference on Generative Programming and Component Engineering (GPCE), pages 3–12. ACM Press, October 2008.
       
    • Sagar Sunkle, Marko Rosenmüller, Norbert Siegmund, Syed Saif ur Rahman, Gunter Saake, and Sven Apel. Features as First-class Entities : Toward a Better Representation of Features. In Workshop on Modularization, Composition, and Generative Techniques for Product Line Engineering, number MIP-0802, pages 27–34. Department of Informatics and Mathematics, University of Passau, October 2008.
       
    • A. Algergawy, E. Schallehn, and G. Saake. Fuzzy Constraint-based Schema Matching Formulation. In 11th BIS Workshop-ADW 2008, pages 141–152, Innsbruck, Austria, May 2008. CEUR Workshop Proceedings, Vol. 333.
       
    • Sagar Sunkle, Martin Kuhlemann, Norbert Siegmund, Marko Rosenmüller, and Gunter Saake. Generating Highly Customizable SQL Parsers. In Workshop on Software Engineering for Tailor-made Data Management, pages 29–34, March 2008.
       
    • Gunter Saake, Kai-Uwe Sattler, and Andreas Heuer. Datenbanken: Konzepte und Sprachen. mitp-Verlag/Bonn, 3. auflage edition, 2008.
       
    • Sven Apel, Thomas Leich, and Gunter Saake. Aspectual Feature Modules. IEEE Transactions on Software Engineering, 34(2):162–180, 2008.
       
    • N. Siegmund, M. Kuhlemann, M. Rosenmüller, C. Kästner, and G. Saake. Integrated Product Line Model for Semi-Automated Product Derivation Using Non-Functional Properties. In International Workshop on Variability Modelling of Software-intensive Systems (VaMoS), pages 25–32, January 2008.
       
    • N. Aoumeur and G. Saake. A UML-Rewriting driven Architectural Proposal for Developing Adaptive Concurrent Information Systems. In In Proc. of 7th International Conference on Information Systems Technology and its Applications (ISTA'08), volume 5 of LNBIP. Springer, 2008.
       
    • N. Aoumeur and G. Saake. Modelling and Certifying Concurrent Systems: a Maude-TLA Driven Architectural Approach. In In Proc. of of 5th International Conference on Information Technology : New Generations (ITNG'08). IEEE CS, 2008.
       
    • M. Oriol, W. Cazzola, S. Chiba, G. Saake, Y. Coady, S. Ducasse, and G. Kniesel. Enabling Software Evolution Via AOP and Reflection - Report on the Workshop RAM-SE at ECOOP 2007. In Object-Oriented Technology. ECOOP 2007 Workshop Reader, volume 4906 of Lecture Notes in Computer Science (LNCS), pages 91 – 98, Berlin, 2008. Springer-Verlag.
       
    • A. Fahim, G. Saake, A. Salem, F. Torkey, and M. Ramadan. DCBOR: A Density Clustering Based on Outlier Removal. In Proceedings of World Academy of Science, Engineering and Technology, pages 171–176, Paris, France, November 2008.
       
    • A. Fahim, G. Saake, A. Salem, F. Torkey, and M. Ramadan. K-Means for Spherical Clusters with Large Variance in Sizes. In Proceedings of World Academy of Science, Engineering and Technology, pages 177–182, Paris, France, November 2008.
       
    • A. Algergawy, E. Schallehn, and G. Saake. Combining Effectiveness and Efficiency for Schema Matching Evaluation. In First International Workshop on Model-Based Software and Data Integration - MBSDI 2008, volume 8 of CCIS, pages 19–30, Berlin,Germany, April 2008.
       
    • A. Algergawy, E. Schallehn, and G. Saake. A Prüfer Sequence-based Approach for Schema Matching. In BalticDB&IS2008, pages 205–216, Tallinn, Estonia, June 2008.
       
    • A. Algergawy, E. Schallehn, and G. Saake. A Sequence-based Ontology Matching Approach. In 18th European Conference on Artificial Intelligence Workshops C&O 08, pages 26–30, Patras, Greece, July 2008.
       
    • A. Algergawy, E. Schallehn, and G. Saake. A Schema Matching-based Approach to XML Schema Clustering. In 10th International Conference on Information Integration and Web-based Applications & Services (iiWAS2008), pages 131–136, Linz, Austria, Nov. 2008. ACM Publisher.
       
    • A. Algergawy, E. Schallehn, and G. Saake. Fuzzy Constraint-Based Schema Matching Formulation. Scalable Computing: Practice and Experience, (Special Issue: The Web on the Move), 9(4):303–314, 2008.
       
    • Marko Rosenmüller, Norbert Siegmund, Horst Schirmeier, Julio Sincero, Sven Apel, Thomas Leich, Olaf Spinczyk, and Gunter Saake. FAME-DBMS: Tailor-made Data Management Solutions for Embedded Systems. In Workshop on Software Engineering for Tailor-made Data Management (SETMDM), 2008.
       
    • Alsayed Algergawy, Eike Schallehn, and Gunter Saake. A New XML Schema Matching Approach Using Prüfer Sequences. In Proceedings International Baltic Conference on Databases and Information Systems (DB&IS), volume 187 of Frontiers in Artificial Intelligence and Applications, pages 217–228, 2008.
       
    • Syed Saif ur Rahman, Nasreddine Aoumeur, and Gunter Saake. An adaptive ECA-centric architecture for agile service-based business processes with compliant aspectual .NET environment. In iiWAS '08: Proceedings of the 10th International Conference on Information Integration and Web-based Applications & Services, pages 240–247, New York, NY, USA, 2008. ACM.
       
    • Manuel Oriol, Walter Cazzola, Shigeru Chiba, and Gunter Saake. Getting Farther on Software Evolution via AOP and Reflection. In Object-Oriented Technology – ECOOP 2008 Workshop Reader, volume 5475 of Lecture Notes in Computer Science, pages 63–69. Springer, 2008.
       
    • Can Türker and Gunter Saake. Objektrelationale Datenbanken: ein Lehrbuch. dpunkt-Verlag, Heidelberg, 2008.
       

    2007

    • S. Apel, C. Kästner, T. Leich, and G. Saake. Aspect Refinement - Unifying AOP and Stepwise Refinement. Journal of Object Technology (JOT), 6(9):13–33, October 2007. Special Issue. TOOLS EUROPE 2007.
       
    • M. Rosenmüller, T. Leich, S. Apel, and G. Saake. Von Mini- über Micro- bis zu Nano-DBMS: Datenhaltung in eingebetteten Systemen. Datenbank Spektrum, 7(20), February 2007.
       
    • N. Aoumeur, G. Saake, and K. Barkaoui. Incremental Specification Validation and Runtime Adaptivity of Distributed Component Information systems. In 11th European Conference on Software Maintenance and Reengineering (CSMR'07), pages 123–136. IEEE Computer Society, 2007.
       
    • N. Aoumeur and G. Saake. Features Interaction in Adaptive Service-driven Environments: A Reflective Petri Nets-Based Approach. In C. Rolland, O. Pastor, and J. Cavarero, editors, Proc. of the First International Conference on Research Challenges in Information Science (RCIS 2007), pages 297–308. IEEE CS, 2007.
       
    • W. Cazzola, S. Pini, A. Ghoneim, and G. Saake. CoEvolving Application Code and Design Models by Exploiting MetaData.. In Proceedings of the 2007 ACM Symposium on Applied Computing (SAC), Seoul, Korea, March 11 - 15, pages 1275–1279. ACM, 2007.
       
    • N. Aoumeur and G. Saake. Dynamic Interaction of Information Systems: Weaving Connectors on Component Petri Nets. In J. Cardoso, J.Cordeiro, and J. Filipe, editors, 9th International Conference on Enterprise Information Systems (ICEIS'07), pages 152–158. INSTICC, 2007.
       
    • N. Aoumeur and G. Saake. UML-driven Information Systems and their Formal Integration Validation and Distribution. In J.C. Augusto, J.Barjis, and U. Nitsche, editors, The 5th International Workshop on Modelling, Simulation, Verification and Validation of Enterprise Information Systems (MSVVEIS-2007—Workshop@ICEIS'07), pages 63–73. INSTICC, 2007.
       
    • M. Jarke, T. Seidl, C. Quix, D. Kensche, S. Conrad, E. Rahm, R. Klamma, H. Kosch, M. Granitzer, S. Apel, M. Rosenmüller, G. Saake, and O. Spinczyk, editors. Datenbanksysteme in Business, Technologie und Web (BTW 2007) Workshop Proceedings. Verlag Mainz, 2007.
       
    • W. Cazzola, S. Chiba, Y. Coady, and G. Saake. AOSD and Reflection: Benefits and Drawbacks to Software Evolution. In Mario Südholt and Charles Consel, editors, Object-Oriented Technology. ECOOP 2006 Workshop Reader, volume 4379 of Lecture Notes in Computer Science, pages 40–52, Berlin, 2007. Springer-Verlag.
       
    • A. Algergawy, E. Schallehn, and G. Saake. A Unified Schema Matching Framework. In Grundlagen von Datenbanken, pages 57–61, Bretten, Germany, 2007.
       

    2006

    • W. Cazzola, A. Ghoneim, and G. Saake. ViewPoint for Maintaining UML Models Against Application Changes. In Joaquim Filipe, Markus Helfert, and Boris Shishkov, editors, Proceedings of the 1st International Conference on Software and Data Technologies (ICSOFT'06), pages 263–268, Setúbal, Portugal, September 2006. INSTICC. ISBN: 978-8865-69-4.
       
    • Sven Apel, Christian Kästner, Thomas Leich, and Gunter Saake. Aspect Refinement. Technical Report 10, School of Computer Science, University of Magdeburg, Germany, August 2006.
       
    • C. Kästner, S. Apel, and G. Saake. Implementing Bounded Aspect Quantification in AspectJ. In Proceedings of ECOOP Workshop on Reflection, AOP and Meta-Data for Software Evolution (RAM-SE'06), pages 111–122, July 2006.
       
    • S. Apel, T. Leich, and G. Saake. Aspectual Mixin Layers: Aspects and Features in Concert. In Proceedings of IEEE and ACM SIGSOFT 28th International Conference on Software Engineering (ICSE'06), May 2006.
       

    2005

    2004

    2003

    • S. Apel and M. Plack. Komponenten einer Middleware-Plattform für Mobile Informationssysteme. In H. Höpfner, G. Saake, and E. Schallehn, editors, Tagungsband zum 15. GI-Workshop Grundlagen von Datenbanken 10.-13. Juni 2003, Preprint Nr. 06/2003, pages 93–97, Tangermünde, Sachsen-Anhalt, Deutschland, May 2003. Fakultät für Informatik, Universität Magdeburg.
       
    • S. Apel and T. Leich. Einsatz von Aspektorientierung und Programmfamilien bei der Entwicklung von Datenbank-Management-Systemen. In H. Höpfner, G. Saake, and E. Schallehn, editors, Tagungsband zum 15. GI-Workshop Grundlagen von Datenbanken 10.-13. Juni 2003, Preprint Nr. 06/2003, pages 103–107, Tangermünde, Sachsen-Anhalt, Deutschland, May 2003. Fakultät für Informatik, Universität Magdeburg.
       
    • H. Höpfner, G. Saake, and E. Schallehn, editors. Tagungsband zum 15. Workshop über Grundlagen von Datenbanken, 10.-13. Juni 2003, Tangermünde, Sachsen-Anhalt, Germany, number 6, Tangermünde, Germany, May 2003. Fakultät für Informatik, Universität Magdeburg.
       
    • K. Sattler, S. Conrad, and G. Saake. Interactive Example-driven Integration and Reconciliation for Accessing Database Federations. Information Systems, July 2003.
       
    • H. Höpfner and G. Saake, editors. Beitragsband zum Studierenden-Programm bei der 10. Fachtagung ''Datenbanken in Business, Technologie und Web'', number 1, Leipzig, Germany, January 2003. Fakultät für Informatik, Universität Magdeburg.
       
    • Gunter Saake and Kai-Uwe Sattler. Datenbanken & Java: JDBC, SQLJ, ODMG und JDO. dpunkt.verlag, Heidelberg, 2 edition, 2003.
       
    • J. Chomicki, R. van der Meyden, and G. Saake, editors. Logics for Emerging Applications of Databases. Springer, Berlin, 2003.
       
    • N. Aoumeur and G. Saake. Stepwise and Rigorous Development of Evolving Concurrent Information Systems : From Semi-formal Objects to Sound Evolving Components. In Proc. of the OOIS'03, Geneva, Swissland, Lecture Notes in Computer Science. Springer-Verlag, 2003.
       
    • I. Schmitt, D. Jesko, and G. Saake. Multimediaunterstützung von Vorlesungen - Ein Erfahrungsbericht -. Preprint 14, Fakultät für Informatik, Universität Magdeburg, 2003.
       

    2002

    2001

    2000

    1999

    1998

    1997

    • S. Conrad, G. Saake, and C. Türker. Towards an Agent-Oriented Framework for Specification of Information Systems. In A. Cesta and P.-Y. Schobbens, editors, ModelAge 97, Proc. of the 4th ModelAge Workshop on Formal Models of Agents, Certosa di Pontignano, Italy, January 15–17, 1997, pages 269–282. National Research Council of Italy, Institute of Psychology, 1997.
       
    • S. Conrad, C. Türker, and G. Saake. Towards Agent-Oriented Specification of Information Systems (Abstract). In Proc. of the 1st Int. Conf. on Autonomous Agents, Agents'97, Marina del Rey, CA, USA, February 5–8, 1997, pages 502–503, New York, 1997. ACM Press.
       
    • A. Heuer and G. Saake. Datenbanken — Konzepte und Sprachen, 1. korrigierter Nachdruck. International Thomson Publishing, Bonn, 1997.
       
    • S. Conrad, M. Höding, G. Saake, I. Schmitt, and C. Türker. Schema Integration with Integrity Constraints. In C. Small, P. Douglas, R. Johnson, P. King, and N. Martin, editors, Advances in Databases, 15th British National Conf. on Databases, BNCOD 15, London, UK, July 1997, volume 1271 of Lecture Notes in Computer Science, pages 200–214, Berlin, 1997. Springer-Verlag.
       
    • G. Saake, A. Christiansen, S. Conrad, M. Höding, I. Schmitt, and C. Türker. Föderierung heterogener Datenbanksysteme und lokaler Datenhaltungskomponenten zur systemübergreifenden Integritätssicherung — Kurzvorstellung des Projekts SIGMAFDB. In K. R. Dittrich and A. Geppert, editors, Datenbanksysteme in Büro, Technik und Wissenschaft, BTW'97, GI-Fachtagung, Ulm, März 1997, Informatik aktuell, pages 322–331, Berlin, 1997. Springer-Verlag.
       
    • Gunter Saake, Ingo Schmitt, and Can Türker. Objektdatenbanken — Konzepte, Sprachen, Architekturen. International Thomson Publishing, Bonn, 1997.
       
    • G. Saake, I. Schmitt, and C. Türker. Object Databases — Concepts, Languages, Architectures. International Thomson Publishing, Bonn, 1997. (In German).
       
    • C. Türker, G. Saake, and S. Conrad. Requirements for Agent-based Modeling of Federated Database Systems (Extended Abstract). In A. Cesta and P.-Y. Schobbens, editors, ModelAge 97, Proc. of the 4th ModelAge Workshop on Formal Models of Agents, Certosa di Pontignano, Italy, January 15–17, 1997, pages 335–343. National Research Council of Italy, Institute of Psychology, 1997.
       
    • C. Türker, G. Saake, and S. Conrad. Modeling Database Federations in Terms of Evolving Agents. In F. Pin, Z. W. Ras, and A. Skowron, editors, ISMIS 1997 — Poster Proceedings of the 10th Int. Symposium on Methodologies for Intelligent Systems, Charlotte, North Carolina, October 15–18, 1997, pages 197–208. Oak Ridge National Laboratory, 1997.
       
    • I. Schmitt and G. Saake. Merging Inheritance Hierarchies for Schema Integration based on Concept Lattices. Preprint 2, Fakultät für Informatik, Universität Magdeburg, 1997. Also available via http://wwwiti.cs.uni-magdeburg.de/publikationen/97/SS97.ps.gz.
       
    • S. Conrad, J. Ramos, G. Saake, and C. Sernadas. Evolving Logical Specification in Information Systems. Preprint 5, Universität Magdeburg, Fakultät für Informatik, 1997.
       
    • S. Conrad, W. Hasselbring, A. Heuer, and G. Saake, editors. Engineering Federated Database Systems EFDBS'97 — Proc. of the Int. CAiSE'97 Workshop, Barcelona, June 16–17, 1997, number 6. Fakultät für Informatik, Universität Magdeburg, 1997.
       
    • S. Conrad and G. Saake. Extending Temporal Logic for Capturing Evolving Behaviour. In Z.W. Ras and A. Skowron, editors, Foundations of Intelligent Systems, Proc. of the 10th Int. Symposium, ISMIS'97, Charlotte, North Carolina, USA, October 1997, volume 1325 of Lecture Notes in Artificial Intelligence, pages 60–71, Berlin, 1997. Springer-Verlag.
       
    • M. Höding, G. Saake, and S. Conrad. Integration heterogener Informationssysteme durch föderierte Datenbanksysteme. Wissenschaftsjournal der Otto-von-Guericke Universität Magdeburg, 3(1):29–39, 1997.
       

    1996

    • R. Jungclaus, G. Saake, T. Hartmann, and C. Sernadas. sc Troll – A Language for Object-Oriented Specification of Information Systems. ACM Transactions on Information Systems, 14(2):175–211, April 1996.
       
    • C. Caleiro, G. Saake, and A. Sernadas. Deriving Liveness Goals from Temporal Logic Specifications. Journal of Symbolic Computation, 22(5–6):521–554, Nov # / # dec 1996.
       
    • S. Conrad, M. Höding, S. Janssen, G. Saake, I. Schmitt, and C. Türker. Integrity Constraints in Federated Database Design. Preprint 2, Fakultät für Informatik, Universität Magdeburg, 1996.
       
    • S. Conrad, M. Höding, S. Janssen, and G. Saake, editors. Kurzfassungen des Workshops ``Föderierte Datenbanken'', Magdeburg, 22.04–23.04.96, number 96–1. Institut für Technische Informationssysteme, Universität Magdeburg, 1996.
       
    • S. Conrad and G. Saake. Specifying Evolving Temporal Behaviour. In J. Fiadeiro and P.-Y. Schobbens, editors, Proc. of the 2nd Workshop of the ModelAge Project (ModelAge'96), Sesimbra, Portugal, January 1996, pages 51–65. Departamento de Informatica, Universitade de Lisboa, 1996.
       
    • S. Conrad, G. Saake, I. Schmitt, and C. Türker, editors. Kurzfassungen – 8. Workshop ``Grundlagen von Datenbanken'', Friedrichsbrunn/Harz (28.05.–31.05.96), number 3 in Preprint. Fakultät für Informatik, Universität Magdeburg, 1996.
       
    • J. Kusch and G. Saake. Verteilungstransparenz in Datenbanksystemen. Preprint 1, Fakultät für Informatik, Universität Magdeburg, 1996.
       
    • G. Saake, S. Conrad, M. Höding, S. Janssen, I. Schmitt, and C. Türker. Föderierung heterogener Datenbanksysteme und lokaler Datenhaltungskomponenten zur systemübergreifenden Integritätssicherung — Grundlagen und Ziele des Projektes SIGMAFDB. In Integrationskonzepte für Mensch, Technik, Organisation, und Planung — Grundlagen und Projektziele der Projektgruppe METOP, Bericht zum 1. Kolloquium, number 5, pages 13–24. Fakultät für Maschinenbau, Universität Magdeburg, 1996.
       
    • I. Schmitt and G. Saake. Flexible Generation of Global Integrated Schemata using GIM. In S. Conrad, M. Höding, S. Janssen, and G. Saake, editors, Kurzfassungen des Workshops ``Föderierte Datenbanken'', Magdeburg, 22.04–23.04.96, number 96–1, pages 29–43. Institut für Technische Informationssysteme, Universität Magdeburg, 1996.
       
    • I. Schmitt and G. Saake. Integration of Inheritance Trees as Part of View Generation for Database Federations. In B. Thalheim, editor, Conceptual Modelling — ER'96, Proc. of the 15th Int. Conf., Cottbus, Germany, October 1996, volume 1157 of Lecture Notes in Computer Science, pages 195–210, Berlin, 1996. Springer-Verlag.
       
    • I. Schmitt and G. Saake. Schema Integration and View Generation by Resolving Intensional and Extensional Overlappings. In K. Yetongnon and S. Hariri, editors, Proc. of the 9th ISCA Int. Conf. on Parallel and Distributed Computing Systems (PDCS'96), Dijon, France, September 1996, pages 751–758, Six Forks Road, Releigh, NC, 1996. International Society for Computers and Their Application.
       
    • C. Türker and S. Conrad. Using Active Mechanisms for Global Integrity Maintenance in Federated Database Systems. In S. Conrad, M. Höding, S. Janssen, and G. Saake, editors, Kurzfassungen des Workshops ``Föderierte Datenbanken'', Magdeburg, 22.04–23.04.96, number 96–1, pages 51–65. Institut für Technische Informationssysteme, Universität Magdeburg, 1996.
       
    • C. Türker, S. Conrad, and G. Saake. Dynamically Changing Behavior: An Agent-Oriented View to Modeling Information Systems. In J. Fiadeiro and P.-Y. Schobbens, editors, Proc. of the 2nd Workshop of the ModelAge Project (ModelAge'96), Sesimbra, Portugal, January 1996, pages 257–270. Departamento de Informatica, Universitade de Lisboa, 1996.
       
    • C. Türker, S. Conrad, and G. Saake. Dynamically Changing Behavior: An Agent-Oriented View to Modeling Intelligent Information Systems. In Z. W. Ras and M. Michalewicz, editors, Foundations of Intelligent Systems, Proc. of the 9th Int. Symposium on Methodologies for Intelligent Systems, ISMIS'96, June 1996, Zakopane, Poland, volume 1079 of Lecture Notes in Artificial Intelligence, pages 572–581, Berlin, 1996. Springer-Verlag.
       
    • R. Wieringa and G. Saake. Formal Analysis of the Shlaer-Mellor Method: Towards a Toolkit of Formal and Informal Requirements Specification Techniques. Requirements Engineering Journal, 1(2):106–131, 1996.
       
    • G. Saake, M. Höding, and A. Christiansen. Föderierte Datenbanksysteme - Plattform für zukünftige EDM-Entwicklungen ?. In G. Paul, editor, Bericht zum Workshop: EDM-/PDM-Systeme als Integrationsbasis im Umfeld der rechnerunterstützten Unternehmensführung. Fakultät für Informatik, Universität Magdeburg, 1996.
       

    1995

    • C. Caleiro, G. Saake, and A. Sernadas. Goal-Driven Operational Semantics of Temporal Specification of Reactive Systems Behaviour. Technical Report, Departamento de Matemática, IST 16/95, Instituto Superior Técnico, Lisbon, Portugal, 1995.
       
    • J. Chomicki, G. Saake, and C. Sernadas, editors. Role of Logic in Information Systems — Dagstuhl Seminar Report 9529, 1995.
       
    • S. Conrad and G. Saake. Evolving Temporal Behaviour in Information Systems. In HOA'95 — Higher-Order Algebra, Logic, and Term Rewriting (2nd Int. Workshop), pages PP7:1–16. Participant's Proceedings, Paderborn, 1995.
       
    • P. Gouveia, R. Jungclaus, G. Saake, and C. Sernadas. Feasible Object Certification. Technical Report, Departamento de Matemática, IST 14/95, Instituto Superior Técnico, Lisbon, Portugal, 1995.
       
    • Andreas Heuer and Gunter Saake. Datenbanken — Konzepte und Sprachen. International Thomson Publishing, Bonn, 1995.
       
    • A. Heuer and G. Saake. Databases — Concepts and Languages. International Thomson Publishing, Bonn, 1995. (In German).
       
    • M. Höding, C. Türker, S. Janssen, K.-U. Sattler, S. Conrad, G. Saake, and I. Schmitt. Föderierte Datenbanksysteme — Grundlagen und Ziele des Projektes SIGMAFDB. Preprint 12, Fakultät für Informatik, Universität Magdeburg, 1995.
       
    • J. Kusch, P. Hartel, T. Hartmann, and G. Saake. mbox sl TBench – Integration einer Prototyping-Umgebung durch objektorientierte Spezifikation. Preprint 5, Fakultät für Informatik, Universität Magdeburg, 1995.
       
    • J. Kusch, P. Hartel, T. Hartmann, and G. Saake. Gaining a Uniform View of Different Integration Aspects in a Prototyping Environment. In Proc. of the 6th Int. Conf. on Database and Expert Systems Applications (DEXA'95), London, UK, volume 978 of Lecture Notes in Computer Science, pages 37–47, Berlin, 1995. Springer-Verlag.
       
    • J. Kusch and G. Saake. Supporting Autonomy for Information Systems in a Changing Environment. In Workshop on Reasoning about Structured Objects: Knowledge Representation meets Databases, number D-95-12, pages 51–55. DFKI GmbH, Stuhlsatzenhausweg 3, D-66123 Saarbrücken, Germany, 1995.
       
    • J. Kusch and G. Saake. Supporting Autonomy for Information Systems in a Changing Environment (Kurzfassung). In KI-95 Activities: Workshops, Posters, Demos (KRDB'95), Bielefeld, Germany, pages 29–30. Gesellschaft für Informatik e.V., 1995.
       
    • G. Saake, A. Sernadas, and C. Sernadas. Evolving Object Specifications. In R. Wieringa and R. Feenstra, editors, Information Systems — Correctness and Reusability. Selected Papers from the IS-CORE Workshop, pages 84–99. World Scientific Publishing, Singapore, 1995.
       
    • G. Saake, S. Conrad, I. Schmitt, and C. Türker. Object-Oriented Database Design: What is the Difference with Relational Database Design. In R. Zicari, editor, ObjectWorld Frankfurt'95 – Conference Notes, Wednesday, October 11, pages 1–10, 1995. (Software Development Track SD.6).
       
    • G. Saake, S. Conrad, and C. Türker. From Object Specification towards Agent Design. In M. Papazoglou, editor, OOER'95: Object-Oriented and Entity-Relationship Modeling, Proc. of the 14th Int. Conf., Gold Coast, Australia, December 1995, volume 1021 of Lecture Notes in Computer Science, pages 329–340, Berlin, 1995. Springer-Verlag.
       
    • I. Schmitt and G. Saake. Managing Object Identity in Federated Database Systems. In M. Papazoglou, editor, OOER'95: Object-Oriented and Entity-Relationship Modeling, Proc. of the 14th Int. Conf., Gold Coast, Australia, December 1995, volume 1021 of Lecture Notes in Computer Science, pages 400–411, Berlin, 1995. Springer-Verlag.
       
    • R. J. Wieringa and G. Saake. A Comparison of the Notations Used in the Shlaer/Mellor Method and in TCM. Rapport IR-393, Faculty of Mathematics and Computer Science, Vrije Universiteit Amsterdam, 1995. Also appeared as: Preprint Nr. 11, Fakultät für Informatik, Universität Magdeburg, 1995.
       

    1994

    • S. Schwiderski, T. Hartmann, and G. Saake. Monitoring Temporal Preconditions in a Behaviour Oriented Object Model. Data & Knowledge Engineering, 14(2):143–186, December 1994.
       
    • U. W. Lipeck, M. Gertz, and G. Saake. Transitional Monitoring of Dynamic Integrity Contraints. Bulletin of the IEEE Technical Committee on Data Engineering, 17(2):38–42, June 1994.
       
    • S. Conrad, P. Löhr, and G. Saake. Kurzfassungen des 6. Workshops ``Grundlagen von Datenbanken'', Bad Helmstedt, 19.-22. September 1994. Informatik-Bericht ITI–94–01, Institut für Technische Informationssysteme, Universität Magdeburg, 1994.
       
    • E. Dubois, P. Hartel, and G. Saake, editors. Formal Methods for Information System Dynamics, Workshop of the CAiSE'94 Conference, Utrecht, 1994. Universität of Twente, 1994.
       
    • V. Dobrowolny and Ch. Tietz. Zum Problem realitätsnaher Datenmodelle. In S. Conrad, P. Löhr, and G. Saake, editors, Kurzfassungen des 6. GI-Workshops ``Grundlagen von Datenbanken'', Bad Helmstedt, 19.-22. September 1994, number 94–1, pages 40–44. Otto-von-Guericke-Universität Magdeburg, Institut für Technische Informationssysteme, 1994.
       
    • H.-D. Ehrich, A. Sernadas, G. Saake, and C. Sernadas. Distributed Temporal Logic for Concurrent Object Families. In R. Wieringa and R. Feenstra, editors, Working papers of the Int. Workshop on Information Systems - Correctness and Reusability, number IR-357, pages 22–30. Vrije Universiteit Amsterdam, 1994.
       
    • P. Hartel, T. Hartmann, J. Kusch, and G. Saake. Specifying Information System Dynamics in sc Troll. In E. Dubois, P. Hartel, and G. Saake, editors, Proc. of the Workshop Formal Methods for Information System Dynamics, Utrecht (NL), pages 53–64. Universität of Twente, 1994.
       
    • T. Hartmann, J. Kusch, G. Saake, and P. Hartel. Revised Version of the Conceptual Modeling and Design Language sc Troll. In R. Wieringa and R. Feenstra, editors, Proc. of the ISCORE Workshop Amsterdam, Sep. 94, number IR-357, pages 89–103. Vrije Universiteit Amsterdam, 1994.
       
    • T. Hartmann and G. Saake. Prototypische Ausführung von Objektinteraktionen für die Spezifikationssprache sc Troll. In F. Simon, editor, Workshop Deklarative Programmierung und Spezifikation, Bad Honnef, number 9412, pages 56–59. Universität Kiel, 1994.
       
    • T. Hartmann, G. Saake, R. Jungclaus, P. Hartel, and J. Kusch. Revised Version of the Modelling Language sc Troll (Version 2.0). Informatik-Bericht 94–03, Technische Universität Braunschweig, 1994.
       
    • R. Jungclaus, R. J. Wieringa, P. Hartel, G. Saake, and T. Hartmann. Combining sc Troll with the Object Modeling Technique. In B. Wolfinger, editor, Innovationen bei Rechen- und Kommunikationssystemen. GI-Fachgespräch FG 1: Integration von semi-formalen und formalen Methoden für die Spezifikation von Software, Informatik aktuell, pages 35–42. Springer-Verlag, 1994.
       
    • J. Kusch. Ein Ansatz zur Operationalisierung deskriptiver Anfragen durch Anfrageobjekte. In S. Conrad, P. Löhr, and G. Saake, editors, Kurzfassungen des 6. GI-Workshops ``Grundlagen von Datenbanken'', Bad Helmstedt, 19.-22. September 1994, number 94–1, pages 92–96. Otto-von-Guericke-Universität Magdeburg, Institut für Technische Informationssysteme, 1994.
       
    • G. Saake and T. Hartmann. Modelling Information Systems as Object Societies. In K. von Luck and H. Marburger, editors, Management and Processing of Complex Data Structures, Proc. of the 3rd Workshop on Information Systems and Artificial Intelligence, Hamburg, Germany, February/March 1994, volume 777 of Lecture Notes in Computer Science, pages 157–180, Berlin, 1994. Springer-Verlag.
       
    • G. Saake, T. Hartmann, R. Jungclaus, and H.-D. Ehrich. Object-Oriented Design of Information Systems: sc Troll Language Features. In J. Paredaens and L. Tenenbaum, editors, Advances in Database Systems, Implementations and Applications, volume 347 of CISM Courses and Lectures, pages 219–245, Wien, 1994. Springer-Verlag.
       
    • G. Saake, P. Hartel, R. Jungclaus, R. Wieringa, and R. Feenstra. Inheritance Conditions for Object Life Cycle Diagrams. In U. Lipeck and G. Vossen, editors, Workshop Formale Grundlagen für den Entwurf von Informationssystemen, Tutzing, number 3/94, pages 79–89. Universität Hannover, 1994.
       
    • G. Saake and R. Jungclaus. Models and Languages for Abstract Objects. In Encyclopedia of Computer Science and Technology, volume 30, pages 241–255. Marcel Dekker, Inc., 1994.
       
    • S. Schwiderski and G. Saake. Expressing Temporal Behaviour with Extended ECA Rules. In Proc. of the 12th British National Conf. on Databases, BNCOD 12, Guildford, UK, July 1994, volume 826 of Lecture Notes in Computer Science, pages 23–37, Berlin, 1994. Springer-Verlag.
       
    • G. Saake, A. Sernadas, and C. Sernadas. Evolving Object Specifications. In R. Wieringa and R. Feenstra, editors, Working papers of the Int. Workshop on Information Systems - Correctness and Reusability, number IR-357, pages 311–320. Vrije Universiteit Amsterdam, 1994.
       
    • I. Schmitt. Die mehrfache dynamische Klassenzugehörigkeit von Objekten in objektorientierten Datenbankmodellen. In S. Conrad, P. Löhr, and G. Saake, editors, Kurzfassungen des 6. GI-Workshops ``Grundlagen von Datenbanken'', Bad Helmstedt, 19.-22. September 1994, number 94–1, pages 122–126. Otto-von-Guericke-Universität Magdeburg, Institut für Technische Informationssysteme, 1994.
       

    1993

    • C. Beeri, A. Heuer, G. Saake, and S. Urban, editors. Formal Aspects of Object Base Dynamics — Dagstuhl Seminar Report 62, 1993.
       
    • T. Hartmann, R. Jungclaus, and G. Saake. Animation Support for a Conceptual Modelling Language. In V. Ma vr ik , J. La vzansky , and R. R. Wagner, editors, Proc. of the 4th Int. Conf. on Database and Expert Systems Applications (DEXA'93), Prague, volume 720 of Lecture Notes in Computer Science, pages 56–67, Berlin, 1993. Springer-Verlag.
       
    • T. Hartmann, R. Jungclaus, and G. Saake. Spezifikation von Informationssystemen als Objektsysteme. EMISA Forum, Mitteilungen der GI-Fachgruppe 2.5.2, Volume 1, pages 2–18, 1993.
       
    • T. Hartmann and G. Saake. Abstract Specification of Object Interaction. Informatik-Bericht 93–08, Technische Universität Braunschweig, 1993.
       
    • R. Jungclaus, T. Hartmann, and G. Saake. Relationships between Dynamic Objects. In H. Kangassalo, H. Jaakkola, K. Hori, and T. Kitahashi, editors, Information Modelling and Knowledge Bases IV: Concepts, Methods and Systems (Proc. of the 2nd European-Japanese Seminar), pages 425–438, Amsterdam, 1993. IOS Press.
       
    • G. Lausen and G. Saake. A Possible World Semantics for Updates by Versioning. In U. Lipeck and B. Thalheim, editors, Proc. of the 4th Int. Workshop: Modelling Database Dynamics, Volkse 1992, Workshops in Computing, pages 36–47, Berlin, 1993. Springer-Verlag.
       
    • G. Saake, T. Hartmann, and R. Jungclaus. Objektspezifikation von Benutzerschnittstellen in sc Troll. In H. C. Mayr and R. Wagner, editors, Objektorientierte Methoden für Informationssysteme, Informatik aktuell, pages 173–186, Berlin, 1993. Springer-Verlag.
       
    • S. Schwiderski, T. Hartmann, and G. Saake. Monitoring Temporal Preconditions in a Behaviour Oriented Object Model. Informatik-Bericht 93–7, Technische Universität Braunschweig, 1993.
       
    • G. Saake and R. Jungclaus. Models and Languages for Abstract Objects. In Encyclopedia of Microcomputers, volume 11, pages 173–187. Marcel Dekker, Inc., 1993.
       
    • G. Saake, R. Jungclaus, and T. Hartmann. Application Modelling in Heterogeneous Environments Using an Object Specification Language. In M. Huhns, M. P. Papazoglou, and G. Schlageter, editors, Int. Conf. on Intelligent & Cooperative Information Systems (ICICIS'93), pages 309–318. IEEE Computer Society Press, 1993.
       
    • G. Saake, R. Jungclaus, and T. Hartmann. Application Modelling in Heterogeneous Environments Using an Object Specification Language. Int. Journal of Intelligent and Cooperative Information Systems, 2(4):425–449, 1993.
       
    • S. Schwiderski and G. Saake. Monitoring Temporal Permissions using Partially Evaluated Transition Graphs. In U. Lipeck and B. Thalheim, editors, Proc. of the 4th Int. Workshop: Modelling Database Dynamics, Volkse 1992, Workshops in Computing, pages 196–217. Springer-Verlag, 1993.
       
    • Gunter Saake. Objektorientierte Spezifikation von Informationssystemen, volume 6 of Teubner-Texte zur Informatik. Teubner-Verlag, Stuttgart, Leipzig, 1993.
       
    • R. Wieringa, R. Jungclaus, P. Hartel, T. Hartmann, and G. Saake. sc omTroll – Object Modeling in sc Troll. In U. W. Lipeck and G. Koschorreck, editors, Proc. of the Intern. Workshop on Information Systems – Correctness and Reusability (IS-CORE'93), number 1/93, pages 267–283. University of Hannover, 1993.
       

    1992

    • G. Engels, M. Gogolla, U. Hohenstein, K. Hülsmann, P. Löhr-Richter, G. Saake, and H.-D. Ehrich. Conceptual Modelling of Database Applications Using an Extended ER Model. Data & Knowledge Engineering, 9(2):157–204, 1992.
       
    • H.-D. Ehrich, G. Saake, and A. Sernadas. Concepts of Object-Orientation. In R. Studer, editor, Informationssysteme und Künstliche Intelligenz: Modellierung, Proc. 2. Workshop, Ulm, Germany, volume 303 of Informatik-Fachberichte, pages 1–19, Berlin, 1992. Springer-Verlag.
       
    • T. Hartmann, R. Jungclaus, and G. Saake. Aggregation in a Behavior Oriented Object Model. In O. L. Madsen, editor, ECOOP'92 – Proc. of the 6th European Conf. on Object Oriented Programming, Utrecht, The Netherlands, July 1992, volume 615 of Lecture Notes in Computer Science, pages 57–77, Berlin, 1992. Springer-Verlag.
       
    • T. Hartmann, R. Jungclaus, G. Saake, and H.-D. Ehrich. Spezifikation von Objektsystemen. In R. Bayer, T. Härder, and P. C. Lockemann, editors, Objektbanken für Experten, Informatik aktuell, pages 220–242, Berlin, 1992. Springer-Verlag.
       
    • M. Kramer, G. Lausen, and G. Saake. Updates in a Rule-Based Language for Objects. In Li-Yan Yuan, editor, Proc. of the 18th Int. Conf. on Very Large Data Bases (VLDB'92), Vancouver, Canada, pages 251–262, 1992.
       
    • M. Kramer, G. Lausen, and G. Saake. Updates in a Rule-Based Language for Objects (Extended Abstract). In U. Lipeck and B. Thalheim, editors, Proc. of the 4th Int. Workshop on Modelling Database Dynamics, Volkse, Oct. 1992, number 90–3, pages 125–142. Technische Universität Clausthal, 1992.
       
    • G. Saake and R. Jungclaus. Specification of Database Applications in the sc Troll-Language. In D. Harper and M. Norrie, editors, Proc. of the Int. Workshop Specification of Database Systems, Glasgow, July 1991, pages 228–245, London, 1992. Springer-Verlag.
       
    • G. Saake and R. Jungclaus. Views and Formal Implementation in a Three-Level Schema Architecture for Dynamic Objects. In P. M. D. Gray and R. J. Lucas, editors, Advanced Database Systems, Proc. of the 11th British National Conf. on Databases, BNCOD 10, Aberdeen, Scotland, July, 1992, volume 618 of Lecture Notes in Computer Science, pages 78–95, Berlin, 1992. Springer-Verlag.
       
    • G. Saake, R. Jungclaus, and H.-D. Ehrich. Object-Oriented Specification and Stepwise Refinement. In J. de Meer, V. Heymer, and R. Roth, editors, Proc. of the Open Distributed Processing, Berlin (D), 8.-11. Okt. 1991 (IFIP Transactions C: Communication Systems, Vol. 1), pages 99–121. North-Holland, 1992.
       
    • G. Saake. Objektorientierte Modellierung von Informationssystemen. Informatik-Skripten 28, Technische Universität Braunschweig, 1992.
       

    1991

    1990

    • G. Engels, M. Gogolla, U. Hohenstein, K. Hülsmann, P. Löhr-Richter, G. Saake, and H.-D. Ehrich. Conceptual Modelling of Database Applications Using an Extended ER Model. Informatik-Bericht 90–5, Technische Universität Braunschweig, 1990.
       
    • K. Hülsmann and G. Saake. Representation of the Historical Information Necessary for Temporal Integrity Monitoring. In F. Banchilhon, D. Thanos, and D. Tsichritzis, editors, Advances in Database Technology — EDBT'90, Proc. of the 2nd Int. Conf. on Extending Database Technology, Venice, Italy, March 1990, volume 416 of Lecture Notes in Computer Science, pages 378–392, Berlin, 1990. Springer-Verlag.
       
    • U. W. Lipeck, S. Braß, and G. Saake. Kurzfassungen des 2. Workshops ``Grundlagen von Datenbanken'', Volkse, 5.–8. Juni 1990. Informatik-Bericht 90–02, Technische Universität Braunschweig, 1990.
       
    • G. Saake and R. Jungclaus. Information about Objects versus Derived Objects. In J. Göers and A. Heuer, editors, Second Workshop on Foundations and Languages for Data and Objects, Aigen, Austria, number 90–3, pages 59–70. Technische Universität Clausthal, 1990.
       

    1989

    • H.-D. Ehrich, G. Engels, M. Gogolla, and G. Saake, editors. Abstracts des Workshops ``Grundlagen von Datenbanken''. Number 89–2. Technische Universität Braunschweig, 1989.
       
    • K. Hülsmann and G. Saake. Theoretical Foundations of Handling Large Substitution Sets in Temporal Integrity Monitoring. Informatik-Bericht 89–4, Technische Universität Braunschweig, 1989.
       
    • K. Küspert, G. Saake, and L. Wegner. Duplicate Detection and Deletion in the Extended NF2 Data Model. In W. Litwin and H.-J. Schek, editors, Proc. of the 3rd Int. Conf. on Foundations of Data Organization and Algorithms (FODO '89), Paris, France, volume 367 of Lecture Notes in Computer Science, pages 83–100. Springer-Verlag, 1989.
       
    • G. Saake and U. W. Lipeck. Using Finite-Linear Temporal Logic for Specifying Database Dynamics. In E. Börger, H. Kleine Büning, and M. M. Richter, editors, Proc. of the CSL'88 2nd Workshop Computer Science Logic, pages 288–300. Springer-Verlag, 1989.
       
    • G. Saake, V. Linnemann, P. Pistor, and L. Wegner. Sorting, Grouping, and Duplicate Elimination in the Advanced Information Management Prototype. In P. M. G. Apers and G. Wiederholt, editors, Proc. of the 15th Int. Conf. on Very Large Data Bases (VLDB'89), Amsterdam, The Netherlands, pages 307–316, Palo Alto, CA, 1989. Morgan Kaufmann Publishers.
       
    • G. Saake. On First Order Temporal Logics with Changing Domains for Information System Specification. Informatik-Bericht 89–1, Technische Universität Braunschweig, 1989.
       

    1988

    • G. Engels, U. Hohenstein, L. Neugebauer, G. Saake, and H.-D. Ehrich. Konzeption einer integrierten Datenbank-Entwurfsumgebung. In Proc. of the DBTA/SI Conf. ``Data Dictionaries und Entwicklungswerkzeuge für Datenbankanwendungen'', pages 151–157, Zürich, 1988. Verlag der Fachvereine an den Schweiz. Hochschulen und Techniken.
       
    • G. Engels, U. Hohenstein, G. Saake, and H.-D. Ehrich. Auf dem Weg zu einer integrierten Datenbank-Entwurfsumgebung. In G. Snelting, editor, Proc. of the GI-Workshop ``Sprachspezifische Programmierumgebungen'', pages 38–51, TH Darmstadt, 1988.
       
    • K. Küspert, G. Saake, and L. Wegner. Duplicate Detection and Deletion in the Extended NF2 Data Model. Technical Report TR 88.11.012, IBM Wissenschaftliches Zentrum Heidelberg, 1988.
       
    • U. W. Lipeck and G. Saake. Entwurf von Systemverhalten durch Spezifikation und Transformation temporaler Anforderungen. In R. Valk, editor, Proc. GI-Jahrestagung, volume 188 of Informatik-Fachbericht, pages 449–463, Berlin, 1988. Springer-Verlag.
       
    • G. Saake and U. W. Lipeck. Foundations of Temporal Integrity Monitoring. In C. Rolland et al., editors, Proc. of the IFIP Working Conf. on Temporal Aspects in Information Systems, pages 235–249, Amsterdam, 1988. North-Holland.
       
    • Gunter Saake. Spezifikation, Semantik und Überwachung von Objektlebensläufen in Datenbanken. Dissertation, Technische Universität Braunschweig, Germany, 1988. In German.
       

    1987

    • U. Hohenstein, L. Neugebauer, G. Saake, and H.-D. Ehrich. Three-Level Specification of Databases Using an Extended Entity-Relationship Model. In R. Wagner, R. Traunmüller, and H. C. Mayr, editors, Proc. of the GI-Fachtagung ``Informationsermittlung und -analyse für den Entwurf von Informationssystemen, Linz'', volume 143 of Informatik-Fachberichte, pages 58–88, Berlin, 1987. Springer-Verlag.
       
    • U. W. Lipeck and G. Saake. Monitoring Dynamic Integrity Constraints Based on Temporal Logic. Information Systems, 12(3):255–269, 1987.
       
    • G. Saake, L. Neugebauer, U. Hohenstein, and H.-D. Ehrich. Konzepte und Werkzeuge für eine Datenbank-Entwurfsumgebung. Informatik-Bericht 87–5, Technische Universität Braunschweig, 1987.
       

    1986

    • U. Hohenstein, L. Neugebauer, and G. Saake. An Extended Entity-Relationship Model for Non-Standard Databases. In Proc. of the Workshop ``Relationale Datenbanken'', number 3-86, pages 185–211, Lessach, 1986.
       
    • U. W. Lipeck, G. Saake, and H.-D. Ehrich. Monitoring Dynamic Database Integrity by Transition Graphs. Informatik-Bericht 86-8, Technische Universität Braunschweig, 1986.
       

    misc

    Letzte Änderung: 28.07.2021 - Ansprechpartner: