50 results on '"Reussner, Ralf"'
Search Results
2. Dynamic Access Control in Industry 4.0 Systems
- Author
-
Heinrich, Robert, Seifermann, Stephan, Walter, Maximilian, Hahner, Sebastian, Reussner, Ralf, Bureš, Tomáš, Hnětynka, Petr, and Pacovský, Jan
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
Industry 4.0 enacts ad-hoc cooperation between machines, humans, and organizations in supply and production chains. The cooperation goes beyond rigid hierarchical process structures and increases the levels of efficiency, customization, and individualisation of end-products. Efficient processing and cooperation requires exploiting various sensor and process data and sharing them across various entities including computer systems, machines, mobile devices, humans, and organisations. Access control is a common security mechanism to control data sharing between involved parties. However, access control to virtual resources is not sufficient in presence of Industry 4.0 because physical access has a considerable effect on the protection of information and systems. In addition, access control mechanisms have to become capable of handling dynamically changing situations arising from ad-hoc horizontal cooperation or changes in the environment of Industry 4.0 systems. Established access control mechanisms do not consider dynamic changes and the combination with physical access control yet. Approaches trying to address these shortcomings exist but often do not consider how to get information such as the sensitivity of exchanged information. This chapter proposes a novel approach to control physical and virtual access tied to the dynamics of custom product engineering, hence, establishing confidentiality in ad-hoc horizontal processes. The approach combines static design-time analyses to discover data properties with a dynamic runtime access control approach that evaluates policies protecting virtual and physical assets. The runtime part uses data properties derived from the static design-time analysis, as well as the environment or system status to decide about access.
- Published
- 2023
- Full Text
- View/download PDF
3. Model-driven Quantification of Correctness with Palladio and KeY
- Author
-
Reiche, Frederik, Schiffl, Jonas, Weigl, Alexander, Heinrich, Robert, Beckert, Bernhard, and Reussner, Ralf
- Subjects
Quantification ,Palladio ,DATA processing & computer science ,ddc:004 ,Formal Methods ,Modelling - Abstract
In this report, we present an approach for the quantification of correctness of service-oriented software systems by combining the modeling tool Palladio and the deductive verification approach KeY. Our approach uses Palladio for modeling the service-oriented architecture, the usage scenarios of the system (called services) in particular, and the distribution of values for the parameters provided by the users. The correctness of a service is modeled as a Boolean condition. We use Palladio to compute the probability of a service being called with critical parameters, i.e., in a way that its correctness condition is violated. The critical parameters are computed by KeY, a deductive verification tool for Java. The approach is not limited to KeY: Other techniques, such as bug finding (testing, bounded model checking) can be used, as well as other verification tools. We present two scenarios, which we use as examples to evaluate the feasibility of the approach. Finally, we close with remarks on the extension to security properties. Furthermore, we discuss a possible approach to guide developers to locations of the code that should be verified or secured.
- Published
- 2021
4. Datenzentrische Softwarearchitekturen zur Analyse von Vertraulichkeit
- Author
-
Seifermann, Stephan, Heinrich, Robert, and Reussner, Ralf H.
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2020
5. A Formal Approach to Prove Compatibility in Transformation Networks
- Author
-
Klare, Heiko, Pepin, Aur��lien, Burger, Erik, and Reussner, Ralf
- Subjects
model consistency ,transformation networks ,transformation decomposition ,transformation compatibility ,DATA processing & computer science ,model transformation ,ddc:004 - Abstract
The increasing complexity of software and cyberphysical systems is handled by dividing the description of the system under construction into different models or views, each with an appropriate abstraction for the needs of specific roles. Since all such models describe the same system, they usually share an overlap of information, which can lead to inconsistencies if overlapping information is not modified uniformly in all models. A well-researched approach to make these overlaps explicit and resolve inconsistencies are incremental, bidirectional model transformations. They specify the constraints between two metamodels and the restoration of consistency between their instances. Relating more than two metamodels can be achieved by combining bidirectional transformations to a network. However, such a network may contain cycles of transformations, whose consistency constraints can be contradictory if they are not aligned with each other and thus cannot be fulfilled at the same time. Such transformations are considered incompatible. In this article, we provide a formal definition of consistency and compatibility of transformations and propose an inductive approach to prove compatibility of a given network of transformations. We prove correctness of the approach based on these formal definitions. Furthermore, we present an operationalization of the approach at the example of QVT-R. It detects contradictions between relations by transforming them into first-order logic formulae and evaluating them with an SMT solver. The approach operates conservatively, i.e., it is not able to prove compatibility in all cases, but it identifies transformations as compatible only if they actually are. We applied the approach to different evaluation networks and found that it operates conservatively and is able to properly prove compatibility in 80% of the cases, indicating its practical applicability. Its limitations especially arise from restricted capabilities of the used SMT solver, but not from conceptual shortcomings. Our approach enables multiple domain experts to define transformations independently and to check their compatibility when combining them to a network, relieving them from the necessity to align the transformations with each other a priori and to ensure compatibility manually
- Published
- 2020
6. Architektur-basierte Analyse von Änderungsausbreitung in Software-intensiven Systemen
- Author
-
Heinrich, Robert, Koch, Sandro, Cha, Suhyun, Busch, Kiana, Reussner, Ralf, and Vogel-Heuser, Birgit
- Subjects
Software-Evolution ,DATA processing & computer science ,Modellierung ,ddc:004 ,Analyse ,Architektur - Abstract
Software ist ein wesentlicher Bestandteil unseres täglichen Lebens. Mobilität, Energie, Wirtschaft, Produktion und Infrastruktur hängen stark von Software ab, die allerdings nicht immer von hoher Qualität ist. Kritische Probleme, wie Effizienzeinbrüche oder hohe Wartungsaufwände, können durch schlechte Softwarequalität verursacht werden. Beispiele sind vielfältig in der Presse zu finden. Qualitätseigenschaften hängen stark von Entwurfsentscheidungen bzgl. der Architektur eines Systems ab. Um eine hohe Qualität bei der Systemevolution zu gewährleisten, sind Forschung und Praxis an Ansätzen interessiert, mit denen verschiedene Entwurfsalternativen modelliert und analysiert werden können. Dieser Beitrag zeigt Herausforderungen bei der architektur-basierten Evolution von software-intensiven Systemen auf. Es werden Modellierungs- und Analysetechniken vorgestellt, die zur Untersuchung verschiedener Qualitätseigenschaften auf Architekturebene geeignet sind. Darüber hinaus werden Modularisierungskonzepte für Sprachen (definiert durch Metamodelle) und Analysetechniken vorgestellt. Diese führen zur ersten Referenzarchitektur für Metamodelle zur Qualitätsmodellierung und -analyse.
- Published
- 2020
7. Supplementary Material for the Evaluation of the Layered Reference Architecture for Metamodels to Tailor Quality Modeling and Analysis
- Author
-
Strittmatter, Misha, Heinrich, Robert, and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2018
8. An Industry 4.0 Case Study: The Integration of CoCoME and xPPU
- Author
-
Biczok, Rudolf, Busch, Kiana, Heinrich, Robert, and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2018
9. A Survey on the State and Future of Automotive Software Release and Configuration Management
- Author
-
Sax, Eric, Reussner, Ralf, Guissouma, Houssemeddine, and Klare, Heiko
- Subjects
multi-domain development ,DATA processing & computer science ,software over the air updates (SOTA) ,consistency checks ,automotive ,ddc:004 ,release management ,variant management - Abstract
In modern vehicles, embedded software is mainly the driving force for the realisation of new functionality. Spread on more than hundred electronic control units, software parts work together in a network to fulfil certain tasks of safety, comfort, energy management and of course vehicle dynamics. Currently, this software is flashed at the end of the assembly line. In regular terms (normally six months), a software baseline of all the electronic control units is released. As a consequence, a distinct variety of releases is deployed on vehicles on the road for each vehicle type. Combined with the alternatives of engines, chassis and customer wishes, the variants of vehicles rise to a number beyond millions. Opening now the chance for over the air updates demands for restrictive and rigorous consistency checks before any update is spread among all the vehicles of one brand or type in the field. In an empirical study based on a survey, we collected and interpreted the answers of participants from different automotive institutions concerning the current state of practice and the faced challenges during release development and management. The outcome of the survey revealed that field updates are getting more and more important due to the rising software part inside vehicles and that over the air communication is an efficient way to realise them in the future. The shortening release and update cycles together with increasing number of variants and the multidisciplinarity in the automotive field were identified as the main challenges in the current development of automotive engineering.
- Published
- 2017
10. Challenges in Secure Software Evolution - The Role of Software Architecture
- Author
-
Seifermann, Stephan, Taspolatoglu, Emre, Reussner, Ralf H., and Heinrich, Robert
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2016
- Full Text
- View/download PDF
11. 4th Workshop on View-Based, Aspect-Oriented and Orthographic Software Modelling : Proceedings, 2 March 2016, Karlsruhe, Germany
- Author
-
Atkinson, Colin, Burger, Erik, Goldschmidt, Thomas, and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
Modern software engineering paradigms, such as model-driven development, multi-view modelling, or role-based software development, use different types and combinations of abstraction techniques to decompose systems into human-tractable pieces. This leads to an increasing number of models and views that have to be considered, which presents fundamental challenges for engineers of complex softwareintensive systems. Software developers need technologies for operationally managing views of systems in a consistent way, and software architects require concepts that indicate in which way views and models should be developed, evolved, and navigated as projects evolve. The goal of this workshop is to distil a common understanding of existing approaches and current research directions in treating heterogeneous models of software and systems.
- Published
- 2016
- Full Text
- View/download PDF
12. The CoCoME Platform for Collaborative Empirical Research on Information System Evolution
- Author
-
Heinrich, Robert, Rostami, Kiana, and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2016
- Full Text
- View/download PDF
13. Incremental and Compositional Probabilistic Analysis of Programs
- Author
-
Omri, Fouad ben Nasr, Omri, Safa, and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
Symbolic execution has been applied, among others, to check programs against contract specifications or to generate path-based test suites. We propose to adapt symbolic execution to perform a probabilistic reasoning about possible executions of a program. We present a compositional and incremental approach to approximate the probability of a program path.
- Published
- 2015
- Full Text
- View/download PDF
14. Palladio Days 2012. Proceedings, 8 - 9 November 2012, Universität Paderborn, Germany
- Author
-
Becker, Steffen, Happe, Jens, Koziolek, Anne, and Reussner, Ralf [Hrsg.]
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2012
15. Defining and Quantifying Elasticity of Resources in Cloud Computing and Scalable Platforms
- Author
-
Kuperberg, Michael, Herbst, Nikolas, Kistowski, Joakim Von, and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2011
16. The Palladio Component Model
- Author
-
Reussner, Ralf, Becker, Steffen, Burger, Erik, Happe, Jens, Hauck, Michael, Koziolek, Anne, Koziolek, Heiko, Krogmann, Klaus, and Kuperberg, Michael
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2011
17. Seminar Softwarepatente. Proceedings. 1. August 2011, Karlsruhe, Deutschland
- Author
-
Alam, Nadia, Budde, Jost, Drescher, Andreas, Fuchs, Andre, Kayser, Viktoria, Knapp, Thomas, Kramer, Max, Dammler, Markus [Hrsg.], Depner , Melanie [Hrsg.], Betz, Stefanie [Hrsg.], Huber, Matthias [Hrsg.], Feuchter, Dirk [Hrsg.], Reussner, Ralf [Hrsg.], Oberweis, Andreas [Hrsg.], Dreier, Thomas [Hrsg.], and Melullis, Klaus-J. [Hrsg.]
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2011
18. Palladio Days 2011. Proceedings, 17-18 November 2011, FZI Forschungszentrum Informatik, Karlsruhe, Germany
- Author
-
Becker, Steffen, Happe, Jens, and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2011
- Full Text
- View/download PDF
19. Proceedings of the Fifteenth International Workshop on Component-Oriented Programming (WCOP) 2010. 22nd June 2010, Praha, Czech Republic
- Author
-
Bühnová, Barbora [Hrsg.], Reussner, Ralf [Hrsg.], Szyperski, Clemens [Hrsg.], and Weck, Wolfgang [Hrsg.]
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2010
20. Software-Industrialisierung
- Author
-
Brosch, Franz, Groenda, Henning, Kapova, Lucia, Krogmann, Klaus, Kuperberg, Michael, Martens, Anne, Parrend, Pierre, Reussner, Ralf, Stammel, Johannes, Taspolatoglu, Emre, Truong, Anton, Baumgart, Christian, Beyer, Tom, and Meier, Philipp
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2009
21. Fourteenth International Workshop on Component-Oriented Programming
- Author
-
Reussner, Ralf, Szyperski, Clemens, Weck, Wolfgang, Atkinson, Colin, Crnkovic, Ivica, Hummel, Oliver, Groenda, Henning, Lednicki, Luka, and Petricic, Ana
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2009
22. MINT - Modellgetriebene Integration von Informationssystemen : Projektbericht
- Author
-
Reussner, Ralf
- Subjects
Integration von Informationssystemen ,Modellgetriebene Softwareentwicklung ,DATA processing & computer science ,ddc:004 - Abstract
Das Projekt MINT (Modellgetriebene Integration von Informationssystemen) beschäftigt sich mit der Entwicklung von Methoden zur Umsetzung modellgetriebener Ansätze, wie z. B. der Model Driven Architecture (MDA) der Object Management Group (OMG), im Bereich der Integration von betrieblichen Informationssystemen. Dabei werden sowohl die Integration von Legacy Systemen in moderne Umgebungen als auch die Integration von Individualsoftware in einen Standardsoftware-Kontext berücksichtigt.
- Published
- 2009
23. Software Zertifizierung
- Author
-
Goldschmidt, Thomas, Groenda, Henning, Krogmann, Klaus, Kupperberg, Michael, Martens, Anne, Rathfelder, Christoph, Reussner, Ralf, Stammel, Johannes, Blomer, Jakob, Brosig, Fabian, Kreidler, Andreas, Küttel, Jens, Kuwertz, Achim, Liebel, Grischa, Popovic, Daniel, Stübs, Michael, Turek, Alexander M., Vogel, Christian, Weinstein, Thomas, and Wurth, Thomas
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2008
24. Software-Industrialisierung
- Author
-
Brosch, Franz, Goldschmidt, Thomas, Groenda, Henning, Kapova, Lucia, Krogmann, Klaus, Kuperberg, Michael, Martens, Anne, Rathfelder, Christoph, Reussner, Ralf, Stammel, Johannes, Bouras, Jaouad, Klatt, Benjamin, Kremer, Maxim, Kuhlenkamp, Jörn, Lankin, Igor, Maier, Jochen, and Zhang, Yanjun
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2008
25. Software-Komponentenmodelle
- Author
-
Becker, Steffen [Hrsg.], Happe, Jens [Hrsg.], Koziolek, Heiko [Hrsg.], Krogmann, Klaus [Hrsg.], Kuperberg, Michael [Hrsg.], Reussner, Ralf [Hrsg.], Reichelt, Sebastian, Burger, Erik, Goussev, Igor, Hodzhev, Dimitar, and Ben Nasr Omri, Fouad
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
In der Welt der komponentenbasierten Software-Entwicklung werden Komponentenmodelle unter Anderem dazu eingesetzt, Software-Systeme mit vorhersagbaren Eigenschaften zu erstellen. Die Bandbreite reicht von Forschungs- bis zu Industrie-Modellen. In Abhängigkeit von den Zielen der Modelle werden unterschiedliche Aspekte von Software in ein Komponentenmodell abgebildet. In diesem technischen Bericht wird ein Überblick über die heute verfügbaren Software-Komponentenmodelle vermittelt.
- Published
- 2007
26. The Palladio component model
- Author
-
Reussner, Ralf, Becker, Steffen, Happe, Jens, Koziolek, Heiko, Krogmann, Klaus, and Kuperberg, Michael
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2007
- Full Text
- View/download PDF
27. Software-Entwicklung mit Eclipse
- Author
-
Becker, Steffen, Dencker, Tobias, Happe, Jens, Koziolek, Heiko, Krogmann, Klaus, Krogmann, Martin, Kuperberg, Michael, Reussner, Ralf, Sygo, Martin, and Veber, Nikola
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
Die Entwicklung von Software mit Hilfe von Eclipse gehört heute zu den Standard-Aufgaben eines Software-Entwicklers. Die Artikel in diesem technischen Bericht beschäftigen sich mit den umfangreichen Möglichkeiten des Eclipse-Frameworks, die nicht zuletzt auf Grund zahlreicher Erweiterungsmöglichkeiten mittels Plugins möglich sind. Dieser technische Bericht entstand aus einem Proseminar im Wintersemester 2006/2007.
- Published
- 2007
- Full Text
- View/download PDF
28. Transformationen in der modellgetriebenen Software-Entwicklung
- Author
-
Becker, Steffen, Goldschmidt, Thomas, Groenda, Henning, Happe, Jens, Jacobs, Henning, Janz, Christian, Jünemann, Konrad, Klatt, Benjamin, Köker, Christopher, Koziolek, Heiko, Krogmann, Klaus, Kuperberg, Michael, Rathfelder, Christoph, Reussner, Ralf, and Veliev, Beyhan
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
odellgetriebene Software-Entwicklung ist in den letzten Jahren insbesondere unter Schlagworten wie MDA oder MDD zu einem Thema von allgemeinem Interesse für die Software-Branche geworden. Dabei ist ein Trend weg von der codezentrierten Software-Entwicklung hin zum (Architektur-) Modell im Mittelpunkt der Software-Entwicklung festzustellen. Modellgetriebene Software-Entwicklung verspricht eine stetige und automatisierte Synchronisation von Software-Modellen verschiedenster Ebenen. Dies verspricht eine Verkürzung von Entwicklungszyklen und mehr Produktivität. Primär wird nicht mehr reiner Quellcode entwickelt, sondern Modelle und Transformationen übernehmen als eine höhere Abstraktionsebene die Rolle der Entwicklungssprache für Software-Entwickler. Software-Architekturen lassen sich durch Modell beschreiben. Sie sind weder auf eine Beschreibungssprache noch auf eine bestimmte Domänen beschränkt. Im Zuge der Bemühungen modellgetriebener Entwicklung lassen sich hier Entwicklungen hin zu standardisierten Beschreibungssprachen wie UML aber auch die Einführung von domänen-spezifischen Sprachen (DSL) erkennen. Auf diese formalisierten Modelle lassen sich schließlich Transformationen anwenden. Diese können entweder zu einem weiteren Modell ("Model-to-Model") oder einer textuellen Repräsentation ("Model-to-Text") erfolgen. Transformationen kapseln dabei wiederholt anwendbares Entwurfs-Wissen ("Muster") in parametrisierten Schablonen. Für die Definition der Transformationen können Sprachen wie beispielsweise QVT verwendet werden. Mit AndoMDA und openArchitectureWare existieren Werkzeuge, welche die Entwickler bei der Ausführung von Transformationen unterstützen.
- Published
- 2007
- Full Text
- View/download PDF
29. Perspectives in Software Architecture Quality. Short papers of the 2nd International Conference on the Quality of Software Architectures (QoSA 2006), June 27 - 29, 2006, Västeras, Sweden
- Author
-
Hofmeister, Christine, Crnkovic, Ivica, Reussner, Ralf, and Becker, Steffen
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2006
- Full Text
- View/download PDF
30. Modellgetriebene Software-Entwicklung. Architekturen, Muster und Eclipse-basierte MDA; Seminar im Sommersemester 2006
- Author
-
Becker, Steffen, Dikanski, Aleksander, Drechsel, Nils, El Ghazi, Aboubakr Achraf, Happe, Jens, El-Oudghiri, Ihssane, Koziolek, Heiko, Kuperberg, Michael, Rentschler, Andreas, Reussner, Ralf, Sinawski, Roman, Thoma, Matthias, and Willsch, Marko
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 2006
31. Advances in component-oriented programming
- Author
-
Reussner, Ralf, Szyperski, Clemens, and Weck, Wolfgang [Hrsg.]
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
WCOP 2006 is the eleventh event in a series of highly successful workshops, which took place in conjunction with every ECOOP since 1996. Component oriented programming (COP) has been described as the natural extension of object-oriented programming to the realm of independently extensible systems. Several important approaches have emerged over the recent years, including component technology standards, such as CORBA/CCM, COM/COM+, J2EE/EJB, and .NET, but also the increasing appreciation of software architecture for component-based systems, and the consequent effects on organizational processes and structures as well as the software development business as a whole. COP aims at producing software components for a component market and for late composition. Composers are third parties, possibly the end users, who are not able or willing to change components. This requires standards to allow independently created components to interoperate, and specifications that put the composer into the position to decide what can be composed under which conditions. On these grounds, WCOP'96 led to the following definition: "A component is a unit of composition with contractually specified interfaces and explicit context dependencies only. Components can be deployed independently and are subject to composition by third parties." After WCOP'96 focused on the fundamental terminology of COP, the subsequent workshops expanded into the many related facets of component software. WCOP 2006 emphasizes reasons for using components beyond reuse. While considering software components as a technical means to increase software reuse, other reasons for investing into component technology tend to be overseen. For example, components play an important role in frameworks and product-lines to enable configurability (even if no component is reused). Another role of components beyond reuse is to increase the predictability of the properties of a system. The use of components as contractually specified building blocks restricts the degrees of freedom during software development compared to classic line-by-line programming. This restriction is beneficial for the predictability of system properties. For an engineering approach to software design, it is important to understand the implications of design decisions on a system's properties. Therefore, approaches to evaluate and predict properties of systems by analyzing its components and its architecture are of high interest. To strengthen the relation between architectural descriptions of systems and components, a comprehensible mapping to component-oriented middleware platforms is important. Model-driven development with its use of generators can provide a suitable link between architectural views and technical component execution platforms. WCOP 2006 accepted 13 papers, which are organised according to the program below. The organisers are looking forward to an inspiring and thought provoking workshop. The organisers thank Jens Happe and Michael Kuperberg for preparing the proceedings volume.
- Published
- 2006
32. Counter-constrained finite state machines: modelling component protocols with resource-dependencies
- Author
-
Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
This report deals with the specification of software component protocols (i.e., the set of service call sequences). The contribution of this report is twofold: (a) We discuss specific requirements of real-world protocols, especially in the presence of components wich make use of limited resources. (b) We define counter-constrained finite state machines (CC-FSMs), a novel extension of finite state machines, specifically created to model protocols having dependencies between services due to their access to shared resources. We provide a theoretical framework for reasoning and analysing CC-FSMs. Opposed to finite state machines and other approaches, CC-FSMs combine two valuable properties: (a) CC-FSMs are powerful enough to model realistic component protocols with resource allocation, usage, and de-allocation dependencies between methods (as occurring in common abstract datatypes such as stacks or queues) and (b) CC-FSMs have a decidabile equivalence- and inclusion problem as proved in this report by providing algorithms for efficient checking equivalence and inclusion. These algorithms directly lead to efficient checks for component interoperability and substitutability. Keywords: software component protocols, finite state machine extension, decidable inclusion check, interoperability, substitutability.
- Published
- 2002
- Full Text
- View/download PDF
33. Formal foundations of dynamic types for software components
- Author
-
Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
In this work we describe a the foundations of a type system for software components, which supports (1) error checking during composition, (2) automatic adaption of a component's services according to the resources of its surrounding environment, and (3) controlled extension of components by plug-ins. Since the type information is described at the interface of a component, this type system can also be regarded as an new notion for to enhance classical interfaces. This document gives a specification of a component type and describes algorithms performing the above actions (1) -- (3).
- Published
- 2000
34. Automatic component adaptation by concurrent state machine retrofitting
- Author
-
Schmidt, Heinz W. and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
It is a common wisdom of component technology that reuse is not obtained automatically: one has to design for reuse; and reusability has to be preserved as a key quality through design, implementation and maintenance. Besides other technologies aiming at reuse, the component based approach gains increasing attention. Although the idea of reusing prefabricated software components is not new, many obstacles hinder reuse and make it hard to achieve the benefits of reuse in practice. In general few components are reused as they are. Often, available components are incompatible with what is required. This necessitates extensions or adaptations. In this paper we develop a method assisting the software engineer in identifying the detailed causes for incompatibility and systematically overcoming them. Our method also permits the synthesis of common adapters, coercing incompatible components into meeting requirements.
- Published
- 2000
- Full Text
- View/download PDF
35. SKaLib: SKaMPI as a library
- Author
-
Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
SKaLib is a library to support the development of benchmarks. It offsprings from the SKaMPI-project. SKaMPI is a benchmark to measure the performance of MPI-operations. Many mechanisms and function of the SKaMPI-benchmark program are also useful when benchmarking other functions than MPI's. The goal of SKaLibis to offer the benchmarking mechanisms of SKaMPI to a broader range of applications. The mechanisms are: precision adjustable measurement of time, controlled standard error, automatic parameter refinement, and merging results of several benchmarking runs. This documents fulfills two purposes: on the one hand it should be a manual to use the library SKaLib and explains how to benchmark an operation. On the other hand this report complements the SKaMPI-user manual. The latter report explains the configurations and the output of SKaMPI, whereas this reports gives a detailed description of the internal data structures and operations used in the SKaMPI-benchmark. There is also a scientific section which motivates and describes the algorithms and underlying formulas used by SKaMPI.
- Published
- 1999
36. Dynamic coupling of binary components and its technical support
- Author
-
Heuzeroth, Dirk and Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
The aim of todays software development is to build applications by reuse of binary components ([Szy97]). In this paper we present an approach to support dynamic composition of binary components. Consider a framework for a mail user agent with a text-reader, a sound-player and a video-player as pre-compiled (binary) components to be added dynamically, i.e., at run-time. Note, that the framework component, i.e. the mail user agent, should not need to know in advance which kinds of mails it has to handle, so it leaves some aspects open. But nevertheless, we want it in compiled form, because the user should not need to recompile the mail user agent only because he receives an unknown kind of mail. The current solution of MIME-types is not satisfying, because the functionality of the required components (plug-ins) for handling the different MIME-types is not properly integrated into the mail user agent. The example contains two kinds of dynamic composition: Component adaption: A component is inserted into a new environment that does not support all services the component requires. Thus the component should adapt its offered functionality according to what it can deliver in this environment. - A Videomail-component has to adapt to environments with different multimedia capabilities. Component enhancement: The functionality of plug-ins is inserted into the functionality of a component. This is necessary, if after adaption by plug-in-components a component has to notify another component (e.g., a user interface) about the enhanced functionality. - The GUI of the mail user agent enhances its functionality, for example by video controls. We focus on the following problems arising in the example: (a) Currently important portions of frameworks have to be delivered as source code, since they leave many aspects open for the sake of flexibility and thus cannot yet be compiled into a binary form. Framework developers however, would prefer to hide their sources and deliver the framework as a binary component, instead. The user of a framework then ``only'' has to plug in his own binary components. To do this comfortably, i.e. so that he can watch how system behavior changes by the plugged-in components, system composition should be possible dynamically. (b) Components often have to be adapted or enhanced before being ready for reuse. We focus on the problem that when binary components are coupled dynamically these adaptions and enhancements have to be done automatically. Support for this automatic dynamic coupling is still very weak. Especially errors due to coupling non-fitting components are not detected as early as possible, that is during coupling-time. This is because component interfaces do not specify how to use the component. We present an approach to the binary precompilation problem (a) and the automatic coupling problem (b). As a basis we describe a meta-level protocol of an underlying component model. (a) To solve the precompilation problem of frameworks, we present a technical approach that applies meta-programming, component and database technology. Genericity is resolved by collecting type, i.e., applicability information in the database and generating meta-programs for the instantiation. (b) Our solution to the automatic coupling problem enhances the component interface by applicability information. According to Nierstrasz this is the type of a component [Nie93]. We define the type of a component by two interfaces: the call-interface describes the services of a component and their availability, the uses-interfaces describes which services of other components are required by the component. Beside other issues each interface includes a specification of the admissible call sequences (call-protocol) respectively use sequences (use-protocol) by finite automata. The use protocol partially depends on the call protocol. When the use-protocol of component A matches the call-protocol of component B, component A can use component B. In cases of an inexact match, we calculate a new call-protocol of A in a way that the new depending use-protocol of A matches exactly the call-protocol of B. This handles dynamic component adaption. The dynamic component enhancement translates in our approach to insertion of automata, which precisely describes the enhanced functionality. To conclude, in this paper we present a type-system for components, which supports dynamic component composition and enables pre-compiling of components.
- Published
- 1999
- Full Text
- View/download PDF
37. SKaMPI: the special Karlsruher MPI-benchmark. User manual
- Author
-
Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
SKaMPI is the Special Karlsruher MPI-Benchmark. SKaMPI measures the performance of MPI implementations, and of course of the underlying hardware. It performs various measurements of several MPI functions. SKaMPI's primary goal is giving support to software developers. The knowledge of MPI function's performance has several benefits: The software developer knows the right way of implementing a program for a given machine, without (or with shortening) the tedious time costly tuning, which usually has to take place. The developer has not to wait until the code is written, performance issues can also be considered during the design stage. Developing for performance even can take place, also if the considered target machine is not accessible. MPI performance knowledge is especially important, when developing portable parallel programs. So the code can be developed for all considered target platforms in an optimal manner. So we achieve performance portability, which means that code runs without time consuming tuning after recompilation on a new platform.
- Published
- 1999
38. Experimentelle Methoden in der Informatik
- Author
-
Baer, Dieter, Brueckner, Thomas, Prechelt, Lutz, Redeke, Ingo, Reussner, Ralf, Schmidt, Michael, and Veigel, Ulrich
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
Dieser Report enthaelt die Ausarbeitungen von Vortraegen aus einem Seminar gleichen Namens, das am 3./4. Juli 1995 am Institut f"ur Programmstrukturen und Datenorganisation unter Leitung von Walter Tichy, Ernst Heinz, Paul Lukowicz und Lutz Prechelt stattfand. Die Artikel geben einen Ueberblick ueber die moegliche Funktion und den Stellenwert experimentellen Vorgehens in verschiedenen Teilen der Informatik, sowie einerseits deren wissenschaftstheoretische Grundlage und andererseits ihre bisherige praktische Umsetzung.
- Published
- 1995
39. Grundlagen der Wissenschaftstheorie
- Author
-
Reussner, Ralf
- Subjects
DATA processing & computer science ,ddc:004 - Published
- 1995
40. Implementation von Feedbackmechanismen in Onlinekursen am Beispiel Masterstudy LMS
- Author
-
Kia, Elias, Koziolek, Anne, Reussner, Ralf, Marquardt, Kai, and Happe, Lucia
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
Das Erhalten von Feedback ist ein wichtiger Teil des Lernprozesses. Doch wie steht es um den Einsatz von Feedback in Onlinekursen, die über Weboberflächen bearbeitet werden? In dieser Arbeit wurden zwei Ansätze zur Vermittlung von Feedback betrachtet, welche Einsatz in Onlinekursen finden. Diese sind erstens ein Fortschrittsbalken zur Anzeige des Kursfortschritts und zweitens ein Overlay mit durch den Kursersteller einstellbaren Nachrichten. Beide Ansätze wurden für eine genauere Untersuchung ausgewählt und theoretisch analysiert. Diese Auswahl wurde getroffen, da es bisher kaum wissenschaftliche Arbeiten gibt, die diese Art des Feedbacks in einem Kontext von Onlinekursen isoliert betrachten. Um die Auswirkungen dieser Feedbackmechanismen auszuwerten, wurden sie für eine bereits bestehende Webseite mit Onlinekursen implementiert. Die vorgegebene Webseite Rockstartit wurde mit WordPress und dem Plugin MasterStudy LMS entwickelt. Aufbauend darauf wurde die Implementation der Feedbackmechanismen vorgenommen. Im Rahmen der Implementierung wurde festgestellt, dass das PluginMasterStudy LMS nur sehr eingeschränkt für Erweiterungen dieser Art geeignet war. Für zukünftige Arbeiten ist zu überlegen, ob die Verwendung einer weniger einschränkenden Plattform bzw. eines eignen Plugins langfristig eine gute Entscheidung wäre. Abschließend wurden in einer exemplarischen Studie die Erkenntnisse aus verwandten Arbeiten nach der Implementierung praktisch überprüft. Durch den Vergleich einer Testgruppe mit Fortschrittsbalken und einer Kontrollgruppe ohne Fortschrittsbalken im Kurs konnten über ein Quasi-Experiment Unterschiede in der Evaluation deutlich gemacht werden. So hilft der Fortschrittsbalken im Durchschnitt mit der Orientierung und um den Überblick über den Kurs zu behalten. Auch mit der Motivation den Kurs zu bearbeiten oder ein Erfolgsgefühl zu vermitteln, könnte ein Fortschrittsbalken helfen. In keinem Fall wurde dieser als negativ oder störend empfunden. Weitere umfassendere Studien könnten diese Ergebnisse bestätigen. Zur Evaluation des Overlays wurde ein Ansatz vorgeschlagen, der in zukünftigen Arbeiten umgesetzt und möglicherweise in einer größer angelegten Studie analysiert werden kann.
- Published
- 2023
41. Evaluating Architectural Safeguards for Uncertain AI Black-Box Components
- Author
-
Scheerer, Max, Reussner, Ralf, and Zöllner, J. Marius
- Subjects
safeguarding AI ,self-adaptive systems ,DATA processing & computer science ,architectural reliability analysis ,ddc:004 ,software engineering - Abstract
Künstliche Intelligenz (KI) hat in den vergangenen Jahren große Erfolge erzielt und ist immer stärker in den Fokus geraten. Insbesondere Methoden des Deep Learning (ein Teilgebiet der KI), in dem Tiefe Neuronale Netze (TNN) zum Einsatz kommen, haben beeindruckende Ergebnisse erzielt, z.B. im autonomen Fahren oder der Mensch-Roboter-Interaktion. Die immense Datenabhängigkeit und Komplexität von TNN haben jedoch gravierende Schwachstellen offenbart. So reagieren TNN sensitiv auf bestimmte Einflussfaktoren der Umwelt (z.B. Helligkeits- oder Kontraständerungen in Bildern) und führen zu falschen Vorhersagen. Da KI (und insbesondere TNN) in sicherheitskritischen Systemen eingesetzt werden, kann solch ein Verhalten zu lebensbedrohlichen Situationen führen. Folglich haben sich neue Forschungspotenziale entwickelt, die sich explizit der Absicherung von KI-Verfahren widmen. Ein wesentliches Problem bei vielen KI-Verfahren besteht darin, dass ihr Verhalten oder Vorhersagen auf Grund ihrer hohen Komplexität nicht erklärt bzw. nachvollzogen werden können. Solche KI-Modelle werden auch als Black-Box bezeichnet. Bestehende Arbeiten adressieren dieses Problem, in dem zur Laufzeit “bösartige” Eingabedaten identifiziert oder auf Basis von Ein- und Ausgaben potenziell falsche Vorhersagen erkannt werden. Arbeiten in diesem Bereich erlauben es zwar potenziell unsichere Zustände zu erkennen, machen allerdings keine Aussagen, inwiefern mit solchen Situationen umzugehen ist. Somit haben sich eine Reihe von Ansätzen auf Architektur- bzw. Systemebene etabliert, um mit KI-induzierten Unsicherheiten umzugehen (z.B. N-Version-Programming-Muster oder Simplex Architekturen). Darüber hinaus wächst die Anforderung an KI-basierte Systeme sich zur Laufzeit anzupassen, um mit sich verändernden Bedingungen der Umwelt umgehen zu können. Systeme mit solchen Fähigkeiten sind bekannt als Selbst-Adaptive Systeme. Software-Ingenieure stehen nun vor der Herausforderung, aus einer Menge von Architekturellen Sicherheitsmechanismen, den Ansatz zu identifizieren, der die nicht-funktionalen Anforderungen bestmöglich erfüllt. Jeder Ansatz hat jedoch unterschiedliche Auswirkungen auf die Qualitätsattribute des Systems. Architekturelle Entwurfsentscheidungen gilt es so früh wie möglich (d.h. zur Entwurfszeit) aufzulösen, um nach der Implementierung des Systems Änderungen zu vermeiden, die mit hohen Kosten verbunden sind. Darüber hinaus müssen insbesondere sicherheitskritische Systeme den strengen (Qualitäts-) Anforderungen gerecht werden, die bereits auf Architektur-Ebene des Software-Systems adressiert werden müssen. Diese Arbeit befasst sich mit einem modellbasierten Ansatz, der Software-Ingenieure bei der Entwicklung von KI-basierten System unterstützt, um architekturelle Entwurfsentscheidungen (bzw. architekturellen Sicherheitsmechanismen) zum Umgang mit KI-induzierten Unsicherheiten zu bewerten. Insbesondere wird eine Methode zur Zuverlässigkeitsvorhersage von KI-basierten Systemen auf Basis von etablierten modellbasierten Techniken erforscht. In einem weiteren Schritt wird die Erweiterbarkeit/Verallgemeinerbarkeit der Zuverlässigkeitsvorhersage für Selbst-Adaptive Systeme betrachtet. Der Kern beider Ansätze ist ein Umweltmodell zur Modellierung (𝑖) von KI-spezifischen Unsicherheiten und (𝑖𝑖) der operativen Umwelt des Selbst-Adaptiven Systems. Zuletzt wird eine Klassifikationsstruktur bzw. Taxonomie vorgestellt, welche, auf Basis von verschiedenen Dimensionen, KI-basierte Systeme in unterschiedliche Klassen einteilt. Jede Klasse ist mit einem bestimmten Grad an Verlässlichkeitszusicherungen assoziiert, die für das gegebene System gemacht werden können. Die Dissertation umfasst vier zentrale Beiträge. 1. Domänenunabhängige Modellierung von KI-spezifischen Umwelten: In diesem Beitrag wurde ein Metamodell zur Modellierung von KI-spezifischen Unsicherheiten und ihrer zeitlichen Ausdehnung entwickelt, welche die operative Umgebung eines selbstadaptiven Systems bilden. 2. Zuverlässigkeitsvorhersage von KI-basierten Systemen: Der vorgestellte Ansatz erweitert eine existierende Architekturbeschreibungssprache (genauer: Palladio Component Model) zur Modellierung von Komponenten-basierten Software-Architekturen sowie einem dazugehörigenWerkzeug zur Zuverlässigkeitsvorhersage (für klassische Software-Systeme). Das Problem der Black-Box-Eigenschaft einer KI-Komponente wird durch ein Sensitivitätsmodell adressiert, das, in Abhängigkeit zu verschiedenen Unsicherheitsfaktoren, die Prädektive Unsicherheit einer KI-Komponente modelliert. 3. Evaluation von Selbst-Adaptiven Systemen: Dieser Beitrag befasst sich mit einem Rahmenwerk für die Evaluation von Selbst-Adaptiven Systemen, welche für die Absicherung von KI-Komponenten vorgesehen sind. Die Arbeiten zu diesem Beitrag verallgemeinern/erweitern die Konzepte von Beitrag 2 für Selbst-Adaptive Systeme. 4. Klassen der Verlässlichkeitszusicherungen: Der Beitrag beschreibt eine Klassifikationsstruktur, die den Grad der Zusicherung (in Bezug auf bestimmte Systemeigenschaften) eines KI-basierten Systems bewertet. Der zweite Beitrag wurde im Rahmen einer Fallstudie aus dem Bereich des Autonomen Fahrens validiert. Es wurde geprüft, ob Plausibilitätseigenschaften bei der Zuverlässigkeitsvorhersage erhalten bleiben. Hierbei konnte nicht nur die Plausibilität des Ansatzes nachgewiesen werden, sondern auch die generelle Möglichkeit Entwurfsentscheidungen zur Entwurfszeit zu bewerten. Für die Validierung des dritten Beitrags wurden ebenfalls Plausibilitätseigenschaften geprüft (im Rahmen der eben genannten Fallstudie und einer Fallstudie aus dem Bereich der Mensch-Roboter-Interaktion). Darüber hinaus wurden zwei weitere Community-Fallstudien betrachtet, bei denen (auf Basis von Simulatoren) Selbst-Adaptive Systeme bewertet und mit den Ergebnissen unseres Ansatzes verglichen wurden. In beiden Fällen konnte gezeigt werden, dass zum einen alle Plausibilitätseigenschaft erhalten werden und zum anderen, der Ansatz dieselben Ergebnisse erzeugt, wie die Domänen-spezifischen Simulatoren. Darüber hinaus konnten wir zeigen, dass unser Ansatz Software-Ingenieure bzgl. der Bewertung von Entwurfsentscheidungen, die für die Entwicklung von Selbst-Adaptiven Systemen relevant sind, unterstützt. Der erste Beitrag wurde implizit mit Beitrag 2 und mit 3 validiert. Für den vierten Beitrag wurde die Klassifikationsstruktur auf bekannte und repräsentative KI-Systeme angewandt und diskutiert. Es konnte jedes KI-System in eine der Klassen eingeordnet werden, so dass die generelle Anwendbarkeit der Klassifikationsstruktur gezeigt wurde.
- Published
- 2023
- Full Text
- View/download PDF
42. Consistent View-Based Management of Variability in Space and Time
- Author
-
Ananieva, Sofia, Reussner, Ralf H., and Schaefer, Ina
- Subjects
model-driven engineering ,DATA processing & computer science ,Modellgetriebene Entwicklung ,Variabilitätsmanagement ,ddc:004 ,variability management ,Softwaretechnik ,software engineering - Abstract
Systeme entwickeln sich schnell weiter und existieren in verschiedenen Variationen, um unterschiedliche und sich ändernde Anforderungen erfüllen zu können. Das führt zu aufeinanderfolgenden Revisionen (Variabilität in Zeit) und zeitgleich existierenden Produktvarianten (Variabilität in Raum). Redundanzen und Abhängigkeiten zwischen unterschiedlichen Produkten über mehrere Revisionen hinweg sowie heterogene Typen von Artefakten führen schnell zu Inkonsistenzen während der Evolution eines variablen Systems. Die Bewältigung der Komplexität sowie eine einheitliche und konsistente Verwaltung beider Variabilitätsdimensionen sind wesentliche Herausforderungen, um große und langlebige Systeme erfolgreich entwickeln zu können. Variabilität in Raum wird primär in der Softwareproduktlinienentwicklung betrachtet, während Variabilität in Zeit im Softwarekonfigurationsmanagement untersucht wird. Konsistenzerhaltung zwischen heterogenen Artefakttypen und sichtbasierte Softwareentwicklung sind zentrale Forschungsthemen in modellgetriebener Softwareentwicklung. Die Isolation der drei angrenzenden Disziplinen hat zu einer Vielzahl von Ansätzen und Werkzeugen aus den unterschiedlichen Bereichen geführt, was die Definition eines gemeinsamen Verständnisses erschwert und die Gefahr redundanter Forschung und Entwicklung birgt. Werkzeuge aus den verschiedenen Disziplinen sind oftmals nicht ausreichend integriert und führen zu einer heterogenen Werkzeuglandschaft sowie hohem manuellen Aufwand während der Evolution eines variablen Systems, was wiederum der Systemqualität schadet und zu höheren Wartungskosten führt. Basierend auf dem aktuellen Stand der Forschung in den genannten Disziplinen werden in dieser Dissertation drei Kernbeiträge vorgestellt, um den Umgang mit der Komplexität während der Evolution variabler Systeme zu unterstützten. Das unifizierte konzeptionelle Modell dokumentiert und unifiziert Konzepte und Relationen für den gleichzeitigen Umgang mit Variabilität in Raum und Zeit basierend auf einer Vielzahl ausgewählter Ansätze und Werkzeuge aus der Softwareproduktlinienentwicklung und dem Softwarekonfigurationsmanagement. Über die bloße Kombination vorhandener Konzepte hinaus beschreibt das unifizierte konzeptionelle Modell neue Möglichkeiten, beide Variabilitätsdimensionen zueinander in Beziehung zu setzen. Die unifizierten Operationen verwenden das unifizierte konzeptionelle Modell als Datenstruktur und stellen die Basis für operative Verwaltung von Variabilität in Raum und Zeit dar. Die unifizierten Operationen werden basierend auf einer Analyse diverser Ansätze konzipiert, welche verschiedene Modalitäten und Paradigmen verfolgen. Während die unifizierten Operationen die Funktionalität von analysierten Werkzeugen abdecken, ermöglichen sie den gleichzeitigen Umgang mit beiden Variabilitätsdimensionen. Der unifizierte Ansatz basiert auf den vorhergehenden Beiträgen und erweitert diese um Konsistenzerhaltung. Zu diesem Zweck wurden Typen von variabilitätsspezifischen Inkonsistenzen identifiziert, die während der Evolution variabler heterogener Systeme auftreten können. Der unifizierte Ansatz ermöglicht automatisierte Konsistenzerhaltung für eine ausgewählte Teilmenge der identifizierten Inkonsistenztypen. Jeder Kernbeitrag wurde empirisch evaluiert. Zur Evaluierung des unifizierten konzeptionellen Modells und der unifizierten Operationen wurden Expertenbefragungen durchgeführt, Metriken zur Bewertung der Angemessenheit einer Unifizierung definiert und angewendet, sowie beispielhafte Anwendungen demonstriert. Die funktionale Eignung des unifizierten Ansatzes wurde mittels zweier Realweltfallstudien evaluiert: Die häufig verwendete ArgoUML-SPL, die auf ArgoUML basiert, einem UML-Modellierungswerkzeug, sowie MobileMedia, eine mobile Applikation für Medienverwaltung. Der unifizierte Ansatz ist mit dem Eclipse Modeling Framework (EMF) und dem Vitruvius Ansatz implementiert. Die Kernbeiträge dieser Arbeit erweitern das vorhandene Wissen hinsichtlich der uniformen Verwaltung von Variabilität in Raum und Zeit und verbinden diese mit automatisierter Konsistenzerhaltung für variable Systeme bestehend aus heterogenen Artefakttypen.
- Published
- 2022
43. A Mobility Case Study for Validating Attack Propagation Analyses
- Author
-
Evli, Yakup Ensar and Reussner, Ralf H.
- Subjects
DATA processing & computer science ,ddc:004 - Abstract
The Architectural Attack Propagation Analysis for Identifying Confidentiality Issues proposed by Walter et al. considers vulnerability analysis in software architecture. The analysis is using access control policies together with the vulnerabilities and their combinations to propagate through the system. This phenomenon has to be investigated thoroughly in a real-life context to be able to make conclusions about metrics, e.g. accuracy. However, a concrete approach to achieve the investigation of Attack Propagation Analyses in a real-life context is missing. This work aims to fill this gap with A Mobility Case Study for Validating Attack Propagation Analyses. In order to achieve validity, conventional properties of case studies in software engineering were identified. Afterward, the end result, in form of a software model, was reviewed according to these properties. This review has revealed that all properties were fulfilled, however not in the highest degree of fulfillment. A discussion about this is held in this paper.
- Published
- 2022
44. Architectural Data Flow Analysis for Detecting Violations of Confidentiality Requirements
- Author
-
Seifermann, Stephan, Reussner, Ralf H., and Mirandola, Raffaela
- Subjects
software architecture ,Datenflüsse ,DATA processing & computer science ,access control ,security ,Vertraulichkeit ,Informationsflusskontrolle ,confidentiality ,Softwarearchitektur ,data flows ,Zugriffskontrolle ,information flow control ,ddc:004 ,encryption ,software engineering - Abstract
Diese Arbeit präsentiert einen Ansatz zur systematischen Berücksichtigung von Vertraulichkeitsanforderungen in Softwarearchitekturen mittels Abbildung und Analyse von Datenflüssen. Die Stärkung von Datenschutzregularien, wie bspw. durch die europäische Datenschutzgrundverordnung (DSGVO), und die Reaktionen der Bevölkerung auf Datenskandale, wie bspw. den Skandal um Cambridge Analytica, haben gezeigt, dass die Wahrung von Vertraulichkeit für Organisationen von essentieller Bedeutung ist. Um Vertraulichkeit zu wahren, muss diese während des gesamten Softwareentwicklungsprozesses berücksichtigt werden. Frühe Entwicklungsphasen benötigen hier insbesondere große Beachtung, weil ein beträchtlicher Anteil an späteren Problemen auf Fehler in diesen frühen Entwicklungsphasen zurückzuführen ist. Hinzu kommt, dass der Aufwand zum Beseitigen von Fehlern aus der Softwarearchitektur in späteren Entwicklungsphasen überproportional steigt. Um Verletzungen von Vertraulichkeitsanforderungen zu erkennen, werden in früheren Entwicklungsphasen häufig datenorientierte Dokumentationen der Softwaresysteme verwendet. Dies kommt daher, dass die Untersuchung einer solchen Verletzung häufig erfordert, Datenflüssen zu folgen. Datenflussdiagramme (DFDs) werden gerne genutzt, um Sicherheit im Allgemeinen und Vertraulichkeit im Speziellen zu untersuchen. Allerdings sind reine DFDs noch nicht ausreichend, um darauf aufbauende Analysen zu formalisieren und zu automatisieren. Stattdessen müssen DFDs oder auch andere Architekturbeschreibungssprachen (ADLs) erweitert werden, um die zur Untersuchung von Vertraulichkeit notwendigen Informationen repräsentieren zu können. Solche Erweiterungen unterstützen häufig nur Vertraulichkeitsanforderungen für genau einen Vertraulichkeitsmechanismus wie etwa Zugriffskontrolle. Eine Kombination von Mechanismen unterstützen solche auf einen einzigen Zweck fokussierten Erweiterungen nicht, was deren Ausdrucksmächtigkeit einschränkt. Möchte ein Softwarearchitekt oder eine Softwarearchitektin den eingesetzten Vertraulichkeitsmechanismus wechseln, muss er oder sie auch die ADL wechseln, was mit hohem Aufwand für das erneute Modellieren der Softwarearchitektur einhergeht. Darüber hinaus bieten viele Analyseansätze keine Integration in bestehende ADLs und Entwicklungsprozesse. Ein systematischer Einsatz eines solchen Ansatzes wird dadurch deutlich erschwert. Existierende, datenorientierte Ansätze bauen entweder stark auf manuelle Aktivitäten und hohe Expertise oder unterstützen nicht die gleichzeitige Repräsentation von Zugriffs- und Informationsflusskontrolle, sowie Verschlüsselung im selben Artefakt zur Architekturspezifikation. Weil die genannten Vertraulichkeitsmechanismen am verbreitetsten sind, ist es wahrscheinlich, dass Softwarearchitekten und Softwarearchitektinnen an der Nutzung all dieser Mechanismen interessiert sind. Die erwähnten, manuellen Tätigkeiten umfassen u.a. die Identifikation von Verletzungen mittels Inspektionen und das Nachverfolgen von Daten durch das System. Beide Tätigkeiten benötigen ein beträchtliches Maß an Erfahrung im Bereich Vertraulichkeit. Wir adressieren in dieser Arbeit die zuvor genannten Probleme mittels vier Beiträgen: Zuerst präsentieren wir eine Erweiterung der DFD-Syntax, durch die die zur Untersuchung von Zugriffs- und Informationsflusskontrolle, sowie Verschlüsselung notwendigen Informationen mittels Eigenschaften und Verhaltensbeschreibungen innerhalb des selben Artefakts zur Architekturspezifikation ausgedrückt werden können. Zweitens stellen wir eine Semantik dieser erweiterten DFD-Syntax vor, die das Verhalten von DFDs über die Ausbreitung von Attributen (engl.: label propagation) formalisiert und damit eine automatisierte Rückverfolgung von Daten ermöglicht. Drittens präsentieren wir Analysedefinitionen, die basierend auf der DFD-Syntax und -Semantik Verletzungen von Vertraulichkeitsanforderungen identifizieren kann. Die unterstützten Vertraulichkeitsanforderungen decken die wichtigsten Varianten von Zugriffs- und Informationsflusskontrolle, sowie Verschlüsselung ab. Viertens stellen wir einen Leitfaden zur Integration des Rahmenwerks für datenorientierte Analysen in bestehende ADLs und deren zugehörige Entwicklungsprozesse vor. Das Rahmenwerk besteht aus den vorherigen drei Beiträgen. Die Validierung der Ausdrucksmächtigkeit, der Ergebnisqualität und des Modellierungsaufwands unserer Beiträge erfolgt fallstudienbasiert auf siebzehn Fallstudiensystemen. Die Fallstudiensysteme stammen größtenteils aus verwandten Arbeiten und decken fünf Arten von Zugriffskontrollanforderungen, vier Arten von Informationsflussanforderungen, zwei Arten von Verschlüsselung und Anforderungen einer Kombination beider Vertraulichkeitsmechanismen ab. Wir haben die Ausdrucksmächtigkeit der DFD-Syntax, sowie der mittels des Integrationsleitfadens erstellten ADLs validiert und konnten alle außer ein Fallstudiensystem repräsentieren. Wir konnten außerdem die Vertraulichkeitsanforderungen von sechzehn Fallstudiensystemen mittels unserer Analysedefinitionen repräsentieren. Die DFD-basierten, sowie die ADL-basierten Analysen lieferten die erwarteten Ergebnisse, was eine hohe Ergebnisqualität bedeutet. Den Modellierungsaufwand in den erweiterten ADLs validierten wir sowohl für das Hinzufügen, als auch das Wechseln eines Vertraulichkeitsmechanismus bei einer bestehenden Softwarearchitektur. In beiden Validierungen konnten wir zeigen, dass die ADL-Integrationen Modellierungsaufwand einsparen, indem beträchtliche Teile bestehender Softwarearchitekturen wiederverwendet werden können. Von unseren Beiträgen profitieren Softwarearchitekten durch gesteigerte Flexibilität bei der Auswahl von Vertraulichkeitsmechanismen, sowie beim Wechsel zwischen diesen Mechanismen. Die frühe Identifikation von Vertraulichkeitsverletzungen verringert darüber hinaus den Aufwand zum Beheben der zugrundeliegenden Probleme.
- Published
- 2022
45. Architectural Alignment of Access Control Requirements Extracted from Business Processes
- Author
-
Pilipchuk, Roman, Reussner, R. H., and Reussner, Ralf H.
- Subjects
Business Processes ,Geschäftsprozesse ,Zugriffskontrolle ,Access Control ,enterprise architecture ,business processes ,DATA processing & computer science ,access control ,Software Engineering ,ddc:004 ,Enterprise Architecture ,software engineering - Abstract
Geschäftsprozesse und IT-Systeme sind einer ständigen Evolution unterworfen und beeinflussen sich in hohem Maße gegenseitig. Dies führt zu der Herausforderung, Sicherheitsaspekte innerhalb von Geschäftsprozessen und Enterprise Application Architectures (EAAs) in Einklang zu bringen. Im Besonderen gilt dies für Zugriffskontrollanforderungen, welche sowohl in der IT-Sicherheit als auch im Datenschutz einen hohen Stellenwert haben. Die folgenden drei Ziele der Geschäftsebene verdeutlichen die Bedeutung von Zugriffskontrollanforderungen: $ 1) $ Identifikation und Schutz von kritischen und schützenswerten Daten und Assets. $ 2) $ Einführung einer organisationsweiten IT-Sicherheit zum Schutz vor cyberkriminellen Attacken. $ 3) $ Einhaltung der zunehmenden Flut an Gesetzen, welche die IT-Sicherheit und den Datenschutz betreffen. Alle drei Ziele sind in einem hohen Maß mit Zugriffskontrollanforderungen auf Seiten der Geschäftsebene verbunden. Aufgrund der Fülle und Komplexität stellt die vollständige und korrekte Umsetzung dieser Zugriffskontrollanforderungen eine Herausforderung für die IT dar. Hierfür muss das Wissen von der Geschäftsebene hin zur IT übertragen werden. Die unterschiedlichen Terminologien innerhalb der Fachdomänen erschweren diesen Prozess. Zusätzlich beeinflussen die Größe von Unternehmen, die Komplexität von EAAs sowie die Verflechtung zwischen EAAs und Geschäftsprozessen die Fehleranfälligkeit im Entwurfsprozess von Zugriffsberechtigungen und EAAs. Dieser Zusammenhang führt zu einer Diskrepanz zwischen ihnen und den Geschäftsprozessen und wird durch den Umstand der immer wiederkehrenden Anpassungen aufgrund von Evolutionen der Geschäftsprozesse und IT-Systeme verstärkt. Bisherige Arbeiten, die auf Erweiterungen von Modellierungssprachen setzen, fordern einen hohen Aufwand von Unternehmen, um vorhandene Modelle zu erweitern und die Erweiterungen zu pflegen. Andere Arbeiten setzen auf manuelle Prozesse. Diese erfordern viel Aufwand, skalieren nicht und sind bei komplexen Systemen fehleranfällig. Ziel meiner Arbeit ist es, zu untersuchen, wie Zugriffskontrollanforderungen zwischen der Geschäftsebene und der IT mit möglichst geringem Mehraufwand für Unternehmen angeglichen werden können. Im Speziellen erforsche ich, wie Zugriffskontrollanforderungen der Geschäftsebene, extrahiert aus Geschäftsprozessen, automatisiert in Zugriffsberechtigungen für Systeme der rollenbasierten Zugriffskontrolle (RBAC) überführt werden können und wie die EAA zur Entwurfszeit auf die Einhaltung der extrahierten Zugriffskontrollanforderungen überprüft werden kann. Hierdurch werden Sicherheitsexperten beim Entwerfen von Zugriffsberechtigungen für RBAC Systeme unterstützt und die Komplexität verringert. Weiterhin werden Enterprise-Architekten in die Lage versetzt, die EAA zur Entwurfszeit auf Datenflüsse von Services zu untersuchen, welche gegen die geschäftsseitige Zugriffskontrollanforderungen verstoßen und diese Fehler zu beheben. Die Kernbeiträge meiner Arbeit lassen sich wie folgt zusammenfassen: $\textbf{I)}$ Ein Ansatz zur automatisierten Extraktion von geschäftsseitigen Zugriffskontrollanforderungen aus Geschäftsprozessen mit anschließender Generierung eines initialen Rollenmodells für RBAC. $\textbf{II)}$ Ein Ansatz zum automatisierten Erstellen von architekturellen Datenfluss-Bedingungen aus Zugriffskontrollanforderungen zur Identifikation von verbotenen Datenflüssen in Services von IT-Systemen der EAA. $\textbf{III)}$ Eine Prozessmodell für Unternehmen über die Einsatzmöglichkeiten der Ansätze innerhalb verschiedener Evolutionsszenarien. $\textbf{IV)}$ Ein Modell zur Verknüpfung relevanter Elemente aus Geschäftsprozessen, RBAC und EAAs im Hinblick auf die Zugriffskontrolle. Dieses wird automatisiert durch die Ansätze erstellt und dient unter anderem zur Dokumentation von Entwurfsentscheidungen, zur Verbesserung des Verständnisses von Modellen aus anderen Domänen und zur Unterstützung des Enterprise-Architekten bei der Auflösung von Fehlern innerhalb der EAA. Die Anwendbarkeit der Ansätze wurden in zwei Fallstudien untersucht. Die erste Studie ist eine Real-Welt-Studie, entstanden durch eine Kooperation mit einer staatlichen Kunsthalle, welche ihre IT-Systeme überarbeitet. Eine weitere Fallstudie wurde auf Basis von Common Component Modeling Example (CoCoME) durchgeführt. CoCoME ist eine durch die Wissenschaftsgemeinde entwickelte Fallstudie einer realistischen Großmarkt-Handelskette, welche speziell für die Erforschung von Software-Modellierung entwickelt wurde und um Evolutinsszenarien ergänzt wurde. Aufgrund verschiedener gesetzlicher Regularien an die IT-Sicherheit und den Datenschutz sowie dem Fluss von sensiblen Daten eignen sich beide Fallstudien für die Untersuchung von Zugriffskontrollanforderungen. Beide Fallstudien wurden anhand der Goal Question Metric-Methode durchgeführt. Es wurden Validierungsziele definiert. Aus diesen wurden systematisch wissenschaftliche Fragen abgleitet, für welche anschließend Metriken aufgestellt wurden, um sie zu untersuchen. Die folgenden Aspekte wurden untersucht: $\bullet$ Qualität der generierten Zugriffsberechtigungen. $\bullet$ Qualität der Identifikation von fehlerhaften Datenflüssen in Services der EAA. $\bullet$ Vollständigkeit und Korrektheit des generierten Modells zur Nachverfolgbarkeit von Zugriffskontrollanforderungen über Modelle hinweg. $\bullet$ Eignung der Ansätze in Evolutionsszenarien von Geschäftsprozessen und EAAs. Am Ende dieser Arbeit wird ein Ausblick gegeben, wie sich die vorgestellten Ansätze dieser Arbeit erweitern lassen. Dabei wird unter anderem darauf eingegangen, wie das Modell zur Verknüpfung relevanter Elemente aus Geschäftsprozessen, RBAC und EAAs im Hinblick auf die Zugriffskontrolle, um Elemente aus weiteren Modellen der IT und der Geschäftsebene, erweitert werden kann. Weiterhin wird erörtert wie die Ansätze der Arbeit mit zusätzlichen Eingabeinformationen angereichert werden können und wie die extrahierten Zugriffskontrollanforderungen in weiteren Domänenmodellen der IT und der Geschäftsebene eingesetzt werden können.
- Published
- 2021
46. A Reference Structure for Modular Metamodels of Quality-Describing Domain-Specific Modeling Languages
- Author
-
Strittmatter, Misha, Reussner, Ralf, and Rumpe, Bernhard
- Subjects
Modularität ,Modellierungssprachen ,ComputingMethodologies_SIMULATIONANDMODELING ,DATA processing & computer science ,Modularity ,Modeling Languages ,DSMLs ,Referenzstruktur ,Software_SOFTWAREENGINEERING ,Metamodels ,Software_PROGRAMMINGLANGUAGES ,ddc:004 ,Metamodelle ,Reference Structure - Abstract
To understand the problems in metamodeling, this work presents an investigation of bad smells in metamodels. The core contribution of this work is the reference structure. It enables design, evolution, and extension of metamodels for modeling languages used for quality analysis. Applying the reference structure yields a modular metamodel. To be able to couple the metamodel modules in a meaningful way, this book investigates metamodel extension mechanisms.
- Published
- 2020
47. Zielsystemunabhängige Quelltextsynthese aus natürlicher Sprache
- Author
-
Kiesel, Viktor, Tichy, Walter F., Reussner, Ralf H., and Weigelt, Sebastian
- Subjects
(source) code generation ,(source) code synthesis ,DATA processing & computer science ,Natural Language Processing (NLP) ,ddc:004 ,Programming in natural language - Abstract
In dieser Arbeit wurde das Thema der zielsystemunabhängigen Quelltextsynthese aus natürlicher Sprache untersucht. Aus aufbereiteten Sprachinformationen extrahieren Mustererkenner einen Syntaxbaum, welcher durch Besucher im Quelltext für unterschiedliche Zielsysteme übersetzt wurde. Die Ergebnisse einer Online-Studie zeigen, dass Quelltext mit Kontrollstrukturen aus natürlicher Sprache synthetisiert werden kann.
- Published
- 2019
48. Automatische Vorhersage von ��nderungsausbreitungen am Beispiel von Automatisierungssystemen
- Author
-
Koch, Sandro and Reussner, Ralf
- Subjects
Software Architecture ,Maintenance ,DATA processing & computer science ,Change Propagation ,KAMP ,ddc:004 - Abstract
Das Karlsruher Architecture Maintainability Prediction Framework (KAMP) bestimmt anhand der Architektur eines Systems, wie sich eine ��nderung durch ein System propagiert. Zum aktuellen Zeitpunkt umfassen die Dom��nen, die mit KAMP analysiert werden k��nnen, die Softwaredom��ne und Gesch��ftsprozesse. Diese Arbeit evaluiert die M��glichkeit, ob das KAMP-Framework derart erweitert werden kann, dass es auch in der Dom��ne der automatisierten Produktionssysteme (aPS) Einsatz nden wird. Auf der Basis einer bestehenden Produktionsanlage der technischen Universit��t M��nchen wird das Framework derart erweitert, dass zuvor definierte ��nderungsszenarien evaluiert werden k��nnen. Bisher wurde die ��nderungsausbreitung in aPS auf Hardwareebene betrachtet, entkoppelt von der darauf eingesetzten Software. Hier wird eine bisher nicht betrachtete M��glichkeit aufgezeigt, wie bei der ��nderungsausbreitung sowohl Hardware als auch Software gemeinsam untersucht werden k��nnen. Dazu wird jeweils ein Metamodell f��r die Anlage, eines f��r die Software und eines f��r die Auslieferung der Software auf die Hardware vorgestellt. Dar��ber hinaus werden Ausbreitungsregeln herausgearbeitet, so dass die ��nderungspropagation f��r die Hardware und Software eines aPS berechnet werden kann. Dadurch wird es m��glich sein, die ��nderungsausbreitung als ganzheitliches System zu betrachten und schlussendlich auch zu verwenden.
- Published
- 2017
- Full Text
- View/download PDF
49. Generator-Composition for Aspect-Oriented Domain-Specific Languages
- Author
-
Reiner Jung, Hasselbring, Wilhelm, and Reussner, Ralf H.
- Subjects
Metamodel Semantics ,doctoral thesis ,Abschlussarbeit ,Faculty of Engineering ,Technische Fakultät ,ddc:0XX ,Metamodel ,Generator Construction ,ddc:004 ,Metamodel, Generator Construction, Metamodel Semantics - Abstract
Software systems are complex, as they must cover a diverse set of requirements describing functionality and the environment. Software engineering addresses this complexity with Model-Driven Engineering ( MDE ). MDE utilizes different models and metamodels to specify views and aspects of a software system. Subsequently, these models must be transformed into code and other artifacts, which is performed by generators. Information systems and embedded systems are often used over decades. Over time, they must be modified and extended to fulfill new and changed requirements. These alterations can be triggered by the modeling domain and by technology changes in both the platform and programming languages. In MDE these alterations result in changes of syntax and semantics of metamodels, and subsequently of generator implementations. In MDE, generators can become complex software applications. Their complexity depends on the semantics of source and target metamodels, and the number of involved metamodels. Changes to metamodels and their semantics require generator modifications and can cause architecture and code degradation. This can result in errors in the generator, which have a negative effect on development costs and time. Furthermore, these errors can reduce quality and increase costs in projects utilizing the generator. Therefore, we propose the generator construction and evolution approach GECO, which supports decoupling of generator components and their modularization. GECO comprises three contributions: (a) a method for metamodel partitioning into views, aspects, and base models together with partitioning along semantic boundaries, (b) a generator composition approach utilizing megamodel patterns for generator fragments, which are generators depending on only one source and one target metamodel, (c) an approach to modularize fragments along metamodel semantics and fragment functionality. All three contributions together support modularization and evolvability of generators.
- Published
- 2016
50. Model-driven online capacity management for component-based software systems
- Author
-
van Hoorn, André, Hasselbring, Wilhelm, Reussner, Ralf, and Kounev, Samuel
- Subjects
software architecture ,Abschlussarbeit ,runtime reconfiguration ,Faculty of Engineering ,Technische Fakultät ,dynamic analysis ,doctoral thesis ,monitoring ,Model-driven software engineering ,capacity management ,ddc:0XX ,software performance engineering ,ddc:004 ,Model-driven software engineering, software performance engineering, software architecture, capacity management, runtime reconfiguration, monitoring, dynamic analysis - Abstract
Capacity management is a core activity when designing and operating distributed software systems. It comprises the provisioning of data center resources and the deployment of software components to these resources. The goal is to continuously provide adequate capacity, i.e., service level agreements should be satisfied while keeping investment and operating costs reasonably low. Traditional capacity management strategies are rather static and pessimistic: resources are provisioned for anticipated peak workload levels. Particularly, enterprise application systems are exposed to highly varying workloads, leading to unnecessarily high total cost of ownership due to poor resource usage efficiency caused by the aforementioned static capacity management approach. During the past years, technologies emerged that enable dynamic data center infrastructures, e. g., leveraged by cloud computing products. These technologies build the foundation for elastic online capacity management, i.e., adapting the provided capacity to workload demands based on a short-term horizon. Because manual online capacity management is not an option, automatic control approaches have been proposed. However, most of these approaches focus on coarse-grained adaptation actions and adaptation decisions are based on aggregated system-level measures. Architectural information about the controlled software system is rarely considered. This thesis introduces a model-driven online capacity management approach for distributed component-based software systems, called SLAstic. The core contributions of this approach are a) modeling languages to capture relevant architectural information about a controlled software system, b) an architecture-based online capacity management framework based on the common MAPE-K control loop architecture, c) model-driven techniques supporting the automation of the approach, d) architectural runtime reconfiguration operations for controlling a system’s capacity, e) as well as an integration of the Palladio Component Model. A qualitative and quantitative evaluation of the approach is performed by case studies, lab experiments, and simulation.
- Published
- 2014
Catalog
Discovery Service for Jio Institute Digital Library
For full access to our library's resources, please sign in.