• Themen
  • themen_ba

Themen für Abschluss-, Projekt- und Seminararbeiten (Bachelor)

 

Themen für Bachelorarbeiten   -   Themen für Bachelorprojekte  -   Themen für Seminararbeiten

 

Hier finden Sie Themen und Ansprechpartner für Ihre Bachelorarbeit, Bachelorprojekt und Hauptseminar. Falls Sie ein Thema interessiert, so können Sie sich direkt an den genannten Ansprechpartner wenden, um weitere Details zu besprechen und offene Fragen zu klären. Wir sind auch offen für Themenvorschläge von Ihrer Seite.

Wir bieten Arbeiten in den folgenden Themengebieten an: Modellbasierte Entwicklung von Embedded Systems & Cyber-Physikalischen Systemen, Future Internet, Internet-der-Dinge (IoT), Cloud Computing, Requirements Engineering und Variabilitätsmanagement. 

In der Vergangenheit wurden verschiedene in der Arbeitsgruppe SSE betreute Arbeiten als beste Abschlussarbeiten prämiert. Eine Übersicht über diese Arbeiten finden Sie hier.

Themen für Bachelorarbeiten

 
  • Themenbereich:  Digitalisierung / Big Data / Cloud Prototypical Implementation of Model Checking in the Cloud

    Amir Molzam Sharifloo
    Given a model of system (aka specification) and expected system properties, a model checker determines whether or not the model satisfies the properties. For example, model checker is able to reason about system performance even before any implementation and execution be completed. Due to the rapid emerge of adaptive systems, e.g. Cloud and IoT applications, being able to run model checkers at any time and from any device would be a demand of modern adaptive systems. The goal of this bachelor thesis is to implement and evaluate a Cloud-based framework to deploy model checkers in the Cloud and to provide REST APIs to be used by adaptive systems.
  • Themenbereich:  Digitalisierung / Big Data / Cloud
    Generierung und Aktualisierung von R-PRIS Laufzeitmodellen auf Basis einer instrumentierten PaaS-Lösung
    Lehrschwerpunkt: Software Engineering, Requirements Engineering
    Eric Schmieders
    Geo-Lokations-Richtlinien spezifizieren Geo-Lokationen an denen personenbezogene Daten verarbeitet und gespeichert werden dürfen. Beim Einsatz von Cloud-Applikationen zur Verarbeitung und Speicherung personenbezogener Daten können Geo-Lokations-Richtlinien z.B. durch Cloud-Migration und -Replikation verletzt werden. Die am SSE-Lehrstuhl entwickelte Datenschutzprüfung R-PRIS erkennt Geo-Lokations-Richtlinien-Verletzungen mit Hilfe von Laufzeitmodellen [Schmieders et al. 2015]. In dieser Arbeit soll R-PRIS auf eine PaaS-Lösung angewendet werden. Dem Studenten (bzw. der Studentin) wird eine geeignete PaaS-Lösung vorgegeben (geplant ist Docker als eine container-basierte Cloud-Lösung). Für diese PaaS-Lösung soll der Student die R-PRIS-Monitoring-Sonden konfigurieren, sowie geeignete Modelltransformationsregeln zur Aktualisierung der R-PRIS-Laufzeitmodelle definieren. Mit den Sonden und Regeln soll R-PRIS in der Lage sein, ein Laufzeitmodell der ausgewählten PaaS-Lösung zu generieren und zur Laufzeit zu aktualisieren. Dazu soll untersucht werden, welche für die Prüfung notwendigen Informationen zur Laufzeit in der PaaS beobachtet werden können (Monitoring) und welche Informationen ergänzend aus Design-Zeit-Informationen hergeleitet werden müssen.
    • Schmieders, E., Metzger, A., Pohl, K., 2015. Architectural Runtime Models for Privacy Checks of Cloud Applications, in: Proceedings of the 7th International Workshop on Principles of Engineering Service-Oriented and Cloud Systems, PESOS 2015. ACM, New York, NY, USA. .
  • Themenbereich:  Digitalisierung / Big Data / Cloud
    Vergleich der Prognosegenauigkeit zweier Ensemble-Prognosetechniken für Geschäftsprozesse
    Karl Werder
    Durch die Digitalisierung der Wirtschaft und das Internet-der-Dinge werden stetig mehr Daten erzeugt. Umso wichtiger ist es für Unternehmen, diese Daten effektiv und effizient für die Optimierung der Geschäftsprozesse zu Nutzen. Eine Herausforderung dabei ist die Vorhersage von Prozessausnahmen, wie zum Beispiel die Verzögerung in einem Prozess oder die Veränderung der Prozesskosten. Diese Vorhersagen dienen Praktikern proaktiv, korrektive Maßnahmen einzuleiten, z.B. den Prozess geeignet anzupassen, um eine Verzögerung und Qualitätsmängel zu vermeiden. Insbesondere gilt es dabei externe Erwartungen (z. B. Service-Level Agreements mit Kunden bzgl. der Prozesslaufzeit), und interne Erwartungen (z. B. Prozesskosten) zu berücksichtigen, um eine bestmögliche Lösung zu finden. Eine wichtige Eigenschaft der Prognosetechniken ist deren Prognosegenauigkeit (siehe z.B. Metzger & Föcker, 2017). Ein Ansatz, der sich zur Erhöhung der Prognosegenauigkeit in der Literatur etabliert, ist die sogenannte Ensemble-Prognose. Die Ensemble-Prognose ist eine Meta-Prognosetechnik, bei welcher Prognosen unterschiedlicher Prognosemodelle kombiniert werden (Dietterich, 2000). Das Ziel der Arbeit ist ein Vergleich der Prognosegenauigkeit zweier Ensemble-Prognosetechniken für Geschäftsprozesse. 
    • Breuker, D., Matzner, M., Delfmann, P., & Becker, J. (2016). Comprehensible Predictive Models for Business Processes. MIS Quarterly, 40(4).
    • Dietterich, T. G. (2000). Ensemble methods in machine learning. Multiple classifier systems, 1857, 1-15.
    • A. Metzger and F. Föcker, “Predictive business process monitoring considering reliability estimates,” in Advanced Information Systems Engineering - 29th International Conference, CAiSE 2017, Essen, Germany, June 12-16, 2017, ser. Lecture Notes in Computer Science, E. Dubois and K. Pohl, Eds., vol. 10253. Springer, 2017.
  • Themenbereich: Kryptographie, Cloud Computing, Distributed Computing
    Performance-Analyse einer vollhomomorphen symmetrischen kryptographischen Bibliothek
    Stefan Schoenen
    Vollhomomorphe Verschlüsselung („Fully Homomorphic Encyrption“ - FHE) erlaubt es einer Partei ihre Nachrichten so zu verschlüsseln, dass auch eine andere Partei auf dem Chiffretext mathematische Operationen durchführen kann, ohne dass hierfür der Klartext benötigt wird.
    Dadurch kann eine andere Partei indirekt den Klartext bearbeiten, ohne ihn zu kennen.
    Mittels FHE können somit u.a. verschiedene Cloud-Anwendungen sicher gemacht werden.
    Die „Fastest Homomorphic Encryption in the West“ (FHEW) ist eine Open-Source-Kryptographie Bibliothek, die vollhomomorphe Verschlüsselungsverfahren unterstützt. Das Außergewöhnliche an FHEW ist, dass die verwendeten Verfahren symmetrisch sind (d.h. der geheime Schlüssel zum Entschlüsseln wird auch zum Verschlüsseln verwendet).
    Im Rahmen dieser Bachelorarbeit soll die Performance von FHEW analysiert werden.
    •  L. Ducas and D. Micciancio: FHEW: Bootstrapping homomor-phic encryption in less than a second. Annual International Conference on the Theory and Applications of Cryptographic Techniques, Sofia, Bulgaria, April 26-30. Published in: E. Os-wald, M. Fischlin: Advances in Cryptology – EUROCRYPT 2015, Springer Berlin Heidelberg, 2015, pp. 617-640.
    • C. Gentry: Fully homomorphic encryption using ideal lattices. Symposium on Theory of Computing 2009, May 31, 2009 – June 2, 2009, Bethesda, Maryland, USA. Pub-lished in: M. Mitzenmacher: STOC ‘09 Proceedings of the forty-first annual ACM Symposi-um on Theory of Computing, 2009, pp. 169–178
    •  Z. Brakerski, C. Gentry, V. Vaikuntanathan: (Leveled) Fully homo-morphic encryption without bootstrapping. Published in: ACM Transactions on Computation Theory (TOCT) – Special issue on innovations in theoretical computer science 2012 – Part II, Volume 6, Issue 3, Article No. 13, July 1, 2014.
  • Themenbereich: Cloud Computing, Data Protection
    Implementierung des Risiko-Muster-Ansatzes zur Erkennung von möglichen Datenschutzverletzungen in Cloud-Systemen Stefan Schoenen
    Der Zugriff auf große Speicherkapazitäten und die Durchführung sehr schneller Berechnungen ohne kostspielige Hardware- und Software-Anschaffungen sind nur einige der vie-len Vorteile von Cloud-Computing gegenüber der Nutzung lokaler Ressourcen.
    Allerdings ergeben sich beim Einsatz von Cloud-Computing Datenschutzrisiken. Wenn z.B. ein Nutzer einer Datenbank seine vertraulichen Daten in dieser Datenbank speichert und ein ande-rer, aus Sicht des ersten Nutzers nicht vertrauenswürdiger zweiter Nutzer lesenden Zugriff auf diese Datenbank hat, entsteht ein Risiko, dass ein Nutzer unerlaubterweise Zugriff auf die Daten des anderen Nutzers hat (siehe z.B. [Kandukuri et al. 2009]).
    Die spezifischen Datenschutzrisiken einer konkreten Cloud-Konfiguration zu entdecken ist nicht trivial.
    In [Schoenen et al. 2017] wird ein Konzept zur Erkennung von Datenschutzrisiken vorgestellt, welche sich aus dem Zusammenspiel zwischen Akteuren/Schichten/Komponenten ergeben. Das Konzept basiert auf sogenannten „Risiko-Mustern“. Diese Risiko-Muster beschreiben riskante Konstellationen von Cloud-Ressourcen, Software-Komponenten, Daten und Akteuren. Die Idee ist, mit Risiko-Mustern Risiken in Cloud-Szenarien aufzudecken, indem die Risiko-Muster in Cloud-Laufzeitmodellen gesucht werden („Pattern-Matching“).
    Das Ziel der Bachelorarbeit ist es, das Konzept der Risiko-Muster aus [Schoenen et al. 2017] zu implementieren. Zur Validierung der Implementierung soll das in [Schoenen et al. 2017] dargestellte industrielle Cloud-Szenario (aus dem RestAssured-Projekt) umgesetzt werden. Anschließend soll die Implementierung auf dieses Szenario angewendet werden, um zu zeigen, dass die in [Schoenen et al. 2017] dargestellten Risiko-Muster gefunden werden können.
    Um dies technisch zu realisieren, soll das „Graph-Pattern-Matching“ mittels Henshin gelöst werden. Henshin ist eine weit verbreitete Eclipse-Erweiterung, die Modelle, die mittels des Eclipse Modelling Framework (EMF) erstellt wurden, transformieren kann.
    • S., Mann, Z. and Metzger A.: Using Risk Patterns to identify violations of data protection policies in cloud services. 13th International Workshop on Engineering Service-Oriented Applications and Cloud Services WESOACS@ICSOC, 2017
    • Nikolai, J., Wang, Y.: A streaming intrusion monitoring and classifi-cation system for IaaS cloud. In: 2016 IEEE 9th International Conference on Cloud Computing (CLOUD). pp. 632–639 (June 2016)
    •  Foster, Howard, and George Spanoudakis. "Advanced service moni-toring configurations with SLA decomposition and selection." Proceedings of the 2011 ACM Symposium on Applied Computing. ACM, 2011, pp. 1582-1589. 
  • Themenbereich: Cloud Computing, Adaptive Systeme
    Monitoring und Adaption in Management-Tools für Cloud-basierte Anwendungen

    Zoltan Mann


    Cloud-Computing bietet große Flexibilität auf mehreren Ebenen. Beispielsweise können die einer Anwendung zur Verfügung gestellten Ressourcen dynamisch zur Laufzeit angepasst werden, um auf Änderungen in der Nutzeranzahl zu reagieren. Um dieses adaptive Verhalten zu erreichen, müssen Cloud-Systeme überwacht (Monitoring) und die entsprechenden Änderungsmechanismen (Adaption) automatisch angestoßen werden. Da die durch Monitoring und Adaption erzielte Flexibilität ein Kernaspekt von Cloud-Systemen ist, werden Monitoring und Adaption von allen gängigen Cloud-Management-Werkzeugen unterstützt. Allerdings gibt es Unterschiede unter anderem bei der Menge der überwachten Ereignisse und bei den unterstützten Adaptionsmechanismen.
    Das Ziel der Abschlussarbeit ist der Vergleich von gängigen Management-Tools für Cloud-basierte Anwendungen bezüglich der Unterstützung für Monitoring und Adaption. Beispielhaft sollen folgende Tools untersucht werden: Chef, Istio, Puppet. Die Herausforderung der Arbeit besteht darin, aus den verfügbaren, sehr umfangreichen und heterogenen Informationen die wesentlichen Aspekte zu ermitteln und in einer einheitlichen (möglichst konzeptuellen/prinzipiellen) Form darzustellen. Dazu wird ein entsprechender konzeptueller Rahmen vorgegeben. 
  • Themenbereich: Cloud Computing, Adaptive Systeme
    Monitoring und Adaption in Management-Tools für Cloud-Infrastruktur

    Zoltan Mann


    Cloud-Computing bietet große Flexibilität auf mehreren Ebenen. Beispielsweise können die einer Anwendung zur Verfügung gestellten Ressourcen dynamisch zur Laufzeit angepasst werden, um auf Änderungen in der Nutzeranzahl zu reagieren. Um dieses adaptive Verhalten zu erreichen, müssen Cloud-Systeme überwacht (Monitoring) und die entsprechenden Änderungsmechanismen (Adaption) automatisch angestoßen werden. Da die durch Monitoring und Adaption erzielte Flexibilität ein Kernaspekt von Cloud-Systemen ist, werden Monitoring und Adaption von allen gängigen Cloud-Management-Werkzeugen unterstützt. Allerdings gibt es Unterschiede unter anderem bei der Menge der überwachten Ereignisse und bei den unterstützten Adaptionsmechanismen.
    Das Ziel der Abschlussarbeit ist der Vergleich von gängigen Management-Tools für Cloud-Infrastrukturen bezüglich der Unterstützung für Monitoring und Adaption. Beispielhaft sollen folgende Tools untersucht werden: OpenStack (Ceilometer+Heat), Kubernetes, Scalr. Die Herausforderung der Arbeit besteht darin, aus den verfügbaren, sehr umfangreichen und heterogenen Informationen die wesentlichen Aspekte zu ermitteln und in einer einheitlichen (möglichst konzeptuellen/prinzipiellen) Form darzustellen. Dazu wird ein entsprechender konzeptueller Rahmen vorgegeben. 

 

Themen für Bachelorprojekte

 

Themenbereich: Adaptive SystemeStructured-Literature-Review zum Thema: Laufzeitmodelle für die Adaption von Cloud-Applikationen
Lehrschwerpunkt: Modelle der Informatik

Zoltan Mann

Eric Schmieders

Cloud-Nutzer sowie Cloud-Anbieter setzen Adaptionstechniken ein, um Cloud-Applikationen während der Laufzeit zu adaptieren. Cloud-Nutzer adaptieren Cloud-Applikationen, um beispielsweise Antwortzeiten einer Cloud-Applikation zu steigern. Parallel dazu setzen Cloud-Anbieter Adaptionen ein, z.B. um die Kosten des Betriebs zu minimieren.

Die Adaptionstechniken basieren oft auf einem Modell der Cloud-Umgebung oder der Cloud-Applikation, dem sog. "Laufzeitmodell". Das Laufzeitmodell dient dabei als Grundlage, um z.B. mögliche Folgen einer Adaption abzuschätzen bevor sie durchgeführt wird (zum Begriffsverständnis von "Laufzeitmodellen" siehe [1]).

In dem Bachelorprojekt soll ein Überblick über Laufzeitmodelle in existierenden Arbeiten zur Adaption von Cloud-Applikationen erarbeitet werden.

Als Vorarbeit für den Überblick entwickelt der Student/die Studentin Kategorien, mit denen modellbasierte Techniken zur Adaption von Cloud-Applikationen kategorisiert werden können. Aus den Kategorien soll unter anderem hervorgehen, welcher Teil der Cloud-Applikation bzw. welche Ebene der Cloud-Stack adaptiert wird und wer die Adaption durchführt. Die konzeptionelle Grundlage für die Kategorien wird bereitgestellt (siehe [2] und [3]).

Die erarbeiteten Kategorien bilden die Grundlage für den Literaturüberblick. Für die Erarbeitung des Literaturüberblicks soll die Methode des „Structured Literature Reviews“ verwendet werden. InteressentInnen sollen motiviert sein, sich in diese Überblick-Methode, in Laufzeitmodelle sowie in Adaption von Cloud-Applikationen einzuarbeiten.

Das Bachelorprojekt kann als Grundlage für eine Bachelorarbeit dienen. 
 
  • Themenbereich: Embedded, Cyber-Physical & Collaborative Systems Emergentes Verhalten kollaborativer Systeme
    Lehrschwerpunkt: Software Engineering
    Jennifer Brings
    Eingebettete Systeme werden heutzutage zunehmend kollaborativ in Systemverbünden eingesetzt. Dabei ergibt sich das Verhalten des Gesamtsystems nicht nur aus dem der Einzelsysteme, sondern aus deren Zusammenspiel. Dieses sogenannte emergente Verhalten kann zum einen beabsichtige Funktionalität ermöglichen, zum anderen aber auch unbeabsichtigt und fehlerhaft sein. Ziel dieser Literaturrecherche ist es einen Überblick über den Stand der Wissenschaft bzgl. emergenten Verhaltens kollaborativer System zu geben.
    • Marian Daun, Jennifer Brings, Torsten Bandyszak, Philipp Bohn, Thorsten Weyer: Collaborating Multiple System Instances of Smart Cyber-physical Systems: A Problem Situation, Solution Idea, and Remaining Research Challenges. In: Tomas Bures, Danny Weyns, Mark Klein, Rodolfo E. Haber (eds.): Proceedings of the 1st IEEE/ACM International Workshop on Software Engineering for Smart Cyber-Physical Systems (SEsCPS 2015), IEEE, 2015, 48-51.
    • Marian Daun, Andrea Salmon, Thorsten Weyer: Using dedicated Review Diagrams to detect Defective Functional Interplay in Function-Centered Engineering. In: Wolf Zimmermann, Wolfgang Böhm, Clemens Grelck, Robert Heinrich, Reiner Jung, Marco Konersmann, Alexander Schlaefer, Eric Schmieders, Sibylle Schupp, Trancón y Widemann, Baltasar, Thorsten Weyer (eds.): Gemeinsamer Tagungsband der Workshops der Tagung Software Engineering 2015, Volume 1337 of CEUR Workshop Proceedings, CEUR-WS.org, 2015, 31-40.
  • Themenbereich: Embedded, Cyber-Physical & Collaborative Systems Anforderungen an die Modellierung kollaborativer Systeme
    Lehrschwerpunkt: Software Engineering, Requirements Engineering
    Jennifer Brings
    Kollaborative Systeme erfüllen ihren Zweck üblicherweise nicht alleine, sondern erst im Zusammenspiel mit anderen kollaborativen Systemen. Dadurch entstehen (teilweise erst zur Laufzeit) Systemverbünde von kollaborativen Systemen. Innerhalb dieser Systemverbünde können nicht nur unterschiedliche Arten von kollaborativen Systemen, sondern auch mehrere Systeme des gleichen Typs existieren. Dies stellt die modellbasierte Entwicklung vor Herausforderungen, die von bisherigen Methoden nicht bzw. nur unzureichend adressiert werden. Um einen Beitrag zur Problemlösung zu liefern, soll die Arbeit Anforderungen an die Modellierung kollaborativer Systeme definieren. Diese Anforderungen sollen systematisch aus der existierenden Literatur zu kollaborativen Systemen abgeleitet werden. Hierzu ist nicht nur die Related Work zur Modellierung kollaborativer Systeme zu betrachten, sondern vielmehr auch Literatur, die sich mit Herausforderungen und Problemstellungen im Rahmen kollaborativer Systeme beschäftigt.
    • Manfred Broy, Albrecht Schmidt: Challenges in Engineering Cyber-Physical Systems. IEEE Computer, Volume 47, Number 2, 2014, 70-72.
    • He Zhang, Muhammad Ali Babar, Paolo Tell: Identifying relevant studies in software engineering, Information and Software Technology, Volume 53, Number 6, 625–637.

 

Themen für Seminararbeiten

 
  • Themenbereich: Embedded, Cyber-Physical & Collaborative Systems Emergentes Verhalten kollaborativer Systeme
    Lehrschwerpunkt: Software Engineering
    Jennifer Brings
    Eingebettete Systeme werden heutzutage zunehmend kollaborativ in Systemverbünden eingesetzt. Dabei ergibt sich das Verhalten des Gesamtsystems nicht nur aus dem der Einzelsysteme, sondern aus deren Zusammenspiel. Dieses sogenannte emergente Verhalten kann zum einen beabsichtige Funktionalität ermöglichen, zum anderen aber auch unbeabsichtigt und fehlerhaft sein. Ziel dieser Literaturrecherche ist es einen Überblick über den Stand der Wissenschaft bzgl. emergenten Verhaltens kollaborativer System zu geben.
    • Marian Daun, Jennifer Brings, Torsten Bandyszak, Philipp Bohn, Thorsten Weyer: Collaborating Multiple System Instances of Smart Cyber-physical Systems: A Problem Situation, Solution Idea, and Remaining Research Challenges. In: Tomas Bures, Danny Weyns, Mark Klein, Rodolfo E. Haber (eds.): Proceedings of the 1st IEEE/ACM International Workshop on Software Engineering for Smart Cyber-Physical Systems (SEsCPS 2015), IEEE, 2015, 48-51.
    • Marian Daun, Andrea Salmon, Thorsten Weyer: Using dedicated Review Diagrams to detect Defective Functional Interplay in Function-Centered Engineering. In: Wolf Zimmermann, Wolfgang Böhm, Clemens Grelck, Robert Heinrich, Reiner Jung, Marco Konersmann, Alexander Schlaefer, Eric Schmieders, Sibylle Schupp, Trancón y Widemann, Baltasar, Thorsten Weyer (eds.): Gemeinsamer Tagungsband der Workshops der Tagung Software Engineering 2015, Volume 1337 of CEUR Workshop Proceedings, CEUR-WS.org, 2015, 31-40.
  • Themenbereich: Embedded, Cyber-Physical & Collaborative Systems Herausforderungen bei der Entwicklung von Cyber-Physical Systems
    Lehrschwerpunkt: Software Engineering, Requirements Engineering
    Torsten Bandyszak
    Cyber-physikalische Systeme (Cyber-Physical Systems, CPS) zeichnen sich durch enge Integration von Software und physikalischen Komponenten, einen hohen Grad an Kooperation sowie durch enge Interaktionen mit dem Systemkontext und entsprechende Anpassungsfähigkeiten aus. Diese Systeme werden durch die zunehmende Vernetzung softwareintensiver Systeme durch das Internet ermöglicht. Die zunehmende Bedeutung von CPS zeigt sich darin, dass von verschiedenen Autoren bereits einige spezifische Herausforderungen bzw. Forschungsbereiche im Bereich der CPS aufgezeigt wurden. Ziel dieser Arbeit ist es, die Literatur aufzuarbeiten, indem Herausforderungen bei der Entwicklung von CPS aus verschiedenen wissenschaftlichen Beiträgen identifiziert, untersucht bzw. verglichen und konsolidiert werden.
    • Manfred Broy, María Victoria Cengarle, Eva Geisberger: Cyber-Physical Systems - Imminent Challenges. In: Radu Calinescu, David Garlan (eds.): Large-Scale Complex IT Systems. Development, Operation and Management, Volume 7539 of Lecture Notes in Computer Science, Springer, Berlin, Heidelberg, 2012, 1-28.
  • Themenbereich: Forschungstransfer
    Überführung von akademischen Forschungsergebnissen in die industrielle Praxis
    Lehrschwerpunkt: Software Engineering, Requirements Engineering
    Jennifer Brings
    Oftmals dauert es Jahre bis Forschungsergebnisse Anwendung in der Industrie finden. Gründe dafür sind neben mangelndem Bekanntheitsgrad häufig auch Zeit- und Kostendruck, der Unternehmen davon abhält von Altbewährtem abzuweichen. Innerhalb einer Literaturrecherche sollen Lösungen gesucht werden, die den Transfer von akademischen Forschungsergebnissen in die industrielle Praxis unterstützen.
    • Shari Lawrence Pfleeger: Understanding and improving technology transfer in software engineering. Journal of Systems and Software, Volume 47, Number 2-3, 1999, 111-124.
    • Philipp Diebold, Antonio Vetrò and Daniel Mendez Fernandez: An Exploratory Study on Technology Transfer in Software Engineering. In: Empirical Software Engineering and Measurement (ESEM) 2015, IEEE, 2015, 1-10.
  • Themenbereich:  Digitalisierung / Big Data / Cloud
    Structured Literature Review zum Thema: Abbildung von Cloud-Applikationen in deskriptiven Laufzeit-Strukturmodellen
    Lehrschwerpunkt: Software Engineering
    Eric Schmieders
    Deskriptive Laufzeitmodelle bilden Applikationen auch nach ihrem Deployment ab. Wird die abgebildete Applikation modifiziert, dann wird (je nach modelliertem Aspekt) analog das Laufzeitmodell modifiziert. Die Gruppe der deskriptiven Laufzeit-Strukturmodelle konzentriert sich auf die strukturellen Eigenschaften der abgebildeten Applikationen, wie z.B. die Applikations-Komponenten sowie deren Deployments. In dieser Seminararbeit soll eine systematische Literaturübersicht über Ansätze zu deskriptiven Laufzeit-Strukturmodellen von Cloud-Applikationen erstellt werden. Eingesetzt werden soll die Methode des „Structured Literature Reviews“. InteressentInnen sollen motiviert sein, sich in diese Methode sowie in die Themenfelder Cloud-Applikationen und Laufzeitmodelle einzuarbeiten.
    • Szvetits, M., Zdun, U., 2013. Systematic literature review of the objectives, techniques, kinds, and architectures of models at runtime. Software & Systems Modeling. DOI 
    • Schmieders, E., Metzger, A., Pohl, K., 2015. Architectural Runtime Models for Privacy Checks of Cloud Applications, in: Proceedings of the 7th International Workshop on Principles of Engineering Service-Oriented and Cloud Systems, PESOS 2015. ACM, New York, NY, USA.
  • Themenbereich:  Software Development / Big Data Analysis Software Product Metrics in Software Repository Mining: A State-of-the-Art Review Lehrschwerpunkt: Software Engineering, Software-QualitätssicherungKarl Werder Software repository provide a rich information about software systems and projects. The mining of software repositories allows us to identify and understand patterns that influence decisions made during the development of software (Hassan, 2008). An important property that often is the focus of repository mining projects is the software quality or reusability. The student of this seminar thesis is expected to conduct a systematic literature review following Kitchenham & Charters (2007). To this end, the student will learn to systematically summarize and synthesize the state-of-the-art literature on the repository mining and the generation of software metrics. Furthermore, the student will lean to compare and synthesize prior empirical studies. Hassan, A. E. (2008). The road ahead for mining software repositories. In Frontiers of Software Maintenance, 2008. FoSM 2008. (pp. 48-57). IEEE. Kitchenham, B. (2007). Guidelines for performing systematic literature reviews in software engineering. In Technical report, Ver. 2.3 EBSE Technical Report. EBSE. sn.
  • Themenbereich:  Software Development / Big Data Analysis
    Software Product Metrics in Software Repository Mining: A State-of-the-Art Review
    Lehrschwerpunkt: Software Engineering, Software-Qualitätssicherung
    Karl Werder
    Software repository provide a rich information about software systems and projects. The mining of software repositories allows us to identify and understand patterns that influence decisions made during the development of software (Hassan, 2008). An important property that often is the focus of repository mining projects is the software quality or reusability. The student of this seminar thesis is expected to conduct a systematic literature review following Kitchenham & Charters (2007). To this end, the student will learn to systematically summarize and synthesize the state-of-the-art literature on the repository mining and the generation of software metrics. Furthermore, the student will lean to compare and synthesize prior empirical studies. 
    • Hassan, A. E. (2008). The road ahead for mining software repositories. In Frontiers of Software Maintenance, 2008. FoSM 2008. (pp. 48-57). IEEE.
    • Kitchenham, B. (2007). Guidelines for performing systematic literature reviews in software engineering. In Technical report, Ver. 2.3 EBSE Technical Report. EBSE. sn.
  • Themenbereich:  Software Development / Big Data Analysis
    Mining of Software Process Metrics in Developer Platforms: A Survey of the Literature
    Lehrschwerpunkt: Software Engineering, Software-Qualitätssicherung
    Karl Werder
    Software development processes are characterized by highly collaborative activities among developers. In order to better understand these collaborative activities and developers’ performance, various metrics can be accessed, extracted, and calculated from software development platforms. Example platforms include GitHub, SourceForge, or Stack Overflow. Prior studies suggest the influence of developer interaction on software quality (Datta, 2017). Others go even further to extract emotions from developers written interactions, arguing that emotions are highly relevant for the performance of software development in order to achieve high quality and functionality goals (De Choudhury & Counts, 2013; Guzman et al., 2014). The student of this seminar thesis is expected to conduct a systematic literature review following Kitchenham & Charters (2007). To this end, the student will learn to systematically summarize and synthesize the state-of-the-art literature on the mining and generation of developer metrics, as well as the comparison and synthesis of prior empirical studies.  
    •  Datta, S. (2017). How does developer interaction relate to software quality? an examination of product development data. Empirical Software Engineering, 1-35.
    •  Choudhury, M., & Counts, S. (2013). Understanding affect in the workplace via social media. In Proceedings of the 2013 conference on Computer supported cooperative work - CSCW ’13 (p. 303). New York, New York, USA: ACM Press. Retrieved from http://dl.acm.org/citation.cfm?doid=2441776.24418
    •  Guzman, E., Azócar, D., & Li, Y. (2014). Sentiment analysis of commit comments in GitHub: an empirical study. Proceedings of the 11th Working Conference on Mining Software Repositories - MSR 2014, 352–355. Retrieved from http://dl.acm.org.prox.lib.ncsu.edu/citation.cfm?id=2597073.2597118
    • Kitchenham, B. (2007). Guidelines for performing systematic literature reviews in software engineering. In Technical report, Ver. 2.3 EBSE Technical Report. EBSE. sn.
  • Themenbereich:  Digitalisierung / Big Data / Cloud
    A state-of-the-art literature on business process predictions: Data sets
    Lehrschwerpunkt: Software Engineering, Software-Qualitätssicherung
    Karl Werder
    The Internet-of-Things and the digitization of the economy increasingly generate new data that allows engineers to monitor and analyze the data in order to make business process predictions. These predictions enable engineers to identify and proactively manage necessary process adaptations in an effort to drive down costs and optimize process throughput. In order to enhance researcher’s ability to assess and judge the predictions accuracy, different tools and data sets have been developed. The students of this seminar thesis is expected to conduct a systematic literature review according to Kitchenham (2007). Therefore, the student will learn to systematically summarize and synthesize the state-of-the-art literature on the pressing topic of process predictions, comparing and synthesizes existing tools and data sets used in research.
    • Metzger, A., Leitner, P., Ivanović, D., Schmieders, E., Franklin, R., Carro, M., ... & Pohl, K. (2015). Comparing and combining predictive business process monitoring techniques. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 45(2), 276-290.
    • Kitchenham, B. (2007). Guidelines for performing systematic literature reviews in software engineering. In Technical report, Ver. 2.3 EBSE Technical Report. EBSE. sn.
  • Themenbereich: Model-based Engineering Modellbasierte Testfallableitung auf Basis von UML-Diagrammen
    Lehrschwerpunkt: Software Engineering, Requirements Engineering
    Torsten Bandyszak
    Requirements Engineering und das Testen softwareintensiver Systeme sind eng miteinander verknüpft. Beim Testen werden Testfälle definiert und ausgeführt, um zu prüfen, ob das implementierte System die initial spezifizierten Anforderungen erfüllt. Daher werden Testfälle v. a. für System- und Akzeptanztests auf Basis von Anforderungsartefakten abgeleitet. In der modellbasierten Softwareentwicklung kommen zur Dokumentation von Anforderungen sowie zur Testfallableitung Modelle zum Einsatz, insbesondere im Hinblick einer möglichen Automatisierung der Testfallableitung. Ziel dieser Arbeit ist die Identifikation, Analyse und Vergleich von Ansätzen zur modellbasierten Testfallableitung, die auf spezifischen UML-Diagrammtypen (z. B. UML-Aktivitätsdiagrammen) basieren.
    • Mark Utting, Alexander Pretschner, Bruno Legeard: A Taxonomy of Model-based Testing Approaches. In: Journal of Software Testing, Verification & Reliability, Volume 22 Issue 5, 2012, 297-312.
    • Thomas Roßner, Christian Brandes, Helmut Götz, Mario Winter: Basiswissen Modellbasierter Test. dpunkt.Verlag, Heidelberg, 2010.
  • Themenbereich: Virtualisierung (in der Cloud)
    Discussing the difference between Docker containers and Virtual Machines
    Amir Molzam Sharifloo
    Docker is a way of packaging applications together with all their dependencies into container unit. The technology of Docker adds an abstraction layer and is therefore independent from underlying infrastructure. Isolated in a container it is possible to migrate applications to different machines without caring about version numbers and compatibility of the running software in order to fulfil dependencies. This seminar work starts with an introduction to the technology of Docker, discusses its advantages and describes briefly how it's implemented. The key contribution is the detailled comparison between Docker containers and virtual machines. What is the difference and how does this influence the flexibility, portability and maintainability?
    • https://www.docker.com/
    • D. Merkel, Docker: Lightweight Linux Containers for Consistent Development and Deployment, Linux J., Bd. 2014, Nr. 239, März 2014.
  • Themenbereich: Virtualisierung (in der Cloud)
    Studying fine-grained Virtualization in Cloud: Docker and beyond

    Amir Molzam Sharifloo
    Docker is a way of packaging applications together with all their dependencies into container unit. The technology of Docker adds an abstraction layer and is therefore independent from underlying infrastructure. Isolated in a container it is possible to migrate applications to different machines without caring about version numbers and compatibility of the running software in order to fulfil dependencies. This seminar work starts with an introduction to the technology of Docker, discusses its advantages and describes briefly how it's implemented. The seminar work surveys the existing commercial and non-commercial solutions for application isolation via containers such as Rocket/CoreOS, etc. Alternatives to Docker will be compared and their advantages and disadvantages discussed.
  • Themenbereich: Virtualisierung (in der Cloud)
    Scaling Mechanisms for a 2-Tier Web-Application with Docker containers

    Amir Molzam Sharifloo
    Docker is a way of packaging applications together with all their dependencies into container unit. The technology of Docker adds an abstraction layer and is therefore independent from underlying infrastructure. Isolated in a container it is possible to migrate applications to different machines without caring about version numbers and compatibility of the running software in order to fulfil dependencies. This seminar work starts with an introduction to the technology of Docker, discusses its advantages and describes briefly how it's implemented. In this seminar work a practical example for scaling mechanisms with Docker containers will be created. The task is to implement a simple 2-tier application with Apache, WordPress and a MySQL Database. Docker offers several scaling mechanisms that should be tested and discussed.
  • Themenbereich: Virtualisierung (in der Cloud)
    Cloud Elasticity Languages

    Amir Molzam Sharifloo
    There are different ways of describing elasticity rules in Cloud environments, e.g., with the use of modelling languages. This seminar gives a brief introduction to cloud elasticity and investigates the existing modelling languages to specify cloud elasticity, e.g., auto-scaling rules. An example of an existing language is SYBL: "SYBL: An Extensible Language for Controlling Elasticity in Cloud Applications"
    • G. Copil, D. Moldovan, H.-L. Truong, und S. Dustdar, „SYBL: An Extensible Language for Controlling Elasticity in Cloud Applications“, in 2013 13th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (CCGrid), 2013, 112–119.
  • Themenbereich: Virtualisierung (in der Cloud)
    Dashboards for Cloud Monitoring

    Amir Molzam Sharifloo
    Cloud environments comprise of several subsystems that have to be coordinated and monitored. This seminar work compares the existing dashboard solutions used for cloud monitoring and application performance monitoring, e.g., in OpenStack, Microsoft Azure or Amazon Web Services. The comparison covers the difference between internal tools running on the server to be monitored and external tools probing the system under consideration.
 

 

 

Impressum • Kontakt • Anfahrt