• Themen
  • themen_ba

Themen für Abschluss-, Projekt- und Seminararbeiten (Bachelor)

 



Themen für Bachelorarbeiten   -    Themen für Bachelorprojekte  -    Themen für Seminararbeiten

[Diese Seite wird seit dem 12.10.2018 nicht mehr gewartet. Aktuelle Informationen zu Abschlussarbeiten finden sie im Moodle-Kurs]

Hier finden Sie Themen und Ansprechpartner für Ihre Bachelorarbeit, Bachelorprojekt und Hauptseminar. Falls Sie ein Thema interessiert, so können Sie sich direkt an den genannten Ansprechpartner wenden, um weitere Details zu besprechen und offene Fragen zu klären. Wir sind auch offen für Themenvorschläge von Ihrer Seite.

Wir bieten Arbeiten in den folgenden Themengebieten an: Modellbasierte Entwicklung von Embedded Systems & Cyber-Physikalischen Systemen, Future Internet, Internet-der-Dinge (IoT), Cloud Computing, Requirements Engineering und Variabilitätsmanagement. 

In der Vergangenheit wurden verschiedene in der Arbeitsgruppe SSE betreute Arbeiten als beste Abschlussarbeiten prämiert. Eine Übersicht über diese Arbeiten finden Sie hier.

Die bei der Infoveranstaltung am 11.07.2018 präsentierten Themen sowie die Termine zur Diskussion mit den Betreuern und die Regeln für die Bewerbung finden Sie hier.

Die nächste Infoveranstaltung findet am 15.10.2018 um 14:00 in SGW-009 statt. 

Themen für Bachelorarbeiten 

 
  • Themenbereich:  Digitalisierung / Big Data / Cloud
    Generierung und Aktualisierung von R-PRIS Laufzeitmodellen auf Basis einer instrumentierten PaaS-Lösung
    Lehrschwerpunkt: Software Engineering, Requirements Engineering
    Andreas Metzger
    Geo-Lokations-Richtlinien spezifizieren Geo-Lokationen an denen personenbezogene Daten verarbeitet und gespeichert werden dürfen. Beim Einsatz von Cloud-Applikationen zur Verarbeitung und Speicherung personenbezogener Daten können Geo-Lokations-Richtlinien z.B. durch Cloud-Migration und -Replikation verletzt werden. Die am SSE-Lehrstuhl entwickelte Datenschutzprüfung R-PRIS erkennt Geo-Lokations-Richtlinien-Verletzungen mit Hilfe von Laufzeitmodellen [Schmieders et al. 2015]. In dieser Arbeit soll R-PRIS auf eine PaaS-Lösung angewendet werden. Dem Studenten (bzw. der Studentin) wird eine geeignete PaaS-Lösung vorgegeben (geplant ist Docker als eine container-basierte Cloud-Lösung). Für diese PaaS-Lösung soll der Student die R-PRIS-Monitoring-Sonden konfigurieren, sowie geeignete Modelltransformationsregeln zur Aktualisierung der R-PRIS-Laufzeitmodelle definieren. Mit den Sonden und Regeln soll R-PRIS in der Lage sein, ein Laufzeitmodell der ausgewählten PaaS-Lösung zu generieren und zur Laufzeit zu aktualisieren. Dazu soll untersucht werden, welche für die Prüfung notwendigen Informationen zur Laufzeit in der PaaS beobachtet werden können (Monitoring) und welche Informationen ergänzend aus Design-Zeit-Informationen hergeleitet werden müssen.
    • Schmieders, E., Metzger, A., Pohl, K., 2015. Architectural Runtime Models for Privacy Checks of Cloud Applications, in: Proceedings of the 7th International Workshop on Principles of Engineering Service-Oriented and Cloud Systems, PESOS 2015. ACM, New York, NY, USA. .
  • Themenbereich:  Digitalisierung / Big Data / Cloud
    Vergleich der Prognosegenauigkeit zweier Ensemble-Prognosetechniken für Geschäftsprozesse
    Andreas Metzger
    Durch die Digitalisierung der Wirtschaft und das Internet-der-Dinge werden stetig mehr Daten erzeugt. Umso wichtiger ist es für Unternehmen, diese Daten effektiv und effizient für die Optimierung der Geschäftsprozesse zu Nutzen. Eine Herausforderung dabei ist die Vorhersage von Prozessausnahmen, wie zum Beispiel die Verzögerung in einem Prozess oder die Veränderung der Prozesskosten. Diese Vorhersagen dienen Praktikern proaktiv, korrektive Maßnahmen einzuleiten, z.B. den Prozess geeignet anzupassen, um eine Verzögerung und Qualitätsmängel zu vermeiden. Insbesondere gilt es dabei externe Erwartungen (z. B. Service-Level Agreements mit Kunden bzgl. der Prozesslaufzeit), und interne Erwartungen (z. B. Prozesskosten) zu berücksichtigen, um eine bestmögliche Lösung zu finden. Eine wichtige Eigenschaft der Prognosetechniken ist deren Prognosegenauigkeit (siehe z.B. Metzger & Föcker, 2017). Ein Ansatz, der sich zur Erhöhung der Prognosegenauigkeit in der Literatur etabliert, ist die sogenannte Ensemble-Prognose. Die Ensemble-Prognose ist eine Meta-Prognosetechnik, bei welcher Prognosen unterschiedlicher Prognosemodelle kombiniert werden (Dietterich, 2000). Das Ziel der Arbeit ist ein Vergleich der Prognosegenauigkeit zweier Ensemble-Prognosetechniken für Geschäftsprozesse. 
    • Breuker, D., Matzner, M., Delfmann, P., & Becker, J. (2016). Comprehensible Predictive Models for Business Processes. MIS Quarterly, 40(4).
    • Dietterich, T. G. (2000). Ensemble methods in machine learning. Multiple classifier systems, 1857, 1-15.
    • A. Metzger and F. Föcker, “Predictive business process monitoring considering reliability estimates,” in Advanced Information Systems Engineering - 29th International Conference, CAiSE 2017, Essen, Germany, June 12-16, 2017, ser. Lecture Notes in Computer Science, E. Dubois and K. Pohl, Eds., vol. 10253. Springer, 2017.
  • Themenbereich: Kryptographie, Cloud Computing, Distributed Computing
    Performance-Analyse einer vollhomomorphen symmetrischen kryptographischen Bibliothek
    Stefan Schoenen
    Vollhomomorphe Verschlüsselung („Fully Homomorphic Encyrption“ - FHE) erlaubt es einer Partei ihre Nachrichten so zu verschlüsseln, dass auch eine andere Partei auf dem Chiffretext mathematische Operationen durchführen kann, ohne dass hierfür der Klartext benötigt wird.
    Dadurch kann eine andere Partei indirekt den Klartext bearbeiten, ohne ihn zu kennen.
    Mittels FHE können somit u.a. verschiedene Cloud-Anwendungen sicher gemacht werden.
    Die „Fastest Homomorphic Encryption in the West“ (FHEW) ist eine Open-Source-Kryptographie Bibliothek, die vollhomomorphe Verschlüsselungsverfahren unterstützt. Das Außergewöhnliche an FHEW ist, dass die verwendeten Verfahren symmetrisch sind (d.h. der geheime Schlüssel zum Entschlüsseln wird auch zum Verschlüsseln verwendet).
    Im Rahmen dieser Bachelorarbeit soll die Performance von FHEW analysiert werden.
    •  L. Ducas and D. Micciancio: FHEW: Bootstrapping homomor-phic encryption in less than a second. Annual International Conference on the Theory and Applications of Cryptographic Techniques, Sofia, Bulgaria, April 26-30. Published in: E. Os-wald, M. Fischlin: Advances in Cryptology – EUROCRYPT 2015, Springer Berlin Heidelberg, 2015, pp. 617-640.
    • C. Gentry: Fully homomorphic encryption using ideal lattices. Symposium on Theory of Computing 2009, May 31, 2009 – June 2, 2009, Bethesda, Maryland, USA. Pub-lished in: M. Mitzenmacher: STOC ‘09 Proceedings of the forty-first annual ACM Symposi-um on Theory of Computing, 2009, pp. 169–178
    •  Z. Brakerski, C. Gentry, V. Vaikuntanathan: (Leveled) Fully homo-morphic encryption without bootstrapping. Published in: ACM Transactions on Computation Theory (TOCT) – Special issue on innovations in theoretical computer science 2012 – Part II, Volume 6, Issue 3, Article No. 13, July 1, 2014.
  • Themenbereich: Cloud Computing, Data Protection
    Implementierung des Risiko-Muster-Ansatzes zur Erkennung von möglichen Datenschutzverletzungen in Cloud-Systemen Stefan Schoenen
    Der Zugriff auf große Speicherkapazitäten und die Durchführung sehr schneller Berechnungen ohne kostspielige Hardware- und Software-Anschaffungen sind nur einige der vie-len Vorteile von Cloud-Computing gegenüber der Nutzung lokaler Ressourcen.
    Allerdings ergeben sich beim Einsatz von Cloud-Computing Datenschutzrisiken. Wenn z.B. ein Nutzer einer Datenbank seine vertraulichen Daten in dieser Datenbank speichert und ein ande-rer, aus Sicht des ersten Nutzers nicht vertrauenswürdiger zweiter Nutzer lesenden Zugriff auf diese Datenbank hat, entsteht ein Risiko, dass ein Nutzer unerlaubterweise Zugriff auf die Daten des anderen Nutzers hat (siehe z.B. [Kandukuri et al. 2009]).
    Die spezifischen Datenschutzrisiken einer konkreten Cloud-Konfiguration zu entdecken ist nicht trivial.
    In [Schoenen et al. 2017] wird ein Konzept zur Erkennung von Datenschutzrisiken vorgestellt, welche sich aus dem Zusammenspiel zwischen Akteuren/Schichten/Komponenten ergeben. Das Konzept basiert auf sogenannten „Risiko-Mustern“. Diese Risiko-Muster beschreiben riskante Konstellationen von Cloud-Ressourcen, Software-Komponenten, Daten und Akteuren. Die Idee ist, mit Risiko-Mustern Risiken in Cloud-Szenarien aufzudecken, indem die Risiko-Muster in Cloud-Laufzeitmodellen gesucht werden („Pattern-Matching“).
    Das Ziel der Bachelorarbeit ist es, das Konzept der Risiko-Muster aus [Schoenen et al. 2017] zu implementieren. Zur Validierung der Implementierung soll das in [Schoenen et al. 2017] dargestellte industrielle Cloud-Szenario (aus dem RestAssured-Projekt) umgesetzt werden. Anschließend soll die Implementierung auf dieses Szenario angewendet werden, um zu zeigen, dass die in [Schoenen et al. 2017] dargestellten Risiko-Muster gefunden werden können.
    Um dies technisch zu realisieren, soll das „Graph-Pattern-Matching“ mittels Henshin gelöst werden. Henshin ist eine weit verbreitete Eclipse-Erweiterung, die Modelle, die mittels des Eclipse Modelling Framework (EMF) erstellt wurden, transformieren kann.
    • S., Mann, Z. and Metzger A.: Using Risk Patterns to identify violations of data protection policies in cloud services. 13th International Workshop on Engineering Service-Oriented Applications and Cloud Services WESOACS@ICSOC, 2017
    • Nikolai, J., Wang, Y.: A streaming intrusion monitoring and classifi-cation system for IaaS cloud. In: 2016 IEEE 9th International Conference on Cloud Computing (CLOUD). pp. 632–639 (June 2016)
    •  Foster, Howard, and George Spanoudakis. "Advanced service moni-toring configurations with SLA decomposition and selection." Proceedings of the 2011 ACM Symposium on Applied Computing. ACM, 2011, pp. 1582-1589. 
  • Themenbereich: Cloud Computing, Adaptive Systeme
    Monitoring und Adaption in Management-Tools für Cloud-Infrastruktur

    Zoltan Mann


    Cloud-Computing bietet große Flexibilität auf mehreren Ebenen. Beispielsweise können die einer Anwendung zur Verfügung gestellten Ressourcen dynamisch zur Laufzeit angepasst werden, um auf Änderungen in der Nutzeranzahl zu reagieren. Um dieses adaptive Verhalten zu erreichen, müssen Cloud-Systeme überwacht (Monitoring) und die entsprechenden Änderungsmechanismen (Adaption) automatisch angestoßen werden. Da die durch Monitoring und Adaption erzielte Flexibilität ein Kernaspekt von Cloud-Systemen ist, werden Monitoring und Adaption von allen gängigen Cloud-Management-Werkzeugen unterstützt. Allerdings gibt es Unterschiede unter anderem bei der Menge der überwachten Ereignisse und bei den unterstützten Adaptionsmechanismen.
    Das Ziel der Abschlussarbeit ist der Vergleich von gängigen Management-Tools für Cloud-Infrastrukturen bezüglich der Unterstützung für Monitoring und Adaption. Beispielhaft sollen folgende Tools untersucht werden: OpenStack (Ceilometer+Heat), Kubernetes, Scalr. Die Herausforderung der Arbeit besteht darin, aus den verfügbaren, sehr umfangreichen und heterogenen Informationen die wesentlichen Aspekte zu ermitteln und in einer einheitlichen (möglichst konzeptuellen/prinzipiellen) Form darzustellen. Dazu wird ein entsprechender konzeptueller Rahmen vorgegeben. 
  • Themenbereich:  Adaptive Systeme 
    Suchbasiertes Software-Engineering: Eine strukturierte Literaturanalyse

    Zoltan Mann


    Die Idee des suchbasierten Software-Engineerings (SBSE) besteht darin, Probleme im Software-Engineering als algorithmische Suchprobleme zu definieren, in denen eine Lösung gefunden werden soll, die gewisse Bedingungen erfüllt und eine Zielfunktion minimiert bzw. maximiert. Wenn das Problem in dieser Form definiert wurde, können Optimierungsalgorithmen benutzt werden, um automatisch eine geeignete Lösung zu finden.

    Durch die wachsende Komplexität und Dynamik von Softwaresystemen wird es zunehmend wichtig, Anpassungen der Software automatisch zur Laufzeit vorzunehmen. Dazu müssen verschiedene Software-Engineering-Tätigkeiten automatisiert und zur Laufzeit durchgeführt werden. Suchbasierte Ansätze sind prinzipiell gut für die automatisierte Durchführung zur Laufzeit geeignet; es kann jedoch verschiedene Hindernisse geben (z.B. eine zu hohe Ausführungszeit).

    Das Ziel der Abschlussarbeit ist es, in Form einer strukturierten Literaturanalyse eine Übersicht über die durch SBSE adressierten Problembereiche zu geben. Besonderes Augenmerk soll darauf gelegt werden, inwieweit die beschriebenen Ansätze für die automatische Durchführung zur Laufzeit geeignet sein könnten.

  • Themenbereich: Modellbasierte Entwicklung, kollaborative eingebettete Systeme, Unsicherheit, UML
    Erstellung und Anwendung eines UML-Profils für die orthogonale Modellierung von Unsicherheiten im Engineering kollaborativer eingebetteter Systeme

    Torsten Bandyszak


    Kollaborative eingebettete Systeme sind zur Laufzeit einer hohen Dynamik ausgesetzt. Die Erkennung, Dokumentation, Analyse und Handhabung von Unsicherheiten, die im Betrieb auftreten können, ist unerlässlich, da Unsicherheiten möglicherweise sicherheitsgefährdende Situationen verursachen. Unsicherheiten wirken sich auf die Entscheidungsmöglichkeiten aus, mit denen ein System zur Laufzeit auf veränderte Kontexteigenschaften reagieren kann. Insbesondere durch Kollaboration mit anderen Systemen können Situationen auftreten, in denen mehrdeutige Informationen über den Systemkontext vorliegen, sodass eine unsichere Entscheidungsgrundlage zur Verfügung steht. Um derartige Situationen zur Entwicklungszeit, insbesondere möglichst früh im Requirements Engineering, zu analysieren, wurde in [Bandyszak et al. 2018] ein prinzipieller Ansatz zur orthogonalen Modellierung von Unsicherheiten untersucht. Hier werden Aspekte der Unsicherheit in separaten Modellen modelliert, basierend auf ausgewählten Konzepten zur Unsicherheitsmodellierung aus der Literatur [Zhang et al. 2016; Zhang et al. 2017]. Die orthogonalen Unsicherheitsmodelle können mit anderen Entwicklungsartefakten, beispielsweise Kontextmodellen oder Anforderungsmodellen, über grafische Links in Verbindung gesetzt werden, um u. a. die Effekte von Unsicherheiten im Kontext auf Elemente in Anforderungsmodellen zu dokumentieren. Das Ziel dieser Bachelorarbeit ist die Erarbeitung einer geeigneten Werkzeugunterstützung für den Ansatz aus [Bandyszak et al. 2018]. Hierzu ist die Definition einer UML-Erweiterung als UML-Profil sowie dessen Umsetzung mithilfe eines geeigneten Werkzeuges vorgesehen. UML-Profile sind ein leichtgewichtiger Erweiterungsmechanismus, der die Definition von Stereotypen auf Metamodellebene vorsieht und dadurch die Stereotypisierung von Modellelementen erlaubt. Das UML-Profil soll außerdem anhand eines Fallbeispiels angewendet werden.

    • Torsten Banyszak, Patrick Kuhs, Jasmin Kleinblotekamp, Marian Daun: On the Use of Orthogonal Context Uncertainty Models in the Engineering of Collaborative Embedded Systems. In: Joint Proceedings of the Workshops at Modellierung 2018 co-located with Modellierung 2018, Braunschweig, Germany, February 21, 2018, CEUR-WS.org, 2018, 121-130.
    • Man Zhang, Shaukat Ali, Tao Yue, Roland Norgren, Oscar Okariz: Uncertainty-Wise Cyber-Physical System test modeling. Software & Systems Modeling, Online first, 2017, 1–40 .
    • Man Zhang, Bran Selic, Shaukat Ali, Tao Yue, Oscar Okariz, Roland Norgren: Understanding Uncertainty in Cyber-Physical Systems: A Conceptual Model. Modelling Foundations and Applications (ECMFA), Springer, Cham, 2016, 247–264.
  • Themenbereich: Modellbasierte Entwicklung
    Identifikation von nicht ausgeführtem Verhalten in Verhaltensspezifikationen von teilgebundenen Komponenten

    Vanessa Stricker


    Komponentenbasierte Softwareentwicklung forciert die Entwicklung großer, komplexer Systeme durch die Wiederverwendung von existierenden Komponenten. In der Praxis hat sich allerdings gezeigt, dass das Komponieren von Komponenten zu Systemen selten ohne Anpassung der Komponenten funktioniert. Stattdessen ist oftmals nur einer Teilmenge der angebotenen oder verlangten Funktionalitäten einer Komponente in einer neuen Komponentenkomposition von Nutzen [Bosch 2007]. Die Wiederverwendung einer Teilmenge der Funktionen einer Komponente während andere Funktionen in einer Komposition ungenutzt bleiben, kann dadurch erreicht werden, dass die Schnittstellen und Ports der Komponente nicht vollständig gebunden werden (wie z.B. in [Adamek und Plasil 2004 und Hennicker et al. 2010] beschrieben). Wenn Komponenten nicht vollständig gebunden werden, kann es sein, dass ein Teil des Verhaltens der Komponenten in der Komposition niemals ausgeführt. Dieses nicht ausgeführte Verhalten stellt eine Herausforderung für die Analyse des Kompositionsverhaltens dar, da die meisten Verifikationsansätze auf der Analyse des spezifizierten Verhaltens basieren. Die Bachelorarbeit hat das Ziel eine Technik zur Identifikation von nicht benötigtem Verhalten aufgrund von Teilbindungen einer Komponente zu erarbeiten. Der dabei definierte Algorithmus soll prototypisch implementiert werden.

    • [Adamek and Plasil 2004] Adamek, J., Plasil, F.: Partial Bindings of Components - Any Harm?, Proceedings of the 11th Asia-Pacific Software Engineering Conference, IEEE Computer Society, 2004, 632-639.
    • [Bosch 2007] Bosch, J.: Software product families: towards compositionality. In: Proceedings of the 10th international conference on Fundamental approaches to software engineering, Springer-Verlag, 2007, 1-10.
    • [Hennicker et al. 2010] Hennicker, R.; Janisch, S. & Knapp, A.: On the Observable Behaviour of Composite Components. Electron. Notes Theor. Comput. Sci. 260, January 2010, 125-153.
  • Themenbereich: Big Data / Deep Learning
    • Untersuchung der Prognosegenauigkeit von Ensembletechniken mit Rekurrenten neuronalen Netzen zur Prognose von Geschäftsprozessen

    Adrian Neubauer


    Durch die Digitalisierung der Wirtschaft und das Internet-der-Dinge werden stetig mehr Daten erzeugt. Umso wichtiger ist es für Unternehmen, diese Daten effektiv und effizient für die Op-timierung der Geschäftsprozesse zu Nutzen. Eine Herausforderung dabei ist die Vorhersage von Prozessausnahmen, wie zum Beispiel die Verzögerung in einem Prozess oder die Veränderung der Prozesskosten. Diese Prognosen von Geschäftsprozessen dienen Praktikern dazu, proaktiv korrektive Maßnahmen einzuleiten, z.B. den Prozess geeignet anzupassen, um eine Verzögerung und Qualitätsmängel zu vermeiden. Insbesondere gilt es dabei externe Erwartungen (z.B. Service-Level Agreements mit Kunden bzgl. der Prozesslaufzeit), und interne Erwartungen (z.B. Prozesskosten) zu berücksichtigen, um eine bestmögliche Lösung zu finden. 

    Eine wichtige Eigenschaft der Prognosetechniken ist deren Prognosegenauigkeit. In der Arbeitsgruppe wurden bereits verschiedene Prognosetechniken miteinander verglichen und auf ihre Prognosegenauigkeit hin evaluiert (z.B.: Multilayer Perceptron und Rekurrente neuronale Netze). Dabei zeigten die Rekurrenten neuronalen Netze mit LSTM-Zellen die besten Einzelprognosen. Zusätzlich können sogenannte Ensemble-Prognosen angewendet werden. Die Ensemble-Prognose ist eine Meta-Prognosetechnik, bei welcher Einzelprognosen unterschiedlicher Basis-Prognosemodelle kombiniert werden um die Prognosegenauigkeit zu erhöhen. In der Arbeitsgruppe wurden bereits verschiedene Anwendungen von Ensemble-Prognosen auf MLPs untersucht, allerdings noch nicht mit den Einzelprognosen von Rekurrenten neuronalen Netzen.

    Das Ziel der Abschlussarbeit ist die Anwendung und experimentelle Untersuchung von Ensemble-Prognosetechniken basierend auf den Einzelprognosen von RNN mit LSTM-Zellen. Die Abschlussarbeit soll untersuchen, ob eine Steigerung der Prognosegenauigkeit für RNN mit Hilfe von Ensemble-Techniken möglich ist. Dafür sollen die beiden Ensemble-Techniken „Bootstrap Aggregating“ („Bagging“) und „Boosting“ untersucht werden. Als Datenbasis wird ein publizierter Datensatz aus der Industrie zur Anwendung kommen. Dabei handelt es sich um Daten aus der Transport- und Logistikwirtschaft – Cargo 2000 Datensatz (siehe www.s-cube-network.eu/c2k/).

     

    • T.G. Dietterich, „Ensemble methods in machine learning“. Multiple classifier systems, 1857, 1-15, 2000
    • D. Breuker, M. Matzner, P. Delfmann, and J. Becker, „Comprehensible Predictive Models for Business Processes“. MIS Quarterly, 40(4), 2016.
    • A. Metzger, O. Sammodi, and K. Pohl, “Accurate proactive adaptation of service-oriented systems,” in Assurances for Self-Adaptive Systems, J. Camara, R. de Lemos, C. Ghezzi, and A. Lopes, Eds., vol. LNCS 7740. Springer, 2013, pp. 240–265

     

  • Themenbereich: Big Data Analytics
    Vergleich von Metriken zur Bewertung der Genauigkeit binärer Prozessprognosen anhand eines Industriedatensatzes aus der Logistik

    Philipp Bohn


    Die Prognose von Geschäftsprozessen zielt darauf ab, Probleme während der Ausführung einer Prozessinstanz zu antizipieren, z.B. die Nichteinhaltung von Anforderungen oder die Verletzung von SLAs. Zu diesem Zweck wird vorhergesagt, wie sich eine laufende Prozessinstanz in Zukunft verhalten wird. Diese Vorhersagen können verwendet werden, um die Prozessinstanz proaktiv anzupassen und somit das Auftreten von Problemen zu verhindern. Eine wichtige Voraussetzung für jede Vorhersagetechnik ist, dass die Technik genaue Vorhersagen liefert. Informell charakterisiert die Vorhersagegenauigkeit die Fähigkeit einer Vorhersagetechnik, so viele echte Probleme wie möglich zu prognostizieren, während gleichzeitig so wenig Fehlalarme wie möglich erzeugt werden. Ein typisches Ziel für die Prozessprognose ist die binäre Vorhersage von Problemen. Eine „positive“ Prognose zeigt hier zum Beispiel die Verletzung des SLA an den Prozess an, wohingegen eine „negative“ Prognose die Einhaltung des SLA anzeigt. Diese Arbeit konzentriert sich auf Genauigkeits-Metriken für binäre Vorhersagen. Bekannte Metriken für die Beurteilung der Prognosegenauigkeit binärer Prognosen umfassen z.B. Precision, Recall oder die F-Measure. Im Allgemeinen können Genauigkeits-Metriken von den Eigenschaften des Datensatzes, welcher der Prognose zugrunde liegt, beeinflusst werden. Eine solche Eigenschaft ist die relative Anzahl der positiven und negativen Fälle (also z.B. die tatsächlichen SLA-Verletzungen vs. die tatsächlichen SLA-Erfüllungen). In typischen BPM-Szenarien ist die Anzahl der positiven Fälle deutlich geringer als die Anzahl der positiven Fälle. Die Ergebnisse, welche die Genauigkeits-Metriken liefern, können durch eine solche ungleiche Anzahl an positiven und negativen Fällen beeinflusst werden. Das Ziel dieser Arbeit ist der experimentelle Vergleich von Metriken zur Bewertung der Genauigkeit binärer Prozessprognosen unter Berücksichtigung möglicher Datensatz-Eigenschaften, welche die Ergebnisse der Genauigkeits-Metriken beeinflussen können

    • Metzger A., Sammodi O., Pohl K.: Accurate Proactive Adaptation of Service-Oriented Systems. In: Cámara J., de Lemos R., Ghezzi C., Lopes A. (eds) Assurances for Self-Adaptive Systems. Lecture Notes in Computer Science, vol. 7740. Springer, Berlin, Heidelberg, 2013.
    • Boughorbel S, Jarray F, El-Anbari M: Optimal classifier for imbalanced data using Matthews Correlation Coefficient metric. In: PLOS ONE, vol. 12 issue 6, 2017.

     

 

Themen für Bachelorprojekte

 

Themenbereich: Adaptive Systeme Structured-Literature-Review zum Thema: Laufzeitmodelle für die Adaption von Cloud-Applikationen
Lehrschwerpunkt: Modelle der Informatik

Zoltan Mann

 

Cloud-Nutzer sowie Cloud-Anbieter setzen Adaptionstechniken ein, um Cloud-Applikationen während der Laufzeit zu adaptieren. Cloud-Nutzer adaptieren Cloud-Applikationen, um beispielsweise Antwortzeiten einer Cloud-Applikation zu steigern. Parallel dazu setzen Cloud-Anbieter Adaptionen ein, z.B. um die Kosten des Betriebs zu minimieren.

Die Adaptionstechniken basieren oft auf einem Modell der Cloud-Umgebung oder der Cloud-Applikation, dem sog. "Laufzeitmodell". Das Laufzeitmodell dient dabei als Grundlage, um z.B. mögliche Folgen einer Adaption abzuschätzen bevor sie durchgeführt wird (zum Begriffsverständnis von "Laufzeitmodellen" siehe [1]).

In dem Bachelorprojekt soll ein Überblick über Laufzeitmodelle in existierenden Arbeiten zur Adaption von Cloud-Applikationen erarbeitet werden.

Als Vorarbeit für den Überblick entwickelt der Student/die Studentin Kategorien, mit denen modellbasierte Techniken zur Adaption von Cloud-Applikationen kategorisiert werden können. Aus den Kategorien soll unter anderem hervorgehen, welcher Teil der Cloud-Applikation bzw. welche Ebene der Cloud-Stack adaptiert wird und wer die Adaption durchführt. Die konzeptionelle Grundlage für die Kategorien wird bereitgestellt (siehe [2] und [3]).

Die erarbeiteten Kategorien bilden die Grundlage für den Literaturüberblick. Für die Erarbeitung des Literaturüberblicks soll die Methode des „Structured Literature Reviews“ verwendet werden. InteressentInnen sollen motiviert sein, sich in diese Überblick-Methode, in Laufzeitmodelle sowie in Adaption von Cloud-Applikationen einzuarbeiten.

Das Bachelorprojekt kann als Grundlage für eine Bachelorarbeit dienen. 
 

 

Themen für Seminararbeiten

 
  • Themenbereich: Embedded, Cyber-Physical & Collaborative Systems Emergentes Verhalten kollaborativer Systeme
    Lehrschwerpunkt: Software Engineering
    Jennifer Brings
    Eingebettete Systeme werden heutzutage zunehmend kollaborativ in Systemverbünden eingesetzt. Dabei ergibt sich das Verhalten des Gesamtsystems nicht nur aus dem der Einzelsysteme, sondern aus deren Zusammenspiel. Dieses sogenannte emergente Verhalten kann zum einen beabsichtige Funktionalität ermöglichen, zum anderen aber auch unbeabsichtigt und fehlerhaft sein. Ziel dieser Literaturrecherche ist es einen Überblick über den Stand der Wissenschaft bzgl. emergenten Verhaltens kollaborativer System zu geben.
    • Marian Daun, Jennifer Brings, Torsten Bandyszak, Philipp Bohn, Thorsten Weyer: Collaborating Multiple System Instances of Smart Cyber-physical Systems: A Problem Situation, Solution Idea, and Remaining Research Challenges. In: Tomas Bures, Danny Weyns, Mark Klein, Rodolfo E. Haber (eds.): Proceedings of the 1st IEEE/ACM International Workshop on Software Engineering for Smart Cyber-Physical Systems (SEsCPS 2015), IEEE, 2015, 48-51.
    • Marian Daun, Andrea Salmon, Thorsten Weyer: Using dedicated Review Diagrams to detect Defective Functional Interplay in Function-Centered Engineering. In: Wolf Zimmermann, Wolfgang Böhm, Clemens Grelck, Robert Heinrich, Reiner Jung, Marco Konersmann, Alexander Schlaefer, Eric Schmieders, Sibylle Schupp, Trancón y Widemann, Baltasar, Thorsten Weyer (eds.): Gemeinsamer Tagungsband der Workshops der Tagung Software Engineering 2015, Volume 1337 of CEUR Workshop Proceedings, CEUR-WS.org, 2015, 31-40.
  • Themenbereich: Forschungstransfer
    Überführung von akademischen Forschungsergebnissen in die industrielle Praxis
    Lehrschwerpunkt: Software Engineering, Requirements Engineering
    Jennifer Brings
    Oftmals dauert es Jahre bis Forschungsergebnisse Anwendung in der Industrie finden. Gründe dafür sind neben mangelndem Bekanntheitsgrad häufig auch Zeit- und Kostendruck, der Unternehmen davon abhält von Altbewährtem abzuweichen. Innerhalb einer Literaturrecherche sollen Lösungen gesucht werden, die den Transfer von akademischen Forschungsergebnissen in die industrielle Praxis unterstützen.
    • Shari Lawrence Pfleeger: Understanding and improving technology transfer in software engineering. Journal of Systems and Software, Volume 47, Number 2-3, 1999, 111-124.
    • Philipp Diebold, Antonio Vetrò and Daniel Mendez Fernandez: An Exploratory Study on Technology Transfer in Software Engineering. In: Empirical Software Engineering and Measurement (ESEM) 2015, IEEE, 2015, 1-10.
  • Themenbereich:  Digitalisierung / Big Data / Cloud
    Structured Literature Review zum Thema: Abbildung von Cloud-Applikationen in deskriptiven Laufzeit-Strukturmodellen
    Lehrschwerpunkt: Software Engineering
    Andreas Metzger
    Deskriptive Laufzeitmodelle bilden Applikationen auch nach ihrem Deployment ab. Wird die abgebildete Applikation modifiziert, dann wird (je nach modelliertem Aspekt) analog das Laufzeitmodell modifiziert. Die Gruppe der deskriptiven Laufzeit-Strukturmodelle konzentriert sich auf die strukturellen Eigenschaften der abgebildeten Applikationen, wie z.B. die Applikations-Komponenten sowie deren Deployments. In dieser Seminararbeit soll eine systematische Literaturübersicht über Ansätze zu deskriptiven Laufzeit-Strukturmodellen von Cloud-Applikationen erstellt werden. Eingesetzt werden soll die Methode des „Structured Literature Reviews“. InteressentInnen sollen motiviert sein, sich in diese Methode sowie in die Themenfelder Cloud-Applikationen und Laufzeitmodelle einzuarbeiten.
    • Szvetits, M., Zdun, U., 2013. Systematic literature review of the objectives, techniques, kinds, and architectures of models at runtime. Software & Systems Modeling. DOI 
    • Schmieders, E., Metzger, A., Pohl, K., 2015. Architectural Runtime Models for Privacy Checks of Cloud Applications, in: Proceedings of the 7th International Workshop on Principles of Engineering Service-Oriented and Cloud Systems, PESOS 2015. ACM, New York, NY, USA.
  • Themenbereich:  Digitalisierung / Big Data / Cloud
    A state-of-the-art literature on business process predictions: Data sets
    Lehrschwerpunkt: Software Engineering, Software-Qualitätssicherung
    Andreas Metzger
    The Internet-of-Things and the digitization of the economy increasingly generate new data that allows engineers to monitor and analyze the data in order to make business process predictions. These predictions enable engineers to identify and proactively manage necessary process adaptations in an effort to drive down costs and optimize process throughput. In order to enhance researcher’s ability to assess and judge the predictions accuracy, different tools and data sets have been developed. The students of this seminar thesis is expected to conduct a systematic literature review according to Kitchenham (2007). Therefore, the student will learn to systematically summarize and synthesize the state-of-the-art literature on the pressing topic of process predictions, comparing and synthesizes existing tools and data sets used in research.
    • Metzger, A., Leitner, P., Ivanović, D., Schmieders, E., Franklin, R., Carro, M., ... & Pohl, K. (2015). Comparing and combining predictive business process monitoring techniques. IEEE Transactions on Systems, Man, and Cybernetics: Systems, 45(2), 276-290.
    • Kitchenham, B. (2007). Guidelines for performing systematic literature reviews in software engineering. In Technical report, Ver. 2.3 EBSE Technical Report. EBSE. sn.
  • Themenbereich: Virtualisierung (in der Cloud)
    Discussing the difference between Docker containers and Virtual Machines

    Andreas Metzger
    Docker is a way of packaging applications together with all their dependencies into container unit. The technology of Docker adds an abstraction layer and is therefore independent from underlying infrastructure. Isolated in a container it is possible to migrate applications to different machines without caring about version numbers and compatibility of the running software in order to fulfil dependencies. This seminar work starts with an introduction to the technology of Docker, discusses its advantages and describes briefly how it's implemented. The key contribution is the detailled comparison between Docker containers and virtual machines. What is the difference and how does this influence the flexibility, portability and maintainability?
    • https://www.docker.com/
    • D. Merkel, Docker: Lightweight Linux Containers for Consistent Development and Deployment, Linux J., Bd. 2014, Nr. 239, März 2014.
  • Themenbereich: Virtualisierung (in der Cloud)
    Studying fine-grained Virtualization in Cloud: Docker and beyond


    Andreas Metzger
    Docker is a way of packaging applications together with all their dependencies into container unit. The technology of Docker adds an abstraction layer and is therefore independent from underlying infrastructure. Isolated in a container it is possible to migrate applications to different machines without caring about version numbers and compatibility of the running software in order to fulfil dependencies. This seminar work starts with an introduction to the technology of Docker, discusses its advantages and describes briefly how it's implemented. The seminar work surveys the existing commercial and non-commercial solutions for application isolation via containers such as Rocket/CoreOS, etc. Alternatives to Docker will be compared and their advantages and disadvantages discussed.
  • Themenbereich: Virtualisierung (in der Cloud)
    Scaling Mechanisms for a 2-Tier Web-Application with Docker containers


    Andreas Metzger
    Docker is a way of packaging applications together with all their dependencies into container unit. The technology of Docker adds an abstraction layer and is therefore independent from underlying infrastructure. Isolated in a container it is possible to migrate applications to different machines without caring about version numbers and compatibility of the running software in order to fulfil dependencies. This seminar work starts with an introduction to the technology of Docker, discusses its advantages and describes briefly how it's implemented. In this seminar work a practical example for scaling mechanisms with Docker containers will be created. The task is to implement a simple 2-tier application with Apache, WordPress and a MySQL Database. Docker offers several scaling mechanisms that should be tested and discussed.
  • Themenbereich: Virtualisierung (in der Cloud)
    Cloud Elasticity Languages


    Andreas Metzger
    There are different ways of describing elasticity rules in Cloud environments, e.g., with the use of modelling languages. This seminar gives a brief introduction to cloud elasticity and investigates the existing modelling languages to specify cloud elasticity, e.g., auto-scaling rules. An example of an existing language is SYBL: "SYBL: An Extensible Language for Controlling Elasticity in Cloud Applications"
    • G. Copil, D. Moldovan, H.-L. Truong, und S. Dustdar, „SYBL: An Extensible Language for Controlling Elasticity in Cloud Applications“, in 2013 13th IEEE/ACM International Symposium on Cluster, Cloud and Grid Computing (CCGrid), 2013, 112–119.
  • Themenbereich: Virtualisierung (in der Cloud)
    Dashboards for Cloud Monitoring


    Andreas Metzger
    Cloud environments comprise of several subsystems that have to be coordinated and monitored. This seminar work compares the existing dashboard solutions used for cloud monitoring and application performance monitoring, e.g., in OpenStack, Microsoft Azure or Amazon Web Services. The comparison covers the difference between internal tools running on the server to be monitored and external tools probing the system under consideration.
 

 

 

 

Impressum • Kontakt • Anfahrt • Datenschutz