From f0dff3cc2b9e081102c7bfd6843928d98dfc5e9c Mon Sep 17 00:00:00 2001 From: Jan Philipp Timme Date: Tue, 23 Aug 2016 16:22:12 +0200 Subject: [PATCH] [TASK] Generic commit --- Bachelorarbeit.tex | 15 +++++++++------ 1 file changed, 9 insertions(+), 6 deletions(-) diff --git a/Bachelorarbeit.tex b/Bachelorarbeit.tex index fadcee0..6be0ae1 100644 --- a/Bachelorarbeit.tex +++ b/Bachelorarbeit.tex @@ -154,23 +154,25 @@ Hannover, den \today \hfill Unterschrift \chapter{Motivation}\label{cpt:motivation} -Mit der fortschreitenden Digitalisierung von Alltagsgegenständen und ihrer Verbindung mit dem Internet sind immer mehr offene Systeme online verfügbar, die ihre Sensordaten und Zustandsinformationen als RDF\footnote{Ressource Description Framework - Mehr dazu in Kapitel \ref{cpt:basics}}-Datenstrom anbieten. Diese Ereignisdatenströme liefern kontinuierlich Daten über hochfrequent auftretende Ereignisse, sodass innerhalb kürzester Zeit sehr große Datenmengen entstehen. Diese Ereignisse bilden jeweils kleine Stücke der Realität über die in ihnen enthalten Messdaten und Zustandsinformationen ab, sofern sie nicht bedingt durch technischen Defekt oder Messfehler ungültige Daten enthalten und somit zur weiteren Verarbeitung ungeeignet sind. Weiterhin muss betont werden, dass die Gültigkeit von Ereignisdaten sehr begrenzt ist und oft schon durch ein neues Ereignis hinfällig wird. +Mit der fortschreitenden Digitalisierung von Alltagsgegenständen und ihrer Verbindung mit dem Internet sind immer mehr offene Systeme online verfügbar, die ihre Sensordaten und Zustandsinformationen als RDF\footnote{Ressource Description Framework - Mehr dazu in Kapitel \ref{cpt:basics}}-Datenstrom anbieten. Diese Ereignisdatenströme liefern durchgehend und hochfrequent Ereignisdaten, sodass innerhalb kurzer Zeit sehr große Datenmengen anfallen. -Da die einzelnen Ereignisse für sich betrachtet nur eine begrenzte Aussagekraft und Gültigkeit haben, ist es zum höheren Verständnis der dahinter verborgenen Situation notwendig, sie mit den zuvor aufgetretenen Ereignissen in einen Kontext zu setzen, um zwischen ihnen Muster zu erkennen und aus ihnen höherwertige Informationen in Form von komplexen Ereignissen zu gewinnen. +Ereignisdaten bilden jeweils kleine Teile der Realität zumindest näherungsweise über die in ihnen enthalten Messdaten und Zustandsinformationen ab, sofern sie nicht bedingt durch technischen Defekt oder Messfehler ungültige Daten enthalten und somit zur Verarbeitung ungeeignet sind. Ein weiteres Problem ist die stark begrenzte Gültigkeit von Ereignisdaten: Oft werden sie schon durch ein neu aufgetretenes Ereignis hinfällig und sind nicht mehr aktuell. -Die Integration von Domänenwissen\footnote{Hintergrundwissen für den Kontext der Ereignisverarbeitung} ist ein weiterer Schritt, der die Brücke zwischen den aus komplexen Ereignissen gewonnenen Kenntnissen und bereits bekannten Fakten zu schlagen, die diese gewonnenen Kenntnisse in einen eindeutigen Zusammenhang stellen und eine eindeutige Interpretation ermöglichen. +Ereignisse haben für sich alleine betrachtet eine begrenzte Aussagekraft und Gültigkeit, daher ist es zum höheren Verständnis der dahinter verborgenen Situation notwendig, sie mit den zuvor aufgetretenen Ereignissen in einen Kontext zu setzen. Dadurch können mehrere Ereignisse zu komplexen Ereignissen aggregiert werden und mittels Mustererkennung höherwertige Informationen aus den Ereignissen extrahiert werden. + +Die Integration von Domänenwissen\footnote{Hintergrundwissen für den Kontext der Ereignisverarbeitung, verändert sich während der Verarbeitung nur selten} ist ein weiterer Schritt, der die Brücke zwischen den aus komplexen Ereignissen gewonnenen Kenntnissen und bereits bekannten Fakten zu schlagen, die diese gewonnenen Kenntnisse in einen eindeutigen Zusammenhang stellen und eine eindeutige Interpretation ermöglichen. Um unter den genannten Bedingungen viele Ereignisdatenströme mit hochfrequenten Ereignissen in nahezu Echtzeit zu verarbeiten ist CEP\footnote{Complex-Event-Processing} das Mittel der Wahl: Mit CEP werden die Ereignisse der verschiedenen Datenströme für begrenzte Zeiträume im lokalen Speicher vorgehalten und innerhalb von Sliding-Windows betrachtet. Dabei können Ereignismuster erkannt werden und verschiedene Ereignisse zu komplexeren Ereignissen aggregiert werden. -Ziel dieser Arbeit ist nach der Einführung in die Konzepte von CEP und RDF die praktische Nutzung der CEP-Engine \enquote{C-SPARQL} zur Verarbeitung von RDF-Datenströmen am Beispiel einer Autoverleihgesellschaft zur Überwachung von Leihfahrzeugen. Auch soll ergründet werden, welche technischen Möglichkeiten existieren, um Reasoning auf RDF-Datenströmen zu betreiben - eine Technik, die Erkenntnisse aus den Ereignisströmen durch Anstellung von Schlussfolgerungen auf den Daten der Datenströme extrahiert. -Diesbezüglich soll ergründet werden, welche CEP-Engines Reasoning bereits implementieren und wie weit ihre technischen Möglichkeiten in diesem Bereich reichen. +Ziel dieser Arbeit ist nach der Einführung in die Konzepte von CEP und RDF die Demonstration der praktischen Nutzung der CEP-Engine \enquote{C-SPARQL} zur Verarbeitung von RDF-Datenströmen am Beispiel einer Autoverleihgesellschaft zur Überwachung von Leihfahrzeugen. Auch soll ergründet werden, welche technischen Möglichkeiten existieren, um Reasoning auf RDF-Datenströmen zu betreiben - eine Technik, die Erkenntnisse aus den Ereignisströmen durch Anstellung von Schlussfolgerungen auf den Daten der Datenströme extrahiert. +Diesbezüglich soll ergründet werden, welche CEP-Engines Reasoning bereits implementieren und wie weit ihre technischen Möglichkeiten reichen --- eine große Herausforderung, da die mit einzubeziehenden Ereignisdaten sich kontinuierlich verändern. \section{Szenario}\label{cpt:scenario} \todo{Eventuell platziere ich die Details des Szenarios vor das Konzept-Kapitel und halte die Beschreibung allgemeiner?} -Beispielszenario im Kontext dieser Arbeit ist eine Autoverleihgesellschaft, die ihren Fuhrpark überwachen möchte um ihren Kunden vergünstigte Tarife für verschleißarmes Fahrverhalten anbieten zu können. Weiterhin soll auf plötzlich auftretende Probleme an den Leihwagen möglichst schnell reagiert werden können um Schäden zu begrenzen, gefährliche Situationen zu vermeiden und bei Bedarf dem Kunden unverzüglich einen Ersatzwagen oder andere Hilfeleistungen anbieten zu können. Um all dies zu erreichen, werden zwei RDF-Datenströme zur späteren Verarbeitung mit der CEP-Engine C-SPARQL eingerichtet. +Das Beispielszenario, welches für diese Arbeit verwendet wird, ist eine Autoverleihgesellschaft, die ihren Fuhrpark überwachen möchte, um ihren Kunden vergünstigte Tarife für verschleißarmes Fahrverhalten anbieten zu können. Weiterhin soll auf plötzlich auftretende Probleme an den Leihwagen möglichst schnell reagiert werden können um Schäden zu begrenzen, gefährliche Situationen zu vermeiden und bei Bedarf dem Kunden unverzüglich einen Ersatzwagen oder weitere Serviceleistungen anbieten zu können. Um dies zu erreichen, werden zwei RDF-Datenströme zur späteren Verarbeitung eingerichtet. \paragraph{Statusdatenstrom der Autos} Über diesen Datenstrom melden die einzelnen Autos kontinuierlich ihre Statuswerte: @@ -203,6 +205,7 @@ Um die Ereignisdaten aus den beiden beschriebenen Datenströmen bei der Verarbei \chapter{Grundlagen}\label{cpt:basics} +Bevor \todo{Zusammenfassungsüberleitung über das Kapitel}