[TASK] Generic commit

This commit is contained in:
Jan Philipp Timme 2016-08-29 18:28:39 +02:00
parent 1dfe4f83f1
commit 359e600889
2 changed files with 10 additions and 8 deletions

View File

@ -72,8 +72,8 @@
}{%
(\textwidth,.4pt)
{\pagemark\hfill Jan Philipp Timme}
{Version 0.1 vom \today \hfill \pagemark}
{Version 0.1 vom \today \hfill \pagemark}
{Version 0.4 vom \today \hfill \pagemark}
{Version 0.4 vom \today \hfill \pagemark}
}
\pagestyle{meinstil}
@ -160,12 +160,14 @@ Die Ereignisdaten aus diesen Strömen bilden kleine Teile der Realität zumindes
Ereignisse haben für sich alleine betrachtet neben einer begrenzten Gültigkeit auch nur eine begrenzte Aussagekraft, daher ist es zum höheren Verständnis der dahinter verborgenen Situation notwendig, sie mit den zuvor aufgetretenen Ereignissen in einen Kontext zu setzen. Dadurch können mehrere kleine, hochfrequent auftretende Ereignisse zu einzelnen, niederfrequent auftretenden komplexen Ereignissen aggregiert werden und mittels Mustererkennung höherwertige Informationen aus den Ereignissen extrahiert werden.
\todo{GRAFIK: viele kleine hochfrequente vs wenige große niederfrequente events}
\todo{GRAFIK: viele kleine hochfrequente vs wenige große niederfrequente Events}
Die Integration von Domänenwissen\footnote{Hintergrundwissen für den Kontext der Ereignisverarbeitung, verändert sich während der Verarbeitung nur selten} ist ein weiterer Schritt, der die Brücke zwischen den aus komplexen Ereignissen gewonnenen Kenntnissen und bereits bekannten Fakten schlagen soll, um die gewonnenen Kenntnisse in einen eindeutigen Zusammenhang stellen und eine eindeutige Interpretation ermöglichen.
Um unter diesen Bedingungen viele Ereignisdatenströme mit hochfrequenten Ereignissen in nahezu Echtzeit zu verarbeiten ist CEP\footnote{Complex-Event-Processing} das Mittel der Wahl: Mit CEP werden die Ereignisse der verschiedenen Datenströme für begrenzte Zeiträume im Speicher vorgehalten und innerhalb von sogenannten Sliding-Windows betrachtet. Dabei können Ereignismuster erkannt werden und verschiedene Ereignisse aggregiert werden um neue komplexe Ereignisse zu erzeugen.
\todo{GRAFIK: Mustererkennung aus Sliding Window + Generation von neuem Event daraus}
Ziel dieser Arbeit ist die Einführung in die Konzepte von CEP und RDF, sowie die Demonstration der praktischen Nutzung der CEP-Engine \enquote{C-SPARQL} zur Verarbeitung von RDF-Datenströmen am Beispiel einer Autoverleihgesellschaft zur Überwachung von Leihfahrzeugen. Auch soll ergründet werden, welche technischen Möglichkeiten existieren, um Reasoning auf RDF-Datenströmen zu betreiben --- eine Technik, die Erkenntnisse aus den Ereignisströmen durch Anstellung von Schlussfolgerungen auf den Daten der Datenströme extrahiert.
Diesbezüglich soll ergründet werden, welche CEP-Engines Reasoning bereits implementieren und wie weit ihre technischen Möglichkeiten reichen --- eine große Herausforderung, da die mit einzubeziehenden Ereignisdaten sich kontinuierlich verändern.
@ -211,7 +213,7 @@ Das Domänenwissen enthält in diesem Szenario folgende Informationen:
\todo{Zusammenfassungsüberleitung über das Kapitel}
\dots In der Motivation wurde grob erklärt, warum jetzt CEP das Mittel der Wahl sein soll. Aber was bedeutet das eigentlich? Was ist denn CEP und was ist RDF? Das kommt in diesem Kapitel.
Im vorherigen Kapitel wurde erklärt, weshalb CEP auf RDF-Datenströmen betrieben werden soll. Dieses Kapitel soll eine Einführung in diese beiden Begriffe bereitstellen.
\section{Einführung in das semantische Web}
@ -303,7 +305,7 @@ Es ist wichtig hervorzuheben, dass für in RDF abgebildete Daten nahezu immer di
Natürlich ist es möglich, mehrere verschiedene Ontologien gleichzeitig zu verwenden. Diese Flexibilität ermöglicht beispielsweise, dass eine bereits in RDF abgebildete Person durch beliebige Informationen mit weiteren Ontologien ergänzt werden kann, oder dass die Informationen einer abgebildeten Person in verschiedenen, für andere Parteien geläufigen Strukturen verfügbar gemacht werden können. Auch kann innerhalb einer Ontologie auf Objektklassen und Attribute zurückgegriffen werden, die in anderen Ontologien definiert werden. Dies ermöglicht neben Erweiterungen für spezifische Zwecke auch das Übersetzen von Wissen zwischen verschiedenen Ontologien.
\paragraph{ABox und TBox}
\cite{hitzler:semanticweb}[Kapitel 6.1]
In der Welt der Beschreibungslogik\cite{hitzler:semanticweb}[Kapitel 6.1]
\subsection{Abfrage von RDF-Daten via SPARQL}\label{cpt:rdf-sparql}
@ -404,7 +406,7 @@ http://example.org/cars/event#1468064960110 http://example.org/cars#currentSpeed
Der große Vorteil bei der Ereignisverarbeitung mit SPARQL auf RDF-Daten liegt in der Mächtigkeit dieser Abfragesprache: Innerhalb einer einzigen SPARQL-Abfrage ist es möglich Ereignisse aus verschiedenen Quellen miteinander zu kombinieren, direkt mit Hintergrundwissen zu kombinieren, nach eigenen Kriterien zu filtern, einfache Berechnungen anzustellen und aus dem Ergebnis neue Ereignisse beliebiger Struktur zu erzeugen.
Somit muss der Anwender neben SPARQL keine weiteren Sprachen lernen oder sich anderweitig mit der Implementierung der Engine auseinandersetzen, sondern kann sich komplett auf die zu analysierenden Ereignisse konzentrieren. Listing~\ref{lst:sample_combine_events_sparql} zeigt einen SPARQL-Query, in dem zwei aufeinanderfolgende Ereignisse mit Angaben zur Momentangeschwindigkeit eines Autos zu einem komplexeren Beschleunigungsereignis kombiniert werden.
\begin{lstlisting}[caption={Kombination von Ereignissen mit SPARQL},label={lst:sample_combine_events_sparql}]
\begin{lstlisting}[caption={Generation von neuen Ereignissen aus existierenden Ereignissen mit SPARQL},label={lst:sample_combine_events_sparql}]
REGISTER QUERY ConstructAcceleratingCars AS
PREFIX f: <http://larkc.eu/csparql/sparql/jena/ext#>
PREFIX cars: <http://example.org/cars#>
@ -450,7 +452,7 @@ Grobe Eckpunkte zur Orientierung:
\begin{itemize}
\item Verarbeitung von mehreren Ereignisströmen
\item Kombination von Ereignissen \enquote{Join}
\item Verknüpfung von Ereignissen
\item Konstruktion neuer Ereignisse
\item Sliding/Tumbling Windows
\item Mustererkennung (Abfolge, Präsenz/Absenz von Ereignissen [zeitlicher Abstand])
@ -674,7 +676,7 @@ Wie und wo werden Dateien in welchen Formaten abgelegt, müssen sie zuvor in der
\item Zugriff auf mehrere Ereignisströme
\item Für jeden Datenstrom ein eigenes Sliding/Tumbling Window
\item Aggregation von Ereignissen zu neuen Ereignisströmen
\item Kombination von Ereignissen mit lokalem Hintergrundwissen
\item Integration von lokalem Hintergrundwissen in Ereignisdaten
\end{itemize}