eduglopedia.org

Summary

Die zeitnahe Bereitstellung aktueller Daten aus dem operativen Geschäftsbetrieb zum Zwecke der Analyse, der Entscheidungsvorbereitung und der Prognose wird in Zeiten des zunehmenden Wettbewerbs sowie unablässig wachsender Datenbestände immer wichtiger.

Führungsinformationssysteme und Data Warehouses bieten hier die angemessene Informationstechnik. Sie erlauben eine Aufbereitung und Integration von operativen Daten aus unterschiedlichen Quellen in einem einheitlichen Datenbestand, auf welchem dann Auswertungen und Analysen z.B. unter Berücksichtigung historischer Entwicklungen durchgeführt werden können. Entwurf, Aufbau und Anwendungen von Führungsinformationssystemen und von Data Warehouses sind daher für eine kontinuierliche Analyse der Performance eines Unternehmens sowie für eine Anwendung von Online Analytical Processing (OL AP) sowie Data Mining-Techniken unerlässlich.

Die fachkonzeptionelle Spezifikation von Führungsinformationssystemen umfasst die Modellierung des Raumes der Bezugsobjekte, die Gegenstand der Managemententscheidungen sind. Dies geschieht durch die Festlegung der für das Management relevanten Dimensionen, welche die Managementsichten insgesamt aufspannen. Jede Dimension ist hierarchisch zu strukturieren und die verschiedenen Dimensionen müssen aus betriebswirtschaftlicher Sicht orthogonal sein. Der Raum der Bezugsobjekte muss anschließend mit geeigneten Kennzahlensystemen kombiniert werden. Kennzahlensysteme legen fest, welche betriebswirtschaftlichen Aspekte der Bezugsobjekte für die Managemententscheidungen relevant sind. Aus der Kombination von Bezugsobjekten und Kennzahlen entstehen sogenannte Fakten, welche die Berichte für das Management inhaltlich abschließend spezifizieren. Aus einer oder mehreren Datenquellen, bei denen es sich meist um operationale Datenbanken handelt, werden relevante Kenngrößen und Unternehmensdaten über einen sogenannten ETL-Prozess (für Extraction, Transformation, Loading) in ein Data Warehouse integriert; auf diesem setzen dann Anwendungen des OLAP und des Data Mining auf.

Die Organisation von Warehouse-Daten in Stern- oder Schneeflockenschemata wird anhand von Fallstudien erarbeitet und durch geeignete Entwurfstechniken illustriert. Es wird eine Anbindung von Warehouse-Informationen an das Internet aufgezeigt. Schließlich setzen sich die Teilnehmer anhand konkreter Aufgabenstellungen mit der Frage auseinander, wie sich Warehouse-Daten mithilfe von OLAP-Techniken im Einzelfall zur Verbesserung der Unternehmensführung nutzen lassen.

Neben der vertikalen Schiene, die von der Management-Ebene auf die Data Warehouse-Ebene führt, wird eine horizontale Schiene verfolgt, bei der es um Datenintegration und die Herstellung von Datenqualität auf einer stärker technischen Ebene geht. Die Beantwortung der Frage, wie man Daten aus unterschiedlichen, verschieden formatierten Quellen zusammenbringt und welche Probleme dabei zu lösen sind, bringt einen Bezug zum Data Cleansing, also der Bereinigung von Daten. Sodann wendet sich das Modul den Grundlagen des Online Analytical Processing (OLAP) und des Data Mining zu. Neben einer multidimensionalen Sicht auf die Warehouse- Daten spielt jetzt der Begriff des Datenwürfels (Data Cube) eine zentrale Rolle, und es werden die Grundlagen von Cube und Rollup-Operationen auf der Ebene von SQL vorgestellt. In kommerziellen Systemen findet man entweder eine Unterstützung dieser Operationen in herstellerspezifischen SQL-Erweiterungen oder in Form von OLAP-Operationen in Data Warehouse-Produkten. Konkrete Anwendungen von  OLAP finden sich etwa im Customer Relationship Management (CRM) oder bei der Nutzung von Daten aus dem Internet sowie aus dem Web. Beim Data Mining steht die Frage der algorithmischen Erzeugung von Assoziationsregeln im Vordergrund, die vielfältige Anwendungen (u.a. im CRM sowie im Web-Mining) hat.

Neben „klassischer“ Warehouse-Technik und des ihr zugrunde liegenden Konzepten wendet sich das Modul auch neueren Fragestellungen zu, die sich insbesondere unter dem Schlagwort „Big Data“ ergeben. In diesem Kontext wird aufgezeigt, welche Ansätze zum effizienten Umgang mit sehr großen Datenmengen inzwischen entstanden sind, darunter NoSQL-Datenbanken sowie auf dem Map-Reduce- Paradigma basierende Lösungen. Damit wird einerseits ein Rückbezug vorgenommen zur eingangs betrachteten Data Warehouse-Architektur, die in Gegenwart von Big Data einer Erweiterung bedarf. Andererseits wird ein Anknüpfungspunkt für andere Module geschaffen, in denen etwa das Thema Cloud-Computing oder die Analyse von Social Media Data behandelt wird.

Duration in days 5
Presence of students On-campus
Comments

Editors

 
Feedback