eduglopedia.org

Summary

The IT Management course is a part-time Master programme for German-speaking working professionals. As part of the course, students study the effect of new technologies on process organisation within companies and acquire important methods and tools to change processes in businesses through the application of modern information systems. The programme is aimed in particular at (junior) management and leads to the academic degree of “Master of Science in IT Management” from Münster University. 

You’ll find more information on the (German) website: http://weiterbildung.uni-muenster.de/de/masterstudiengaenge/it-management/uebersicht/

Highlights

  • Master of Science Degree
  • Individually select your modules
  • Flexible entry dates
  • Modular structue
  • Maximum of 25 participants
Schedule Part-time
Duration 36 Months
Presence of students On-campus and on-line
Enrollment capacity per term 9
Average number of applications per term 25
Tuition and fees per year 5950.00
Scholarships available No

Courses

Block seminar

Der Architekt (in der Baukunst) beschreibt seine Ideen für ein Bauwerk in Plänen mit unterschiedlichen Perspektiven (Grundriss, Draufsicht, Schnitt etc.). Auch Informationssysteme können aus unterschiedlichen Sichten beschrieben werden, z. B. der Datensicht, der Funktionssicht, der Organisationssicht oder der Prozesssicht. Dies kann durch Beschreibungskonstrukte geschehen, die eher den betriebswirtschaftlichen Gehalt des zu beschreibenden Informationssystems fokussieren (Fachkonzept), oder durch solche, die die informationstechnische Umsetzung zum Ziel haben (DVKonzept, Implementierung).

Solche Beschreibungskonstrukte sind Modellierungssprachen wie Entity-Relationship-Modelle, Funktionsdekompositionsdiagramme, Ereignisgesteuerte Prozessketten, Organigramme, oder auch Diagramme der UML-Notation etc. Das Modul Anwendungsarchitekturen vermittelt die Grundlagen einiger dieser Modellierungssprachen anhand der von A.-W. Scheer vorgeschlagenen Architektur integrierter Informationssyteme (ARIS), die einen methodenorientierten Ordnungsrahmen darstellt. Darüber hinaus wird auch ein etabliertes Vorgehensmodell für prozessorientierte Reorganisationsprojekte besprochen.

Informationssysteme für spezifische Wirtschaftszweige oder Branchen werden häufig mit einem hohen Abstraktionsgrad beschrieben. In diesem Zusammenhang sprechen wir von domänenorientierten Architekturen. Beispiele sind das Y-CIM-Modell und das Handels-H-Modell zur Beschreibung der Aufgaben in Industrie- bzw. Handelsunternehmen. Industrieunternehmen übernehmen in der volkswirtschaftlichen Wertschöpfungskette die Aufgabe der Produktion von Gütern, Handelsunternehmen die der Distribution an (End)-Kunden. Diese wesentlichen Aufgaben spiegeln sich auch in der Architektur von Informationssystemen wider, die in den Unternehmen eingesetzt werden. In Industrieunternehmen stehen die betriebswirtschaftlich-dispositiven Systeme der Produktionsplanung und -steuerung (PPS) und die technischen Systeme der Konstruktion und der Fertigung (CAD Computer Aided Design und CAM Comput   Aided Manufacturing) im Mittelpunkt. Eine wesentliche Integrationsaufgabe besteht in der Zusammenführung der technischen und betriebswirtschaftlich-dispositiven Systeme (Kopplung der CAD-CAM-Systeme mit den PPS-Systemen).

Handelsunternehmen haben eine räumlich-zeitliche Überbrückungsfunktion und eine Sortimentsfunktion zu erfüllen. Dies manifestiert sich in den Hauptaufgaben Beschaffen, Lagern und Verkaufen. Logistiksteuerung, Kontraktverwaltung mit Abrufsteuerung, Konditionenverwaltung, Kalkulationsunterstützung, Regaloptimierung und Nachschubsteuerung sind einige der wesentlichen Bereiche, in denen Informationssysteme die Arbeit des Händlers unterstützen müssen. Wesentliche Integrationsaufgaben liegen in der Kopplung des Mengenflusses von Einkauf und Verkauf und in der interorganisationalen Verbindung, zwischen Lieferanten und Händler einerseits und zwischen Großhändler und Einzelhändler andererseits.

Das Modul Anwendungsarchitekturen vermittelt die grundlegenden Eigenschaften domänenorientierter Architekturen. Darüber hinaus werden die Vorteile von Ordnungsrahmen und Referenzmodellen bei domänenspezifischen Reorganisationsvorhaben dargelegt und diskutiert.

 591
Block seminar

Die zeitnahe Bereitstellung aktueller Daten aus dem operativen Geschäftsbetrieb zum Zwecke der Analyse, der Entscheidungsvorbereitung und der Prognose wird in Zeiten des zunehmenden Wettbewerbs sowie unablässig wachsender Datenbestände immer wichtiger.

Führungsinformationssysteme und Data Warehouses bieten hier die angemessene Informationstechnik. Sie erlauben eine Aufbereitung und Integration von operativen Daten aus unterschiedlichen Quellen in einem einheitlichen Datenbestand, auf welchem dann Auswertungen und Analysen z.B. unter Berücksichtigung historischer Entwicklungen durchgeführt werden können. Entwurf, Aufbau und Anwendungen von Führungsinformationssystemen und von Data Warehouses sind daher für eine kontinuierliche Analyse der Performance eines Unternehmens sowie für eine Anwendung von Online Analytical Processing (OL AP) sowie Data Mining-Techniken unerlässlich.

Die fachkonzeptionelle Spezifikation von Führungsinformationssystemen umfasst die Modellierung des Raumes der Bezugsobjekte, die Gegenstand der Managemententscheidungen sind. Dies geschieht durch die Festlegung der für das Management relevanten Dimensionen, welche die Managementsichten insgesamt aufspannen. Jede Dimension ist hierarchisch zu strukturieren und die verschiedenen Dimensionen müssen aus betriebswirtschaftlicher Sicht orthogonal sein. Der Raum der Bezugsobjekte muss anschließend mit geeigneten Kennzahlensystemen kombiniert werden. Kennzahlensysteme legen fest, welche betriebswirtschaftlichen Aspekte der Bezugsobjekte für die Managemententscheidungen relevant sind. Aus der Kombination von Bezugsobjekten und Kennzahlen entstehen sogenannte Fakten, welche die Berichte für das Management inhaltlich abschließend spezifizieren. Aus einer oder mehreren Datenquellen, bei denen es sich meist um operationale Datenbanken handelt, werden relevante Kenngrößen und Unternehmensdaten über einen sogenannten ETL-Prozess (für Extraction, Transformation, Loading) in ein Data Warehouse integriert; auf diesem setzen dann Anwendungen des OLAP und des Data Mining auf.

Die Organisation von Warehouse-Daten in Stern- oder Schneeflockenschemata wird anhand von Fallstudien erarbeitet und durch geeignete Entwurfstechniken illustriert. Es wird eine Anbindung von Warehouse-Informationen an das Internet aufgezeigt. Schließlich setzen sich die Teilnehmer anhand konkreter Aufgabenstellungen mit der Frage auseinander, wie sich Warehouse-Daten mithilfe von OLAP-Techniken im Einzelfall zur Verbesserung der Unternehmensführung nutzen lassen.

Neben der vertikalen Schiene, die von der Management-Ebene auf die Data Warehouse-Ebene führt, wird eine horizontale Schiene verfolgt, bei der es um Datenintegration und die Herstellung von Datenqualität auf einer stärker technischen Ebene geht. Die Beantwortung der Frage, wie man Daten aus unterschiedlichen, verschieden formatierten Quellen zusammenbringt und welche Probleme dabei zu lösen sind, bringt einen Bezug zum Data Cleansing, also der Bereinigung von Daten. Sodann wendet sich das Modul den Grundlagen des Online Analytical Processing (OLAP) und des Data Mining zu. Neben einer multidimensionalen Sicht auf die Warehouse- Daten spielt jetzt der Begriff des Datenwürfels (Data Cube) eine zentrale Rolle, und es werden die Grundlagen von Cube und Rollup-Operationen auf der Ebene von SQL vorgestellt. In kommerziellen Systemen findet man entweder eine Unterstützung dieser Operationen in herstellerspezifischen SQL-Erweiterungen oder in Form von OLAP-Operationen in Data Warehouse-Produkten. Konkrete Anwendungen von  OLAP finden sich etwa im Customer Relationship Management (CRM) oder bei der Nutzung von Daten aus dem Internet sowie aus dem Web. Beim Data Mining steht die Frage der algorithmischen Erzeugung von Assoziationsregeln im Vordergrund, die vielfältige Anwendungen (u.a. im CRM sowie im Web-Mining) hat.

Neben „klassischer“ Warehouse-Technik und des ihr zugrunde liegenden Konzepten wendet sich das Modul auch neueren Fragestellungen zu, die sich insbesondere unter dem Schlagwort „Big Data“ ergeben. In diesem Kontext wird aufgezeigt, welche Ansätze zum effizienten Umgang mit sehr großen Datenmengen inzwischen entstanden sind, darunter NoSQL-Datenbanken sowie auf dem Map-Reduce- Paradigma basierende Lösungen. Damit wird einerseits ein Rückbezug vorgenommen zur eingangs betrachteten Data Warehouse-Architektur, die in Gegenwart von Big Data einer Erweiterung bedarf. Andererseits wird ein Anknüpfungspunkt für andere Module geschaffen, in denen etwa das Thema Cloud-Computing oder die Analyse von Social Media Data behandelt wird.

 582
Block seminar

Ziel dieses Moduls ist es, die Teilnehmer/-innen in grundlegende Fragestellungen, Techniken und Anwendungen des Data Mining einzuführen, ihnen anhand von Fallstudien die konkrete Bedeutung dieser Techniken aufzuzeigen und darzulegen, wie sich aus Mining-Resultaten Rückschlüsse auf den Kunden sowie auf das unternehmerische Management von Kundenbeziehungen ergeben können. Das Modul wird durch praktische Übungen mit und verschiedene Präsentationen von Data Mining-Werkzeugen ergänzt.

Unternehmen sehen sich einer rasant wachsenden Datenflut gegenüber, die dadurch entsteht, dass Daten jeglicher Art elektronisch erfasst werden, dass Prozesse und Geschäftsvorgänge elektronisch abgewickelt werden und dass zahlreiche Applikationen Daten selbstständig erzeugen. Man ist dann mit dem Problem konfrontiert, aus diesen Daten Wissen abzuleiten. Data Mining ist ein Sammelbegriff für Techniken, die dieser Herausforderung begegnen wollen, und ist zentraler Teil eines Prozesses, den man auch als Knowledge Discovery in Databases (KDD) bezeichnet. Data Mining setzt typischerweise auf einem Datenlager (Data Warehouse) auf, das seinerseits aus einer homogenen oder einer heterogenen Sammlung von operationalen Datenbanken oder anderen Datenbeständen erzeugt wird.

Der schon fast „klassische“ Anwendungsbereich ist der elektronische Handel, bei dem über Techniken des Data Mining versucht wird, den jetzt elektronischen Kunden zu erkennen („User Profiling“) und einzuordnen, etwa um den Umgang mit ihm zu individualisieren und zu personalisieren oder um die Beziehung des Unternehmens zum Kunden nach seinen Wünschen und Bedürfnissen gestalten zu können („Customer Relationship Management“). Zahlreiche weitere Anwendungsbereiche finden sich in anderen IT-Feldern und in der künstlichen Intelligenz.

In diesem Modul wird der Bereich des Data Mining ganzheitlich  argestellt. Zu analysierende Daten müssen vor dem eigentlichen Mining etwa einer geeigneten Vorbereitung („Säuberung“, Data Cleansing) unterzogen werden, z.B. um Inkonsistenzen zwischen unterschiedlichen Datenbeständen auszugleichen, Datenformate aneinander anzupassen, Detaillierungsunterschiede auszugleichen oder Daten in ein einheitliches Modell zu transformieren. Sodann lernen die Teilnehmer/-innen die Herleitung von Assoziationsregeln, die Analyse von Sequenzen, die Erstellung von Klassifikationen und Regressionen sowie die Bildung und Analyse von Clustern (Gruppen) kennen.

Von zunehmender Bedeutung sind Data Mining-Techniken heute im Zusammenhang mit dem World Wide Web, da gängige Web-Server umfangreiche Protokolldaten erfassen. Aus diesen lassen sich neben angeforderten Seitenadressen z. B. Zugriffspfade, Suchstrings, Eintritts- sowie Austrittspunkte oder der verwendete Browser entnehmen, was Rückschlüsse sowohl auf die Struktur und den Inhalt der betreffenden Website als auch auf deren Besucher erlaubt. Im zweiten Teil des Moduls werden die erlernten Techniken auf diesen Bereich angewendet. Es wird sich dabei z.B. zeigen, wie man zu einem auch von manchen Suchmaschinen verwendeten Page-Ranking kommen kann.

Anhand konkreter Fragestellungen und Fallstudien z. B. aus dem Dienstleistungsmarketing, dem Gütermarketing oder dem Weblog-Mining werden die erarbeiteten Techniken erprobt, und es wird aufgezeigt, welche konkreten Implikationen sich für die einzelne Unternehmung insbesondere für den elektronischen Handel ergeben können. Besonders hilfreich sind dabei Visualisierungstechniken, die heute in zunehmendem Maße auch von Data Mining-Werkzeugen eingesetzt werden.

 495
Block seminar

Die schnelle und globale Diffusion informationstechnischer Innovationen führt zu tiefgreifenden Änderungen der Strukturen wirtschaftlicher Leistungserstellung, der Wettbewerbsintensität und Branchenstrukturen sowie des Wettbewerbs zwischen Regionen und Volkswirtschaften. Entwicklungen wie Web 2.0, Cloud Computing oder Social Media veranschaulichen nicht nur die Vielfalt technischer Innovationen, sondern auch deren Demokratisierung, d. h. deren gesellschaftliche Adoption. Entsprechend vielfältig und häufig indirekt sind deren organisatorische und gesellschaftliche Wirkungen.

Vor dem Hintergrund der Informationsgesellschaft und globaler Informationsinfrastrukturen thematisiert das Modul strategische und organisatorische Herausforderungen an das Management von Unternehmen und Unternehmensverbünden bis hin zu wirtschaftlichen Ökosystemen. Dabei werden sowohl Geschäftsmodellinnovationen, als auch neue Formen der Arbeitsorganisation, der Kundenbeziehungen und der zwischenbetrieblichen Zusammenarbeit betrachtet.

Geschäftsmodelle repräsentieren in vielfacher Hinsicht die innovativen Geschäftsideen, die Entwicklungsdynamik und den Anspruch eines erweiterten Kundennutzens im elektronischen Geschäftsverkehr. Anhand ausgewählter Fallbeispiele werden Komponenten und das Spektrum funktionaler Dimensionen in Geschäftsmodellen aufgezeigt. Darauf aufbauend wird die Konfiguration mehrschichtiger Geschäftsmodelle und die Gestaltung von Netzwerkbeziehungen diskutiert. Die strategische Dimension von Geschäftsmodellen manifestiert sich nicht zuletzt an Auswirkungen auf die Branchenstruktur in Gestalt von Dis-, Reoder Cybermediation. Die Analyse von Rahmenbedingungen in verschiedenen Branchen gibt dabei Anhaltspunkte zur Bewertung der Erfolgspotentiale unterschiedlicher Positionierungsstrategien. 

Unter der Perspektive von Web 2.0 und Social Media werden erweiterte Interaktionsmöglichkeiten zwischen Unternehmen und ihren Kunden, erweiterte Formen der Marktforschung sowie neue Formen der Wertschöpfung durch Bürger (soziale Produktion) erörtert.

Das Cloud Computing veranschaulicht Handlungsoptionen zur Gestaltung der technischen Infrastruktur von Unternehmen. Es wird dargestellt, welche technischen, wirtschaftlichen, rechtlichen und organisatorischen Aspekte bei der Nutzung des Cloud Computing zu beachten sind.

Informations- und Kommunikationsinfrastrukturen eröffnen neue Möglichkeiten der Gestaltung der Organisation von Arbeits-, Kooperations- und Koordinationsprozessen. Betrachtet werden die Herausforderungen der Gestaltung neuer, informationstechnisch ermöglichter Formen der Arbeitsorganisation aus Managementsicht.

Das Modul befähigt die Teilnehmer/-innen zur Bewertung von Potenzialen des Electronic Business aus strategischer, organisatorischer und technischer Perspektive. Sie kennen Methoden und Instrumente zum Entwurf von Geschäftsmodellen. Sie sind vertraut mit organisatorischen und technischen Gestaltungsoptionen aktueller Entwicklung von Informationsinfrastrukturen – Web 2.0, Social Media und Cloud Computing – und daraus resultierenden Managementherausforderungen.

Am Beispiel des Electronic Business werden betriebswirtschaftliche Kenntnisse vertieft und angewendet. Die Studierenden werden zu ganzheitlichem, integrativen Denken angeleitet, um die wirtschaftlichen Potenziale technischer Innovationen zu bewerten.

 483
Block seminar

Als Teilbereich des Informationsmanagements umfasst das Informationssystemmanagement (ISM ) Fragen der Planung, Führung und Organisation in Bezug auf die Entwicklung und den Betrieb inner- und zwischenbetrieblicher Informationssystemen (IS). Das ISM umfasst damit die Kernaufgaben von Führungskräften im IT-Bereich und insbesondere die Aufgaben eines sogenannten Chief Information Officers (CIO).

Im Modul ISM werden die Anforderungen dargestellt, die sich an IS-Führungskräften in der Praxis stellen. Darüber hinaus wird ein Einblick in deren Tätigkeit und ein Überblick über die Führungsaufgaben auf Vertragsstrategischer, taktischer und operativer Ebene gegeben. Diese Aufgaben werden systematisch, ausgehend von Fragen der Positionierung und strategischen Planung der IS über die Budget- und Portfolioplanung bis hin zu Fragen des IT-Outsourcing und der IT-Organisation, dargestellt und erörtert. Zudem werden Techniken und Entscheidungshilfen eingeführt, die zu einer erfolgreichen Wahrnehmung dieser Aufgaben beitragen  Anhand von Fallstudien werden schließlich typische Aufgabenstellungen aus der Managementpraxis besprochen und deren Lösung mit Hilfe der neu erlernten Techniken geübt.

Die methodische und datenmäßige Unterstützung des ISM ist Gegenstand des IT-Controllings. Im Fokus des IT-Controllings stehen sämtliche Elemente eines Informationssystems, zu denen nicht nur die Hard- und Software gehören, sondern auch personelle Ressourcen und organisatorische Konzepte. Bezüglich der Managementebene kann zwischen der strategischen, taktischen und operativen Dimension des IT-Controllings differenziert werden. In den Veranstaltungen werden Instrumente vorgestellt, mit denen monetäre und nicht-monetäre Konsequenzen zur rechnerischen Fundierung von Entscheidungen im Rahmen des IT-Controllings verdichtet werden können. Die Anwendung wird anhand von Fallstudien vertieft. Den Schwerpunkt bildet dabei der Einsatz eines adaptiven TCO-VOFIs – einem vollständigen Finanzplan, der die zeitlichen totalen Kosten eines IT-Objektes transparent macht. Die Adaption zeigt sich in der Anpassung der Methode an unterschiedliche Entscheidungssituationen.

Zudem werden die Teilnehmer mit Grundlagen des Qualitätsmanagements unter besonderer Berücksichtigung von Risikound Sicherheitsmanagement vertraut gemacht. Aus organisatorischer Sicht werden Gestaltungsalternativen zur Verankerung des Informationsmanagements aufgezeigt und im Hinblick auf unterschiedliche Rahmenbedingungen bewertet.

 609
Block seminar

Das Rechtsmodul dient zum einen der Vermittlung von Grundkenntnissen des IT-Rechts und weiterhin der Vermittlung aktueller Problemstellungen im Bereich der neuen Medien. Durch die Verflechtung unterschiedlicher Rechtsgebiete ist es erforderlich, sich mit den wichtigsten Teilbereichen des Informationsrechts vertraut zu machen, um eigene Entscheidungen im Bereich des Informationsmanagements rechtlich einordnen zu können.

Ein Block zum Thema IT-Recht beschäftigt sich mit den grundlegenden Fragen der Software-Erstellung und des Software-Schutzes. Die Einordnung dieses Fragenkreises unter die bestehende Gesetzeslage bereitet weiterhin in der Rechtspraxis erhebliche Probleme. Daher steht zunächst die Gestaltung von Software-Erstellungsverträgen und Überlassungsverträgen im Mittelpunkt. Die Fassung dieser Verträge hat einen wesentlichen Einfluss auf die kommerzielle Verwertung von Software und auf die Haftung der daran Beteiligten. Daher ist es von großer Relevanz, in welchem Umfang eine Beantwortung dieser Fragen nach dem klassischen Zivilrecht vorgenommen werden kann. Dabei sind Fragen der Sachmängelgewährleistung und des Werkvertragsrechtes zu beantworten. Besonderheiten bei DV-Projektverträgen bilden hierbei neben den Fragen des IT-Outsourcing einen besonderen Schwerpunkt.

Weiter wird auf spezielle Bereiche im Zusammenhang mit der Lizenzierung und Pflege von Software eingegangen. Der Bereich der Open Source Software stellt durch seine offene Struktur der Programmierung und der Veröffentlichung des Quellcodes eine besondere Herausforderung für die Rechtsanwendung dar. Hierbei spielen Fragen der Haftung bei fehlerhafter Software und Fragen des Urheberschutzes erneut eine wichtige Rolle. Dies gilt ebenso für Shareware. Eine sich daran anschließende Problematik beschäftigt sich mit der Möglichkeit, Patente auf Software-Entwicklungen zu erhalten. Dies ist in der Entscheidungspraxis der nationalen und internationalen Gerichte weiterhin umstritten und zwischen verschiedenen Rechtsordnungen unterschiedlich gelöst worden. Gerade auf europäischer Ebene zeichnen sich hier neue Entwicklungen ab, die aber noch nicht hinreichend konkretisiert worden sind. Daher birgt die Beantragung eines Patentes weiterhin ein großes Risiko für die betroffenen Wirtschaftsteilnehmer und fordert zur Auseinand  setzung mit der bisherigen Praxis auf. Schließlich ist in diesem Zusammenhang auch die Schutzfähigkeit von Betriebsgeheimnissen zu bearbeiten.

In einem weiteren Block wird das „Recht der neuen Medien“ im Mittelpunkt stehen. Dabei geht es insbesondere um die Probleme, die sich Unternehmen bei ihrer Tätigkeit im Internet stellen. Ein großer Teilbereich ist das Kennzeichenrecht, in dem die Beantragung und Verwendung einer Domain und der dabei auftretenden Konflikte mit anderen Rechtsgebieten, z. B. des Marken- und des Namensrechts, untersucht wird. Hierzu liegt eine fast undurchdringbare Fülle an Gerichtsentscheidungen vor, die am Maßstab der bereits ergangenen höchstrichterlichen Rechtsprechung zu messen sind. Daran anschließend werden die im Internet generierten Inhalte von kommerziellen Anbietern einer rechtlichen Bewertung unterzogen. Das Urheberrecht und Fragen des Immaterialgüterrechts spielen hier eine große Rolle, aber auch wettbewerbsrechtliche Aspekte können relevant werden. Dabei ist auch der Bereich des Online-Marketings zu beachten, insbesondere der Bereich des Spamming und der E-Mail-Werbung. Ebenso sind die Fragen zu Dialern, Metatags, Links und Cookies einzuordnen. 

Im „Recht der neuen Medien“ werden auch Fragen des Internet-Strafrechts erörtert sowie Probleme der Verwendung von Internet und E-Mail am Arbeitsplatz, Social Media-Recht und Fragen des Äußerungsrechtes.

Zu einem weiteren Schwerpunkt gehören auch Verträge im E-Commerce. Hier sind Fragen des Fernabsatzrechts im B2C-Bereich von Bedeutung sowie spezifische Verträge wie z. B. über das Webhosting oder über Datenbanken. Im Unternehmensbereich kommt den B2B-Marketplaces eine verstärkte Bedeutung zu. Der Austausch von Daten zwischen Unternehmen auf einer Handelsplattform und ihre unterschiedlichen Erscheinungsformen waren bereits häufiger Gegenstand der nationalen und europäischen Rechtssetzung. Das Entstehen immer neuer Geschäftsmodelle in diesem Bereich macht es erforderlich, neue wettbewerbsrechtliche Lösungen für diese zu finden. Die Bedeutung dieser Modelle wird in der Zukunft noch zunehmen und daher die Rechtspraxis weiterhin intensiv beschäftigen.

Im Informationsmanagement treten im Data Mining viele Problemstellungen im Zusammenhang mit dem Datenschutz und der Datensicherheit auf. Diese Bereiche werden in unterschiedlichen Gesetzen geregelt, deren Zusammenspiel aufgezeigt wird. Gerade im grenzüberschreitenden Datenaustausch und beim Outsourcing kommt es zu Verletzungen des Datenschutzes, deren Verhinderung nur durch Kenntnis der verschiedenen Ebenen des rechtlichen Rahmens möglich wird. Für die Praktiker werden hier vor allem Rechtsfragen des Hacking und des Virenschutzes von Interesse sein. Diese sind dabei stets im Zusammenhang mit den bereits zuvor bearbeiteten Bereichen der Vertragsstrategischer gestaltung zu sehen. Hieran anschließend ist die Haftung für Host-, Access- und Content-Provider zu untersuchen, da sich hier in der Praxis oft große Probleme ergeben, die den wirtschaftlichen Erfolg eines Unternehmens stark beeinträchtigen können. Auch die durch den Bundesgerichtshof verschärfte Haftung für Portale ist hierbei mit zu bedenken. 

Im Ergebnis können die rechtlichen Blöcke des Programms einen Überblick über die wichtigsten Rechtsfragen im Zusammenhang mit Information Management und neuen Technologien bieten. Gerade auch die praktische Ausrichtung dieser Blöcke macht dieses Gebiet für Juristen und Nicht-Juristen anschaulich und trägt zum besseren Verständnis bei. Erst dieses Verständnis ermöglicht es, sein unternehmerisches Tun stärker am rechtlich Möglichen zu orientieren und gerade auch den Austausch von Informationen besser zu organisieren.

 489
Block seminar

Projekte stellen Vorhaben dar, die im Wesentlichen durch einmalige Bedingungen gekennzeichnet sind (DIN 69901). Dass Projekte mehr sind als aus der DIN-Vorschrift hervorgeht, weiß jeder, der in Projekten mitgearbeitet hat – und insbesondere, wer Projekte geleitet hat. Das Faszinierende an der Durchführung von Projekten ist die kreative Arbeit in einem Team, in dem versucht wird, in einem überschaubaren Zeitraum gemeinsam einen Erfolg zu erzielen. Im Rahmen des Moduls Projektmanagement wird eine systematische Durchdringung des praxisnahen Stoffs angestrebt. Den Ausgangspunkt bieten Phasenkonzepte zum Management von Projekten, in denen die Zielorientierung die logisch erste Phase darstellt. Neben traditionellen Konzepten wird auch das agile Projektmanagement diskutiert. Zur Unterstützung des Projektmanagements wurde das Projektcontrolling entwickelt, in dessen Rahmen zum einen das Projekt selbst anhand von Zeit-, Qualitäts- und Kostenzielen gesteuert und zum anderen die Wirtschaftlichkeit des zu beschaffenden oder zu entwickelnden Objekts ermittelt wird. Insofern stellt Projektcontrolling eine Teilfunktion des Projektmanagements dar. Folglich stellt Projektcontrolling einen Schwerpunkt im Modul dar.

Eine besondere Herausforderung des Projektmanagements besteht darin, dass Projekte regelmäßig nicht nur innovativ, sondern auch komplex und risikoreich sind und nur im Team (multipersonal) erfolgreich bearbeitet werden können. Aus inhaltlicher Sicht kann es sich hierbei beispielsweise um Forschungs- und Entwicklungsprojekte oder um die Anschaffung oder Herstellung von Sachinvestitionen (z. B. Neubau eines Rechenzentrums), aber auch um Softwareentwicklungsprojekte handeln.

Allgemein sind Projekte durch die Elemente
> Mensch
> Aufgabe und
> Informationstechnik
gekennzeichnet. Aus diesen drei Elementen des Projektmanagements resultieren die erforderlichen Kompetenzen für den Leiter des Projekts. Im Modul Projektmanagement werden die Themen Methodenkompetenz und Sozialkompetenz und Fachkompetenz angesprochen, wobei die Fachkompetenz auch in anderen Modulen (z.B. Anwendungsarchitektur, IT-Recht) vertieft  werden.

In methodologischer Hinsicht wird im Rahmen der Lehrveranstaltung primär eine normative Perspektive eingenommen, bei der es um theoretisch fundierte Empfehlungen zur Erreichung der Projektziele geht. Dabei spielen neben den Planungsinstrumenten (z. B. Netzplantechnik, Budgetierung, Simulation) auch Projektmanagementtools, Ansätze aus der Führungstheorie und der Konflikttheorie eine wichtige Rolle. Den Schwerpunkt bilden Methoden der Investitionsrechnung, mit denen der monetäre Projekterfolg per Überschlag bestimmt werden soll. Hier wird insbesondere das Konzept des VOFI (Vollständiger Finanzplan) angewendet, in dem nicht nur die monetären Zielwerte, sondern auch Risikomaße bestimmt werden können. Zur Verdichtung nichtmonetärer Konsequenzen, die insbesondere zur Qualitätsmessung von Wichtigkeit sind, wird neben der klassischen Nutzwertanalyse in das Preis-Leistungsmodell eingeführt, durch das die Selektion vorteilhafter Projektalternativen unterstützt werden kann. Das Wissen über diese Themenbereiche wird durch  eine Reihe von Fallstudien in gruppendynamischen Sitzungen erarbeitet.

Neben der normativen Orientierung kommt auch ein deskriptiver Ansatz zum Zuge, in dem eine empirische Perspektive auf Erfolge und Misserfolge populärer Projekte eingenommen wird. Die Untersuchung der Ursachen für das Überschreiten von Vorgabezeiten und Budgetgrenzen ist dabei von zentraler Bedeutung.

Aus dem Bereich der Sozialkompetenz wird die Zusammenstellung von Teams unter dem Aspekt unterschiedlicher Persönlichkeitsmerkmale diskutiert.

Zur Stärkung der Fachkompetenz werden Kenntnisse im Projektmanagement für Prozessorganisationsprojekte und Softwareauswahlprojekte vermittelt.

Den Teilnehmern/-innen wird die Möglichkeit gegeben, erfolgreiche – aber auch gescheiterte – Projekte aus ihrem eigenen Erfahrungsbereich im Rahmen eines Referats vorzustellen und im Plenum zu diskutieren. Bei dem Referat hat der Vortragende die Rolle des Projektleiters zu übernehmen, der die Geschäftsführung über die Zielsetzung und den Inhalt des Projekts informieren soll.

Die Teilnehmer/-innen bekommen im Rahmen des Moduls nicht nur einen theoretisch fundierten Überblick über das Projektmanagement, sondern werden auch befähigt, bei zukünftigen Projekten die eigene Methoden- und Sozialkompetenz praktisch einsetzen und reflektieren zu können.

 499
Block seminar

Die Entwicklung von Software besteht aus mehreren Phasen. Das klassische Wasserfallmodell unterscheidet die Phasen Planung, Definition, Entwurf, Implementierung, Testen sowie Einsatz und Wartung. Der Projektplan gibt einen Überblick über Reihenfolgen, geplante Zeiten für einzelne Aktivitäten und sachlogische Zusammenhänge zwischen den zu erledigenden Aufgaben.

Weiterhin werden Dauer, Personalbedarf und Kosten des betrachteten Projekts geschätzt. In der Definitionsphase wird aus Anwendungssicht beschrieben, welche Aufgaben das zu entwickelnde System unterstützen muss. Dies erfolgt typischerweise in Form eines Pflichtenhefts und eines Produktmodells. Ausgehend noch von technischen Fragestellungen wie Modulgestaltung, Programmiersprachen, Datenbankeinsatz, Benutzeroberfläche etc., abstrahieren diese Prozessmodelle und beschreiben das Verhalten des Systems. Sie werden durch Datenmodelle, die die Struktur der Daten definieren, ergänzt. Der Umgang mit solchen Modellen wird an Fallstudien erarbeitet. In der Entwurfs-Phase wird festgelegt, aus welchen Komponenten das angestrebte System bestehen soll und wie diese zusammenarbeiten. Hierbei werden u.a. auch Entscheidungen zur Realisierung der Benutzerschnittstelle, der Datenhaltung, der Verteilung im Netz und der zu verwendenden Middleware und Komponentenarchitektur getroffen.

Weiterhin werden durch die Verwendung bewährter Entwurfsmuster die Flexibilität, Wartbarkeit und Übersichtlichkeit des Systems gesteigert. Nach einer Ausformulierung der Komponenten in der Zielprogrammiersprache werden diese getestet, um die korrekte Funktion des Systems zur belegen. Hierbei wird ausgehend von einzelnen Komponenten über Integrationstests von mehreren Komponenten schließlich das Gesamtsystem in seiner Zielumgebung getestet. Durch geeignete Testtreiber wird die Überprüfung einzelner Testfälle so weit wie möglich automatisiert. Zur Formulierung dieser Fälle gibt es die beiden sich ergänzenden Techniken Glass-Box-Testen und Black-Box-Testen, bei denen die innerer Struktur der Komponenten berücksichtigt bzw. nicht berücksichtigt wird.

Neben dem Softwareentwicklungsprozess werden in diesem Modul aktuelle Trends im Bereich der Softwareentwicklung aufgezeigt und ihre Hintergründe erklärt. Hierzu zählen neben Objektorientierung und der hierfür entwickelten Notation, der Unified Modeling Language (UML), insbesondere agile Vorgehensmodelle für die Software-Entwicklung, wie Extreme Programming und Scrum, sowie Entwurfs- und Architekturmuster. Zu den Grundkonzepten der objektorientierten Software-Entwicklung zählen u.a. Klassen, Objekte und Vererbung. Im Detail wird erläutert, wodurch sich Vorteile für die Wartbarkeit und Wiederverwendbarkeit ergeben. Zu nennen sind hier zunächst die auch aus imperativen Sprachen wie Ada und Modula bekannte Kapselung von Daten und darauf arbeitenden Operationen und die Trennung von Schnittstelle und Implementierung, die Voraussetzung für eine klare Aufgabenverteilung zwischen Teams bzw. Entwicklern ist.

Durch den Einsatz von Vererbung ergibt sich zusätzlich die Möglichkeit, statt wie bei klassischen Bibliotheken Funktionalität einfach verwenden und diese an ggf. leicht unterschiedliche Erfordernisse anpassen zu können. Musterbeispiele hierfür sind sogenannte Frameworks, d.h. adaptierbare Systeme von Klassen, wie z. B. Java AWT und Swing, zwei Frameworks zur Erstellung graphischer Benutzeroberflächen. Die UML bietet für die verschiedenen Aspekte eines Softwaresystems unterschiedliche Diagramme an, die erlauben, den jeweiligen Aspekt zu visualisieren. Zu nennen sind hier u.a. Anwendungsfall-Diagramme (Use Case Diagrams), Klassendiagramme, Interaktionsdiagramme, endliche Automaten und Aktivitätsdiagramme.

 464
Block seminar

Moderne Unternehmen in globalen Märkten sind auf effektive Logistiknetzwerke ausgerichtet. Weitreichende Marktentwicklungen haben in den letzten Jahren dazu geführt, dass die Ausschöpfung logistischer Optimierungspotenziale aber auch die Differenzierung hinsichtlich einer kundenorientierten Logistikleistung einen zentralen Faktor für den Unternehmenserfolg darstellt. Neben der fortschreitenden Globalisierung der Beschaffungs- und Absatzmärkte haben insbesondere informationstechnologische Fortschritte hierfür neue Potenziale eröffnet. Die Nutzung dieser Möglichkeiten erfordert eine grundlegende Restrukturierung aller Prozesse in der Supply Chain auf strategischer, taktischer und operativer Ebene.

Das Supply Chain Management (SCM) nimmt diese Anforderungen auf, indem der Wertschöpfungsprozess unternehmensübergreifend in einem Netzwerk verstanden, diskutiert und gestaltet wird. Die Anforderungen an eine solche interorganisationale Zusammenarbeit sind als integriertes Problem der Prozessorganisation einerseits und des effektiven Einsatzes moderner Informationstechnologie andererseits zu diskutieren und entsprechende Lösungskonzepte sind daraus zu entwickeln. Dabei stehen nicht nur Fragestellungen der Material- und Warenwirtschaft, des Qualitäts- und Risikomanagements, sowie der IT-Unterstützung dieser Funktionen im Vordergrund. Über die Betrachtung der Material- und Güterflüsse hinaus stellt das Supply Chain Management die Betrachtung der Informationsund Planungsprozesse in den Mittelpunkt.

Das Modul Supply Chain Management im Rahmen des Masterstudiums Informationsmanagement setzt die Gestaltung, Planung und Steuerung der logistischen Geschäftsbeziehungen zwischen Unternehmen in den Fokus der Betrachtung. Ausgehend von den Treibern, die zu der steigenden Bedeutung des Supply Chain Management führen, werden die wesentlichen Gestaltungsebenen und -elemente eingeführt. Gerade in der Ausprägung der Struktur und Prozesse einer Supply Chain sind Modellierungtechniken ein essentielles Werkzeug, um komplexe Ablaufstrukturen sowie Kennzahlen- und Berichtssysteme zur Messung der Logistik-Performance zu entwickeln. Als Gestaltungsrahmen hierfür wird das Supply Chain Operations Reference Modell (SCOR) vorgestellt. An Hand des SCOR-Ebenensystems werden in sukzessivem Detaillierungsgrad die Planungselemente von Wertschöpfungsnetzwerken diskutiert und essentielle Werkzeuge zur Entwicklung individueller Prozessimplementierungen vermittelt.

Des Weiteren ist die Prozessgestaltung in der Supply Chain in Bezug auf eine kundenorientierte Ausrichtung unter Berücksichtigung der Effizienz für die Wettbewerbsdifferenzierung ein zentrales Thema. Anhand eines Aufgabenmodells des Supply Chain Managements werden die zentralen Fragestellungen der Supply Chain Planung in ihren Methoden sowie Ausprägungen vorgestellt sowie diskutiert. Studien zeigen, dass gerade eine ausgeprägte Kooperation zwischen den Unternehmen einer Supply Chain zu deren Erfolg wesentlich beiträgt. Aus der Vielzahl von Kooperationskonzepten sind verbreitete Ansätze wie „Vendor Managed Inventory“ (VMI) oder „Collaborative Planning, Forecasting, and Replenishment“ (CPFR) in ihren Abläufen sowie Verbesserungspotenzialen Gegenstand des Moduls. Wesentlich für die Umsetzung eines Supply Chain Managements sind die verschiedenen Arten von Informationssystemen, die in ihren Funktionen dargestellt und auch praktisch erprobt werden. 

Die Absolventen des Moduls sind in der Lage, Unternehmen und ihre Partner als umfassendes Geschäftsnetzwerk zu begreifen und selbstständig Interdependenzen zwischen Effizienz und Risiko aufzudecken, um auf dieser Basis betriebswirtschaftlich sinnvolle und informationstechnisch durchführbare Entscheidungen zu fällen. Sie sind in besonderem Maße dazu befähigt, klassische betriebswirtschaftliche Denkmuster zu hinterfragen und vor dem Hintergrund technisch induzierter Optimierungspotenziale neue logistische Konzepte zu entwerfen und zu bewerten.

 483

Ratings

Overall ratings for IT-Management
 
Comments

Editors

Have you met...
People

Dr. Armin Stein is Managing Director of the European Research Center for Information Systems (ERCIS) of the University of Münster, connecting currently more than 20 IS research institutions throughout Europe and beyond (https://www.ercis.org). Together with his team, he shapes and puts into actions the ideas of the ERCIS networking. He studied Information Systems at WWU, from which he gained his Dr. rer. pol. in 2010. During his PhD studies at the Department for Information Systems, Armin's work was and still is related to Business Process Management with a focus on the conceptual modelling and workflow management, addressing the technical aspects of BPM. Other research interests are related to the areas of Supply Chain Management and Gender and Diversity in IS. He is responsible for the IS introductory course on an undergraduate level and teaches Workflow Management on a graduate level. Furthermore, he supervises teams of students during international seminars (http://virtual-seminar.ercis.org).

 963
 
Feedback