Digitalisierung im deutschen Mittelstand. Gerald Lembke
Чтение книги онлайн.

Читать онлайн книгу Digitalisierung im deutschen Mittelstand - Gerald Lembke страница 5

Название: Digitalisierung im deutschen Mittelstand

Автор: Gerald Lembke

Издательство: Bookwire

Жанр: Сделай Сам

Серия:

isbn: 9783750259973

isbn:

СКАЧАТЬ Neben der Konzeption des Leitfadens werden parallel die Unternehmen ausgewählt, kontaktiert und zwei exemplarische Interviews als Pilot Cases geführt, um die Eignung der Fragen zu überprüfen.

      Im Anschluss beginnt die Phase der Datenerhebung (Phase 2), d. h. die Befragungen werden durchgeführt, aufgenommen und transkribiert.

      Im nächsten Schritt werden die gewonnenen Daten nach Trend und Branche strukturiert sowie im Zuge einer qualitativen Inhaltsanalyse kategorisiert und paraphrasiert (Phase 3).

      Korrespondierend zum multiple-case design erfolgt dann eine fallübergreifende Analyse und Interpretation der Daten, eine sog. Cross-Case-Analyse: Auf der einen Seite wird jeder Trend über die verschiedenen Branchen und branchenspezifischen Cases hinweg auf Muster, Überschneidungen und ungewöhnliche Abweichungen untersucht sowie in einem Zwischenfazit die säulenspezifische Hypothese verifiziert bzw. falsifiziert (Phase 4). Auf der anderen Seite werden für jede Branche die einzelnen Trendsäulen der Digitalisierung auf ihre Bedeutung und Relevanz untersucht.

      In einem Abschlussfazit erfolgt letztlich auf Basis der verifizierten bzw. falsifizierten saülenspezifischen Hypothesen die Validierung der Leitthese.

      Sämtliche Untersuchungsergebnisse werden in einer Ausarbeitung zusammengefasst und veröffentlicht (Phase 5).

      3. Trendsäulen der Digitalisierung

      3.1 Big Data

      Big Data dient dazu, „die richtigen Informationen dem richtigen Adressaten zur richtigen Zeit in der richtigen Menge am richtigen Ort und in der erforderlichen Qualität bereitzustellen“ (Schermann et al. 2014, S. 281).

      Der Trend wird auch als eine „Veränderung der Datencharakteristika hinsichtlich Volumen und Struktur“ (Hansmann et al. 2013, S. 485) beschrieben, weil eine Vielzahl unstrukturierter Daten über verschiedene Quellen wie GPS oder Social Media erfasst werden können. Ausgelöst von 2,9 Milliarden Menschen, die im „weltumspannenden Kommunikationsnetz“ (Klein et al. 2013, S. 319) Internetdienste und Anwendungen nutzen, greifen 75% der User über ihre mobilen Endgeräte zu (Statista.de 2014).

      Um Big Data eindeutig zu identifizieren, stellt man die Frage nach den vier Vs:

      Volume (Datenvolumen), Velocity (Datengeschwindigkeit), Variety (Datenvielfalt) und Veracity (Datenglaubwürdigkeit), die nach „multidisziplinären und evolutorischen Verbindungen“ (Buhl et al. 2013, S. 67) neuer Technologien und Methoden verlangen, um Daten optimal nutzen zu können. Hier spricht man bereits von einem fünften V, dem Value, das den neuen Mehrwert aus der Kombination der vier Vs definiert (vgl. Rossa/Holland 2014, S. 255). Durch traditionelle Datenanalyseverfahren hingegen sind die Art und Anzahl von Daten im Big Data nicht mehr handhabbar und bleiben in unverarbeiteter Form nutzlos (vgl. Klein et al. 2013, S. 319).

      In der Praxis kann Big Data zur Etablierung von Wettbewerbsvorteilen genutzt werden (vgl. Schermann et al. 2014, S. 284), für die Planung, Steuerung und Kontrolle eines Unternehmens, die Optimierung der Prozesse und die Erstellung eines umfassenden Kundenprofils zur besseren Individualisierung von Preisen oder Produktangeboten (vgl. Buhl et al. 2013, S. 63). „Dadurch bestehen überdurchschnittliche Wachstumschancen“ (Buhl et al. 2013, S. 63).

      Wege für ein besseres Datenmanagement werden durch fortschrittliche Technologien bereitet. Hierzu zählen zum einen Quantum-Computing, das die Grenzen der Informatik durch den Einbezug von Quantenmechanik überwindet, um komplexere Datenstrukturen verarbeiten zu können. Zum anderen In-Memory-Datenbanksysteme, die eine derart komplexe Verarbeitung auf einem lokalen Rechner vornehmen können sowie Speicherarchitekturen im Cloud-Bereich. Daten können dadurch effizient gespeichert, verteilt und bereitgestellt werden (vgl. Klein et al. 2013, S. 322).

      Doch wie sollen Datenmassen greifbar werden, wenn sie über das menschliche Verständnis hinausgehen? Die Selektion der richtigen Daten und deren Analyse erfordern neue Denkmuster (vgl. Klein et al. 2013, S. 322). Eine weitere Herausforderung stellt die Erwartung an die Datenqualität dar. Zeitkonsistente Daten, die über verschiedene Kanäle gesammelt werden, werden ebenso verlangt wie inhalts- und bedeutungskonsistente Daten, die eine eindeutige Identifizierung erlauben. Anschließend sollen diese Informationen dann verständlich und verlässlich sein (vgl. Buhl et al. 2013, S. 65).

      Der letzte Aspekt betrachtet somit die Datenvielfalt und -glaubwürdigkeit, der untrennbar mit dem Datenschutz in Verbindung steht.

      Eine wichtige Frage hierzu lautet: Wie gehen die Unternehmen mit Big Data um, um trotz der immensen Datensammlung und -auswertung den unbeliebten gläsernen Menschen zu verhindern (vgl. Zwick 2013, S. 47)? Da personenbezogene oder personenbeziehbare Daten hierzulande derzeit durch das deutsche Bundesdatenschutzgesetz (BDSG) geschützt sind, gilt das Verbotsprinzip mit Erlaubnisvorbehalt. Die Erhebung, Verarbeitung und Nutzung dieser Daten werden also nur durch die ausdrückliche Einwilligung der betroffenen Person ermöglicht (vgl. Rossa/Holland 2014, S. 287).

      Allerdings sind laut Datenschützern die gesetzlichen Regelungen zum Schutz der Privatheit länderspezifisch uneinheitlich und den aktuellen Anforderungen nicht angepasst (vgl. Seemann 2014, S. 118). Deshalb können Unternehmen mittels der De-Kontextualisierung persönliche Daten verwenden, ohne dass die Dateneigner zugestimmt haben, indem sie diese anonymisieren und eine bestimmte Person nicht mehr zu identifizieren ist. Dadurch ist es Datensammlern auch erlaubt, die Daten länger aufzubewahren. Über eine Re-Identifikation, bei der mittels Analysetechniken Datensätze wieder einzelnen Personen zuzuordnen sind, werden die Nutzer nicht informiert (vgl. acatech 2013). Aus diesem Grund fordern Datenschützer eine einheitliche Definition in der EU-Datenschutzverordnung.

      Laut Tams (2014, S. 337) planen bisher nur 23% der Unternehmen in Deutschland eine Big-Data-Strategie und nur 14% besitzen bereits eine. Sollten sich die Datenschützer allerdings durchsetzen, würde dies das Ende von Big Data bedeuten (vgl. Seemann 2014, S. 118).

      Big Data wird als disruptive Technologie die Unternehmenskultur verändern, nachdem die Unternehmen eine kundenorientierte Datennutzung etabliert haben.

      Thesen als Basis für den Leitfaden:

      · Unternehmen verwenden Big Data, um sich Vorteile wie die Personalisierbarkeit der Kundenkommunikation zu erschließen.

      · Sie nutzen Big Data im Rahmen der gesetzlichen Vorgaben, da sie rechtliche Konsequenzen durch eine unangemessene kundenorientierte Datenverarbeitung fürchten.

      · Eine Investition in herausragende Big-Data-Technologien lohnt sich aufgrund der hohen Kosten derzeitig nur für große Unternehmen.

      3.2 Cloud Computing

      Cloud Computing bedeutet das Anmieten von Rechenleistung, Datenspeicher oder Software via Web, um IT-Ressourcen dynamisch über das Internet oder ein Intranet zur Verfügung zu stellen (vgl. ENISA 2009). Die eigene IT-Infrastruktur wird angepasst bzw. für neue Dienste externer Anbieter, vom Softwaredienstleister oder Speicherservice geöffnet. Somit können Unternehmen auch ihre eigenen IT-Ressourcen flexibel einsetzen und ihre IT-Systeme weltweit durch die Nutzung externer Rechenleistungen und Speicherkapazität über das Internet optimieren (vgl. BSI 2015).

      Grundsätzlich können drei verschiedene Kategorien von Servicemodellen unterschieden werden. Infrastructure as a Service (IaaS) stellt einen Nutzerzugang von virtualisierten Computerhardware-Ressourcen wie Rechner, Netzwerke und Speicher zur Verfügung. Dabei ist СКАЧАТЬ