Big Data

Studie Big Data im Freistaat Bayern – Chancen und Herausforderungen

Die digitale Revolution verändert das Wirtschaftsgeschehen und die Gesellschaft in hohem Tempo. Infolge dieser radikalen Veränderungen vermehren sich explosionsartig die damit verbundenen Datenmengen. Im Jahr 2013 wurden so viele Daten produziert, wie in der gesamten Menschheitsgeschichte zuvor. Heute liegt der Bestand bei rund 12 Zettabyte, und die Menge wächst täglich rasant an – für 2020 rechnet man mit etwa 40 Zettabyte. Von diesen Daten sind allerdings rund 90 Prozent unstrukturiert, nur etwa drei Prozent lassen sich zum Beispiel über ein Schlagwort suchen. Klassische Datenbankarchitekturen und Auswertungsmöglichkeiten geraten hier an ihre Grenzen.

In der vbw Studie Big Data im Freistaat Bayern – Chancen und Herausforderungen (Prognos / Heckmann, 2016) werden der Status quo von Forschung und praktischer Anwendung in Bayern, Potenziale und Herausforderungen sowie die rechtlichen Rahmenbedingungen analysiert. Auf den Ergebnissen bauen die Handlungsempfehlungen des Zukunftsrats der Bayerischen Wirtschaft auf. Die Kernergebnisse der Studie sind im Folgenden zusammengefasst.

Big-Data-Technologien und -Anwendungen ermöglichen die Analyse von Daten, die zu groß oder zu komplex sind oder sich in zu großer Geschwindigkeit ändern, um sie mit den klassischen Methoden der Datenverarbeitung auswerten zu können. Den Kern von Big Data bildet aber nicht nur das Handling großer Datenvolumina. Erstmalig können große Mengen unstrukturierter, heterogener, unvollständiger und sogar fehlerhafter Daten verarbeitet werden – mit dem Ziel, valide Ergebnisse hervorzubringen.

01.1
Methoden

Methoden und Verfahren  

Visual Analytics 

Hierbei handelt es sich um einen interdisziplinäreren Ansatz, der die Methoden der Visualisierung und der Mensch-Maschine-Interaktion mit Datenanalysen verbindet. Ziel ist es, Erkenntnisse aus extrem großen Datenmengen zu gewinnen, indem diese visuell aufbereitet werden, und somit Schlussfolgerungen durch den menschlichen Betrachter möglich zu machen.

Maschinelles Lernen 

Dies ist eine Fachdisziplin der künstlichen Intelligenz. Es umfasst eine Reihe von Methoden, die zum Ziel haben, eine Maschine in die Lage zu versetzen, mit der Zeit eigenständig Objekte zu klassifizieren, Muster und Zusammenhänge zu erkennen sowie Prozesse zu optimieren. In der Regel werden Beispieldaten verwendet, um die Maschine zu trainieren und die Güte des gelernten Modells zu validieren.

(Künstliche) Neuronale Netzwerke 

Es handelt sich dabei um eine Methode für maschinelles Lernen. Diese Algorithmen bilden die Vernetzungsstrukturen des menschlichen Gehirns (biologische Neuronen) und dessen Lernprozesse in abstrakter Weise nach : Künstliche neuronale Netzwerke bestehen aus einer Vielzahl sogenannter künstlicher Neuronen, die mit mathematisch beschriebenen Gewichtungsstärken miteinander verbunden sind. Während des Lernprozesses verändern sich diese Gewichtungen mit dem Ziel, einen möglichst fehlerfreien Output zu generieren.

Deduktion und constraint-basiertes
Schließen durch Induktion und Abduktion
 

Diese Methoden können auf verschiedene Weise im Bereich Big Data zur Anwendung kommen. Deduktives Schließen wird in Inferenzsystemen (das heißt Systemen, die Regeln und Fakten über ein Fachgebiet enthalten, an denen eingegebene Informationen gemessen werden) eingesetzt, um semantische Zusammenhänge in großen Datenmengen zu erkennen. In constraint-basierten Ansätzen wird darauf abgezielt, neue Hypothesen für große Datenmengen zu finden. Hierbei kann man entweder Hypothesen aufstellen und diese in den vorhandenen Daten nachzuweisen versuchen oder umgekehrt, von Beobachtungen ausgehend generalisieren.

Informationsextraktion und Text Mining 

Sie umfassen Techniken, die sich mit der Vorverarbeitung großer Datenmengen beschäftigen. Insbesondere bei der semantischen (bedeutungsmäßigen) Analyse von menschlicher Sprache oder großvolumigen Textinhalten kommen solche Methoden zum Einsatz. Ziel ist es, Terminologien und Ontologien (Darstellungen von Mengen an Daten und zwischen ihnen bestehenden Beziehungen) zu finden und für weiterführende Analysen nutzbar zu machen.

Analytische Architekturen 

Sie sind ein wesentlicher Bestandteil von Big-Data-Technologien, da sie die Grundlage für das Verarbeiten der Daten bilden. Analytische Architekturen sind Plattformen, mit denen das Entgegennehmen, die Speicherung und Ausgabe von großen Datenmengen überhaupt erst ermöglicht werden.

 

Übersicht zu Methoden und möglichen Einsatzbereichen

Big Data Methode

Einsatzbereich / Nutzen

Visual Analytics

Besonders geeignet, wenn ein Gesamtbild gezeichnet werden soll (z. B. von Prozessen im Unternehmen) ; einfache / intuitive, interaktive Darstellung der Ergebnisse

Maschinelles Lernen

Mustererkennung – zum Beispiel für vorausschauende Wartung oder Analyse von menschlicher Kommunikation für die Optimierung der Kundenschnittstelle

Neuronale Netzwerke

Automatisierte Mustererkennung in Daten und Ableitung bisher nicht erschließbarer Muster aus der Struktur der Daten; der Einsatz ist auch möglich, wenn im Vorfeld keine festen Gesetzmäßigkeiten in den Datensätzen bekannt sind – etwa bei der Gesichtserkennung

Deduktion, Induktion, Abduktion

Aufdecken von Regeln, Aufstellen und Testen von Hypothesen

Informationsextraktion, Text Mining

Rückschlüsse aus Daten ziehen, gemeinsame Eigenschaften und Widersprüche erkennen, fehlendes Wissen selbstständig aus dem vorhandenen ergänzen

Analytische Architekturen

Parallele Bearbeitung enormer, auch unstrukturierter Datenmengen – unter anderem für die Bewältigung zahlreicher gleichzeitiger Lese- und Schreibanfragen

Eigene Darstellung, basierend auf Prognos / Heckmann, 2016

01.2
Zukunfts­technologien

Big Data Anwendungen in Bayerns Zukunftstechnologien 

Für den Freistaat Bayern sind eine Reihe von Schlüsseltechnologien von besonderer Relevanz. Ausführliche Informationen erhalten sie hier. Hierzu werden diejenigen Technologiefelder gezählt, die sowohl schon heu­te wesentlich zur Wertschöpfung beitragen als auch sich in Zukunft besonders dyna­misch entwickeln werden.
In der folgenden Tabelle werden Anwendungsfälle für Big-Data-Anwendungen und -Methoden in diesen Zukunftstechnologien aufgezeigt. Die Bandbreite ist groß. Sie reicht von einer intelligenten und vernetzten Fabrik und autonom fahrenden Kraftfahrzeugen über Smart Farming und eine neue Qualität der Analyse von Wetterdaten bis hin zur Speicherung und Analyse von Genomdaten und einer personalisierten Medizin.

 

Big Data-Anwendungsfälle in Bayerns Zukunftstechnologien

Technologiefeld*

Beispielhafte Anwendungsbereiche für
Big Data-Anwendungen und Technologien

Energiesysteme und -technologien

- intelligentes Energiemanagement

- Lastenprognosen bei erneuerbaren Energien

- langfristige Energienutzungspläne

Biotechnologien

- Speicherung und Analyse von Genomdaten

- Erforschung von Krankheiten, etwa Krebs oder Erbkrankheiten

Ernährungs- und Lebensmitteltechnologien

- Smart Farming

- Wetterdatenanalyse

- wertschöpfungsübergreifende Optimierung

Gesundheits- und Medizintechnologien

- personalisierte Medizin

- Erprobung individualisierter Medikamente

- digitale Patientenakte

Industrielle Produktionstechnologien

- Predictive Maintenance

- intelligente und vernetzte Fabrik

- cyberphysische Systeme

- selbstlernende Produktionsprozesse

Intelligente Verkehrssysteme und zukünftige Mobilität

- autonomes Fahren

- intelligente Verkehrsleitsysteme und Verkehrsflüsse

- vernetztes Fahren

- intelligente Warenflüsse in der Logistik

Luft- und Raumfahrttechnologien

- Detektion von Gegenständen im Weltraum

- Remote Sensing

Neue Werkstoffe und Materialien sowie Nanotechnologien

- Data-Mining-Verfahren zur Nutzbarmachung
  riesiger Mengen von Messdaten

- Simulation neuer Materialien


*Anmerkungen: Das Technologiefeld „Digitalisierung / IKT“ wird nicht gesondert aufgeführt, da die Big Data-Technologien und -Anwendungen selbst ein Teilbereich dieses Feldes sind. Aufgrund deutlicher inhaltlicher Überschneidungen zwischen „Neue Werkstoffe / Materialien“ sowie „Nanotechnologien“ in Bezug auf Big Data-Technologien werden die beiden Technologiefelder in dieser Tabelle gemeinsam dargestellt.

Quelle: Prognos / Heckmann, 2016


Die hohe Bedeutung von Big-Data-Technologien und -Anwendungen für die Schlüsseltechnologien ist bereits ein Beweis für ihre hohe ökonomische Bedeutung. Darüber hinaus gibt es aber auch in anderen Technologiefeldern und Branchen – etwa der Finanz-und Versicherungswirtschaft – vielfältige Einsatzmöglichkeiten. So können auf Basis von Big Data beispielsweise Sicherheitsrisiken frühzeitig erkannt und abgeschätzt werden, wenn zur Lagebewertung und Gefahrenabwehr neben klassischen Quellen (Wetterdaten, Verkehrsdaten) auch Informationen aus Social-Media-Diensten, Bildauswertungen von Überwachungsvideos oder Auslastungsdaten von Mobilfunkmasten herangezogen werden.

01.3
Standort Bayern

Big Data am Standort Bayern

Big Data trifft im Freistaat Bayern auf gute Rahmenbedingungen. So gehört die Region München / Oberbayern zu den wichtigsten IT- und Hightech-Standorten in Europa. Hier sind laut Hightech-Atlas 2015 mehr als 2.300 Hightech- Unternehmen angesiedelt, so viele wie in keiner anderen Region Deutsch­lands. Im ICT Poles of Excellence Ranking der Europäischen Kommission 2014 belegt die Region München den 1. Platz im europäischen Vergleich. Die Struktur der Unternehmen der IKT-Branche in Bayern reicht von interna­tionalen Technologiekonzernen über mittelständische Unternehmen bis hin zu Start-ups. Die hohe Attraktivität zeigt sich auch durch jüngste Ansiedlungsentscheidungen global tätiger IT-Konzerne. Daneben haben wichtige internationale Anbieter von Big-Data-Technologien zumindest ihren Deutschlandsitz in München und eine Reihe weiterer inter­national tätiger IT-Unternehmen, die Big-Data-Lösungen anbieten, sind am Standort präsent. Lediglich zwei der weltweit größten Anbieter von Big-Data- Lösungen sind nicht im Großraum München vertreten. Neben internationa­len IT-Konzernen bieten auch noch eine Reihe etablierter heimischer Unter­nehmen sowie bayerischer Start-ups Big-Data-Anwendungen an.

Im Industriebereich nimmt der Freistaat Bayern als Standort für Big-Data- Technologien und -Anwendungen im europäischen Vergleich eine herausra­gende Stellung ein und ist für global agierende Unternehmen hoch attraktiv. Als Forschungsstandort ist die Stärke des Freistaats Bayern weniger ausgeprägt – ebenso wie die von Deutschland insgesamt. Nur ca. fünf Prozent aller Publikationen im Bereich Big Data konnten bei einer Analyse deutschen Forschungsinstitutionen zugeordnet werden. Die meisten Veröffentlichungen in diesem Bereich stammen aus China und den Vereinigten Staaten. Deutschland nimmt nach dem Vereinigten Königreich und Indien den fünften Platz bei der Anzahl der Veröffentlichungen zu Big-Data-Forschungsthemen ein. Relativiert, aber nicht auf den Kopf gestellt, wird der Befund durch eine Impact-Analyse. Ein Großteil der Forschungsaktivitäten im Bereich Big Data findet außerhalb Europas statt.

Auch zwischen den Ländern gibt es erhebliche Unterschiede bei der Publika­tionsstärke zur Big-Data-Forschung. Der Freistaat Bayern nimmt, gemessen an den Publikationen, nach Baden-Württemberg und Nordrhein-Westfalen den dritten Platz ein. Diese drei Länder vereinen ca. die Hälfte aller Veröffentlichungen auf sich, die andere Hälfte teilen sich die übrigen 13 Länder. Der Freistaat Bayern ist heute ein aktiver, aber kein herausragender For­schungsstandort im Big-Data-Bereich. Diese Ergebnisse konnten auch durch eine Analyse der Förderdaten von Bund und EU untermauert werden.

Es gibt allerdings eine Reihe herausragender Forschungsinstitutionen in Bayern. Allen voran ist die Technische Universität München zu nennen, die bundesweit einen Spitzenplatz im Vergleich der Institutionen im Big-Data-Bereich einnimmt. Schwerpunkte ihrer Forschungsarbeit bilden Datenbanken, Analysetechniken, Neuronale Netze und Maschinelles Lernen. Weitere starke Forschungsinstitutionen im Big-Data-Bereich sind die Lud­wig-Maximilians-Universität München, die Friedrich-Alexander-Universität Erlangen-Nürnberg sowie die Julius-Maximilians-Universität Würzburg, die Siemens AG sowie das Helmholtz Zentrum München – Deutsches Forschungszentrum für Gesundheit und Umwelt. Insgesamt reichen aber die bisherigen Aktivitäten nicht aus, um im globalen Forschungswettbewerb ein eigenständiges Profil zu entwickeln. Der Freistaat Bayern wird gegenwärtig weder im internationalen noch im nationalen Vergleich dem Anspruch eines Spitzenstandorts 

Big Data ist als denkbares Handlungsfeld der Mehrheit der bayerischen Unternehmen zumindest bekannt. Dies ergab auch eine aktuelle Unternehmensbefragung der vbw zum Thema Big Data in den Branchen Automobilbau, Automobilzulieferer und Maschinenbau.

Den höchsten Bekanntheitsgrad haben dabei Visual Analytics (64 %), Maschinelles Lernen (54 %) und Analytische Architekturen (50 %). Dementsprechend ist Visual Analytics auch die heute in bayerischen Metall- und Elektrounternehmen am häufigsten angewandte Big-Data-Methode, gefolgt von analytischen Architekturen.

Als Gründe für die – bereits erfolgte oder künftige – Einführung von Big-Data-Technologien werden von den Unternehmen branchenübergreifend in erster Linie die verbesserte Steu­erung operativer Prozesse, die Reduktion von Kosten, die Verbesserung von strategi­schen Entscheidungen sowie die Beschleunigung von Entscheidungen angegeben. Der Fokus liegt noch auf einer Optimierung der bestehenden Abläufe. Das zeigt zugleich, dass noch großes Potenzial brachliegt, soweit es um die Nutzung der Methoden für Veränderungen und Erweiterungen des heutigen Geschäftsmodells geht.

In kleinen und mittelständischen Unternehmen ist dagegen häufig noch ein Beobachterstatus festzustellen. In der Adaption von IKT-Technologien weisen kleine und mittel­ständische Unternehmen ein spezifisches Handlungsmuster auf. Sie nutzen neue Technologien und Anwendungen zunächst nicht in ihren Kernprozessen, sondern in vor- und nachgelagerten Wertschöpfungsstufen, wie z. B. in der Logistik, der Personal­verwaltung oder dem Kundenmanagement. Sie wählen somit eine „Follower-Strategie“, die den eigenen Entwicklungsaufwand verringert. Diese Strategie birgt allerdings zugleich die Gefahr, notwendige Prozessveränderungen, die das eigene Kerngeschäft betreffen, zu spät zu erkennen und damit im Wettbewerb deutlich zurückzufallen. Die abwartende Haltung begründet sich einerseits aus den knappen Investitionsbudgets, die diesen Unternehmen zur Verfügung stehen. Folglich werden einzelne Entscheidun­gen über den Einsatz neuer Technologien häufig solange verschoben, bis eine eindeu­tige Handlungsnotwendigkeit erkennbar ist. Andererseits führen nicht ausreichende Kompetenzen in der Bewertung von Innovations- und Investitionsentscheidungen häu­fig dazu, dass vorsichtshalber ganz auf den Einsatz neuer Methoden verzichtet wird.

01.4
Hemmnisse

Hemmnisse für den Einsatz von Big Data

Die in den Expertengesprächen für die Big-Data-Studie der vbw benannten Hemmnisse für eine intensivere Nutzung der Potenziale von Big Data lassen sich zu folgenden Schwerpunkten zusammenfassen:

  • Fehlendes Know-how und Mangel an datenspezifischen Kompetenzen in den Unternehmen
  • Mangel an Fachkräften
  • Fehlende kritische Masse in der Forschung
  • Rechtliche Unsicherheiten und fehlende internationale Harmonisierung der  Gesetzgebung

Etwas andere Schwerpunkte zeigt eine Befragung unter bayerischen Unternehmen aus den Branchen Automobil- und Automobilzuliefererindustrie sowie Maschinenbau. 

Hauptursache für die Unterschiede dürfte sein, dass hier nicht gezielt Unternehmen befragt wurden, die bereits im Bereich Big Data besonders aktiv sind.

In kleinen und mittelständischen Unternehmen fehlt häufig eine chancenorientierte Wahrnehmung der Einsatzmöglichkeiten von Big-Data-Anwendungen. Das gilt nach Ex­perteneinschätzungen auch für IT-Unternehmen, die sich auf das etablierte Beratungs­geschäft konzentrieren und nicht die Rolle von Innovationstreibern im Mittelstand einnehmen. Es fehlt an bekannten Vorbildern (Best Practice), die Impulse für eine Nach­ahmung setzen. Gleichzeitig wird der Markt für Data Scientists und Data Analysts mit einem umfassenden Qualifikationsprofil von den Großunternehmen und den großen Forschungseinrichtungen dominiert, sodass eine entsprechende Nachfrage aus dem mittelständischen Unternehmensbereich derzeit und auch in naher Zukunft nicht be­friedigt werden kann. 

01.5
Rechtsrahmen 

Der Rechtsrahmen für Big Data 

Das Recht und die Rechtssicherheit spielen eine zentrale Rolle beim Thema Big Data. Zum einen werden bei den Hemmnissen für die Einführung neuer IKT-Lösun­gen vor allem in kleinen und mittelständischen Unternehmen immer wieder die Themen Datensicherheit und Datenschutz genannt. Auch für Big Data gilt: Die Unternehmen sind unsicher, welche Optionen sie nutzen können und wo sie ggf. in der Nutzung und Auswertung von kundenspezifischen oder arbeitsprozessbezogenen Daten in rechtliche Grauzonen geraten. Dies gilt es näher aufzuschlüsseln, damit das Recht beachtet oder auch an neue Bedürfnisse angepasst werden kann. Zum anderen soll das Recht, etwa in Form von Gesetzesänderungen und Neuregelungen, ein neues Schutzsystem hervorbringen, das den disrupti­ven Prozessen, die mit Big Data in Verbindung gebracht werden oder aus Big-Data-Anwendungen hervorgehen, Konturen verleihen und Schranken setzen kann. Die Gewährleistung von Rechtssicherheit, die Schaffung von Big-Data-Recht, wird so zu einem „Passepartout“ der Big-Data-Ökonomie.

Solange es noch kein solches ausdifferenziertes Big-Data-Recht gibt – und hierzu bedarf es neben gesetzlichen Spezialregelungen auch einer Kasuistik, die sich in der Rechtsprechung erst über mehrere Jahre entwickeln kann – wird es auch keine hundertprozentig eindeutige und in allen Details vorher­sehbare Rechtsanwendung geben.  

Eine solche zu fordern, hieße, Innovationen im Keim zu ersticken. Schon deshalb wird man lediglich die Beachtung der zwingenden Rechtsvorschrif­ten verlangen dürfen, um mit der Entwicklung von Big-Data-Instrumenten und der Durchführung von Big-Data-Verfahren zu beginnen. Die Fernwirkun­gen und Details in den möglicherweise sehr komplexen Rechtsbeziehungen sind quasi „en passant“ zu beobachten und situationsabhängig nachzu­steuern. Im Übrigen lassen sich Konflikte auch durch vertragliche Gestal­tung vermeiden.

Es sind immer wieder zwei zentrale Interessenabwägungen, anhand derer Big-Data- Prozesse zu gestalten sind : Auf der einen Seite geht es um ein Abwehrrecht der Betrof­fenen, was im Wesentlichen durch das Datenschutzrecht normativ erfasst wird. Auf der anderen Seite stehen die Verwertungsrechte der Beteiligten im Rahmen der Wertschöp­fung von Big Data.  

Um die heterogenen Fallgestaltungen eines Big-Data-Workflows zu erfassen, bietet es sich an, diesen in drei grundlegende Phasen zu unterteilen, um diese später nach Bedarf weiter auszudifferenzieren. So ergeben sich die drei Phasen Datenentstehung und Datenerfassung, Datenspeicherung und Datenverarbeitung sowie Datenveredelung und Datenverwertung.  

Zwischen solchen Phasen zu unterscheiden, bietet sich auch deshalb an, weil sich die rechtlichen Herausforderungen je nach Phase unterschiedlich darstellen. 

Die Phase der Datenentstehung und Datenerfassung stellt zumeist den Beginn der Wertschöpfungskette dar. In rechtlicher Hinsicht liegt hier die wesentliche Weichenstellung im Datenschutzrecht. Es ergibt sich derzeit weitgehend aus dem Bundesdatenschutzgesetz (BDSG), dem Telemediengesetz und Spezialregelungen zu einzelnen Sachbereichen wie etwa den Gesundheitsdaten nach dem Sozialgesetzbuch. Ab 2018 gilt dann europaweit einheitlich die Datenschutzgrundverordnung.

Datenschutzrecht kommt immer dann zur Anwendung, wenn es sich bei den erfassten Daten um personenbezogene Daten handelt. Soweit es „nur“ um sachbezogene Daten ohne Personenbezug geht (z. B. Wetter­daten, reine Fahrzeugdaten, Produktdaten, Daten aus maschineller Steuerung etc.), greift ggf. ein Know-how-Schutz, der Schutz von Be­triebs- und Geschäftsgeheimnissen oder mittelbar auch ein Eigentums­schutz, wenn zur Erfassung der Daten physische Hürden zu überwin­den sind.

Die Erhebung, Speicherung und Nutzung personenbezogener Daten, wie sie auch in den verschiedenen Phasen einer Big-Data-Anwendung in Betracht kommen, sind datenschutzrechtlich gerechtfertigt, wenn hierfür ein spezieller Rechtfertigungsgrund besteht (z. B. ein zugrunde liegender Vertrag, in dessen Erfüllung die Datenerhebung erfolgt) oder wenn der Betroffene wirksam eingewilligt hat. Beides ist im Kontext von Big Data möglich, aber nicht immer einfach umsetzbar. Sowohl bei der massenhaften Erhebung als auch bei der automatisierten Verarbeitung personenbezogener Daten sind limitierende Vorgaben (Datensparsam­keit, Scoring nach § 28 b BDSG) zu beachten. Für besonders sensible Daten (z. B. Angaben zu Gesundheit oder ethnischer Herkunft, vgl. § 3 Abs. 9 BDSG) gelten weitere Restriktionen. Der Erstellung totaler Per­sönlichkeitsbilder (Profiling) hat das Bundesverfassungsgericht schon vor mehr als vier Jahrzehnten einen Riegel vorgeschoben. Aus diesen Gründen wird in vielen Big-Data-Szenarien über eine Anonymisierung bzw. Pseudonymisierung versucht, den Personenbezug zu lösen, um nicht mehr den strengen Datenschutzanforderungen unterworfen zu sein.

Schon hier ist die Frage aufzuwerfen, inwieweit die Akteure, ohne die die Datenbestände erst gar nicht erzeugt würden, an einem späteren Gewinn aus der Verarbeitung und Veredelung jener Daten zu beteiligen sind. Das betrifft etwa den Hersteller von Sensoren oder einer Blackbox im Fahrzeug, den Betreiber einer Suchmaschine, aber auch und beson­ders einzelne Personen, deren (persönliche) Daten erfasst werden. Hier wird erstmals die Frage nach einem „Dateneigentum“ oder nach ver­gleichbaren Ausschließlichkeitsrechten aufgeworfen. Dies wird am Ende eine Frage der konkreten Vertragsgestaltung sein. Daneben ist bereits an die Verwertungsrechte aus dem Urheberrecht zu denken, soweit die Daten Werkscharakter haben, also Gegenstand eines urheberrechtlichen Schutzes sein können.

In der zweiten Phase des Big-Data-Workflows – Datenspeicherung und Datenverarbeitung – geht es um Speichermedien und Verarbeitungs­modi und die damit verbundenen Fragen. Das Datenschutzrecht ist hier weiter relevant, allerdings in Abhängigkeit von der Weichenstellung in der ersten Phase. Soweit der Personenbezug nämlich nicht gelöst wurde (was bei bestimmten Anwendungen auch sinnvoll ist, um etwa be­stimmte personalisierte Dienste wie ein Therapieangebot nach Big- Data-Analyse von Gesundheitsdaten erbringen zu können), kommt es in der zweiten Phase besonders darauf an, dass sich die Datenverarbei­tung im Rahmen der Rechtfertigung verhält. Nach dem Grundsatz der Zweckbindung muss eine Zweckänderung (so lukrativ diese auch sein mag) vermieden werden, solange man nicht erneut eine entsprechende Einwilligung des Betroffenen einholt, was sehr aufwendig sein kann.  

Neben das Datenschutzrecht tritt in der zweiten Phase das IT-Sicher­heitsrecht. Gerade die Masse und Komplexität der Daten, die hier ge­speichert und verarbeitet werden, erfordern Vorkehrungen zum Schutz der Verfügbarkeit und Integrität, ggf. auch der Vertraulichkeit der Datenbestände. Das IT-Sicherheitsgesetz ist zu beachten, wenn sogenannte kritische Infrastrukturen betroffen sind, also Infrastrukturen in bestimmten Sektoren (z. B. Energie, IKT oder Wasser, vgl. die Verordnung zur Bestimmung kritischer Infrastrukturen – BSI-KritisV – zu der Frage, wel­che Anlagen darunterfallen), deren Ausfall bzw. Beeinträchtigung zu Versorgungsengpässen und weiteren schädlichen Auswirkungen für Staat und Gesellschaft führen können.  

Auch das Urheberrecht erlangt eine besondere Bedeutung in der zweiten Phase, weil und soweit es dort um den Schutz von Datenbanken und die Rechte der hieran Beteiligten geht.

Die dritte Phase eines Big-Data-Workflows kann als Datenveredelung oder Datenverwertung bezeichnet werden. Es geht um besondere Verwertungsmöglichkeiten der aggregierten Daten in unterschiedlichen Kontexten, die mehr oder weniger nahe an den ursprünglichen Datenerfassungsszenarien liegen. Von Datenveredelung kann und sollte auch deshalb gesprochen werden, weil es bei Big Data besonders um Wertschöpfung, also die Schaffung von Mehrwerten geht, die über die einfache Datennutzung bei der klassischen Datenverarbeitung weit hinausgeht. Diesen Mehrwert gilt es – insbeson­dere über vertragliche Gestaltungen – den am Prozess Beteiligten zuzuordnen.

Big-Data-Anwendungen können außerordentlich komplex sein. Unter rechtlichen Gesichtspunkten lohnt es sich, exemplarisch Szenarien („Use Cases“) zu erproben, bei denen die Zahl der unbekannten Faktoren noch überschau­bar bleibt.  Weitere Informationen vgl. Studie Big Data im Freistaat Bayern, die Sie hier herunterladen können.

Die Bandbreite der Anwendungsmöglichkeiten für die Wertschöpfung durch Verarbei­tung großer Datenmengen ist enorm. Von der Energiewende über neue Verkehrssysteme, medizinische Forschung und Diagnostik, der Vorhersage von Krisensituationen, der Lagebewertung und Gefahrenabwehr zur Verbesserung der inneren Sicherheit, neuen Finanzdienstleistungen bis hin zu Connected Car, digitalen Einkaufswelten, adressatengenauem Online-Marketing und Industrie 4.0 : All das, was man mit Big Data verbinden kann, ist letztlich nichts anderes als die konsequente, den derzeitigen und künftigen technologischen Möglichkeiten der Datenerfassung, Datenverwertung und Datenveredelung folgende Zusammenführung von Nutzerinteressen und Geschäftsmodellen. Bei allen Unklarheiten und Unwägbarkeiten sind doch ein hoher gesellschaftlicher Nut­zen und erhebliche Gewinne durch Big-Data-Anwendungen zu erwarten.

In einer Big-Data-Matrix kann man ermitteln, ob ein Anwendungsfall unter rechtlichen Aspekten eher trivial oder besonders anspruchsvoll ist. Rechtliche Relevanz haben besonders Kriterien wie die konkrete Einwilligung der Betroffenen, die Anforderungen an Anonymisierung oder Pseudonymisierung, die Art und Menge der Daten oder die Zweckbindung.  Weitere Informationen finden Sie in den Handlungsempfehlungen für die praktische Anwendung in Unternehmen.

Eine Vielzahl von Rechtsfragen im Zusammenhang mit dem Einsatz von Big-Data-Methoden ist heute aber schlicht noch nicht abschließend geklärt. Im Folgenden nur einige Beispiele :

Selbst wenn eine grundsätzliche Erlaubnis besteht, Massendaten zu erfassen, ist dies kein Freibrief für die weitere Behandlung. So müssen die Daten sicher verwahrt und verarbeitet (evtl. auch anonymisiert) werden. Hierzu zählen insbesondere die Gewährleistung der Verfügbarkeit, Integrität und Vertraulichkeit der Daten. Sowohl die Rohdaten als auch die aggregierten Daten müssen so gespeichert und zum Abruf bzw. zur weiteren Verwendung vorgehalten werden, dass der Berechtigte jederzeit Zugang hat, der Unbefugte wiederum wirksam ausgeschlossen bleibt. Außerdem ist ein Schutz vor Manipulation der Datenbestände (von innen und von außen) zu bewerkstelligen, weil sonst die Datenbasis verfälscht und die Schlussfolgerungen aus der Analyse fehlerhaft wären. Das Sicherheitsniveau muss der Bedeutung der jeweiligen Big-Data-Anwen­dung angepasst werden. Allerdings sind unter anderem die Haftungsmaßstäbe noch weitgehend ungeklärt.

Insgesamt ist die Gewährleistung der IT-Sicherheit gerade bei Big-Data-Anwendungen wichtig und anspruchsvoll zugleich. Big Data ohne IT-Sicherheit ist wertlos und kann sogar gefährlich sein. Wenn ganze Big-Data-Workflows und Wertschöpfungsketten von der Verfügbarkeit und Integrität der durch sie erhobenen Daten abhängen, stellt eine Kompromittierung jener IT-Sicherheit das gesamte System infrage.

So sehr man sich um eine rechtskonforme Gestaltung von Big-Data-Anwendungen und die Gewährleistung von IT-Sicherheit bemühen kann und bemühen sollte, so klar ist zugleich, dass man IT-Unsicherheit bzw. IT-Risiken mit den daraus erwachsenden Schäden nicht vermeiden kann. Parallel zum IT-Sicherheitsrecht muss ein Informations­haftungsrecht und Informationsfolgenrecht entwickelt werden, dessen Konturen bis­lang nur leicht ausgeprägt wurden.

Der urheberrechtliche Werkschutz verlangt eine persönliche geistige Schöpfung, vgl. § 2 Abs. 2 UrhG. Das einzelne Datum ist häufig eine rein maschinelle Produktion, besitzt für sich allein genommen keinen geistigen Gehalt und nicht die erforderliche Schöpfungshöhe. Daher kommt dem einzelnen Datum auch kein urheberrechtlicher Werk­schutz zu. Abgesehen davon mögen Big-Data-Anwendungen auch weitere Daten her­vorbringen, die alleine durch technische Analysen entstehen, sodass kaum von einer persönlichen Schöpfung gesprochen werden kann, für die Urheberschutz beansprucht werden könnte. Zwar darf sich ein Urheber technischer Mittel bedienen. Der Mensch darf die Maschine aber nicht lediglich beherrschen, sondern muss mit ihrer Hilfe aus eigener geistiger Quelle eine schöpferische Gestaltung hervorbringen. Solange das kreative Programm wirklich in einer Maschine „verkörpert“ ist, folgen faktisch das Recht an den Ergebnissen bzw. die Verfügungsmöglichkeit über die Ergebnisse dem Eigentum an der Maschine. Als (Leistungs-)Schutzrechte kommen bei Big Data deshalb eher solche aus § 87 b UrhG für die Betreiber der Datenbanken in Betracht.

Bei Big-Data-Verfahren stellt sich nicht nur die Frage, mit welchen Schutzrechten und Schutzpositionen sich der Einzelne gegen die Erfassung „seiner“ Daten wehren kann. Vielmehr ist auch zu klären, wie er – umgekehrt – an der Verwertung / Vermarktung die­ser Daten partizipieren kann. Das betrifft zum einen den Nutzer / Verbraucher, um „des­sen“ Daten es geht. Daneben treten weitere Berechtigte auf den Plan. Aus diesem Grund sind vor der Konzeption von Big-Data-Anwendungen die Schutzrechte der ein­zelnen Akteure zu klären, um die Anwendung nicht nur zum Laufen zu bringen, sondern auch das Geschäftsmodell durchzurechnen.

Nach geltendem Recht gibt es Eigentum aber nur an körperlichen Gegenständen, also kein Dateneigentum. Rohdaten als Bestandteile der Datenmengen in Big-Data-Verfahren sind überdies weder immaterialgüterrechtlich geschützt noch schutzfähig. Vom Urheberrecht abgesehen, entstehen die weiteren Immaterialgüterrechte immer erst nach einem gesetzlich genau vorgeschriebenen Publizitätsakt (Veröffentlichung im Patentblatt, Eintragung ins Markenregister usw.). Die Entstehung und Erfassung eines Datums, die nachfolgende Speicherung und auch das spätere Veredeln sind davon nicht erfasst.

Nach geltendem Datenschutzrecht gilt der Grundsatz der informierten Einwilligung (§§ 4, 4 a BDSG). Der Betroffene muss demzufolge die Tragweite seiner Entscheidung vorhersehen können, also genau wissen, was mit seinen personenbezogenen Daten geschehen soll. Das ist bei Big-Data-Anwendungen eine große Herausforderung, weil und soweit die Verarbeitung und Verwertung der Daten weit über den ursprünglichen Zweck hinausgehen können. Teilweise wissen die Anbieter von Big-Data-Analysen im Zeitpunkt des Datenzugriffs selbst noch nicht abschließend, wofür die Daten einmal verwendet werden sollen. Und selbst wenn dies in einem Fall bekannt sein mag, sind doch Folgeverwendungen, die Übermittlung an Dritte und spätere Zweckänderungen denkbar, über die zunächst nicht informiert wird (oder werden kann).

Demgegenüber scheidet ein patentrechtlicher Schutz weitgehend aus. Hierfür müsste eine Big-Data-Datenanalyse eine „technische Außenwirkung haben“. Das heißt, dass die Software die Lösung eines technischen Problems mit technischen Mitteln bestimmen oder zumindest beeinflussen muss, wie es wohl oftmals im Rahmen der industriellen Produktion der Fall sein wird. Daran kann es fehlen, wenn es im Rahmen von Big-Data-Datenanalysen nicht um die Lösung eines technischen Problems mit technischen Mitteln, sondern eher um die Lösung eines tatsächlichen Problems mit technischen Mitteln geht.

In der Tat ist das geltende Recht nicht in der Lage, alle Fallgestaltungen im Kontext von Big-Data-Anwendungen zufriedenstellend abzudecken. Die Akteure sind daher gefor­dert, den Interessenausgleich einschließlich der Nutzungs- und Verwertungsrechte so­wie der Erlösanteile rechtsgestaltend durch Verträge selbst in die Hand zu nehmen. Die besondere Herausforderung aus rechtlicher Sicht ist, jenen gesetzlichen Rahmen zu schaffen, der Orientierungssicherheit für alle Akteure gibt, ohne deren innovative Entfaltung zu behindern. Für den Gesetzgeber bedeutet dies zugleich, das richtige Maß an Regulierung zu finden. Detailverliebtheit wäre hier genauso kontraproduktiv wie die Scheu, Weichen zu stellen und damit die Übernahme von Verantwortung für die Folgen technischer Innovationen zu verweigern. Dies führt auch zu der notwendigen Diskussi­on um die Bedeutung normativer Steuerung der Technikentwicklung.

01.6
Gesellschaft

Gesellschaftliche Debatte führen 

Die Entwicklung und Nutzung von Big-Data-Technologien in ganz unterschiedlichen Bereichen wie dem industriellen Mittelstand, der Medienwirtschaft oder der Sicherheitstechnologie bergen enorme Potenziale. Die Einbettung von datengetriebenen Diensten und algorithmenbasierten Beobachtungs-, Vorhersage- und Entscheidungsverfahren in nahezu alle Bereiche des Le­bens – von der Arbeitswelt über die Gesundheitsvorsorge bis hin zur Infor­mationsversorgung – stellt jedoch technisierte Gegenwartsgesellschaften auch vor eine Reihe von Herausforderungen. Einige von ihnen betreffen Fra­gen wirtschafts- und innovationspolitischer Steuerung und datenschutz- und wettbewerbsrechtlicher Regulierung. Bei einer ganzen Reihe von Fragestellungen aber sind gesellschaftliche De­batten notwendig, um Regelungs-, Steuerungs- und Förderungsbedarf und -möglichkeiten zunächst zu identifizieren. Sie zu führen und ihre Ergebnisse produktiv in die Entwicklung von Big-Data-Anwendungen einfließen zu las­sen, ist unerlässlich, um ungewollte und unreflektierte Festlegungen im Entwicklungs- und Designprozess zu vermeiden und Fragen der Regulie­rung und gesellschaftlichen Akzeptanz nicht systematisch zu spät zu stellen.