Zusammenfassung der Studie Big Data im Freistaat Bayern – Chancen und Herausforderungen
Die digitale Revolution verändert das Wirtschaftsgeschehen und die Gesellschaft in hohem Tempo. Infolge dieser radikalen Veränderungen vermehren sich explosionsartig die damit verbundenen Datenmengen. Im Jahr 2013 wurden so viele Daten produziert, wie in der gesamten Menschheitsgeschichte zuvor. Heute liegt der Bestand bei rund 12 Zettabyte, und die Menge wächst täglich rasant an – für 2020 rechnet man mit etwa 40 Zettabyte. Von diesen Daten sind allerdings rund 90 Prozent unstrukturiert, nur etwa drei Prozent lassen sich zum Beispiel über ein Schlagwort suchen. Klassische Datenbankarchitekturen und Auswertungsmöglichkeiten geraten hier an ihre Grenzen.
In der vbw Studie Big Data im Freistaat Bayern – Chancen und Herausforderungen (Prognos / Heckmann, 2016) werden der Status quo von Forschung und praktischer Anwendung in Bayern, Potenziale und Herausforderungen sowie die rechtlichen Rahmenbedingungen analysiert. Auf den Ergebnissen bauen die Handlungsempfehlungen des Zukunftsrats der Bayerischen Wirtschaft auf. Die Kernergebnisse der Studie sind im Folgenden zusammengefasst.
Big-Data-Technologien und -Anwendungen ermöglichen die Analyse von Daten, die zu groß oder zu komplex sind oder sich in zu großer Geschwindigkeit ändern, um sie mit den klassischen Methoden der Datenverarbeitung auswerten zu können. Den Kern von Big Data bildet aber nicht nur das Handling großer Datenvolumina. Erstmalig können große Mengen unstrukturierter, heterogener, unvollständiger und sogar fehlerhafter Daten verarbeitet werden – mit dem Ziel, valide Ergebnisse hervorzubringen.
Daten sind
im computerspezifischen / informatischen Sinn jede Form von alphanumerischen Zeichen,
nach DIN 44300 Teil 2 Nr. 2.1.13 Gebilde aus Zeichen, die aufgrund bekannter oder unterstellter Abmachungen Informationen darstellen, vorrangig zum Zwecke der Verarbeitung oder als deren Ergebnis,
im strafrechtlichen Sinn je nach Vorschrift unterschiedlich definiert: § 202 a Abs. 2 StGB geht beispielsweise von einem Datenbegriff aus, der nur solche Daten erfasst, die elektronisch, magnetisch oder sonst nicht unmittelbar und wahrnehmbar gespeichert sind,
im Sinne des Datenschutzrechts sämtliche Informationen über persönliche und sachliche Verhältnisse einer natürlichen Person, unabhängig von der Form der Darstellung oder Speicherung.
Für Big Data sind sämtliche Erscheinungsformen relevant. Hier spielen sowohl „Rohdaten“ als auch „aggregierte Daten“ eine Rolle. Rohdaten sind alle Daten in ihrer ursprünglich erfassten Form, aggregierte Daten sind Daten, die je nach Systemanforderung zusammengefasst, kategorisiert oder interpretiert worden sind. Big Data umfasst zugleich einen grundlegenden Wandel der Nutzung des verfügbaren Wissens – nahezu in Echtzeit und weltweit –, der dazu führt, dass neue Wettbewerber neue Dienstleistungen und Produkte in etablierten Märkten platzieren können. Produkte werden zukünftig sehr viel stärker mit Sensoren und Funkschnittstellen ausgestattet. Big Data zieht dadurch auch in traditionelleren Produktionsbereichen ein. Big-Data-Technologien und -Anwendungen profitieren bei ihrer Entwicklung und Ausbreitung von denselben günstigen Rahmenbedingungen wie die Digitalisierung im Ganzen, insbesondere von der steigenden Rechenleistung und dem Hardwarepreisverfall. Speziell für Big Data wirken sich die Verfügbarkeit von Open-Source-Produkten und die stetig steigende Datenmenge, unter anderem durch die Ausbreitung des „Internets der Dinge“, in dem internetfähige Objekte (z. B. Maschinen, Sensoren etc.) miteinander kommunizieren, beschleunigend aus.