Big Data – die grosse Datenflut

25.04.2016 Simon Fahrni

Unter dem Begriff «Big Data» werden im Allgemeinen die immer schneller wachsenden Datenberge sowie die IT-Systeme und Infrastrukturen verstanden, die für die Bearbeitung dieser Daten notwendig sind. Jeden Tag werden Milliarden von Gigabytes generiert und umgewälzt. Man schätzt, dass der weltweite IP-Verkehr im Jahr 2019 einem Datenvolumen von 504 Milliarden DVDs entsprechen wird – das bedeutet, dass jede Stunde 58 Millionen DVDs über das Internet verbreitet werden.[1] In Zukunft werden vor allem IT-Lösungen, welche diese grossen Datenmengen strukturieren und analysieren, eine massgebende Rolle spielen.

Big Data die grosse Datenflut

Abbildung 1: Prognose zum Datenwachstum weltweit und Datenanteil in Cloudsystemen [2]

2015 lag der weltweit generierte Datenbestand bei ungefähr 8600 Exabytes (8.6 x 1021). Dieser wird bis 2020 voraussichtlich auf ca. 40 Zettabytes (40 x 1021) anwachsen.[2] Die von Maschinen generierten Daten, also die M2M-Kommunikation, kommen in der Regel zwar in weniger grossen Paketen daher, die Firma Cisco schätzt aber, dass bis 2019 bis zu 10,5 Milliarden Geräte vernetzt sein werden, die ständig kommunizieren und deren Anteil somit ebenfalls bedeutend anwächst.[1]

Vorsprung durch geeignete IT-Lösungen

Die enorme Anzahl Datensätze, die täglich von Millionen von Menschen und Maschinen generiert werden, eröffnen Firmen diverse neue Möglichkeiten, Wettbewerbsvorteile zu erlangen. Viele Firmen verfügen aber nicht über die nötigen Ressourcen und Infrastrukturen, um die Daten in nützlicher Frist selbst auswerten zu können. Sie sind darum auf externe Rechenpower angewiesen. Eine sehr bequeme Lösung stellen dabei Clouds dar. Der wohl bekannteste Anbieter ist Google mit seiner Cloud-Computing-Plattform (cloud.google.com). Einerseits können darauf grosse Datenmengen verarbeitet werden, beispielsweise für Simulationen, andererseits können riesige Datensätze über sogenannte Queries abgefragt und somit sehr schnell ausgewertet werden. Diese aufbereiteten Daten können beispielsweise zu einer Effizienzsteigerung in der Produktion und im Verkauf führen oder zur Schaffung von neuen Geschäftsfeldern genutzt werden. Gleichermassen sind Forschungsinstitute, medizinische Einrichtungen oder staatliche Organisationen an diesen Daten und Auswertungen interessiert, um daraus neue Erkenntnisse zu gewinnen. Abbildung 1 zeigt deutlich, dass die Datenverarbeitung in Clouds anteilsmässig stark ansteigen wird.

Mehr Daten – mehr Ressourcenverbrauch?

Die rasante Entwicklung im Internet bedingt immer mehr Rechenleistung und Speicherkapazität in Rechenzentren, damit die exponentiell steigende Datenflut bewältigt werden kann. Dies hat unweigerlich einen massiv steigenden Energie- und Ressourcenverbrauch zur Folge. Selbst wenn die gewonnenen Erkenntnisse zur immer effizienteren Produktherstellung verwendet werden, führt dies im Endeffekt zu zusätzlichem Energie- und Ressourcenverschleiss, da die Gesamtanzahl Geräte und die weltweite Vernetzung stets zunimmt. Innovative technische Lösungen zur Verbesserung der Energieeffizienz, aber auch zur Steigerung der Ressourcenproduktivität (Herstellung, Recycling) sind zukünftig von entscheidender Bedeutung.

Quellen und weiterführende Informationen:

Mittwoch, 18:15 06.11.2019 Zürich HF Informatik, HF Wirtschaftsinformatik, Informatik Grundlagen