Big Data - Definition




Big Data wird das immer größer werdende Datenmeer im Internet genannt. Diese unübersichtliche und oft undurchschaubare Masse lässt sich nur sehr schwer auswerten und für die eigenen Zwecke nutzen. Eine ganze Branche hat sich bereits auf den Weg gemacht und entwickelt Programme um diese riesigen Mengen an Daten zu bewältigen.

Big Data stammt aus dem Englischen und wurde zuerst als ein kurzfristiges Ereignis gesehen. Fachleute teilen es heute in zwei Bereiche. Der eine Bereich beschreibt die immer wachsende Datenmenge und der zweite Bereich befasst sich mit den dazugehörigen IT-Systemen. Mit solchen Systemen soll es Unternehmen möglich sein die Informationsflut für ihre Zwecke zu nutzen. Das Lösungswort ist hier Machine Learning. Wichtig sind dabei besonders Daten die in Struktur gebracht werden sollen wie z.B. aus sozialen Netzwerken. Speziell diese Daten machen einen nicht unerheblichen Anteil an Big Data aus. Mit einem Verfahren das sich Grid Computing nennt wird die Rechenleistung verteilt und somit ist eine rechen- und datenintensive Verarbeitung möglich.


Die digitale Kommunikation entwickelt sich neu

In Deutschland wird der Begriff Big Data oft verwendet, wenn es um die moderne digitale Technologie geht. Dabei ist Big Data viel spezieller; denn mit der Sammlung, Nutzung, Vermarktung und Analyse der digitalen Daten stehen den Unternehmen ganz neue Möglichkeiten zur Verfügung. Big Data ist eine gänzlich neue Art der digitalen Kommunikation und wird für den gesellschaftlichen Umbruch verantwortlich sein.


Wettbewerbsvorteil mit Big Data

Diese Entwicklung hat speziell Auswirkungen auf die Unternehmerlandschaft. Alle Firmen erhalten, durch Nutzung dieser großen Datenmengen, Informationen über Interessen und Kaufverhalten Ihre Kunden. Um diese Daten auch entsprechend nutzen zu können greifen Unternehmen auf entsprechende Analysetools zurück. Diese Programme erkennen mit Hilfe von Algorithmen bestimmte Muster und können damit zum Beispiel nützliche Informationen für eine Marketingkampagne erhalten oder sogar am Devisenmarkt den Aktienkurs voraussagen. Mit dieser Technologie sind Unternehmen ihrer Konkurrenz gegenüber im Vorteil.


Tools zur besseren Analyse

Damit Unternehmen mit einer solchen Datenanalyse auch bessere Entscheidungsgrundlagen für ihre Maßnahmen haben wertet ein sogenannter Data Scientist den rieseigenen Datenstrom mit entsprechenden Tools aus. Dabei greift man auf verschiedene Quellen zu. Diese sind unter anderem Webserver, Verbindungsnachweise von Mobiltelefonen und Berichte aus den Social-Media-Plattformen.




Leistungsstarke quelloffene Software Frameworks

Bei solchen Datenströmen ist die entsprechende Rechenleistung ein entscheidender Faktor. Immer leistungsstärkere Technologien und Programme entstehen und führen zu immer besseren Ergebnissen.


Quelloffene Software Frameworks wie Apache Hadoop, Spark oder NoSQL-Datenbanken werden entwickelt um genau diesem Anspruch gerecht zu werden. Dabei ist gerade Spark sehr beliebt, weil hier mit dem Google Algorithmus MapReduce gearbeitet wird. So werden große Datenmengen mit Hilfe von Cluster Computing (dabei wird die Rechenleistung auf viele Rechner verteilt) verarbeitet. Softwareunternehmen wie Cloudera oder Hortonwork arbeiten mit großem Aufwand an dieser Technologie.


Die Art der Speicherung ist oft entscheidend

Um alle diese Daten zu speichern werden spezielle Datenbanken, wie die von Google, entwickelt. Mit diesem Hochleistungs-Datenbanksystem ist eine strukturierte Verteilung und Speicherung möglich. Das System Cassandra bietet sogar für sehr große Datenbanken eine hohe Ausfallsicherheit mit einer dementsprechend hohen Skalierbarkeit.

Eine alternative zu den herkömmlichen Datenbanken sind sogenannte Graphdatenbanken. Hier werden vernetzte Informationen als Graphen dargestellt. Damit werden komplexe Datenbankanfragen vereinfacht und ein schnellerer Datenfluss ermöglicht. Mit so einem verteilten Dateisystem wird die Zugriffszeit und die Speichermöglichkeit deutlich optimiert.


Viele Daten benötigen viel Speicherplatz

Neben Hochleistungssystemen zur Datenspeicherung ist der Speicherplatz entscheidend. Dabei spielt die Technologie der Hardware eine wichtige Rolle. Bei der Weiterentwicklung der In-Memory Computing Technologie wird das Datenvolumen direkt im Hauptspeicher gehalten um eine schnelle Zugriffszeit zu gewährleisten. Langsamere Speichermedien wie Festplatten, bei denen die Daten ausgelagert werden, sind in diesem Bereich nicht mehr denkbar.


Literatur:

Big Data: Die Revolution, die unser Leben verändern (Viktor Mayer-Schönberger)

Big Data in der Praxis (Jonas Freiknecht u. Stefan Papp)

Praxishandbuch Big Data: Wirtschaft – Recht – Technik (Joachim Dorschel)

Big Data: Grundlagen, Systeme und Nutzungspotenziale (Daniel Fasel u. Andreas Meier)


Erfolg im Trading zeigt sich durch gute Vorbereitung und eine Gelegenheit.

Erfolgreiche Trader nutzen eine neue Generation von Forex-Signalen und sind im Vorteil!

Testen Sie unsere neuen Signale jetzt 2 Wochen lang!




Jetzt 2 Wochen testen!