Big Data

Big Data ist ein Begriff, der sich auf die Untersuchung und Anwendung von Datensätzen bezieht, die für herkömmliche Anwendungssoftware für die Datenverarbeitung zu komplex sind, um angemessen damit umzugehen. Zu den großen Datenherausforderungen gehören die Erfassung von Daten, Datenspeicherung, Datenanalyse, Suche, gemeinsame Nutzung, Übertragung, Visualisierung, Abfrage, Aktualisierung, Datenschutz und Datenquelle. Big Data war ursprünglich mit drei Schlüsselkonzepten verbunden: Volumen, Vielfalt und Geschwindigkeit. Andere Konzepte, die später mit großen Daten zugeschrieben werden, sind Wahrhaftigkeit (d.h. wie viel Rauschen in den Daten ist) und Wert.

Die moderne Verwendung des Begriffs "große Daten" bezieht sich tendenziell auf die Verwendung von prädiktiver Analyse, Benutzerverhaltensanalyse oder bestimmten anderen fortgeschrittenen Datenanalysemethoden, die Werte aus Daten extrahieren, und selten auf eine bestimmte Größe des Datensatzes. "Es besteht kein Zweifel, dass die jetzt verfügbaren Datenmengen tatsächlich groß sind, aber das ist nicht das relevanteste Merkmal dieses neuen Datenökosystems." Die Analyse von Datensätzen kann neue Zusammenhänge finden, um "Geschäftsentwicklungen zu erkennen, Krankheiten vorzubeugen, Kriminalität zu bekämpfen und so weiter". Wissenschaftler, Führungskräfte, Mediziner, Werbetreibende und Regierungen treffen regelmäßig auf Schwierigkeiten mit großen Datenmengen in Bereichen wie Internetsuche, Fintech, Stadtinformatik und Wirtschaftsinformatik. Wissenschaftler stoßen bei der Arbeit in den e-Wissenschaften auf Grenzen, einschließlich Meteorologie, Genomik, Connecomics, komplexe physikalische Simulationen, Biologie und Umweltforschung.

Datensätze wachsen schnell - zum Teil, weil sie zunehmend durch billiges und zahlreiches Informationsabtastendes Internet von Dingen wie mobilen Geräten, Antennen (Fernerkundung), Softwareprotokollen, Kameras, Mikrofonen, Radiofrequenz-Identifikationslesegeräten (RFID) und drahtlosen Sensornetzen erfasst werden. Die weltweite technologische Pro-Kopf-Kapazität zur Speicherung von Informationen hat sich seit den 1980er Jahren etwa alle 40 Monate verdoppelt; ab 2012 werden täglich 2,5 Exabyte (2,5×1018) Daten erzeugt. Basierend auf einer IDC-Reportvorhersage wird das globale Datenvolumen zwischen 2013 und 2020 exponentiell von 4,4 Zettabyte auf 44 Zettabyte steigen. Bis 2025 prognostiziert IDC, dass es 163 Zettabytes an Daten geben wird. Eine Frage für große Unternehmen ist die Bestimmung, wer Großdateninitiativen besitzen soll, die sich auf das gesamte Unternehmen auswirken.

Relationale Datenbankmanagementsysteme, Desktop-Statistiken[Klärungsbedarf] und Softwarepakete zur Visualisierung von Daten haben oft Schwierigkeiten im Umgang mit großen Datenmengen. Die Arbeit kann "massiv parallele Software erfordern, die auf zehn, hundert oder sogar tausend Servern läuft". Was als "Big Data" bezeichnet wird, variiert je nach den Fähigkeiten der Benutzer und ihrer Tools, und die Erweiterung der Fähigkeiten macht Big Data zu einem beweglichen Ziel. "Für einige Unternehmen kann die Tatsache, dass sie zum ersten Mal mit Hunderten von Gigabyte an Daten konfrontiert werden, die Notwendigkeit auslösen, die Optionen für die Datenverwaltung zu überdenken. Für andere kann es Dutzende oder Hunderte von Terabyte dauern, bis die Datengröße eine wichtige Rolle spielt."

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.