Video: Big Data in 3 Minuten erklärt 2024
Eine primäre Überlegung bei der Durchführung eines Big-Data-Projekts ist die projizierte Menge an Echtzeit und Nicht-Echtzeit, die für die Durchführung Ihrer Initiative erforderlich ist. Bei Big Data geht es oft darum, Dinge zu tun, die nicht möglich waren, weil die Technologie nicht ausgereift genug war oder die Kosten unerschwinglich waren. Die große Veränderung bei Big Data ist die Fähigkeit, enorme Datenmengen zu nutzen, ohne die komplexe Programmierung, die in der Vergangenheit erforderlich war.
Viele Organisationen stehen bei der Verwaltung großer Mengen komplexer Daten vor einem Wendepunkt. Big-Data-Ansätze werden dazu beitragen, die Dinge im Gleichgewicht zu halten, damit die Unternehmen nicht über die Grenze gehen, wenn sich das Volumen, die Vielfalt und die Geschwindigkeit der Daten ändern. Unternehmen haben es schwer, zunehmende Datenmengen zu verwalten, die mit hohen Geschwindigkeiten verwaltet werden müssen.
Organisationen mussten sich damit begnügen, kleine Teilmengen von Daten zu analysieren, denen oft kritische Informationen fehlten, um ein vollständiges Bild zu erhalten, das die Daten enthüllen konnten. Mit der Entwicklung und Einführung von Big Data-Technologien können Unternehmen die Daten leichter analysieren und zur Entscheidungsfindung oder zum Ergreifen von Maßnahmen nutzen.
Die Echtzeit-Aspekte von Big Data können revolutionär sein, wenn Unternehmen signifikante Probleme lösen müssen. Welche Auswirkungen hat es, wenn eine Organisation Daten verarbeiten kann, die in Echtzeit gestreamt werden? Im Allgemeinen ist dieser Echtzeitansatz am relevantesten, wenn die Antwort auf ein Problem zeitkritisch und geschäftskritisch ist. Dies kann mit einer Bedrohung für etwas Wichtiges zusammenhängen, wie die Erkennung der Leistung von Krankenhausgeräten oder die Vorwegnahme eines potenziellen Eindringungsrisikos.
Die folgende Liste zeigt Beispiele, wann ein Unternehmen diese Echtzeitdaten nutzen möchte, um einen schnellen Vorteil zu erzielen:
-
Überwachung einer Ausnahme mit einer neuen Information wie Betrug / Intelligenz
-
Überwachen von Newsfeeds und sozialen Medien, um Ereignisse zu ermitteln, die sich auf die Finanzmärkte auswirken könnten, z. B. die Reaktion eines Kunden auf eine neue Produktankündigung
-
Ändern der Anzeigenplatzierung während eines großen Sportereignisses auf der Grundlage von Echtzeit-Twitterströmen
-
Bereitstellung eines Gutscheins für einen Kunden, basierend auf dem, was er am Point of Sale gekauft hat
Manchmal treten Streaming-Daten sehr schnell auf und beinhalten nicht viele unterschiedliche Quellen, manchmal gibt es eine große Vielfalt und manchmal ist es eine Kombination aus die Zwei.
Die Frage, die Sie sich stellen müssen, wenn Sie sich in Echtzeit bewegen: Ist dies (Problem) mit herkömmlichen Informationsverwaltungsfunktionen zu lösen oder benötigen Sie neuere Funktionen?Übersteigt die schiere Lautstärke oder Geschwindigkeit unsere Systeme? Oft ist es eine Kombination der beiden.
Wenn Sie also Echtzeitfähigkeiten benötigen, welche Anforderungen muss die Infrastruktur erfüllen? In der folgenden Liste werden einige Punkte aufgeführt, die Sie berücksichtigen müssen, wenn es um die Fähigkeit eines Systems geht, Daten aufzunehmen, zu verarbeiten und in Echtzeit zu analysieren:
-
Niedrige Latenzzeit: Latenz ist die Zeitverzögerung, die einen Dienst ermöglicht. in einer Umgebung ausführen. Einige Anwendungen benötigen weniger Latenz, was bedeutet, dass sie in Echtzeit reagieren müssen. Ein Echtzeit-Stream benötigt eine geringe Latenz. Sie müssen also über Rechenleistung und Netzwerkbeschränkungen nachdenken.
-
Skalierbarkeit: Skalierbarkeit ist die Fähigkeit, ein bestimmtes Leistungsniveau auch bei zunehmender Belastung aufrechtzuerhalten.
-
Vielseitigkeit: Das System muss sowohl strukturierte als auch unstrukturierte Datenströme unterstützen.
-
Natives Format: Verwenden Sie die Daten in ihrer nativen Form. Transformation braucht Zeit und Geld. Die Fähigkeit, komplexe Interaktionen in Daten zu verarbeiten, die Ereignisse auslösen, kann transformativ sein.
Die Notwendigkeit, ständig wachsende Mengen unterschiedlicher Daten zu verarbeiten, ist einer der Schlüsselfaktoren für die Einführung von Cloud-Diensten. Das Cloud-Modell ist groß angelegt und verteilt.