Inhaltsverzeichnis:
Video: Wie du Neugier entwickelst und kreativer handelst // Margit Hertlein 2024
Ihre Big Data-Architektur muss auch mit der unterstützenden Infrastruktur Ihres Unternehmens zusammenarbeiten. Zum Beispiel könnten Sie daran interessiert sein, Modelle laufen zu lassen, um zu bestimmen, ob es sicher ist, für Öl in einem Offshore-Bereich zu bohren, wenn Echtzeitdaten über Temperatur, Salzgehalt, Sediment-Resuspension und eine Vielzahl anderer biologischer, chemischer und physikalischer Eigenschaften von die Wassersäule.
Es kann Tage dauern, bis dieses Modell mit einer herkömmlichen Serverkonfiguration ausgeführt wird. Bei Verwendung eines verteilten Rechenmodells kann es jedoch Minuten dauern, was Tage in Anspruch nimmt.
Die Leistung kann auch die Art der Datenbank bestimmen, die Sie verwenden würden. In einigen Situationen möchten Sie vielleicht verstehen, wie zwei sehr unterschiedliche Datenelemente zusammenhängen. Wie ist die Beziehung zwischen dem Buzz in einem sozialen Netzwerk und dem Umsatzwachstum? Dies ist nicht die typische Abfrage einer strukturierten relationalen Datenbank.
Eine Grafikdatenbank könnte eine bessere Wahl sein, da sie speziell dafür ausgelegt ist, die "Knoten" oder Entitäten von ihren "Eigenschaften" oder den Informationen, die diese Entität definieren, und der "Kante" oder Beziehung zwischen Knoten und Eigenschaften zu trennen. Die Verwendung der richtigen Datenbank verbessert auch die Leistung. Typischerweise wird die Graphendatenbank in wissenschaftlichen und technischen Anwendungen verwendet.
Andere wichtige operative Datenbankansätze umfassen Spalten-Datenbanken, die Informationen effizient in Spalten statt in Zeilen speichern. Dieser Ansatz führt zu einer schnelleren Leistung, da die Eingabe / Ausgabe extrem schnell ist. Wenn die geografische Datenspeicherung Teil der Gleichung ist, wird eine räumliche Datenbank optimiert, um Daten zu speichern und abzufragen, die darauf basieren, wie Objekte im Raum zusammenhängen.
Organisieren Sie Big Data Services und Tools
Nicht alle von Organisationen verwendeten Daten sind betriebsbereit. Eine wachsende Datenmenge kommt aus einer Vielzahl von Quellen, die nicht ganz so organisiert oder einfach sind, einschließlich Daten, die von Maschinen oder Sensoren stammen, und massiven öffentlichen und privaten Datenquellen. In der Vergangenheit waren die meisten Unternehmen nicht in der Lage, diese große Datenmenge zu erfassen oder zu speichern. Es war einfach zu teuer oder zu überwältigend.
Selbst wenn Unternehmen in der Lage waren, die Daten zu erfassen, hatten sie nicht die Mittel, um etwas dagegen zu tun. Nur wenige Tools könnten diese riesigen Datenmengen sinnvoll erfassen. Die Werkzeuge, die existierten, waren komplex zu benutzen und brachten keine Ergebnisse in einem vernünftigen Zeitrahmen hervor.
Am Ende waren diejenigen, die wirklich zu dem enormen Aufwand bei der Analyse dieser Daten gehen wollten, gezwungen, mit Momentaufnahmen von Daten zu arbeiten.Dies hat den unerwünschten Effekt, wichtige Ereignisse zu verpassen, da sie nicht in einer bestimmten Momentaufnahme enthalten waren.
MapReduce, Hadoop und Big Table für Big Data
Mit der Entwicklung der Computertechnologie ist es nun möglich, immense Datenmengen zu verwalten. Die Preise von Systemen sind gesunken, und als Ergebnis sind neue Techniken für verteiltes Rechnen Mainstream. Der wirkliche Durchbruch geschah, als Unternehmen wie Yahoo!, Google und Facebook kamen zu der Erkenntnis, dass sie Hilfe bei der Monetarisierung der riesigen Datenmengen brauchten, die sie erstellten.
Diese aufstrebenden Unternehmen mussten neue Technologien finden, die es ihnen erlauben würden, riesige Datenmengen nahezu in Echtzeit zu speichern, darauf zuzugreifen und sie zu analysieren, so dass sie die Vorteile des Besitzes dieser vielen Daten über Teilnehmer in ihren Netzwerken monetarisieren konnten.
Ihre resultierenden Lösungen verändern den Datenverwaltungsmarkt. Insbesondere die Innovationen MapReduce, Hadoop und Big Table erwiesen sich als die Funken, die zu einer neuen Generation des Datenmanagements führten. Diese Technologien adressieren eines der grundlegendsten Probleme - die Fähigkeit, große Datenmengen effizient, kostengünstig und zeitnah zu verarbeiten.
MapReduce
MapReduce wurde von Google entwickelt, um eine Reihe von Funktionen effizient gegen eine große Datenmenge im Batch-Modus auszuführen. Die Komponente "map" verteilt das Programmierproblem oder -aufgaben auf eine große Anzahl von Systemen und übernimmt die Platzierung der Aufgaben. Es gleicht auch die Last aus und verwaltet die Fehlerbehebung. Eine andere Funktion namens "reduce" fasst alle Elemente zusammen, um ein Ergebnis zu liefern.
Big Table
Big Table wurde von Google entwickelt, um ein verteiltes Speichersystem zu sein, das hochgradig skalierbare strukturierte Daten verwalten soll. Die Daten sind in Tabellen mit Zeilen und Spalten organisiert. Im Gegensatz zu einem herkömmlichen relationalen Datenbankmodell ist Big Table eine dünn besetzte, verteilte, persistente, mehrdimensionale sortierte Map. Es ist beabsichtigt, riesige Datenmengen auf Commodity-Servern zu speichern.
Hadoop
Hadoop ist ein von Apache verwaltetes Software-Framework, das von MapReduce und Big Table abgeleitet wurde. Mit Hadoop können Anwendungen, die auf MapReduce basieren, auf großen Clustern von Standardhardware ausgeführt werden. Das Projekt ist die Grundlage für die Computerarchitektur, die Yahoo! 's Geschäft. Hadoop wurde entwickelt, um die Datenverarbeitung über Rechenknoten hinweg zu parallelisieren, um Berechnungen zu beschleunigen und Latenzzeiten auszublenden.
Es gibt zwei Hauptkomponenten von Hadoop: ein massiv skalierbares verteiltes Dateisystem, das Petabytes an Daten unterstützen kann, und ein massiv skalierbares MapReduce-Modul, das Ergebnisse im Batch berechnet.