Zuhause Persönliche Finanzen Verwendung von Apache Hadoop für Predictive Analytics - Dummies

Verwendung von Apache Hadoop für Predictive Analytics - Dummies

Video: Big Data & Smart Data: Definition, Beispiel und praktischer Nutzen für Unternehmen 2025

Video: Big Data & Smart Data: Definition, Beispiel und praktischer Nutzen für Unternehmen 2025
Anonim

Apache Hadoop ist eine freie Open-Source-Softwareplattform zum Schreiben und Ausführen von Anwendungen, die eine große Datenmenge für vorausschauende Analysen verarbeiten. Es ermöglicht eine verteilte parallele Verarbeitung großer Datenmengen, die aus verschiedenen Quellen erzeugt werden. Im Wesentlichen ist es ein leistungsfähiges Werkzeug zum Speichern und Verarbeiten von Big Data.

Hadoop speichert jede Art von Daten, strukturiert oder unstrukturiert, aus verschiedenen Quellen - und aggregiert diese Daten dann fast beliebig. Hadoop verarbeitet heterogene Daten mithilfe verteilter paralleler Verarbeitung - ein sehr effizientes Framework für die Analyse von Big Data. Kein Wunder, dass einige große Unternehmen Hadoop übernehmen, darunter Facebook, Yahoo!, Google, IBM, Twitter und LinkedIn.

Vor Hadoop konnten Unternehmen Big Data nicht nutzen, die nicht analysiert und fast unbrauchbar waren. Die Kosten für die Speicherung dieser Daten in einer proprietären relationalen Datenbank und die Erstellung eines strukturierten Formats um sie herum rechtfertigten nicht die Vorteile der Analyse und Nutzung dieser Daten.

Hadoop hingegen macht diese Aufgabe - zu einem Bruchteil der Kosten - nahtlos und ermöglicht es Unternehmen, wertvolle Erkenntnisse über die reichlich vorhandenen Daten zu gewinnen, die sie erworben haben und ansammeln.

Die Stärke von Hadoop liegt in der Handhabung verschiedener Arten von Daten: Text, Sprache, E-Mails, Fotos, Posts, Tweets. Hadoop kümmert sich um die Zusammenstellung dieser Daten in all ihrer Vielfalt und bietet Ihnen die Möglichkeit, alle Daten nach Belieben abzufragen.

Sie müssen kein Schema erstellen, bevor Sie Ihre Daten verstehen können. Mit Hadoop können Sie diese Daten in ihrem ursprünglichen Format abfragen.

Zusätzlich zur Verarbeitung großer Mengen unterschiedlicher Daten ist Hadoop fehlertolerant und verwendet einfache Programme, die die Planung der Verarbeitung auf mehrere Maschinen verteilen. Diese Programme können Hardwarefehler erkennen und eine Aufgabe an eine andere laufende Maschine umleiten. Durch diese Anordnung kann Hadoop unabhängig vom Hardwarefehler eine hohe Verfügbarkeit bereitstellen.

Hadoop verwendet zwei Hauptkomponenten (Unterprojekte), um seine Aufgabe zu erledigen: MapReduce und Hadoop Distributed File System. Die beiden Komponenten arbeiten kooperativ zusammen:

  • MapReduce : Die Implementierung von MapReduce durch Hadoop basiert auf Googles Forschungen zu Programmiermodellen zur Verarbeitung großer Datenmengen durch Unterteilen in kleine Aufgabenblöcke. MapReduce verwendet verteilte Algorithmen auf einer Gruppe von Computern in einem Cluster, um große Datensätze zu verarbeiten.Sie besteht aus zwei Funktionen:

    • Die Funktion Map (), die sich auf dem Master -Knoten (vernetzter Computer) befindet. Es teilt die Eingabeaufforderung oder Task in kleinere Subtasks auf, die dann an Worker-Knoten verteilt werden, die die kleineren Tasks verarbeiten und die Antworten an den Master-Knoten zurückgeben. Die Teilaufgaben werden parallel auf mehreren Computern ausgeführt.

    • Die Funktion Reduce () sammelt die Ergebnisse aller Unteraufgaben und kombiniert sie zu einem aggregierten Endergebnis, das als Antwort auf die ursprüngliche große Abfrage zurückgegeben wird.

  • Hadoop Distributed File System (HDFS) : HDFS repliziert die Datenblöcke auf anderen Computern in Ihrem Rechenzentrum (um die Zuverlässigkeit zu gewährleisten) und verwaltet die Übertragung von Daten an die verschiedenen Teile Ihres verteilten Systems.

Betrachten Sie eine Datenbank mit zwei Milliarden Menschen und gehen Sie davon aus, dass Sie die Anzahl der sozialen Freunde von Herrn X berechnen und nach ihren geografischen Standorten sortieren möchten. Das ist eine große Aufgabe.

Die Daten für zwei Milliarden Menschen könnten aus sehr unterschiedlichen Quellen wie sozialen Netzwerken, E-Mail-Kontaktadresslisten, Posts, Tweets, Browsing-Historien stammen - und das nur für Opener. Hadoop kann diese riesige, vielfältige Datenmenge zusammenfassen, damit Sie sie mit einer einfachen Abfrage untersuchen können.

Zum Lösen dieser Abfrage würden Sie MapReduce-Programmierfunktionen verwenden. Das Definieren von Map- und Reduce-Prozeduren macht sogar diesen großen Datensatz überschaubar. Mit den Werkzeugen, die das Hadoop-Framework bietet, würden Sie eine MapReduce-Implementierung erstellen, die die Berechnung als zwei Unteraufgaben ausführen würde:

  • Berechnen Sie die durchschnittliche Anzahl der sozialen Freunde von Mr. X.

  • Ordnen Sie die Freunde von Herrn X nach geografischem Standort an..

Ihr MapReduce-Implementierungsprogramm führt diese Teilaufgaben parallel aus, verwaltet die Kommunikation zwischen den Teilaufgaben und stellt die Ergebnisse zusammen. Von zwei Milliarden Menschen würden Sie wissen, wer die Online-Freunde von Herrn X sind.

Hadoop bietet eine Reihe von Kartenprozessoren an. Welche (s) Sie wählen, hängt von Ihrer Infrastruktur ab.

Jeder Ihrer Prozessoren verarbeitet eine bestimmte Anzahl von Datensätzen. Angenommen, jeder Prozessor verarbeitet eine Million Datensätze. Jeder Prozessor führt eine Map-Prozedur aus, die mehrere Datensätze von Schlüsselwertpaaren erzeugt, wobei G (Schlüssel) der geografische Standort einer Person (Land) und N (Wert) die Anzahl der Kontakte hat die Person.

Angenommen, jeder Map-Prozessor erzeugt viele Paare des Formulars, z. B. folgende:

Prozessorkarte # 1:

Prozessorkarte # 2:

Prozessorkarte # 3:

Prozessorkarte # 4:

Prozessorkarte # 5:

Prozessorkarte # 6:

In der Reduce-Phase ordnet Hadoop einer bestimmten Anzahl von Prozessoren eine Aufgabe zu: Führen Sie die Reduce-Prozedur aus, die die Werte der gleichen ein Endergebnis. In diesem Beispiel fasst die Reduce-Implementierung die Anzahl der Werte für jeden Schlüssel zusammen - geografische Position. Nach der Map-Phase ergibt die Reduce-Phase also Folgendes:

------ ----

Klar, Mr.X ist ein beliebter Typ - aber dies war ein sehr einfaches Beispiel dafür, wie MapReduce verwendet werden kann. Stellen Sie sich vor, Sie haben es mit einem großen Datensatz zu tun, in dem Sie komplexe Operationen ausführen möchten, z. B. das Bündeln von Milliarden von Dokumenten, bei denen der Vorgang und die Daten für eine einzelne Maschine zu groß sind. Hadoop ist das Werkzeug, das es zu beachten gilt.

Verwendung von Apache Hadoop für Predictive Analytics - Dummies

Die Wahl des Herausgebers

Wie man die Socialcast Mobile App benutzt - dummies

Wie man die Socialcast Mobile App benutzt - dummies

Sogar die stoischste Anwendung wie Microsoft Excel hat ein begleitendes Smartphone-App, natürlich hat Socialcast auch eine. Wenn es so wäre, wäre es nicht wirklich eine Ausrede zu sagen, dass Socialcast nicht sehr sozial wäre, wenn du es nicht mit in die große Welt außerhalb deiner Zelle mitnehmen könntest. Die mobile App ...

Wie man das App Verzeichnis von Yammer benutzt - dummies

Wie man das App Verzeichnis von Yammer benutzt - dummies

Sie haben vielleicht gehört: "Es gibt eine App dafür. "Nun, das ist der Fall bei Yammer, der als einzige Ressource für die Vernetzung am Arbeitsplatz funktioniert. Aber Yammer bietet Ihnen auch eine Menge Apps, mit denen Sie Ihr Arbeitsleben noch einfacher gestalten können. Es gibt zwei Möglichkeiten, auf das App-Verzeichnis zuzugreifen: Option ...

So ​​verwenden Sie die Yammer-Analysetools - Dummies

So ​​verwenden Sie die Yammer-Analysetools - Dummies

Yammer rühmt sich damit als "führendes soziales Unternehmensnetzwerk für Unternehmen" um die Arbeit intelligenter und schneller zu erledigen. "Woher weißt du, ob das wahr ist? Ein guter Weg, um zu sehen, wie es für Sie funktioniert, ist die Analyse von Yammer. Wie greifen Sie auf diese großartigen Tools zu? Es ist einfach. Log ...

Die Wahl des Herausgebers

Die Evolution von Distributed Computing für Big Data - Dummies

Die Evolution von Distributed Computing für Big Data - Dummies

Hinter allen wichtigen Trends des letzten Jahrzehnts, einschließlich Serviceorientierung, Cloud Computing, Virtualisierung und Big Data, ist eine grundlegende Technologie namens Distributed Computing. Einfach gesagt, ohne die Verteilung von Datenverarbeitung wäre keiner dieser Fortschritte möglich. Distributed Computing ist eine Technik, mit der einzelne Computer über geografische Gebiete hinweg miteinander vernetzt werden können, so als ob ...

Drei Anbieter mit Data Mining-Produkten - Dummies

Drei Anbieter mit Data Mining-Produkten - Dummies

Es gibt mehrere Anbieter, die Data-Mining-Produkte verkaufen, die Sie vielleicht in Betracht ziehen möchten. Verwenden Sie mit Ihrem Data Warehouse. Hier sind drei, die eine Überlegung wert sind. Microsoft Microsoft hat das serverseitige Data Mining mit Microsoft SQL Server 2005 eingeführt. Obwohl es nicht so ausgereift und ausgeklügelt wie SAS und SPSS ist, hat Microsoft im Laufe der Zeit seine Fähigkeit bewiesen ...

Grundlagen der Big-Data-Integration - Dummies

Grundlagen der Big-Data-Integration - Dummies

Die fundamentalen Elemente der Big-Data-Plattform verwalten Daten auf neue Weise verglichen mit der traditionellen relationalen Datenbank. Dies liegt daran, dass Skalierbarkeit und hohe Leistung erforderlich sind, um sowohl strukturierte als auch unstrukturierte Daten zu verwalten. Komponenten des Big-Data-Ökosystems von Hadoop bis NoSQL DB, MongoDB, Cassandra, ...

Die Wahl des Herausgebers

So ​​stellen Sie eine Verbindung zu Spotify Mobile her - Dummies

So ​​stellen Sie eine Verbindung zu Spotify Mobile her - Dummies

Die meisten modernen Smartphones sind Wi-Fi-fähig. In ein lokales Netzwerk können Sie Spotify-Tracks mithilfe von Wi-Fi auf Ihr Telefon streamen. Sie können Spotify Mobile zu Hause und über Wi-Fi-Netzwerke in Hotels und Cafés problemlos nutzen - Sie müssen nur sicherstellen, dass Sie angemeldet und verbunden sind. ...

Wie Spotify funktioniert - Dummies

Wie Spotify funktioniert - Dummies

Wie Spotify funktioniert, kann Auswirkungen auf den Festplattenspeicher Ihres Computers haben. Internetverbindung. Spotify funktioniert anders als viele andere Online-Musikdienste, weil es auf mehrere Arten angewiesen ist, um Ihnen reibungslos Musik ohne Verzögerungen zu liefern. In Computing-Sprechen, das Maß der Verzögerung zwischen Anfordern eines Songs und Hören es ...

So ​​erreichen Sie Spotify Support - Dummies

So ​​erreichen Sie Spotify Support - Dummies

Es kann vorkommen, dass Sie eine kleine Hilfe beim Navigieren und Verwenden von Spotify benötigen von deinen Spotify Freunden. Sie können jederzeit Support @ spotify per E-Mail senden. com mit Ihrer Frage oder melden Sie sich bei Twitter an und senden Sie einen Tweet an @spotify. Stellen Sie sicher, dass Sie alle Informationen einschließen, die dem Support-Team helfen könnten, einschließlich Ihres Benutzernamens, damit sie ...