Video: Was ist Hadoop? 2024
Es gibt zwingende Gründe, warum SQL sich als robust erwiesen hat. Die IT-Branche verfügt über 40 Jahre Erfahrung mit SQL, seit sie Anfang der 1970er Jahre von IBM entwickelt wurde. Mit der zunehmenden Akzeptanz relationaler Datenbanken in den 1980er Jahren ist SQL für die meisten IT-Experten inzwischen eine Standardkompetenz geworden.
Sie können leicht erkennen, warum SQL so erfolgreich war: Es ist relativ einfach zu erlernen und SQL-Abfragen sind gut lesbar. Diese Leichtigkeit kann auf einen zentralen Designpunkt in SQL zurückgeführt werden - die Tatsache, dass es eine deklarative Sprache ist, im Gegensatz zu einer imperativen Sprache.
Wenn eine Sprache deklarativ sein soll, bedeutet dies, dass sich Ihre Anfragen nur auf die Art der angeforderten Daten beziehen - im Idealfall sollte in Ihrer Abfrage nichts enthalten sein, das wie die Verarbeitung bestimmt. sollte ausgeführt werden. Mit anderen Worten: Alles, was Sie in SQL angeben, ist, welche Informationen Sie vom System zurückbekommen möchten - nicht, wie Sie es erhalten.
Im Gegensatz dazu besteht Ihr Code bei einer imperativen Sprache (C zum Beispiel oder Java oder Python) aus Anweisungen, in denen Sie die Aktionen definieren, die das System ausführen muss.
Zusätzlich zu den (leicht verwertbaren) Fähigkeiten Ihrer SQL-freundlichen IT-Experten wurden auch Datenbankanwendungen mit SQL-Schnittstellen für Jahrzehnte entwickelt. Wenn es darum geht, wie Hadoop das Data Warehouse ergänzen kann, ist klar, dass Organisationen strukturierte Daten in Hadoop speichern werden. Infolgedessen führen sie einen Teil ihrer vorhandenen Anwendungslogik gegen Hadoop aus.
Niemand möchte dafür bezahlen, dass Anwendungen neu geschrieben werden, daher ist eine SQL-Schnittstelle sehr wünschenswert.
Bei der Entwicklung von SQL-Schnittstellen zu Hadoop-Daten besteht ein interessanter Trend darin, dass kommerzielle Business Analytics- und Datenmanagement-Tools fast alle auf dem Hadoop-Zug aufspringen, einschließlich Business-Intelligence-Berichten; statistische Pakete; Extrahieren, Transformieren und Laden von Frameworks (ETL); und eine Vielzahl anderer Werkzeuge. In den meisten Fällen ist die Schnittstelle zu den Hadoop-Daten Hive.