Video: Special "The Future of Big Data" Big Data & Brews: Hortonworks, Antonio Piccolboni and Hadapt 2024
Ende 2010 wurde Hadapt als Start-up von zwei Studenten der Yale University und einem Assistenzprofessor für Informatik gegründet. Professor Daniel Abadi und Kamil Bajda-Pawlikowski, ein Doktorand aus der Informatikabteilung von Yale, arbeiteten am Forschungsprojekt HadoopDB.
Nachdem dieser Artikel veröffentlicht wurde, interessierte sich Justin Borgman, ein Student der Yale School of Management, für die Arbeit. Er würde später mit Professor Abadi und Kamil Bajda-Pawlikowski zusammenarbeiten, um Hadapt zu bilden.
Die Hadapt-Strategie besteht darin, Apache Hadoop mit einer Shared-Nothing-MPP-Datenbank zu verbinden, um eine adaptive Analyseplattform zu erstellen. Dieser Ansatz bietet eine Standard-SQL-Schnittstelle für Hadoop und ermöglicht Analysen über unstrukturierte, semistrukturierte und strukturierte Daten im gleichen Cluster.
Wie Apache Hive und andere Technologien bietet Hadapt eine vertraute JDBC / ODBC-Schnittstelle zum Übermitteln von SQL- oder MapReduce-Jobs an den Cluster. Hadapt bietet einen kostenbasierten Abfrageoptimierer, der zwischen einer Kombination von MapReduce-Jobs und MPP-Datenbankjobs entscheiden kann, um eine Abfrage zu erfüllen, oder der Job kann von der MPP-Datenbank für eine schnelle interaktive Antwort verarbeitet werden.
Durch die Verbindung eines Apache Hadoop-Clusters mit einem MPP-Datenbankcluster zum Erstellen eines hybriden Systems löst Hadapt die Abfrageantwortzeit und die teilweise SQL-Unterstützung (über HiveQL) in Apache Hive.