Video: Elastic Stack Version 7.2: Feature Tour 2024
Sicherheits- und Datenschutzanforderungen, Schicht 1 des Big Data-Stacks, sind ähnlich auf die Anforderungen für herkömmliche Datenumgebungen. Die Sicherheitsanforderungen müssen eng an spezifische Geschäftsanforderungen angepasst werden. Einige einzigartige Herausforderungen treten auf, wenn Big Data Teil der Strategie wird:
-
Datenzugriff: Der Benutzerzugriff auf rohe oder berechnete Big Data hat etwa dieselben technischen Anforderungen wie Nicht-Big-Data-Implementierungen. Die Daten sollten nur für diejenigen verfügbar sein, die ein legitimes geschäftliches Bedürfnis haben, sie zu untersuchen oder damit zu interagieren. Die meisten Core-Datenspeicherplattformen verfügen über strenge Sicherheitsschemata und sind mit einer föderierten Identitätsfunktion ausgestattet, die einen angemessenen Zugriff über die vielen Schichten der Architektur hinweg bietet.
-
Anwendungszugriff: Der Anwendungszugriff auf Daten ist auch aus technischer Sicht relativ einfach. Die meisten Anwendungsprogrammierschnittstellen (APIs) bieten Schutz vor nicht autorisierter Verwendung oder Zugriff. Dieses Schutzniveau ist wahrscheinlich für die meisten Big-Data-Implementierungen ausreichend.
-
Datenverschlüsselung: Die Datenverschlüsselung ist der größte Sicherheitsaspekt in einer Big-Data-Umgebung. In traditionellen Umgebungen werden die Ressourcen der Systeme durch die Ver- und Entschlüsselung von Daten stark beansprucht. Dieses Problem wird durch Big Data verschärft. Der einfachste Ansatz besteht darin, mehr und schnellere Rechenkapazität bereitzustellen. Ein gemäßigterer Ansatz besteht darin, die Datenelemente zu identifizieren, die dieses Sicherheitsniveau erfordern, und nur die notwendigen Elemente zu verschlüsseln.
-
Bedrohungserkennung: Die Einbeziehung mobiler Geräte und sozialer Netzwerke erhöht exponentiell sowohl die Datenmenge als auch die Möglichkeiten für Sicherheitsbedrohungen. Es ist daher wichtig, dass Unternehmen bei der Sicherheit einen Multiperimeter-Ansatz verfolgen.
Die physische Infrastruktur ermöglicht also alles und die Sicherheitsinfrastruktur schützt alle Elemente in Ihrer Big Data-Umgebung. Die nächste Ebene im Stack sind die Schnittstellen, die bidirektionalen Zugriff auf alle Komponenten des Stacks bieten - von Unternehmensanwendungen bis zu Datenfeeds aus dem Internet.
Ein wichtiger Teil der Gestaltung dieser Schnittstellen ist die Schaffung einer konsistenten Struktur, die sowohl innerhalb als auch außerhalb des Unternehmens sowie mit Technologiepartnern und Geschäftspartnern gemeinsam genutzt werden kann.
Seit Jahrzehnten verwenden Programmierer APIs, um Zugang zu und von Software-Implementierungen zu ermöglichen. Werkzeug- und Technologieanbieter werden große Anstrengungen unternehmen, um sicherzustellen, dass es relativ einfach ist, neue Anwendungen mit ihren Produkten zu erstellen.Obwohl es sehr hilfreich ist, ist es manchmal erforderlich, dass IT-Experten benutzerdefinierte oder proprietäre APIs erstellen, die ausschließlich für das Unternehmen verfügbar sind.
Möglicherweise müssen Sie dies für einen Wettbewerbsvorteil, einen für Ihre Organisation spezifischen Bedarf oder eine andere Geschäftsanforderung tun, und das ist keine einfache Aufgabe. APIs müssen gut dokumentiert und gepflegt werden, um den Wert für das Unternehmen zu erhalten. Aus diesem Grund entscheiden sich einige Unternehmen dafür, API-Toolkits zu verwenden, um einen schnellen Einstieg in diese wichtige Aktivität zu erhalten.
API-Toolkits haben gegenüber intern entwickelten APIs einige Vorteile. Der erste ist, dass die API-Toolkits Produkte sind, die von einer unabhängigen dritten Partei erstellt, verwaltet und gewartet werden. Zweitens sind sie entworfen, um eine spezifische technische Anforderung zu lösen.
Big Data-Herausforderungen erfordern einen etwas anderen Ansatz bei der API-Entwicklung oder -Anwendung. Da ein Großteil der Daten unstrukturiert ist und außerhalb der Kontrolle Ihres Unternehmens generiert wird, entwickelt sich eine neue Technik namens Natural Language Processing (NLP) als bevorzugte Methode für die Verbindung zwischen Big Data und Ihren Anwendungsprogrammen.
Mit NLP können Sie Abfragen mit Syntax natürlicher Sprache anstelle einer formalen Abfragesprache wie SQL formulieren. Für die meisten Big-Data-Nutzer wird es viel einfacher sein zu fragen: "Listen Sie alle verheirateten männlichen Konsumenten zwischen 30 und 40 Jahren auf, die im Südosten der USA leben und NASCAR-Fans sind", anstatt eine 30-Zeilen-SQL-Abfrage zu schreiben…
Da die meisten Datenerfassungen und -bewegungen sehr ähnliche Eigenschaften aufweisen, können Sie eine Reihe von Diensten entwerfen, um große Datenelemente im Speichersystem Ihrer Wahl zu sammeln, zu bereinigen, zu transformieren, zu normalisieren und zu speichern.
Um so viel Flexibilität wie nötig zu schaffen, kann die Factory mit Schnittstellenbeschreibungen in Extensible Markup Language (XML) betrieben werden. Diese Abstraktionsebene ermöglicht die einfache und schnelle Erstellung spezifischer Schnittstellen, ohne dass für jede Datenquelle spezifische Services erstellt werden müssen.
In der Praxis könnten Sie eine Beschreibung von SAP- oder Oracle-Anwendungsschnittstellen mit etwas wie XML erstellen. Jede Schnittstelle würde die gleiche zugrunde liegende Software verwenden, um Daten zwischen der Big Data-Umgebung und der Produktionsanwendungsumgebung unabhängig von den Besonderheiten von SAP oder Oracle zu migrieren. Wenn Sie Daten von sozialen Websites im Internet sammeln müssen, wäre die Praxis identisch.
Beschreiben Sie die Schnittstellen zu den Sites in XML und binden Sie die Dienste dann ein, um die Daten hin und her zu verschieben. Typischerweise sind diese Schnittstellen für die Verwendung durch interne und externe Technologen dokumentiert.