Video: Achieving a 360-degree view of manufacturing via open source industrial data management 2024
Risikomodellierung ist ein weiterer wichtiger Anwendungsfall, der von Hadoop aktiviert wird. Sie werden feststellen, dass es dem Anwendungsfall der Betrugserkennung entspricht, da es sich um eine modellbasierte Disziplin handelt. Je mehr Daten Sie haben und je mehr Sie die Punkte miteinander verbinden können, desto öfter werden Ihre Ergebnisse bessere Risiko-Vorhersagemodelle ergeben.
Das allumfassende Wort Risiko kann viele Bedeutungen haben. Zum Beispiel ist die Kundenabwanderungsprognose das Risiko eines Kunden, der zu einem Konkurrenten umzieht; das Risiko eines Kreditbuchs bezieht sich auf das Ausfallrisiko; Das Risiko im Gesundheitswesen reicht von der Eindämmung des Ausbruchs über die Lebensmittelsicherheit bis hin zur Reinfektionswahrscheinlichkeit und mehr.
Der Finanzdienstleistungssektor (FSS) investiert derzeit stark in Hadoop-basierte Risikomodellierung. Dieser Sektor zielt darauf ab, die Automatisierung und Genauigkeit seiner Risikobewertung und Expositionsmodellierung zu erhöhen.
Hadoop bietet den Teilnehmern die Möglichkeit, die Datensätze, die in ihren Risikomodellen verwendet werden, auf unterausgelastete Quellen (oder Quellen, die nie genutzt werden) wie E-Mail, Instant Messaging, soziale Medien und Interaktionen mit dem Kundenservice auszudehnen. Vertreter, unter anderen Datenquellen.
Risikomodelle in FSS tauchen überall auf. Sie werden für die Vermeidung von Kundenabwanderung, Modellierung von Handelsmanipulationen, Unternehmensrisiko- und Exposure-Analysen und vieles mehr eingesetzt.
Wenn ein Unternehmen zu Hause gegen Naturkatastrophen eine Versicherung abschließt, sieht eine Herausforderung klar, wie viel Geld potenziell gefährdet ist. Wenn der Versicherer es versäumt, Geld für mögliche Auszahlungen zu reservieren, werden die Aufsichtsbehörden eingreifen (das will der Versicherer nicht); Wenn der Versicherer zu viel Geld in seine Reserven einbringt, um künftige Policenansprüche zu begleichen, kann er sein Prämiengeld nicht investieren und Gewinn machen (das will der Versicherer auch nicht).
Einige Unternehmen sind "blind" gegenüber dem Risiko, dem sie ausgesetzt sind, weil sie nicht in der Lage waren, eine ausreichende Anzahl von katastrophalen Simulationen hinsichtlich der Varianz der Windgeschwindigkeit oder der Niederschlagsraten (neben anderen Variablen) durchzuführen. zu ihrer Exposition.
Ganz einfach haben diese Unternehmen Schwierigkeiten, ihre Risikomodelle zu testen. Die Fähigkeit, mehr Daten einzubinden - zum Beispiel Wettermuster oder die sich ständig verändernde sozioökonomische Verteilung ihres Kundenstamms - gibt ihnen viel mehr Einblick und Fähigkeiten, wenn es darum geht, bessere Risikomodelle zu entwickeln.
Das Erstellen und Testen von Risikomodellen wie das eben beschriebene ist eine ideale Aufgabe für Hadoop. Diese Vorgänge sind oft rechenintensiv und, wenn Sie ein Risikomodell erstellen, aus den folgenden Gründen wahrscheinlich unpraktisch für ein Data Warehouse:
-
Das Warehouse ist wahrscheinlich nicht für die Arten von Abfragen optimiert, die vom Risikomodell ausgegeben werden…(Hadoop ist nicht an die Datenmodelle gebunden, die in Data Warehouses verwendet werden.)
-
Ein großer Ad-hoc-Stapeljob wie ein sich entwickelndes Risikomodell würde das Warehouse zusätzlich belasten und bestehende Analyseanwendungen beeinflussen. (Hadoop kann diese Arbeitslast übernehmen und das Warehouse für die regelmäßige Geschäftsberichterstattung freigeben.)
-
Bei komplexeren Risikomodellen müssen möglicherweise unstrukturierte Daten wie z. B. Rohtext berücksichtigt werden. (Hadoop kann diese Aufgabe effizient erledigen.)