Inhaltsverzeichnis:
Video: Philo meets Psyche: Veränderung, Anstand und Wahrhaftigkeit 2024
Hohes Volumen, hohe Vielfalt und hohe Geschwindigkeit sind die wesentlichen Merkmale von Große Daten. Aber auch andere Merkmale von Big Data sind wichtig, insbesondere wenn Sie Big Data auf operative Prozesse anwenden. Dieser zweite Satz von "V" -Charakteristika, die für die Operationalisierung großer Daten von Bedeutung sind, umfasst
-
Gültigkeit: Sind die Daten für die beabsichtigte Verwendung korrekt und genau?
-
Wahrhaftigkeit: Sind die Ergebnisse für den gegebenen Problemraum sinnvoll?
-
Volatilität: Wie lange müssen Sie diese Daten speichern?
Große Datengültigkeit
Sie wollen genaue Ergebnisse. Aber in der Anfangsphase der Analyse von Petabytes an Daten ist es wahrscheinlich, dass Sie sich keine Gedanken darüber machen, wie gültig jedes Datenelement ist. Dieser anfängliche Strom von Big Data könnte tatsächlich ziemlich schmutzig sein. In den Anfangsphasen ist es wichtiger zu sehen, ob es Beziehungen zwischen Elementen innerhalb dieser massiven Datenquelle gibt, als sicherzustellen, dass alle Elemente gültig sind.
Nachdem jedoch eine Organisation feststellt, dass Teile dieser anfänglichen Datenanalyse wichtig sind, muss diese Teilmenge der Big Data validiert werden, da sie nun auf eine Betriebsbedingung angewendet wird. Wenn sich die Daten von explorativ zu verwertbar bewegen, müssen die Daten validiert werden. Die Gültigkeit großer Datenquellen und die nachfolgende Analyse müssen genau sein, wenn Sie die Ergebnisse für die Entscheidungsfindung verwenden möchten.
Gültige Eingabedaten, gefolgt von korrekter Verarbeitung der Daten, sollten genaue Ergebnisse liefern. Bei Big Data müssen Sie hinsichtlich der Gültigkeit besonders wachsam sein. Im Gesundheitswesen können Sie beispielsweise Daten aus einer klinischen Studie haben, die mit den Krankheitssymptomen eines Patienten in Zusammenhang stehen könnten. Aber ein Arzt, der diese Person behandelt, kann die Ergebnisse der klinischen Prüfung nicht einfach so einnehmen, als würde er sie validieren.
Stellen Sie sich vor, dass der Wettersatellit anzeigt, dass ein Sturm in einem Teil der Welt beginnt. Wie wirkt sich dieser Sturm auf Individuen aus? Mit etwa einer halben Milliarde Nutzern ist es möglich, Twitter-Streams zu analysieren, um die Auswirkungen eines Sturms auf die lokale Bevölkerung zu bestimmen. Daher könnte die Verwendung von Twitter in Kombination mit Daten eines Wettersatelliten Forschern helfen, die Richtigkeit einer Wettervorhersage zu verstehen.
Große Datenvolatilität
Wenn Sie über gültige Daten verfügen und die Richtigkeit der Ergebnisse nachweisen können, wie lange müssen die Daten dann "leben", um Ihre Anforderungen zu erfüllen? In einer Standarddateneinstellung können Sie Daten jahrzehntelang speichern, weil Sie im Laufe der Zeit ein Verständnis dafür entwickelt haben, welche Daten für das, was Sie damit tun, wichtig sind.Sie haben Regeln für die Datenwährung und -verfügbarkeit festgelegt, die Ihren Arbeitsprozessen zugeordnet sind.
Zum Beispiel halten einige Unternehmen möglicherweise nur das letzte Jahr ihrer Kundendaten und Transaktionen in ihren Geschäftssystemen. Dies gewährleistet eine schnelle Abfrage dieser Informationen bei Bedarf. Wenn sie sich ein voriges Jahr ansehen müssen, muss das IT-Team möglicherweise Daten aus dem Offlinespeicher wiederherstellen, um die Anforderung zu berücksichtigen. Bei großen Daten wird dieses Problem vergrößert.
Wenn die Speicherkapazität begrenzt ist, sehen Sie sich die großen Datenquellen an, um zu ermitteln, was Sie sammeln müssen und wie lange Sie sie aufbewahren müssen. Bei einigen großen Datenquellen müssen Sie möglicherweise nur Daten für eine schnelle Analyse sammeln.
Sie könnten die Informationen dann lokal zur weiteren Verarbeitung speichern. Wenn Sie nicht genügend Speicherplatz für all diese Daten haben, können Sie die Daten "on the fly" verarbeiten und nur relevante Informationen lokal speichern. Wie lange Sie große Datenmengen verfügbar halten, hängt von einigen Faktoren ab:
-
Wie viele Daten werden an der Quelle gespeichert?
-
Müssen Sie die Daten wiederholt verarbeiten?
-
Müssen Sie die Daten verarbeiten, zusätzliche Daten sammeln und mehr verarbeiten?
-
Haben Sie Regeln oder Vorschriften, die eine Datenspeicherung erfordern?
-
Sind Ihre Kunden für Ihre Arbeit auf Ihre Daten angewiesen?
-
Haben die Daten noch einen Wert oder ist sie nicht mehr relevant?
Aufgrund des Volumens, der Vielfalt und der Geschwindigkeit von Big Data müssen Sie die Volatilität verstehen. Für einige Quellen sind die Daten immer vorhanden; für andere ist das nicht der Fall. Wenn Sie wissen, welche Daten wie lange da sind und wie lange Sie sie verwenden können, können Sie Aufbewahrungsanforderungen und Richtlinien für Big Data definieren.
Big Data wird als Verbraucher dazu beitragen, ein besseres Profil zu definieren, wie und wann Sie Waren und Dienstleistungen kaufen. Als Patient werden Big Data dabei helfen, einen individuelleren Behandlungsansatz und Gesundheitsschutz zu definieren. Big Data hilft Ihnen dabei, bessere Wege zu finden, Ihre Produkte und Dienstleistungen zu gestalten und zu liefern.
Dies geschieht nur, wenn Big Data in die Betriebsprozesse von Unternehmen und Organisationen integriert wird.