Big Data unterstützt die Entwicklung und vereinfacht das Handling von Produkten und Maschinen. Der Schlüssel für den erfolg im Unternehmen liegt in der nahtlosen Implementierung in die digitale Transformations Strategie.
Disney kreiert seit über 90 Jahren magische Besuchererlebnisse. In den 2000er Jahren jedoch, als die Ticketpreise stiegen und die Kundenbasis wuchs, begann der Glanz von Disneys Kundenerlebnis zu verblassen.
Als Reaktion darauf hat Disney das Projekt Next Generation Experience ins Leben gerufen, das darauf abzielt, personalisierte Erlebnisse für seine Besucher zu schaffen. Disney führte MyMagic+ ein, dass es den Besuchern ermöglicht, Fahrzeiten, Restaurantreservierungen und Shows im Voraus über die Website zu buchen. Die mobile App ermöglicht es den Gästen, Reservierungen bei Bedarf in Echtzeit zu ändern.
Die MagicBands, die den Besuchern ausgehändigt werden, dienen als Eintrittskarten. Diese können auch mit ihren Kreditkarten verbunden werden, um in den Parks und Resorts zu bezahlen.
Was hast du aus dem Fall abgeleitet?
Disneys Erfolgsgeschichte gibt uns Einblicke, wie wichtig Technologie ist, um das Kundenerlebnis zu verbessern und Kunden zu binden.
Trotz des großen Kundenstamms, der zu riesigen Daten führt, war Disney in der Lage, Ergebnisse zu extrahieren, um wieder Magie zu schaffen. Ohne die Analyse der Daten, die Disney hatte, wäre es schwierig gewesen, eine Lösung für das Problem zu finden. Anhand dieses Beispiels kannst du verstehen, wie wichtig es für Unternehmen ist, ihren Datenfluss zu managen und Erkenntnisse zu gewinnen, um ihr Geschäft mithilfe verschiedener Technologien zu verbessern. Große Unternehmen haben einen riesigen Kundenstamm, was zu einem enormen Datenaufkommen führt, das auch als Big Data bezeichnet wird.
Was ist Big Data?
Der Begriff Big Data steht für extrem große Datensätze, die computergestützt analysiert werden können, um Muster, Trends und Zusammenhänge zu erkennen. Er beschreibt jede voluminöse Menge an strukturierten, halbstrukturierten und unstrukturierten Daten, die das Potenzial haben, nach Informationen durchsucht zu werden.
Big Data wird durch vier wichtige Merkmale definiert, die auch als die 4 V’s bekannt sind.
Die 4 V’s von Big Data
Schauen wir uns die 4 V’s von Big Data an
- Volumen bezieht sich auf den Umfang der Daten: Das Hauptmerkmal, das Daten „groß“ macht, ist ihr schieres Volumen. Jeden Tag gibt es einen exponentiellen Anstieg des Datenvolumens, da Unternehmen heute über mehrere interne und externe Quellen verfügen, wie z.B. Transaktionen, soziale Medien, Unternehmensinhalte, Sensoren und mobile Geräte.
- Die Vielfalt bezieht sich auf die verschiedenen Formen von Daten: Daten werden aus verschiedenen Quellen in unterschiedlichen Formaten erfasst. Sie können strukturiert, halbstrukturiert und unstrukturiert sein.
- Velocity bezieht sich auf die Analyse von Streaming-Daten. Velocity ist die Frequenz der eingehenden Daten, die verarbeitet werden müssen. Wenn du dir überlegst, wie viele SMS-Nachrichten, Facebook-Status-Updates oder Kreditkartenabbuchungen bei einem bestimmten Telekommunikationsanbieter jede Minute eines Tages gesendet werden, hast du eine gute Vorstellung von Velocity.
- Veracity bezieht sich auf die Unsicherheit oder Vertrauenswürdigkeit von Daten.
Big Data Technologie
Jedes Unternehmen hat heute Zugang zu einer riesigen Menge an Daten, sowohl strukturiert als auch unstrukturiert, die zunehmend mit Big-Data-Analysetools genutzt werden können, um Erkenntnisse zu gewinnen und Geschäftsentscheidungen zu unterstützen.
Big-Data-Technologien sind:
- Als populäre Plattform für Datenanalysen und Datenexploration angesehen und
- Werden zur Implementierung von Data-Mining-Techniken und Datenverarbeitung verwendet
Sie verarbeiten Daten in extremem Umfang und sind gekennzeichnet durch:
- Massiv paralleles Computing, um die Arbeitslasten aufzuteilen und zu bewältigen
- Flexibilität, um unbegrenzte Datenmanipulation und Transformation zu ermöglichen
Big-Data-Technologien ermöglichen es den Unternehmen, neue Arten von Vorhersagen zu treffen, Muster in Geschäftsaktivitäten aufzudecken und neue Wertquellen zu erschließen. Der wissenschaftliche Begriff dafür lautet Data Science.
Was ist Datenwissenschaft?
Data Science, auch bekannt als datengetriebene Wissenschaft, ist ein interdisziplinäres Feld von wissenschaftlichen Methoden, Prozessen, Algorithmen und Systemen, um Wissen oder Erkenntnisse aus Daten in verschiedenen Formen, entweder strukturiert oder unstrukturiert, zu extrahieren, ähnlich wie Data Mining.
Data Science als strategisches Asset
Daten sind heute zu einem strategischen Asset geworden, das für Business Intelligence und zur Differenzierung von Produkten auf dem Markt genutzt werden kann.
In Bezug auf Data Science sind die wichtigsten strategischen Assets:
- Daten
- Die Fähigkeit, nützliche Informationen aus Daten zu extrahieren
Viele Unternehmen nutzen Data Analytics, um aus den vorhandenen Daten Wert zu schöpfen und um zu prüfen, ob das Unternehmen generell die richtigen analytischen Talente hat. Falsche Daten und ungeeignete Data Science Talente führen zu schlechten Geschäftsentscheidungen.
Datenanalyse
Data Analytics ist die Entdeckung und Kommunikation von sinnvollen Mustern in Daten, um intelligente Entscheidungen zu treffen. Unternehmen wenden sich verschiedenen Arten von Analyselösungen zu, um verborgene Muster, Bedeutungen und andere Erkenntnisse aus den riesigen Datenmengen aufzudecken, um die Entscheidungsfindung zu verbessern.
Arten der Analytik
Um Big Data zu analysieren, nutzen Unternehmen eine robuste analytische Umgebung, die Folgendes umfasst:
- Descriptive Analytics
- Prädiktive Analytik
- Präskriptive Analytik
Descriptive Analytics nutzt Werkzeuge wie Datenaggregation und Data Mining. Diese werden verwendet, um die Ergebnisse zusammenzufassen.
Predictive Analytics nutzt statistische Modelle und Simulationen, die dabei helfen, fundierte Vermutungen über wahrscheinliche Ergebnisse anzustellen.
Prescriptive Analytics nutzt Werkzeuge wie Optimierungsmodelle und Heuristiken, die dabei helfen, wichtige, komplexe und sensible Entscheidungen abzuleiten.
Lass uns nun die Techniken verstehen, die in diesen Data Analytics Varianten verwendet werden.
Deskriptive Analytik
Sie gilt als die erste Stufe der Datenanalyse, die die Konsolidierung und Zusammenfassung von Daten für die weitere Analyse beinhaltet. Descriptive Analytics beinhaltet Techniken, die erklären, was in der Vergangenheit passiert ist. Diese Techniken beinhalten:
- Berichte
- Data-Mining-Techniken
- Deskriptive Statistik
- Datenabfragen
- Daten Dashboards
- Prädiktive Analytik
Die Daten aus der deskriptiven Analytik werden für die prädiktive Analytik weiterverwendet, wobei das Ziel darin besteht, zukünftige unvorhergesehene Ereignisse vorherzusagen. Predictive Analytics umfasst Techniken, die Modelle verwenden, die aus vergangenen Daten erstellt wurden, um die Zukunft vorherzusagen oder die Auswirkungen einer Variablen auf eine andere zu bestimmen. Zum Beispiel:
Ein Unternehmen kann ein mathematisches Modell zur Vorhersage zukünftiger Verkäufe erstellen, indem es vergangene Daten zu Produktverkäufen nutzt.
Ein Unternehmen, das Lebensmittel herstellt, kann das Maß und die Menge der verkauften Einheiten schätzen, indem es die Daten der Point-of-Sale-Scanner von Einzelhandelsgeschäften verwendet.
Prädiktive Analytik
Prescriptive Analytics legt die beste Vorgehensweise für eine Geschäftsaktivität in Form der Ausgabe eines präskriptiven Modells fest. Die Modelle, die in dieser Analytik verwendet werden, werden Optimierungsmodelle genannt. Sie werden meist eingesetzt in:
Der Airline-Industrie: Sie helfen dabei, die beste Preisstrategie für Flüge durch die Analyse von Revenue-Management-Modellen und Daten aus der Vergangenheit zu finden.
Anwendung von Business Analytics
Früher hatten Kreditkarten im Wesentlichen eine einheitliche Preisgestaltung, weil:
- Die Unternehmen nicht über geeignete Informationssysteme verfügten, um mit differenzierten Preisen in großem Umfang umzugehen.
- Das Bankmanagement glaubte, dass die Kunden keine Preisdiskriminierung akzeptieren würden.
Mithilfe der prädiktiven Modellierung konnte die Bank:
- Experimentieren, indem sie verschiedenen Kunden nach dem Zufallsprinzip unterschiedliche Konditionen anbot, was die Anzahl der schlechten Konten erhöhte.
- Die vorherrschende Ausbuchung auf etwa 6 % Ausbuchungen ändern.
- Daran arbeiten, aus den Daten Vorhersagemodelle zu erstellen, diese zu evaluieren und dann weiterzuentwickeln, um die Gewinne trotz kontinuierlicher Verluste zu steigern.
- Das Kreditkartenportfolio schließlich zu seinem profitabelsten Betrieb umdrehen.
Nun, da du die Bedeutung von Datenanalysen kennengelernt hast, lass uns den Prozessablauf der Analysen verstehen.
Analytics Prozessablauf
Dies ist das Flussdiagramm des Analytik Prozesses. Lass uns die Schritte im Detail verstehen.
Datenquelle (ERP, CRM, Excel, etc.)
- Sie dient als primärer Ort für die Datenquelle.
- Sie hat zahlreiche Formen, wie ein Datensatz, ein Programm oder vielleicht hart kodierte Daten.
- Organisationen können mehrere Datenquellen nutzen, zusammen mit ERP-, CRM- und alternativen Systemen.
Datenerfassung (ETL)
Es beinhaltet Extract, Load und Rework. Es ist eine Informationsintegrationsmethode, um Rohdaten aus Versorgungssystemen in eine Zielinformation zu übertragen und die Daten für nachgelagerte Anwendungen bereit zu machen, vor allem in Business Intelligence und Analytics-Anwendungen.
Data Storage (Data Warehousing)
Data Storage ist die Methode der Archivierung von Daten in elektromagnetischer oder alternativer Form durch einen Laptop oder ein assoziiertes Gerät.
Ein Data Warehouse wird als zentraler Speicher für integrierte Informationen aus einer oder weiteren disparaten Quellen betrachtet. Es ist ein System, das für Reportage und Informationsanalyse verwendet wird und als eines der Kernelemente von Business Intelligence gilt.
Datenanalyse
Datenanalyse ist der Prozess des Inspizierens, Bereinigens, Transformierens und Modellierens von Daten mit dem Ziel, nützliche Informationen zu entdecken, Schlussfolgerungen zu ziehen und den Entscheidungsprozess zu unterstützen.
Datenberichterstattung und Visualisierung (Berichte und Dashboards)
Datenvisualisierung ist das Verfahren zur Darstellung und Präsentation von Daten in einem grafischen Format. Es wird als Maßnahme verwendet, um den Benutzern visuelle Berichte zu liefern. Es gibt Einblicke in Bezug auf die Leistung, den Betrieb oder allgemeine Statistiken einer Anwendung.
Lass uns verstehen, wie Unternehmen mit ihren Big Data umgehen, um Erkenntnisse zu gewinnen und wie es ihnen geholfen hat.
Wie gehen Unternehmen mit Big Data um?
Rolls-Royce hat Big-Data-Analysen in drei Schlüsselbereichen seiner Geschäftstätigkeit eingesetzt:
- Design
- Herstellung
- After-Sales-Support
Die Anwendung dieses Big-Data-getriebenen Ansatzes hat dem Unternehmen geholfen, Fehler zu diagnostizieren, sie zu beheben und zu verhindern, dass sie erneut auftreten. Es hat auch dabei geholfen, die richtigen Geschäftsentscheidungen zu treffen, was zu deutlich reduzierten Kosten geführt hat.
Amazon, ein Pionier im E-Commerce, setzt Big-Data-Analysen in zwei Schlüsselbereichen seiner Geschäftstätigkeit ein:
- Data Warehousing (Redshift)
- Gehostete Hadoop-Lösung (Elastic MapReduce)
Es nutzt Big Data-Analytik um:
- Ein personalisiertes Empfehlungssystem zu erstellen
- den Kundenservice zu verbessern
Dies hat Amazon geholfen, seine Kunden effektiv zu bedienen und die Verkäufe zu verbessern.
Key Takeaways
Lass uns zusammenfassen, was du gelernt hast.
- Big Data ist ein Begriff, der die große Menge an Daten – sowohl strukturierte als auch unstrukturierte – beschreibt, die ein Unternehmen tagtäglich überschwemmt.
- Volume, Variety, Velocity und Veracity sind die vier V’s von Big Data.
- Analytik ist die Entdeckung und Kommunikation von sinnvollen Mustern in Daten, um intelligente Entscheidungen zu treffen.
- Um Big Data zu analysieren, nutzen Unternehmen eine robuste analytische Umgebung, die deskriptive Analysen, prädiktive Analysen und präskriptive Analysen umfasst