Das erste Mal, als ich über Big Data nachdachte, kannte ich diesen Begriff noch gar nicht. Ich fragte mich lediglich, wie Unternehmen in der Zukunft mit der enormen stetig anwachsenden Datenmenge zurechtkommen und wie Mitarbeiter relevante Informationen aus dem Überfluss an Quellen noch entschlüsseln sollen?
Als die Industrie sich schließlich auf einen Top Term einigte – nämlich Big Data, hatte das Kinde einen Namen und ich einen Anhaltspunkt, an dem ich mich orientieren konnte. Big Data – das rapide ansteigende Geschäftsdatenvolumen
Big Data und die Wirtschaft
Eine im August 2012 veröffentlichte Studie von Cap Gemini „The Deciding Factor: Big Data & Decision Making Business Analytics“, in welcher vor allem Entscheider nach ihren Einschätzungen zu dem Thema Big Data befragt wurden, ergab folgendes: 54% der befragten Führungskräfte gaben an, dass Unternehmensentscheidungen zunehmend kritisch hinterfragt werden und durch fundierte Analysen bestätigt werden müssen. Des Weiteren sind sie der Ansicht, dass zwar „Big Data“ in aller Munde ist, aber dass es Stand heute noch keine ausreichenden Instrumentarien gibt, strukturierte und unstrukturierte Informationen ausreichend zu analysieren. Ein weiterer interessanter Aspekt, der in der Befragung herausgearbeitet wurde, ist das Silodenken bei der Analyse von Big Data. Mit 56 % stimmten die Befragten zu, dass das Wissen, sprich die Datenbestände, sehr abteilungsbasiert vorhanden ist und damit eine unternehmensweite Datenanalyse sowie Dateninterpretation nur sehr schwer bis gar nicht möglich ist.
Gerade der letzte Aspekt ist für uns als Enterprise Search-Anbieter sehr interessant zu beleuchten. Nehmen wir Business Intelligence-Instrumentarien als Beispiel: Das Ergebnis dieser Analyse-Tools wird nur so gut sein, wie die Informationen mit welchen sie angereichert werden. Crap in – Crap out oder die Guten ins Töpfchen, die Schlechten ins Kröpfchen.
Die IT-Branche sieht sich mit mannigfaltigen Herausforderungen konfrontiert. Hat sich die Storage-Branche noch vor Jahren darauf fokussiert Plattenplätze möglichst billig zu verkaufen, bauen sie heute ein Image in Richtung Daten-Management, Skalierbarkeit der Infrastruktur auf und dass alle Komponenten möglichst intelligent (von der Datenentstehung bis zur Datenablage) miteinander verknüpft sind. Als IntraFind haben wir natürlich ein Augenmerk auf die IT-Landschaften, und fokussieren uns unter anderem auf die Antworten, die „Big Data“ einem Unternehmen liefern sollten. Einsatzszenarien wie bspw. die Anbindung von extrahierten Daten an ein BI-System können da intelligent helfen.
Langfristig muss sich die IT Industrie, die von dem Aspekt „Big Data“ bisher sehr profitierte – denn das Aufrüsten der IT Infrastruktur bei Kunden kannte bisher nur budgetäre Grenzen – innovative Ansätze, intelligente Wege aus dem Big Data-Dilemma überlegen. Beratungshäuser wie die hier genannte Cap Gemini stellen einen wichtigen Weichensteller dar, wenn es bspw. um die Beschreibung der Herausforderungen eines solchen weltweiten Mammutprojektes geht. Hersteller von Hard- und Software können Studien dieser Art als klare Handlungsaufforderung verstehen und gezielt agieren.
Wir als IntraFind tun dies und entwickeln für unsere Kunden intelligente Lösungen um wichtige Entscheidungen auf Basis der richtigen Information zum richtigen Zeitpunkt zu treffen.
Pingback: Big Data – Was versteht man darunter und was bringt es Unternehmen? | Storage-24.de