Der Weg zu erfolgreichen Big-Data-Projekten von Autor:  Paul Griffin, Connect Product Manager bei Progress Software

Es ist nicht damit zu rechnen, dass Big Data wieder aus der IT-Diskussion verschwinden wird und nur eine vorübergehende Mode ist. Der Begriff beschreibt Herausforderungen, die viele Unternehmen umtreiben: explodierende Datenmengen, die Geschwindigkeit, mit der neue Daten entstehen, die Unterschiedlichkeit der Quellen und Inhalte und nicht zuletzt der steigende Bedarf an Echtzeit-Analysen. Sowohl die aus internen Beständen, aber auch die aus externen Quellen stammenden Datenmengen, wie solche von RFID-Lesegeräten, aus Sensornetzen in der Fertigung und aus Social-Media-Plattformen, bieten Unternehmen vielfältige Möglichkeiten für neue, geschäftsrelevante Erkenntnisse.

Sicher ist: Big Data verändert die Arbeitswelt. Entscheidend ist, mit den richtigen Methoden und Werkzeugen die Datenberge zu bearbeiten, wobei die Größe für jedes Unternehmen relativ ist. Bei Kleinunternehmen und im Mittelstand können schon mehrere Gigabyte an Daten eine ungewöhnlich große Menge darstellen, die möglichst in Echtzeit zu analysieren ist. Für Konzerne beginnt Big Data erst bei einer Datenmenge von mehreren Hundert Terabyte.

Gesucht wird dabei immer nach Mustern, Ähnlichkeiten, Zusammenhängen und Diskrepanzen. Produzierende Unternehmen aus der Konsumgüterbranche etwa wollen verstehen, wie Verbraucher auf ihre Produkte oder eine konkrete Vertriebskampagne reagieren. Dazu müssen Daten aus internen und externen Quellen in Echtzeit zusammengeführt werden. Handelsunternehmen können Sonderaktionen auch bei umfangreichem Produktportfolio und einem großen Filialnetz in großer Präzision und Geschwindigkeit planen, deren Wirkung kontrollieren und bei Bedarf nachsteuern. Wichtig dabei ist, auch alle relevanten Einflussfaktoren wie lokaler Wettbewerb, Kundenstruktur oder andere unvorhergesehene Ereignisse zu berücksichtigen.

Dafür müssen Unternehmen aber die technischen Voraussetzungen schaffen, insbesondere auf den Gebieten Daten-Connectivity und Middleware. Beim Datenimport und -export gilt es die traditionellen relationalen und transaktionalen Systeme, aber auch neuere Verfahren wie NoSQL sowie hochskalierbare Analyseplattformen wie Hadoop oder Map-R einzubeziehen, die eine parallele Verarbeitung großer Datenmengen ermöglichen. Dabei geht es um typische Einsatzgebiete von Business Intelligence wie Data Warehousing, Data Migration, Data Replication und Data Analysis. Die Datenbankzugriffe und deren Performance sind entscheidend für den Erfolg von Big-Data-Projekten. Unternehmen benötigen daher standardbasierte, vollständig interoperable Datenbanktreiber,  mit denen sie ihre Applikationen funktional erweitern können, ohne dass sie den Programmcode der Anwendungen ändern müssen. Im Bereich der Daten-Connectivity bildet der hochperformante, standardbasierte Zugriff auf alle wichtigen relationalen Datenbanken via ODBC, JDBC oder ADO.NET ein Herzstück. Damit entsteht eine ausbaufähige Infrastruktur für einen schnellen und effizienten Datenaustausch bei Big-Data-Anwendungen.

New state-of-the-art data centre features Vultr’s first AMD GPU supercompute cluster.
Only a quarter (25%) think their approach to the cloud is carefully considered and successful.
Moving to AWS Cloud will enable The Co-operative Bank to adopt cutting edge IT Infrastructure.
The global airline group will upgrade the value of its data and get its AI & generative AI ready...
Barracuda Networks’s award-winning Email Protection and Cloud Backup security solutions will be...
Leading company in renewables to leverage HPE’s unique turnkey AI infrastructure solution to...
The four-year project extension focuses on cloud transformation and enhanced operational efficiency...
Businesses in the UK are risking slower development as they fail to fully embrace technologies that...