Big Data

Big Data bezeichnet Datenmengen, die zu groß oder zu komplex sind oder sich zu schnell ändern, um sie mit händischen und klassischen Methoden der Datenverarbeitung auszuwerten. Vor allem in der sich ständig weiter entwickelnden Social Media-Thematik verwenden heute schon zahlreiche Unternehmen sämtliche Informationskanäle zur Optimierung ihrer Unternehmenssteuerung, beispielweise zur Kundenbindung. 

Die modernen Technologien unterstützen dabei die Verarbeitung der großen Datenmengen, um dem Anwender die gewünschten Statistiken zu präsentieren. Dabei werden immer mehr auch unterschiedliche strukturierte oder unstrukturierte Daten wie zum Beispiel Emails, Telefonate, Fotos verarbeitet.

Internet of Things

IoT (Internet of Things) umfasst sämtliche Computer, Smartphones, Kameras, Sensoren und andere elektronische Geräte, die via Internet miteinander verbunden sind. Laut Studien hat das IoT vor vier Jahren konkret Gestalt angenommen als die Anzahl über das Internet verbundenen Geräte die Anzahl der Erdbewohner übertroffen hat. 

Beispiel: Mögliche Kernfunktionen

  • Device Management
  • Business Rules Management
  • Business Process Management
  • Big Data Processing
  • Identity Management
  • User Interface Integrator

Cyber-Physical Systems (CPS)

Um eine Grundlage für die intelligente Vernetzung bei Industrie 4.0 zu schaffen, werden bisher passive Objekte mit Mikrocontrollern, Kommunikationssystemen, Identifikatoren sowie Sensoren und Aktoren ausgerüstet. So entstehen intelligente Objekte und damit Cyber-Physical Systems (CPS), die eine Vernetzung von Menschen, Maschinen und Produkten ermöglichen. 

Der Neuheitswert liegt dabei nicht in einer neuen Technologie, sondern erwächst in der Kombination der verfügbaren Technologien in neuer Weise. Die Verfügbarkeit von massenhafter Daten erlaubt die Entwicklung von standardisierten oder individualisierten Diensten. Industrielle Geräte bekämen eine zweite Identität im Netz und sind dort herstellerübergreifend auffindbar, was äußerst nützlich für Engineering, Betriebm Wartung und Services ist. Virtuell können Simulationen oder Produktionen gesteuert werden, Systeme integriert und optimiert oder getestet. Alghorithmen ermöglichen die optimierte (teil-)automatisierte Produktionsplanung, Produkte werden intelligent etc.

Hadoop

Apache Hadoop ist ein Open-Source-Framework, das große Datensätze auf Standard-Hardware in verteilter Form speichert und verarbeitet. Es basiert auf dem MapReduce-Algorithmus von Google Inc. sowie auf Vorschlägen des Google-Dateisystems und ermöglicht es, intensive Rechenprozesse mit großen Datenmengen (Big Data, Petabyte-Bereich) auf Computerclustern durchzuführen.

Dank Hadoop erhalten Unternehmen schnell Ein- und Überblick über ihre massiven Datenmengen – ganz gleich, ob diese strukturiert oder unstrukturiert sind. 

 

Hadoop Distributoren

Cloudera und Hortonworks entwickeln auf Basis der Hadoop-Software. Beides sind ebenfalls weltweite Distributoren.