Big Data – Mehr als massenhaft Daten


Kürzlich auf dem Qualitätstag der DGQ (Deutsche Gesellschaft für Qualität) besuchte ich einen Workshop mit dem Titel „Explorative Datenanalyse für Big Data in der Qualitätssicherung – ein Werkzeugkasten“. Ich lasse mal lieber die Details weg, denn mich beeindruckte die Einleitung. Der Referent erklärte nämlich – für mich endlich mal erschöpfend – was „Big Data“ eigentlich bedeutet. Wie wahrscheinlich die meisten Menschen, die sich dafür interessieren, dachte ich immer, „Big“ Data bedeutet lediglich, sehr viele Daten, also Millionen davon…

Gelernt habe ich aber, dass der Begriff vier Aspekte zugleich umfasst:

  • Also schon viele Daten, wobei „viel“ relativ ist. Aber dazu kommt:
  • Daten aus verschiedenen Quellen und verschiedener Art, z.B. Bilder, Sensordaten, Texte, usw.,
  • Die sehr schnelle Verarbeitung, möglichst in Echtzeit, und
  • Der Wahrheitsgehalt der Daten.

Gerade der letzte Punkt ist von einiger Wichtigkeit, und das nicht nur dann, wenn es um Texte in den sozialen Medien geht.

Die Herausforderung beim Arbeiten mit Daten dieser Qualitäten besteht darin, sie in eine Form zu bringen, mit der man rechnen kann.

Was da an Fantasie drinstecken kann, habe ich an einem Beispiel gelernt, das der Referent vorgestellte. Es geht um die Auswertung fotografischer Erfassung von Werkstücken, hier einer Bohrung. Die Fotos werden in schwarzweiß mit hohem Kontrast aufgenommen. Die Bohrung ist dann schwarz, die übrige Fläche weiß. Nun werden die schwarzen Pixel ausgezählt. Fehler, z.B. ein Span oder ein falscher Winkel führen zu einer höheren (oder ggf. niedrigeren) Pixelzahl. Liegt die Abweichung außerhalb einer definieren Toleranz, wird das Werkstück aussortiert.

Ziemlich einfach, oder? Man muss halt draufkommen.
Mir hat gefallen, das „Big Data“ auf diese Weise ein Stück weit entmystifiziert wurde.

Götz Hendricks

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.