Data-Mining im Produktionsumfeld

Ziel/Nutzen: Wichtige Entscheidungen sollten immer auch faktenbasiert und somit datenbasiert erfolgen. Besonders in der heutigen Zeit mit den allseits präsenten Themen rund um Digitalisierung, Industrie 4.0, Big Data, sowie IoT gewinnt das Nutzen von Daten nicht nur immer mehr an Bedeutung, sondern wird für den Erfolg eines Unternehmens unverzichtbar.

Doch wo und wie fängt man an? Welche Möglichkeiten ergeben sich durch die technologischen Entwicklungen in Rechenleistung und Algorithmik? Welche Daten, welche Plattformen und welche Software passt zu den eigenen Zielen? Wie steht es um den Return On Invest (ROI)?

Gerade zu Anfang ergeben sich viele Fragen, die nur mit einem enormen Zeitaufwand und Fachwissen fokussiert und beantwortet werden können. Hierbei möchten wir Sie unterstützen!

Inhalte des Smart-Start-Workshops

  • Begriffe, Möglichkeiten und Zusammenhänge (m.E.) von Big Data, Industrie 4.0, IoT, Predictive Analytics, Machine Learning (ML), Neuronale Netze, Fuzzy Logic, Künstliche Intelligenz (KI bzw. AI) verstehen und anwenden können
  • Motivation komplexer Datenanalysen und Predictive Analytics
  • Multivariate Ansätze zur Reduktion der Datenkomplexität
  • Typische Data-Mining – Ansätze, Methoden und Analysestrategien
  • Datenqualität – Strukturen und Überprüfung ihrer Repräsentativität
  • Datenzugriff – kontextorientierte Datenhaltung, zielgerichtet vorbereitet für die Analysen
  • Best-Practice – Ansätze von der Fragestellung bis zur Lösung (auch im Projektteam “Digitalisierung”)
  • Reale Fragestellungen – Datentechnische Übersetzung der Fragestellung – Beantworten der Fragen mit Data-Mining – Reale Lösung und datenbasierte Entscheidungen
  • Vorstellung und Vergleich ausgewählter Data-Mining Softwarepakete
  • Tipps und Erfahrungsaustausch während des gesamten Workshops
  • Erfahrungsaustauch und offener Diskurs

Motivation des Workshops:

Klassische statistische Verfahren können dabei unterstützen, unternehmensrelevante Informationen in vorhandenen Daten zu erkennen, um auf dieser Grundlage entsprechende Entscheidungen zu treffen. Allerdings eignen sich einfache statistische Verfahren angesichts der zunehmenden Datenkomplexität häufig nicht mehr.
Bei mehr als zehn Einflussgrößen (Prädiktoren) sind lineare Modelle nur noch bedingt einsetzbar, Signifikanzen werden nicht mehr erkannt. Komplett überfordert sind sie aber spätestens dann, wenn Daten aus dem Kontext Industrie 4.0 mit nicht selten über 100 Prädiktoren zu bewerten sind. Gleichzeitig sind von dieser großen Anzahl Variablen nur wenige tatsächlich signifikant und „technisch“ relevant, um Zusammenhänge zu erklären. Wie sind diese also schnell und sicher zu identifizieren?
Einen Lösungsansatz, der diesen vielschichtigen Anforderungen gewachsen ist, bieten die Methoden der multivariaten Analyse sowie des Data-Minings. Dabei ist wichtig, dass die Ergebnisse und die Erkenntnisse des Data-Minings anschließend in eine stringente Aussagenlogik der klassischen Statistik, wie etwa in der Six-Sigma-Methodik, übertragen und verifiziert werden können.

Somit ergibt sich folgende Zielsetzung für diesen Workshop:

Die Teilnehmerinnen und Teilnehmer kennen die Möglichkeiten und Unterschiede zwischen klassischen statistischen Verfahren versus Data-Mining-Algortihmen und Methoden und wie diese sich gegenseitig ergänzen. Sie kennen mehrere strukturierte Herangehensweisen an komplexe Datensituationen sowie Datenanalysen und können gleich beginnen, die unternehmenseigenen Fragestellungen in den Fokus zu nehmen.

Das Angebot richtet sich speziell an Personen und Unternehmen, die sich einen raschen und praxisorientierten Einstieg in die Themen rund um die Digitalisierung und das Data-Mining wünschen. Während des zweitägigen Workshops werden methodische und strukturelle Ansätze vorgestellt, diskutiert und angewendet. Zudem werden mehrere komplexe Datensätze gemeinsam mit Data-Mining (bspw. mit neuronalen Netzen und Machine Learning) analysiert und Prognosemodelle erstellt.

Das Team erlebt auf diese Weise die unterschiedlichen Facetten des gesamten Prozesses von der Datengewinnung bis zur Datennutzung – ausgehend von Erhebung, Speicherung und Aufbereitung, über statistische Verfahren und Analysen, bis hin zur Planung und Empfehlung konkreter Maßnahmen.

Teilnehmerkreis: Mitarbeiterinnen und Mitarbeiter eines Unternehmens mit regelmäßigen Aufgaben im Digitalisierungsprozess und/oder der Datenanalyse

Workshopdauer: 2 Tage

Abschluss: Teilnahmebestätigung

Teilnehmeranzahl: Mindestens 5 Personen, maximal 12 Personen

Lehrgangssprache: Deutsch

Referententeam: Prof. Dr. Andreas Thümmel, QuaRisMa GmbH ,Björn Noreik, BNB-Qualitätsstatistik und Training

Kosten: Kursgebühr, inkl. Teambuilding am Abend: je Person für beide Tage 980,-€ netto (Beachten Sie bitte die Mindestanzahl der teilnehmenden Personen.)

Termine:

Online-Training: 28. und 29. September 2020
Öffentliches Training: 14. und 15. Oktober 2020 (Hotel zur Burg Sternberg, 32699 Extertal-Linderhofe – mit Option auf auf einen Covid-19 bedingten Wechsel auf ein Online-Training)
Für Ihr Unternehmen: “Jederzeit” und auf Anfrage

Hinweis: Im Vordergrund steht der durchgängige Prozess von der Datenerfassung, über verschiedenste statistische Ansätze zur Lösungsfindung bis hin zur Empfehlung und Absicherung von Maßnahmen. Die Erkenntnisse aus dem Workshop sind mit verschiedenen Werkzeugen umsetzbar. Für den Workshop wird die Installation der Statistiksoftware KNIME®, Predictive Modeler SPM® von Minitab und der Statistiksoftware Minitab® empfohlen.

Haben Sie Interesse an diesem Workshop? Haben Sie Fragen zu diesem Angebot oder haben Sie eine Buchungsanfrage? Wir freuen uns auf Ihre Nachricht!

E-Mail: info@bnb-qualitaet.de