Minitab Expert - Tabtrainer

Einführung in die statistischen Analysen mit Minitab®

Ratings 5.00 / 5.00
Minitab Expert - Tabtrainer

What You Will Learn!

  • Aufbau und Struktur der Minitab-Benutzeroberfläche
  • Navigationsfenster, Ausgabefenster, Verlaufsfenster, Arbeitsblätter
  • Aufbau der Minitab-Menüleiste
  • Standardspeicherort für Projekte festlegen
  • Indizierung von Datentypen
  • Möglichkeiten des Datenimports und -exports
  • Arbeiten mit Kommentarfeldern
  • Arbeitsblattinformationen abrufen
  • Aufbau eines Minitab Projektes
  • Datenaufbereitung am Beispiel einer Zeitreihenanalyse
  • Typen von Zeitreihendiagrammen
  • Arbeiten mit dem Zeitstempel
  • Bilden von Teilmengen
  • Arbeiten mit der Kalenderfunktion
  • Teilmengen von Arbeitsblättern bilden
  • Arbeiten mit Identifikationsvariablen
  • Exportieren von Analyseergebnissen zu MS Officeprogrammen wie PowerPoint oder Word
  • Aufbau und Struktur von Boxplots
  • Wichtige Lage- und Streuparameter im Boxplot
  • Zusätzliche Elemente in die Datenanzeige hinzufügen
  • Datenaufbereitung und -analyse am Beispiel einer Boxplot-Analyse
  • Grubbs-Hypothesentest auf Datenausreißer durchführen
  • Arbeiten mit Einzelwertediagrammen
  • Automatisierung von Analysen mithilfe von Makros
  • Datenaufbereitung und -analyse am Beispiel einer Pareto Analyse
  • Personalisierte Schaltfläche in der Menüleiste programmieren
  • Aufbau und Struktur von Pareto Diagrammen
  • Mithilfe der deskriptiven Statistik Streu- und Lagerparameter bestimmen
  • Einfache Rechenoperationen mit der Rechnerfunktion
  • Arbeiten mit Histogrammen
  • Prinzip der Klassenbildung im Histogramm
  • Zuweisen von stetigen Einzelwerten in kategoriale Wertebereiche
  • Kodieren von Wertebereichen
  • Arbeiten mit der Übersichtstabelle
  • Extraktion von einzelnen Zeichen aus Datensätzen
  • Arbeiten mit Tortendiagrammen
  • Prinzip des 1-Stichproben t-Testes
  • Trennschärfengüte einer Stichprobe
  • Trennschärfekurve richtig interpretieren
  • Test auf Normalverteilung nach Anderson-Darling
  • Wahrscheinlichkeitsnetz richtig interpretieren
  • If p is low, H0 must go: Hypothesenentscheidungen
  • Hypothesentest t-Test, eine Stichprobe, Grundlagen
  • Varianzanalyse
  • Messsystemanalyse
  • Prozessfähigkeitsanlyse
  • Prozessstabilitätsanalyse

Description

Minitab® Professional unter: Tabtrainer.com-

Der Minitab® Expert richtet sich an Prozessoptimierer:innen aller Funktionsbereiche und insbesondere an Six Sigma Belts. Die Schulungsinhalte wurden unter der Leitung von Prof. Mola entwickelt und basieren auf seinen AQAS und ISO 13053 akkreditierten Six Sigma Hochschulmodulen in den Studiengängen Maschinenbau und Technisches Produktionsmanagement.


01  BENUTZEROBERFLÄCHE VON MINITAB®
Bevor wir in die eigentlichen Analysemethodiken einsteigen, werden wir in der ersten Trainingseinheit uns zunächst einmal mit der Benutzeroberfläche von Minitab® vertraut machen und erleben, wie wir Minitab® fremde Dateitypen importieren, exportieren und auch sicher abspeichern können. Nachdem wir die Oberflächenbereiche wie zum Beispiel Navigation, Ausgabe und Verlauf kennengelernt haben, werden wir uns anhand eines typischen Minitab® Datensatzes anschauen, wie ein typisches Minitab® Projekt aufgebaut sein kann. Auch werden wir uns die Struktur der Arbeitsblätter genauer anschauen und lernen, wie Daten-Arbeitsblätter strukturell aufgebaut sind und verstehen, wie unterschiedlich Datentypen in den Arbeitsblättern indiziert werden. Wir erlernen auch, wie wir eigene Kommentare und Texthinweise in die Arbeitsblätter integrieren können.

  • Themenschwerpunkte:
    • Arbeiten im Navigations-, Ausgabe- und Verlaufsfenster
    • Datenimport aus unterschiedlichen Quellen
    • Spezifische Standardspeicherorte für Projekte festlegen
    • Indizierung von Datentypen
    • Oberflächenansicht individuell anpassen
    • Kommentare und Hinweise in Textform hinzufügen
    • Arbeitsblätter und Projekte speichern und schließen


02 ZEITREIHENANALYSE
In der 2. Trainingseinheit begleiten wir das Team des Qualitätsmanagements der Smartboard AG und werden erleben, wie mithilfe einer Zeitreihenanalyse die Schrottquote der letzten Geschäftsjahre Schritt für Schritt analysiert wird. Wir werden in diesem Zusammenhang erleben, wie die Datenaufbereitung und -analyse am Beispiel einer Zeitreihenanalyse durchgeführt wird und die unterschiedlichen Typen von Zeitreihendiagrammen kennenlernen. Wir werden die nützliche Funktion Zeitstempel kennenlernen und wie wir Teilmengen aus einem Arbeitsblatt extrahieren können. Mit der sogenannten nützlichen Pinselfunktion werden wir wissen, wie wir im Bearbeitungsmodus einer Grafik gezielt einzelne Datencluster analysieren können. Im Rahmen unserer Datenaufbereitung wird die nützliche Kalenderfunktion ebenfalls Thema sein. Wir werden auch verstehen, was sogenannte Identifikationsvariablen sind und welchen Nutzen diese für unsere Datenanalyse haben. Wir werden erleben, wie wir zum Beispiel für eine Teambesprechung unsere Analyseergebnissen mit wenig Aufwand nach PowerPoint oder Word exportieren können.

Themenschwerpunkte:

  • Zeitreihenanalyse, Grundlagen

  • Zeilen und Spaltenkapazität von Minitab-Arbeitsblättern

  • Import-Vorschaufenster interpretieren

  • Dateinamen aktualisieren

  • Datumsangaben extrahieren

  • Aufbau und Struktur von Zeitreihendiagrammen

  • Arbeiten mit dem Zeitstempel

  • Extrahieren von Daten

  • Teilmenge von Arbeitsblättern bilden

  • Wochentage aus Datumsangaben extrahieren

  • Hervorheben von Datenpunkten im Bearbeitungsmodus einer Grafik

  • Untersuchung von Datencluster mithilfe der Pinselfunktion

  • Festlegen von Identifikationsvariablen

  • Export von Minitab-Analyseergebnissen nach MS Office Anwendungen


03 BOXPLOT-ANALYSE
In der 3. Trainingseinheit begleiten wir das Qualitätsverbesserungsprojekt der Smartboard AG, um die Schrottquote der letzten Geschäftsjahre mithilfe einer Boxplot- Analyse zu untersuchen. Wir werden erleben, wie das Team hiermit unterschiedliche Datengruppen vergleicht, um zum Beispiel herauszufinden, ob an bestimmten Produktionstagen mehr oder weniger Schrottmengen angefallen sind als an den übrigen Produktionstagen. In diesem Zusammenhang werden wir lernen, was ein Boxplot ist, wie er prinzipiell aufgebaut ist und welche nützlichen Informationen dieses Werkzeug bereitstellt. Wir werden hierbei sehen, dass der besondere Vorteil einer Boxplot- Analyse darin liegt, dass wir durch diese grafische Darstellungsform sehr übersichtlich die Lage- und Streuparameter wie Median, arithmetische Mittelwerte sowie Minimum-/ Maximum-Werte unterschiedlicher Datensätze kompakt und übersichtlich miteinander vergleichen können. Auch werden wir lernen, zusätzliche Informationselemente in die Datenanzeige einzubauen, einen Hypothesentest auf Datenausreißer durchzuführen und ein Einzelwertediagramm zu erstellen und zu interpretieren. Auch die insbesondere im Tagesgeschäft sehr nützliche Automatisierung von wiederkehrenden Analysen mithilfe von sogenannten Makros wird vorgestellt werden. Abschließend erzeugen wir eine personalisierte Schaltfläche in der Menüleiste, um im turbulenten Tagesgeschäft mit einem einfachen Klick täglich wiederkehrende Analyseroutinen- zum Beispiel für den täglichen Qualitätsbericht- zeitsparend durchzuführen.

Themenschwerpunkte:

  • Boxplot-Analyse, Grundlagen

  • Prinzipieller Aufbau und Interpretation von Boxplots

  • Quartile, Mediane und arithmetische Mittelwerte in Boxplots

  • Darstellung von Datenausreißern im Boxplot

  • Boxplots für einen geraden Datensatz

  • Boxplots für einen ungeraden Datensatz

  • Boxplot- Typen im Vergleich

  • Boxplot erzeugen und interpretieren

  • Arbeiten im Boxplot-Bearbeitungsmodus

  • Hypothesentest auf Ausreißer nach Grubbs

  • Einzelwertediagramm erzeugen und interpretieren

  • Automatisierung von Analysen mithilfe von Makros

  • Erzeugen einer individuellen Schaltfläche im Menüband


04 PARETO-ANALYSE
In der 4. Trainingseinheit werden wir erleben, wie das Qualitätsteam der Smartboard AG mithilfe einer Pareto- Analyse ihre Lieferperformance untersucht. Hierbei werden wir zunächst einmal verstehen, wie ein Pareto- Diagramm grundsätzlich aufgebaut ist und welche Informationen es uns bereitstellt. Im Rahmen unserer Pareto- Analyse werden wir dann eine Reihe weiterer nützlicher Möglichkeiten kennenlernen, um zum Beispiel Streu- und Lageparameter schnell abrufen zu können oder wie wir mithilfe der Rechnerfunktion Rechenoperationen durchführen können. Wir werden lernen, wie ein Tortendiagramm und ein Histogramm erzeugt werden kann und zum Beispiel auch verstehen, wie die Klassenbildung im Histogramm berechnet wird. Im Rahmen der Pareto- Analyse werden wir zur Erstellung des Pareto Diagramms auch lernen, stetig skalierte Daten in kategoriale Wertebereiche zuzuweisen und wie wir diese Wertebereiche individuell kodieren können. Neben der nützlichen sogenannten Übersichtstabelle werden wir auch die Datenextraktion mithilfe entsprechender Funktionsbefehle kennenlernen.

Themenschwerpunkte:

  • Pareto-Analyse

  • Abrufen und Interpretieren von Arbeitsblattinformationen

  • Arbeiten mit der Rechnerfunktion

  • Darstellung von fehlenden Werten im Datensatz

  • Abrufen von Lage- und Streuparameter mithilfe der deskriptiven Statistik

  • Histogrammtypen im Vergleich

  • Histogramm und Tortendiagramm erzeugen und interpretieren

  • Berechnung der Balkenanzahl und-Breite im Histogramm

  • Pareto Diagramm erzeugen und interpretieren

  • Erzeugen spezifischer Wertebereiche im Pareto Diagramm

  • Neukodierung von stetig skalierten Pareto-Wertebereichen in kategoriale Wertebereiche

  • gezielte Extraktion von Einzelinformationen aus Datenzellen

  • Erzeugung von Pareto Diagrammen auf Basis unterschiedlicher kategorialer Variablen


05 t-TEST 1 STICHPROBE
In der 5. Trainingseinheit begleiten wir die Wärmebehandlung und werden erleben, wie mithilfe des Hypothesentests t-Test eine Stichprobe herausgefunden werden kann, ob der Wärmebehandlungsprozess so eingestellt ist, dass die Skateboardachsen die geforderte Druckfestigkeiten erreichen. Um diese zu erreichen, durchlaufen die Skateboardachsen einen mehrstufigen Wärmebehandlungsprozess. Unsere Aufgabe in dieser Trainingseinheit besteht darin, anhand von Stichprobendaten und dem Hypothesentest t-Test für eine Stichprobe eine zuverlässige Handlungsempfehlung an die Produktionsleitung abzugeben, ob der aktuelle Wärmebehandlungsprozess ausreichend gut eingestellt ist. Oder ob der aktuell laufende Prozess eventuell sogar gestoppt und optimiert werden müsste, falls unser Hypothesentest aufzeigt, dass der geforderte mittlere Sollwert nicht erreicht wird. Im Kern dieser Trainingseinheit werden wir erleben, wie ein Hypothesentest eine Stichprobe ordnungsgemäß durchgeführt wird und vorab durch mittels Prüfung sicherstellen, ob unser Datensatz den Gesetzen der Normalverteilung folgt. Mithilfe einer sogenannten Trennschärfeanalyse werden wir herausarbeiten, ob der vorliegende Stichprobenumfang ausreichend groß genug ist. Anhand der Dichtefunktion und Wahrscheinlichkeitsverteilungen werden wir lernen, wie der t-Wert im t-Test einzuordnen ist und auch verstehen, welche Fehlentscheidung im Rahmen eines Hypothesentests möglich sind. Mithilfe entsprechender Einzelwertdiagramme entwickelt sich ein Verständnis dafür, wie das Konfidenzintervall im Rahmen des ein Stichproben t-Testes einzuordnen ist.

Themenschwerpunkte 05, Teil 1:

  • t-Test, eine Stichprobe, Grundlagen

  • Abrufen und Interpretation von Arbeitsblattinformationen

  • Abrufen und Interpretation der deskriptiven Statistik

  • Die Trennschärfe „Power“ eines Hypothesentests

  • Anderson- Darling- Test als Vorstufe zum t-Test

  • Herleitung des Wahrscheinlichkeitsnetzes auf Basis der Dichtefunktion

  • Interpretation des Wahrscheinlichkeitsnetzes

  • Durchführung des Hypothesentests t-Test für den Mittelwert, 1 Stichprobe

  • Aufstellen der Nullhypothese und Alternativhypothese

  • Test auf Normalverteilung nach Anderson-Darling

  • Das Wahrscheinlichkeitsnetz der Normalverteilung

Themenschwerpunkte 05, Teil 2:

  • Erzeugung und Interpretation von Einzelwertediagrammen im Rahmen des t-Tests

  • Konfidenzniveau und Irrtumswahrscheinlichkeit

  • Testprüfgröße und Signifikanzwert

  • Fehler 1. Art und Fehler 2. Art im Rahmen der Hypothesenentscheidung

Themenschwerpunkte 05, Teil 3:

  • Trennschärfenanalyse und Stichprobenumfang im Rahmen des t-Tests

  • Einfluss des Stichprobenumfangs auf das Hypothesenergebnis

  • Grafische Konstruktion der Wahrscheinlichkeitsverteilung

  • Interpretation der Trennschärfekurve

  • Bestimmung des Stichprobenumfangs auf Basis der Trennschärfengüte

  • Einfluss unterschiedlicher Stichprobenumfänge auf die Hypothesenentscheidung


06 EINFACHE VARIANZANALYSE (ANOVA)
In der 06. Trainingseinheit geht es um die von der Smartboard AG verwendeten Kugellager für die Skateboardrollen. Ein wichtiges Kriterium für die Passform ist der Außendurchmesser der Kugellager. Die Smartboard AG vergleicht hierfür drei neue Kugellagerlieferanten. Im Fokus dieser Trainingseinheit steht die Fragestellung, ob sich die Kugellager-Außendurchmesser der drei Lieferanten voneinander signifikant unterscheiden. Wir werden sehen, dass die Besonderheit in dieser Aufgabenstellung darin liegt, dass wir es nun mit mehr als zwei Prozessen bzw. mit mehr als zwei Stichprobenmittelwerten zu tun haben und somit auch die bisher kennengelernten Hypothesentests nicht weiterhelfen werden. Vor dem Einstieg in die eigentliche Varianzanalyse – häufig abgekürzt mit dem Akronym ANOVA – werden wir uns zunächst mithilfe der deskriptiven Statistik einen Überblick über die Lage- und Streuparameter unserer drei Lieferanten-Datensätze verschaffen. Vor dem Einstieg in die eigentliche Varianzanalyse muss noch eine Trennschärfeanalyse durchgeführt werden, um den angemessenen Stichprobenumfang zu bestimmen. Um das Prinzip der Varianzanalyse zu verstehen, werden wir aus didaktischen Gründen zunächst einmal an einem allgemein kleinen Datensatz die relativ komplexe Varianzanalyse Schritt für Schritt näher kennenlernen und werden dann mit diesen Vorarbeiten und Informationen in die sogenannte einfaktorielle Varianzanalyse einsteigen, die im Tagesgeschäft häufig auch nur „einfache Varianzanalyse“ bezeichnet wird, so dass wir über diesen Analyseansatz die entsprechenden Streuanteile bestimmen, die die jeweilige Gesamtstreuung ausmachen. Das Verhältnis dieser Streuanteile werden wir mit dem sogenannten Streuverhältnis-Verteilungs-Diagramm genauer anschauen, das, in Anlehnung an seinen Entwickler Fisher, als F- Verteilung bezeichnet wird. Wir lernen, auf Basis der F-Verteilung die Wahrscheinlichkeit für das Auftreten eines Streuverhältnisses, einfach F- Wert genannt, in Form eines p-Wertes ermitteln zu können. Zum besseren Verständnis werden wir auch über den grafischen Weg den p-Wert zum jeweiligen F-Wert herleiten. Im letzten Schritt wird mittels der zugehörigen Hypothesentests ordnungsgemäß ermittelt, ob signifikante Unterschiede zwischen den Kugellagerlieferanten vorliegen. Interessant und sehr nützlich im Rahmen dieser einfaktoriellen Varianzanalyse werden dann die mithilfe des Vergleichstests nach Fisher erzeugten sogenannten Gruppierungsbuchstaben, die uns im Tagesgeschäft immer sehr schnell helfen werden zu erkennen, welche Kugellagerhersteller sich signifikant voneinander unterscheiden.

Themenschwerpunkte:

  • Aufstellung der Hypothesentests im Rahmen der einfaktoriellen ANOVA

  • Kor(SS)- und Kor(MS) – Werte im Rahmen der einfaktoriellen ANOVA

  • Herleitung des F-Wertes im Rahmen der einfaktoriellen ANOVA

  • Herleitung der F-Verteilung im Rahmen der einfaktoriellen ANOVA

  • Fehlerbalkendiagramm im Rahmen der einfaktoriellen ANOVA

  • Paardifferenztest nach Fisher

  • Gruppierungsinformationen anhand der Fisher Grenzdifferenz

  • Individuelle Fisher-Tests für Mittelwertdifferenzen.


07 EINFACHE KORRELATION UND REGRESSION
In der 07. Trainingseinheit besuchen wir die Wärmebehandlung der Smartboard AG. Hier werden die Skateboardachsen einer Wärmebehandlung unterzogen, um die vom Kunden geforderte Materialfestigkeit zu erreichen. Einen Einfluss auf die Materialfestigkeit hat neben den Wärmebehandlungsparametern auch der Kupferanteil in den Skateboardachsen. Vor diesem Hintergrund soll in dieser Trainingseinheit auf Basis von vorhandenen historischen Prozessdaten der Zusammenhang zwischen Kupferanteil und Materialfestigkeit untersucht werden. Hierfür werden wir zunächst mithilfe einer einfachen Korrelationsanalyse untersuchen, ob eine wechselseitige Beziehung zwischen der Höhe des Kupferanteils im Material und der Materialfestigkeit nachzuweisen ist. Sollte das der Fall sein, werden wir mit einer einfachen Regressionsanalyse zeigen, welcher Kupferanteil schlussendlich erforderlich ist, um die vom Kunden gewünschte Materialfestigkeit zu erreichen. Im Rahmen unserer Korrelationsanalyse werden wir den wichtigen Korrelationsfaktor nach Pearson kennenlernen, um eine quantitative Aussage darüber zu erhalten, ob die entsprechenden Einflussfaktoren schwach, stark, oder gar nicht miteinander korrelieren. In diesem Zusammenhang werden wir das Grundprinzip der Korrelationsanalyse auf Basis der „Methode der kleinsten Fehlerquadrate“ ausführlich erlernen, indem wir anhand eines vereinfachten Datensatzes eine vollständige Korrelationsanalyse Schritt für Schritt aktiv durchrechnen, um zu verstehen, wie die Ergebnisse im Ausgabefenster entstanden sind. Final können wir mit einer einfachen Regressionsanalyse unsere technische Problemstellung mit einer mathematischen Regressionsgleichung beschreiben, um zukünftige Materialfestigkeiten in Abhängigkeit des Einflussfaktors Kupferanteil mit einer hohen Prognosegüte vorhersagen zu können.

Themenschwerpunkte:

  • Korrelationsanalyse nach Pearson

  • Korrelationsmatrix

  • Tabelle der „paarweisen Korrelationen“

  • Hypothesentest zur paarweisen Korrelation nach Pearson

  • Arbeiten mit „Zeichentools“ im Rahmen des Matrixplots

  • Regressionsanalyse

  • Regressionsmodell anpassen

  • Methode der kleinsten Fehlerquadrate

  • Darstellung der Anpassungslinie

  • Residuenanalyse im Rahmen der Regression

  • Konfidenzintervalle und Prognoseintervalle

  • Antwortvariable anhand des Regressionsmodells prognostizieren


08 GEKREUZTE MSA
In der 08. Trainingseinheit betrachten wir die Endmontage der Smartboard AG und werden das Qualitätsteam dabei begleiten, wie es eine sogenannte gekreuzte Messsystemanalyse durchführt. Vorab werden wir im ersten Teil unserer mehrteiligen Trainingseinheit in die Grundlagen einarbeiten, um die wichtigsten Definitionen, wie zum Beispiel Messgenauigkeit, Wiederhol- und Vergleichspräzision oder auch Linearität, Stabilität und Auflösevermögen zu verstehen. Gut gerüstet mit den Grundlagen werden wir dann im zweiten Teil in die praktische Umsetzung der gekreuzten Messsystemanalyse einsteigen und bei der Gelegenheit auch den Unterschied zwischen einer gekreuzten und geschachtelten Messsystemanalyse kennenlernen. Wir werden erfahren, dass es grundsätzlich zwei mathematische Ansätze gibt, um die gekreuzte Messsystemanalyse durchzuführen: Zum einen die ARM- Methode und zum anderen die ANOVA- Methode. Um beide Methoden besser zu verstehen, werden wir im zweiten Teil dieser Trainingseinheit unsere gekreuzte Messsystemanalyse zunächst anhand der ARM- Methode durchführen und zum Vergleich im dritten Teil dieser Trainingseinheit auf Basis desselben Datensatzes eine gekreuzte Messsystemanalyse anhand der ANOVA- Methode durchführen. Hierbei werden wir beide Methoden ausführlich manuell Schritt für Schritt aktiv berechnen und die entsprechenden Messsystemkenngrößen herleiten, um zu verstehen, wie die Ergebnisse im Ausgabefenster erzeugt wurden.

Themenschwerpunkte 08, Teil 1:

  • Nationale und internationale MSA Normregelwerke im Vergleich

  • Prozessvariation versus Messsystemvariation

  • Messgenauigkeit

  • Wiederhol- und Vergleichspräzision

  • Linearität, Stabilität, Bias

  • Ansprechschwelle, Toleranzauflösung

Themenschwerpunkte 08, Teil 2:

  • ARM- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse

  • Unterschied zwischen gekreuzter, geschachtelter und erweiterter MSA

  • Manuelle Herleitung aller Streukomponenten gemäß ARM- Methode

  • Manuelle Herleitung der Toleranzauflösung auf Basis des ndc- Parameters

  • Balkendiagramm, Streukomponenten

  • Prüferbezogene R-Karten-Analyse

  • Manuelle Herleitung der Eingriffsgrenzen in der R-Karte

  • Prüferbezogene X-quer-Karten-Analyse

  • Manuelle Herleitung der Eingriffsgrenzen in der X-quer-Karte

  • Einzelwertediagramm zur Analyse der Datenstreuung

  • Prüferabhängige Boxplot- Analyse

  • Arbeiten mit der Markierungspalette im Bericht der Messsystemanalyse

  • Arbeiten mit Identifikationsvariablen im Bericht der Messsystemanalyse

Themenschwerpunkte 08, Teil 3:

  • ANOVA- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse

  • 2-fache ANOVA-Tabelle mit Wechselwirkungen

  • Manuelle Herleitung aller Streukomponenten gemäß ANOVA- Methode

  • Manuelle Herleitung der Toleranzauflösung auf Basis des ndc-Parameters

  • Hypothesentest im Rahmen der ANOVA-Methode

  • Hypothesentest bezüglich Wechselwirkungseffekte


09 ANALYSE DER PROZESSSTABILITÄT
In der dreiteiligen 09. Trainingseinheit befinden wir uns in der Druckgussfertigung der Smartboard AG. Hier werden über zwei Druckgussanlagen die Skateboardachsen hergestellt. Das zentrale Qualitätsmerkmal der Skateboardachsen ist hierbei die Achsenfestigkeit. Die Kunden der Smartboard AG fordern eine mittlere Achsenfestigkeit von 400 Megapascal plus/minus fünf Megapascal. Im Rahmen dieser Trainingseinheit werden wir das Qualitätsteam der Smartboard AG begleiten und erleben, wie mithilfe entsprechender Qualitätsregelkarten analysiert wird, ob der Druckgussprozess im Sinne der Kundenspezifikation und AIAG-Norm als stabiler Prozess eingestuft werden kann. Wir werden sehen, wie sich das Qualitätsteam vor der eigentlichen Prozessstabilitätsanalyse zunächst mithilfe der deskriptiven Statistik einen ersten Eindruck über die mittlere Prozesslage und Prozessstreuung verschafft und anschließend mit entsprechenden Qualitätsregelkarten die Güte der Prozessstabilität auswertet. Wir werden hierbei lernen, dass je nach Skalenniveau und Teilgruppengröße unterschiedliche Arten von Qualitätsregelkarten zum Einsatz kommen. Wir werden uns in diesem Zusammenhang zunächst mittels eines einfachen Datensatzes mit dem Streuverhalten von Einzelwerten und Mittelwerten beschäftigen, um den sogenannten statistischen Parameter Standardfehler besser zu verstehen. Wir werden die Qualitätsregelkarten Einzelwert-Karte, auch I- Karte bezeichnet, die Mittelwertkarte x-quer und die Standardabweichungs-Karte, s-quer- Karte bezeichnet, kennenlernen. Hierfür werden wir aus didaktischen Gründen zum besseren Verständnis auch die jeweiligen oberen und unteren Eingriffsgrenzen in den Qualitätsregelkarten Schritt für Schritt manuell berechnen und mit den Ergebnissen im Ausgabefenster vergleichen. Bei der Gelegenheit werden wir auch die Spannweitenkarte R- Karte einsetzen und auch hierfür die entsprechenden Eingriffsgrenzen manuell herleiten. Wir werden dann die in der Industrie etablierten acht wichtigsten Kontrolltests ausführlich erlernen, die uns in Anlehnung an die AIAG Normregelwerke helfen können, eventuelle Prozessinstabilitäten aufzudecken. Wir erleben, dass bei einer falschen Wahl einer Qualitätsregelkarte immer die Gefahr besteht, dass die Kontrolltests weniger sensibel auf vorhandene Prozessinstabilitäten reagieren und in diesem Zusammenhang auch erfahren, wie ein Gesamtprozess in zwei Teilprozesse aufgeteilt werden kann, in dem wir die nützliche Funktion „Teilmenge des Arbeitsblattes bilden“ einsetzen. Mit dem bis dahin erlernten Wissen werden wir die Qualitätsregelkarte mit der Bezeichnung Gleitende Spannweite, im allgemeinen als MR-Karte bezeichnet, kennenlernen und erfahren, dass die sogenannte kombinierte I/MR- Karte immer dann sehr nützlich wird, wenn Einzelwerte miteinander verglichen werden sollen, die nicht in Teilgruppen zusammengefasst vorliegen.

Themenschwerpunkte 09, Teil 1:

  • Einschätzung der Datenlandschaft mithilfe der deskriptiven Statistik

  • Prozessstabilität versus Prozessfähigkeit

  • Aufbau von Qualitätsregelkarten am Beispiel I-Karte und X-quer-Karte

  • Prozessinstabilitäten mithilfe von Tests auf Ausnahmebedingungen identifizieren

Themenschwerpunkte 09, Teil 2:

  • Prozessanalyse mithilfe der kombinierten X-quer/ R- Karte

  • Identifikation von Prozessinstabilitäten mithilfe der Kontrolltests gemäß AIAG

  • Manuelle Herleitung der Eingriffsgrenzen in der S- Karte

  • Manuelle Herleitung der Eingriffsgrenzen in der X- quer- Karte

  • Manuelle Herleitung der Eingriffsgrenzen in der R- Karte

  • Anlagenbezogene Prozessanalyse durch Teilmengenbildung

  • Einbindung von Kundenspezifikationsgrenzen und Prozess- Sollwerten

  • Arbeiten mit dem Zeitstempel in Qualitätsregelkarten

  • Aufteilung eines Gesamtprozesses in mehrere Teilprozesse

  • Ausrichtung der Skalenbeschriftungen in Qualitätsregelkarten

Themenschwerpunkte 09, Teil 3:

  • Einzelwertkarte I- Karte

  • Gleitende Spannweitenkarte MR- Karte

  • Herleitung der Eingriffsgrenzen in der MR- Karte

  • Herleitung der Eingriffsgrenzen in der I- Karte


10 ANALYZE DER PROZESSFÄHIGKEIT
In der dreiteiligen 10. Trainingseinheit begleiten wir das Qualitätsteam der Smartboard AG, wie im Rahmen eines Qualitätsverbesserungsprozesses die Prozessfähigkeit des Druckgussprozesses für die Herstellung der Skateboardachsen analysiert wird. Bevor wir in die eigentliche Prozessfähigkeitsanalyse einsteigen, werden wir zunächst sehen, welche Arbeitsschritte im Vorfeld dazu erforderlich sind. Wir werden erleben, wie das Qualitätsteam hierfür mithilfe des Wahrscheinlichkeitsnetzes und dem zugehörigen Anderson- Darling- Test erarbeitet, ob der für die Prozessfähigkeit vorliegende Stichprobendatensatz den Gesetzen der Normalverteilung folgt. Wir lernen, wie mit entsprechenden Qualitätsregelkarten überprüft werden kann, ob der Druckgussprozess die nötige Prozessstabilität im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse bereitstellt. Im Kern dieser Trainingseinheit wird es darum gehen, im Rahmen der Prozessfähigkeitsanalyse alle relevanten Fähigkeitskennzahlen kennenzulernen, die sich zum einen auf die Gesamtprozessfähigkeit und zum anderen auf die potentielle Prozessfähigkeit beziehen. Hierbei werden wir insbesondere die zentralen Fähigkeitskennzahlen CP, CPK, PP oder PKK kennenlernen, aber auch den sogenannten Taguchi- Capability- Index CPM erarbeiten, der zu den sogenannten Fähigkeitskennzahlen der zweiten Generation gehört. Wir werden anhand einfacher Rechenbeispiele die wichtigsten Kennzahlen Schritt für Schritt auch manuell berechnen, um zu verstehen, wie Fähigkeitskennzahlen, die im Ausgabefenster dargestellt werden, überhaupt zustande gekommen sind. Und auch verstehen, was die sogenannte Leistungskennzahl z-Benchmark bedeutet und wie diese mit dem Sigma Level zusammenhängt. Anhand weiterer Leistungskennzahlen wie zum Beispiel beobachtete Leistung oder erwartete Leistung werden wir dann auch in der Lage sein, die Prozessfähigkeit sowohl innerhalb wie auch zwischen den Teilgruppen zu beurteilen. Wir werden die sehr nützliche Funktion Capability Six Pack kennenlernen, die uns insbesondere im turbulenten Tagesgeschäft sehr schnell helfen wird, alle erforderlichen Analysen, die auch im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse erforderlich sind, mit wenigen Schritten zu berechnen. Anhand des erlernten Wissens und der vorliegenden Analyseergebnisse werden wir dann in der Lage sein, die Prozessfähigkeit unseres Druckgussprozesses differenziert zu beurteilen und so entsprechende Handlungsmaßnahmen abzuleiten, um die Prozessfähigkeit zu verbessern. Nach der Umsetzung der Verbesserungsmaßnahmen werden wir final eine erneute Prozessfähigkeitsanalyse durchführen und anhand der Fähigkeitskennzahlen den verbesserten Prozess mit dem ursprünglichen noch nicht verbesserten Prozess ausführlich vergleichen.

Themenschwerpunkte 10, Teil 1:

  • Grundlagen der Normregelwerke bezüglich Prozessfähigkeit

  • Grundprinzip und Logik der Prozessfähigkeitsdefinition

  • Prozessausbeute versus Prozessfähigkeit

  • Prozessfähigkeitsindizes: PP, PPL, PPU, PPk

  • Prozessfähigkeit bei zentrierten Prozessen

  • Prozessfähigkeit bei nicht zentrierten Prozessen

Themenschwerpunkte 10, Teil 2:

  • Vorarbeiten zur Prozessfähigkeitsanalyse:

  • Deskriptive Statistik

  • Test auf Normalverteilung: Anderson-Darling Test

  • Herleitung des Wahrscheinlichkeitsnetzes aus der Wahrscheinlichkeitsfunktion

  • Prozessstabilitätsanalyse: X-quer und R-Karte

  • Schätzmethoden zur Ermittlung der Standardabweichung

  • Kennzahlen der Gesamtprozessfähigkeit

  • Kennzahlen der potentiellen Prozessfähigkeit

  • Gesamtstandardabweichung vs. Standardabweichung innerhalb der Teilgruppen

  • Sigma Level vs. Prozessfähigkeitslevel

  • Beobachtete Leistung, erwartete Leistung gesamt, erwartete Leistung innerhalb

  • Manuelle Bestimmung der Standardabweichung für die potentielle Prozessfähigkeit

Themenschwerpunkte 10, Teil 3:

  • Manuelle Herleitung der Leistungskennzahlen

  • Manuelle Herleitung der Standardabweichung innerhalb der R-quer- Methode

  • Manuelle Herleitung der „zusammengefassten Standardabweichung“

  • Benchmark-Z (Sigma-Niveau)

  • Arbeiten mit dem Punktediagramm im Rahmen einer Prozessfähigkeitsanalyse

  • Extraktion von Dateninformationen im Rahmen einer Prozessfähigkeitsanalyse

  • Arbeiten mit der Option „Capability Six Pack“



Der Minitab® Expert Kurs richtet sich an Prozessoptimierer:innen aller Funktionsbereiche und insbesondere an Six Sigma Belts. Die Schulungsinhalte wurden unter der Leitung von Prof. Mola entwickelt und basieren auf seinen AQAS und ISO 13053 akkreditierten Six Sigma Hochschulmodulen in den Studiengängen Maschinenbau und Technisches Produktionsmanagement.


01  BENUTZEROBERFLÄCHE VON MINITAB®
Bevor wir in die eigentlichen Analysemethodiken einsteigen, werden wir in der ersten Trainingseinheit uns zunächst einmal mit der Benutzeroberfläche von Minitab® vertraut machen und erleben, wie wir Minitab® fremde Dateitypen importieren, exportieren und auch sicher abspeichern können. Nachdem wir die Oberflächenbereiche wie zum Beispiel Navigation, Ausgabe und Verlauf kennengelernt haben, werden wir uns anhand eines typischen Minitab® Datensatzes anschauen, wie ein typisches Minitab® Projekt aufgebaut sein kann. Auch werden wir uns die Struktur der Arbeitsblätter genauer anschauen und lernen, wie Daten-Arbeitsblätter strukturell aufgebaut sind und verstehen, wie unterschiedlich Datentypen in den Arbeitsblättern indiziert werden. Wir erlernen auch, wie wir eigene Kommentare und Texthinweise in die Arbeitsblätter integrieren können.

  • Themenschwerpunkte:
    • Arbeiten im Navigations-, Ausgabe- und Verlaufsfenster
    • Datenimport aus unterschiedlichen Quellen
    • Spezifische Standardspeicherorte für Projekte festlegen
    • Indizierung von Datentypen
    • Oberflächenansicht individuell anpassen
    • Kommentare und Hinweise in Textform hinzufügen
    • Arbeitsblätter und Projekte speichern und schließen


02 ZEITREIHENANALYSE
In der 2. Trainingseinheit begleiten wir das Team des Qualitätsmanagements der Smartboard AG und werden erleben, wie mithilfe einer Zeitreihenanalyse die Schrottquote der letzten Geschäftsjahre Schritt für Schritt analysiert wird. Wir werden in diesem Zusammenhang erleben, wie die Datenaufbereitung und -analyse am Beispiel einer Zeitreihenanalyse durchgeführt wird und die unterschiedlichen Typen von Zeitreihendiagrammen kennenlernen. Wir werden die nützliche Funktion Zeitstempel kennenlernen und wie wir Teilmengen aus einem Arbeitsblatt extrahieren können. Mit der sogenannten nützlichen Pinselfunktion werden wir wissen, wie wir im Bearbeitungsmodus einer Grafik gezielt einzelne Datencluster analysieren können. Im Rahmen unserer Datenaufbereitung wird die nützliche Kalenderfunktion ebenfalls Thema sein. Wir werden auch verstehen, was sogenannte Identifikationsvariablen sind und welchen Nutzen diese für unsere Datenanalyse haben. Wir werden erleben, wie wir zum Beispiel für eine Teambesprechung unsere Analyseergebnissen mit wenig Aufwand nach PowerPoint oder Word exportieren können.

Themenschwerpunkte:

  • Zeitreihenanalyse, Grundlagen

  • Zeilen und Spaltenkapazität von Minitab-Arbeitsblättern

  • Import-Vorschaufenster interpretieren

  • Dateinamen aktualisieren

  • Datumsangaben extrahieren

  • Aufbau und Struktur von Zeitreihendiagrammen

  • Arbeiten mit dem Zeitstempel

  • Extrahieren von Daten

  • Teilmenge von Arbeitsblättern bilden

  • Wochentage aus Datumsangaben extrahieren

  • Hervorheben von Datenpunkten im Bearbeitungsmodus einer Grafik

  • Untersuchung von Datencluster mithilfe der Pinselfunktion

  • Festlegen von Identifikationsvariablen

  • Export von Minitab-Analyseergebnissen nach MS Office Anwendungen


03 BOXPLOT-ANALYSE
In der 3. Trainingseinheit begleiten wir das Qualitätsverbesserungsprojekt der Smartboard AG, um die Schrottquote der letzten Geschäftsjahre mithilfe einer Boxplot- Analyse zu untersuchen. Wir werden erleben, wie das Team hiermit unterschiedliche Datengruppen vergleicht, um zum Beispiel herauszufinden, ob an bestimmten Produktionstagen mehr oder weniger Schrottmengen angefallen sind als an den übrigen Produktionstagen. In diesem Zusammenhang werden wir lernen, was ein Boxplot ist, wie er prinzipiell aufgebaut ist und welche nützlichen Informationen dieses Werkzeug bereitstellt. Wir werden hierbei sehen, dass der besondere Vorteil einer Boxplot- Analyse darin liegt, dass wir durch diese grafische Darstellungsform sehr übersichtlich die Lage- und Streuparameter wie Median, arithmetische Mittelwerte sowie Minimum-/ Maximum-Werte unterschiedlicher Datensätze kompakt und übersichtlich miteinander vergleichen können. Auch werden wir lernen, zusätzliche Informationselemente in die Datenanzeige einzubauen, einen Hypothesentest auf Datenausreißer durchzuführen und ein Einzelwertediagramm zu erstellen und zu interpretieren. Auch die insbesondere im Tagesgeschäft sehr nützliche Automatisierung von wiederkehrenden Analysen mithilfe von sogenannten Makros wird vorgestellt werden. Abschließend erzeugen wir eine personalisierte Schaltfläche in der Menüleiste, um im turbulenten Tagesgeschäft mit einem einfachen Klick täglich wiederkehrende Analyseroutinen- zum Beispiel für den täglichen Qualitätsbericht- zeitsparend durchzuführen.

Themenschwerpunkte:

  • Boxplot-Analyse, Grundlagen

  • Prinzipieller Aufbau und Interpretation von Boxplots

  • Quartile, Mediane und arithmetische Mittelwerte in Boxplots

  • Darstellung von Datenausreißern im Boxplot

  • Boxplots für einen geraden Datensatz

  • Boxplots für einen ungeraden Datensatz

  • Boxplot- Typen im Vergleich

  • Boxplot erzeugen und interpretieren

  • Arbeiten im Boxplot-Bearbeitungsmodus

  • Hypothesentest auf Ausreißer nach Grubbs

  • Einzelwertediagramm erzeugen und interpretieren

  • Automatisierung von Analysen mithilfe von Makros

  • Erzeugen einer individuellen Schaltfläche im Menüband


04 PARETO-ANALYSE
In der 4. Trainingseinheit werden wir erleben, wie das Qualitätsteam der Smartboard AG mithilfe einer Pareto- Analyse ihre Lieferperformance untersucht. Hierbei werden wir zunächst einmal verstehen, wie ein Pareto- Diagramm grundsätzlich aufgebaut ist und welche Informationen es uns bereitstellt. Im Rahmen unserer Pareto- Analyse werden wir dann eine Reihe weiterer nützlicher Möglichkeiten kennenlernen, um zum Beispiel Streu- und Lageparameter schnell abrufen zu können oder wie wir mithilfe der Rechnerfunktion Rechenoperationen durchführen können. Wir werden lernen, wie ein Tortendiagramm und ein Histogramm erzeugt werden kann und zum Beispiel auch verstehen, wie die Klassenbildung im Histogramm berechnet wird. Im Rahmen der Pareto- Analyse werden wir zur Erstellung des Pareto Diagramms auch lernen, stetig skalierte Daten in kategoriale Wertebereiche zuzuweisen und wie wir diese Wertebereiche individuell kodieren können. Neben der nützlichen sogenannten Übersichtstabelle werden wir auch die Datenextraktion mithilfe entsprechender Funktionsbefehle kennenlernen.

Themenschwerpunkte:

  • Pareto-Analyse

  • Abrufen und Interpretieren von Arbeitsblattinformationen

  • Arbeiten mit der Rechnerfunktion

  • Darstellung von fehlenden Werten im Datensatz

  • Abrufen von Lage- und Streuparameter mithilfe der deskriptiven Statistik

  • Histogrammtypen im Vergleich

  • Histogramm und Tortendiagramm erzeugen und interpretieren

  • Berechnung der Balkenanzahl und-Breite im Histogramm

  • Pareto Diagramm erzeugen und interpretieren

  • Erzeugen spezifischer Wertebereiche im Pareto Diagramm

  • Neukodierung von stetig skalierten Pareto-Wertebereichen in kategoriale Wertebereiche

  • gezielte Extraktion von Einzelinformationen aus Datenzellen

  • Erzeugung von Pareto Diagrammen auf Basis unterschiedlicher kategorialer Variablen


05 t-TEST 1 STICHPROBE
In der 5. Trainingseinheit begleiten wir die Wärmebehandlung und werden erleben, wie mithilfe des Hypothesentests t-Test eine Stichprobe herausgefunden werden kann, ob der Wärmebehandlungsprozess so eingestellt ist, dass die Skateboardachsen die geforderte Druckfestigkeiten erreichen. Um diese zu erreichen, durchlaufen die Skateboardachsen einen mehrstufigen Wärmebehandlungsprozess. Unsere Aufgabe in dieser Trainingseinheit besteht darin, anhand von Stichprobendaten und dem Hypothesentest t-Test für eine Stichprobe eine zuverlässige Handlungsempfehlung an die Produktionsleitung abzugeben, ob der aktuelle Wärmebehandlungsprozess ausreichend gut eingestellt ist. Oder ob der aktuell laufende Prozess eventuell sogar gestoppt und optimiert werden müsste, falls unser Hypothesentest aufzeigt, dass der geforderte mittlere Sollwert nicht erreicht wird. Im Kern dieser Trainingseinheit werden wir erleben, wie ein Hypothesentest eine Stichprobe ordnungsgemäß durchgeführt wird und vorab durch mittels Prüfung sicherstellen, ob unser Datensatz den Gesetzen der Normalverteilung folgt. Mithilfe einer sogenannten Trennschärfeanalyse werden wir herausarbeiten, ob der vorliegende Stichprobenumfang ausreichend groß genug ist. Anhand der Dichtefunktion und Wahrscheinlichkeitsverteilungen werden wir lernen, wie der t-Wert im t-Test einzuordnen ist und auch verstehen, welche Fehlentscheidung im Rahmen eines Hypothesentests möglich sind. Mithilfe entsprechender Einzelwertdiagramme entwickelt sich ein Verständnis dafür, wie das Konfidenzintervall im Rahmen des ein Stichproben t-Testes einzuordnen ist.

Themenschwerpunkte 05, Teil 1:

  • t-Test, eine Stichprobe, Grundlagen

  • Abrufen und Interpretation von Arbeitsblattinformationen

  • Abrufen und Interpretation der deskriptiven Statistik

  • Die Trennschärfe „Power“ eines Hypothesentests

  • Anderson- Darling- Test als Vorstufe zum t-Test

  • Herleitung des Wahrscheinlichkeitsnetzes auf Basis der Dichtefunktion

  • Interpretation des Wahrscheinlichkeitsnetzes

  • Durchführung des Hypothesentests t-Test für den Mittelwert, 1 Stichprobe

  • Aufstellen der Nullhypothese und Alternativhypothese

  • Test auf Normalverteilung nach Anderson-Darling

  • Das Wahrscheinlichkeitsnetz der Normalverteilung

Themenschwerpunkte 05, Teil 2:

  • Erzeugung und Interpretation von Einzelwertediagrammen im Rahmen des t-Tests

  • Konfidenzniveau und Irrtumswahrscheinlichkeit

  • Testprüfgröße und Signifikanzwert

  • Fehler 1. Art und Fehler 2. Art im Rahmen der Hypothesenentscheidung

Themenschwerpunkte 05, Teil 3:

  • Trennschärfenanalyse und Stichprobenumfang im Rahmen des t-Tests

  • Einfluss des Stichprobenumfangs auf das Hypothesenergebnis

  • Grafische Konstruktion der Wahrscheinlichkeitsverteilung

  • Interpretation der Trennschärfekurve

  • Bestimmung des Stichprobenumfangs auf Basis der Trennschärfengüte

  • Einfluss unterschiedlicher Stichprobenumfänge auf die Hypothesenentscheidung


06 EINFACHE VARIANZANALYSE (ANOVA)
In der 06. Trainingseinheit geht es um die von der Smartboard AG verwendeten Kugellager für die Skateboardrollen. Ein wichtiges Kriterium für die Passform ist der Außendurchmesser der Kugellager. Die Smartboard AG vergleicht hierfür drei neue Kugellagerlieferanten. Im Fokus dieser Trainingseinheit steht die Fragestellung, ob sich die Kugellager-Außendurchmesser der drei Lieferanten voneinander signifikant unterscheiden. Wir werden sehen, dass die Besonderheit in dieser Aufgabenstellung darin liegt, dass wir es nun mit mehr als zwei Prozessen bzw. mit mehr als zwei Stichprobenmittelwerten zu tun haben und somit auch die bisher kennengelernten Hypothesentests nicht weiterhelfen werden. Vor dem Einstieg in die eigentliche Varianzanalyse – häufig abgekürzt mit dem Akronym ANOVA – werden wir uns zunächst mithilfe der deskriptiven Statistik einen Überblick über die Lage- und Streuparameter unserer drei Lieferanten-Datensätze verschaffen. Vor dem Einstieg in die eigentliche Varianzanalyse muss noch eine Trennschärfeanalyse durchgeführt werden, um den angemessenen Stichprobenumfang zu bestimmen. Um das Prinzip der Varianzanalyse zu verstehen, werden wir aus didaktischen Gründen zunächst einmal an einem allgemein kleinen Datensatz die relativ komplexe Varianzanalyse Schritt für Schritt näher kennenlernen und werden dann mit diesen Vorarbeiten und Informationen in die sogenannte einfaktorielle Varianzanalyse einsteigen, die im Tagesgeschäft häufig auch nur „einfache Varianzanalyse“ bezeichnet wird, so dass wir über diesen Analyseansatz die entsprechenden Streuanteile bestimmen, die die jeweilige Gesamtstreuung ausmachen. Das Verhältnis dieser Streuanteile werden wir mit dem sogenannten Streuverhältnis-Verteilungs-Diagramm genauer anschauen, das, in Anlehnung an seinen Entwickler Fisher, als F- Verteilung bezeichnet wird. Wir lernen, auf Basis der F-Verteilung die Wahrscheinlichkeit für das Auftreten eines Streuverhältnisses, einfach F- Wert genannt, in Form eines p-Wertes ermitteln zu können. Zum besseren Verständnis werden wir auch über den grafischen Weg den p-Wert zum jeweiligen F-Wert herleiten. Im letzten Schritt wird mittels der zugehörigen Hypothesentests ordnungsgemäß ermittelt, ob signifikante Unterschiede zwischen den Kugellagerlieferanten vorliegen. Interessant und sehr nützlich im Rahmen dieser einfaktoriellen Varianzanalyse werden dann die mithilfe des Vergleichstests nach Fisher erzeugten sogenannten Gruppierungsbuchstaben, die uns im Tagesgeschäft immer sehr schnell helfen werden zu erkennen, welche Kugellagerhersteller sich signifikant voneinander unterscheiden.

Themenschwerpunkte:

  • Aufstellung der Hypothesentests im Rahmen der einfaktoriellen ANOVA

  • Kor(SS)- und Kor(MS) – Werte im Rahmen der einfaktoriellen ANOVA

  • Herleitung des F-Wertes im Rahmen der einfaktoriellen ANOVA

  • Herleitung der F-Verteilung im Rahmen der einfaktoriellen ANOVA

  • Fehlerbalkendiagramm im Rahmen der einfaktoriellen ANOVA

  • Paardifferenztest nach Fisher

  • Gruppierungsinformationen anhand der Fisher Grenzdifferenz

  • Individuelle Fisher-Tests für Mittelwertdifferenzen.


07 EINFACHE KORRELATION UND REGRESSION
In der 07. Trainingseinheit besuchen wir die Wärmebehandlung der Smartboard AG. Hier werden die Skateboardachsen einer Wärmebehandlung unterzogen, um die vom Kunden geforderte Materialfestigkeit zu erreichen. Einen Einfluss auf die Materialfestigkeit hat neben den Wärmebehandlungsparametern auch der Kupferanteil in den Skateboardachsen. Vor diesem Hintergrund soll in dieser Trainingseinheit auf Basis von vorhandenen historischen Prozessdaten der Zusammenhang zwischen Kupferanteil und Materialfestigkeit untersucht werden. Hierfür werden wir zunächst mithilfe einer einfachen Korrelationsanalyse untersuchen, ob eine wechselseitige Beziehung zwischen der Höhe des Kupferanteils im Material und der Materialfestigkeit nachzuweisen ist. Sollte das der Fall sein, werden wir mit einer einfachen Regressionsanalyse zeigen, welcher Kupferanteil schlussendlich erforderlich ist, um die vom Kunden gewünschte Materialfestigkeit zu erreichen. Im Rahmen unserer Korrelationsanalyse werden wir den wichtigen Korrelationsfaktor nach Pearson kennenlernen, um eine quantitative Aussage darüber zu erhalten, ob die entsprechenden Einflussfaktoren schwach, stark, oder gar nicht miteinander korrelieren. In diesem Zusammenhang werden wir das Grundprinzip der Korrelationsanalyse auf Basis der „Methode der kleinsten Fehlerquadrate“ ausführlich erlernen, indem wir anhand eines vereinfachten Datensatzes eine vollständige Korrelationsanalyse Schritt für Schritt aktiv durchrechnen, um zu verstehen, wie die Ergebnisse im Ausgabefenster entstanden sind. Final können wir mit einer einfachen Regressionsanalyse unsere technische Problemstellung mit einer mathematischen Regressionsgleichung beschreiben, um zukünftige Materialfestigkeiten in Abhängigkeit des Einflussfaktors Kupferanteil mit einer hohen Prognosegüte vorhersagen zu können.

Themenschwerpunkte:

  • Korrelationsanalyse nach Pearson

  • Korrelationsmatrix

  • Tabelle der „paarweisen Korrelationen“

  • Hypothesentest zur paarweisen Korrelation nach Pearson

  • Arbeiten mit „Zeichentools“ im Rahmen des Matrixplots

  • Regressionsanalyse

  • Regressionsmodell anpassen

  • Methode der kleinsten Fehlerquadrate

  • Darstellung der Anpassungslinie

  • Residuenanalyse im Rahmen der Regression

  • Konfidenzintervalle und Prognoseintervalle

  • Antwortvariable anhand des Regressionsmodells prognostizieren


08 GEKREUZTE MSA
In der 08. Trainingseinheit betrachten wir die Endmontage der Smartboard AG und werden das Qualitätsteam dabei begleiten, wie es eine sogenannte gekreuzte Messsystemanalyse durchführt. Vorab werden wir im ersten Teil unserer mehrteiligen Trainingseinheit in die Grundlagen einarbeiten, um die wichtigsten Definitionen, wie zum Beispiel Messgenauigkeit, Wiederhol- und Vergleichspräzision oder auch Linearität, Stabilität und Auflösevermögen zu verstehen. Gut gerüstet mit den Grundlagen werden wir dann im zweiten Teil in die praktische Umsetzung der gekreuzten Messsystemanalyse einsteigen und bei der Gelegenheit auch den Unterschied zwischen einer gekreuzten und geschachtelten Messsystemanalyse kennenlernen. Wir werden erfahren, dass es grundsätzlich zwei mathematische Ansätze gibt, um die gekreuzte Messsystemanalyse durchzuführen: Zum einen die ARM- Methode und zum anderen die ANOVA- Methode. Um beide Methoden besser zu verstehen, werden wir im zweiten Teil dieser Trainingseinheit unsere gekreuzte Messsystemanalyse zunächst anhand der ARM- Methode durchführen und zum Vergleich im dritten Teil dieser Trainingseinheit auf Basis desselben Datensatzes eine gekreuzte Messsystemanalyse anhand der ANOVA- Methode durchführen. Hierbei werden wir beide Methoden ausführlich manuell Schritt für Schritt aktiv berechnen und die entsprechenden Messsystemkenngrößen herleiten, um zu verstehen, wie die Ergebnisse im Ausgabefenster erzeugt wurden.

Themenschwerpunkte 08, Teil 1:

  • Nationale und internationale MSA Normregelwerke im Vergleich

  • Prozessvariation versus Messsystemvariation

  • Messgenauigkeit

  • Wiederhol- und Vergleichspräzision

  • Linearität, Stabilität, Bias

  • Ansprechschwelle, Toleranzauflösung

Themenschwerpunkte 08, Teil 2:

  • ARM- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse

  • Unterschied zwischen gekreuzter, geschachtelter und erweiterter MSA

  • Manuelle Herleitung aller Streukomponenten gemäß ARM- Methode

  • Manuelle Herleitung der Toleranzauflösung auf Basis des ndc- Parameters

  • Balkendiagramm, Streukomponenten

  • Prüferbezogene R-Karten-Analyse

  • Manuelle Herleitung der Eingriffsgrenzen in der R-Karte

  • Prüferbezogene X-quer-Karten-Analyse

  • Manuelle Herleitung der Eingriffsgrenzen in der X-quer-Karte

  • Einzelwertediagramm zur Analyse der Datenstreuung

  • Prüferabhängige Boxplot- Analyse

  • Arbeiten mit der Markierungspalette im Bericht der Messsystemanalyse

  • Arbeiten mit Identifikationsvariablen im Bericht der Messsystemanalyse

Themenschwerpunkte 08, Teil 3:

  • ANOVA- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse

  • 2-fache ANOVA-Tabelle mit Wechselwirkungen

  • Manuelle Herleitung aller Streukomponenten gemäß ANOVA- Methode

  • Manuelle Herleitung der Toleranzauflösung auf Basis des ndc-Parameters

  • Hypothesentest im Rahmen der ANOVA-Methode

  • Hypothesentest bezüglich Wechselwirkungseffekte


09 ANALYSE DER PROZESSSTABILITÄT
In der dreiteiligen 09. Trainingseinheit befinden wir uns in der Druckgussfertigung der Smartboard AG. Hier werden über zwei Druckgussanlagen die Skateboardachsen hergestellt. Das zentrale Qualitätsmerkmal der Skateboardachsen ist hierbei die Achsenfestigkeit. Die Kunden der Smartboard AG fordern eine mittlere Achsenfestigkeit von 400 Megapascal plus/minus fünf Megapascal. Im Rahmen dieser Trainingseinheit werden wir das Qualitätsteam der Smartboard AG begleiten und erleben, wie mithilfe entsprechender Qualitätsregelkarten analysiert wird, ob der Druckgussprozess im Sinne der Kundenspezifikation und AIAG-Norm als stabiler Prozess eingestuft werden kann. Wir werden sehen, wie sich das Qualitätsteam vor der eigentlichen Prozessstabilitätsanalyse zunächst mithilfe der deskriptiven Statistik einen ersten Eindruck über die mittlere Prozesslage und Prozessstreuung verschafft und anschließend mit entsprechenden Qualitätsregelkarten die Güte der Prozessstabilität auswertet. Wir werden hierbei lernen, dass je nach Skalenniveau und Teilgruppengröße unterschiedliche Arten von Qualitätsregelkarten zum Einsatz kommen. Wir werden uns in diesem Zusammenhang zunächst mittels eines einfachen Datensatzes mit dem Streuverhalten von Einzelwerten und Mittelwerten beschäftigen, um den sogenannten statistischen Parameter Standardfehler besser zu verstehen. Wir werden die Qualitätsregelkarten Einzelwert-Karte, auch I- Karte bezeichnet, die Mittelwertkarte x-quer und die Standardabweichungs-Karte, s-quer- Karte bezeichnet, kennenlernen. Hierfür werden wir aus didaktischen Gründen zum besseren Verständnis auch die jeweiligen oberen und unteren Eingriffsgrenzen in den Qualitätsregelkarten Schritt für Schritt manuell berechnen und mit den Ergebnissen im Ausgabefenster vergleichen. Bei der Gelegenheit werden wir auch die Spannweitenkarte R- Karte einsetzen und auch hierfür die entsprechenden Eingriffsgrenzen manuell herleiten. Wir werden dann die in der Industrie etablierten acht wichtigsten Kontrolltests ausführlich erlernen, die uns in Anlehnung an die AIAG Normregelwerke helfen können, eventuelle Prozessinstabilitäten aufzudecken. Wir erleben, dass bei einer falschen Wahl einer Qualitätsregelkarte immer die Gefahr besteht, dass die Kontrolltests weniger sensibel auf vorhandene Prozessinstabilitäten reagieren und in diesem Zusammenhang auch erfahren, wie ein Gesamtprozess in zwei Teilprozesse aufgeteilt werden kann, in dem wir die nützliche Funktion „Teilmenge des Arbeitsblattes bilden“ einsetzen. Mit dem bis dahin erlernten Wissen werden wir die Qualitätsregelkarte mit der Bezeichnung Gleitende Spannweite, im allgemeinen als MR-Karte bezeichnet, kennenlernen und erfahren, dass die sogenannte kombinierte I/MR- Karte immer dann sehr nützlich wird, wenn Einzelwerte miteinander verglichen werden sollen, die nicht in Teilgruppen zusammengefasst vorliegen.

Themenschwerpunkte 09, Teil 1:

  • Einschätzung der Datenlandschaft mithilfe der deskriptiven Statistik

  • Prozessstabilität versus Prozessfähigkeit

  • Aufbau von Qualitätsregelkarten am Beispiel I-Karte und X-quer-Karte

  • Prozessinstabilitäten mithilfe von Tests auf Ausnahmebedingungen identifizieren

Themenschwerpunkte 09, Teil 2:

  • Prozessanalyse mithilfe der kombinierten X-quer/ R- Karte

  • Identifikation von Prozessinstabilitäten mithilfe der Kontrolltests gemäß AIAG

  • Manuelle Herleitung der Eingriffsgrenzen in der S- Karte

  • Manuelle Herleitung der Eingriffsgrenzen in der X- quer- Karte

  • Manuelle Herleitung der Eingriffsgrenzen in der R- Karte

  • Anlagenbezogene Prozessanalyse durch Teilmengenbildung

  • Einbindung von Kundenspezifikationsgrenzen und Prozess- Sollwerten

  • Arbeiten mit dem Zeitstempel in Qualitätsregelkarten

  • Aufteilung eines Gesamtprozesses in mehrere Teilprozesse

  • Ausrichtung der Skalenbeschriftungen in Qualitätsregelkarten

Themenschwerpunkte 09, Teil 3:

  • Einzelwertkarte I- Karte

  • Gleitende Spannweitenkarte MR- Karte

  • Herleitung der Eingriffsgrenzen in der MR- Karte

  • Herleitung der Eingriffsgrenzen in der I- Karte


10 ANALYZE DER PROZESSFÄHIGKEIT
In der dreiteiligen 10. Trainingseinheit begleiten wir das Qualitätsteam der Smartboard AG, wie im Rahmen eines Qualitätsverbesserungsprozesses die Prozessfähigkeit des Druckgussprozesses für die Herstellung der Skateboardachsen analysiert wird. Bevor wir in die eigentliche Prozessfähigkeitsanalyse einsteigen, werden wir zunächst sehen, welche Arbeitsschritte im Vorfeld dazu erforderlich sind. Wir werden erleben, wie das Qualitätsteam hierfür mithilfe des Wahrscheinlichkeitsnetzes und dem zugehörigen Anderson- Darling- Test erarbeitet, ob der für die Prozessfähigkeit vorliegende Stichprobendatensatz den Gesetzen der Normalverteilung folgt. Wir lernen, wie mit entsprechenden Qualitätsregelkarten überprüft werden kann, ob der Druckgussprozess die nötige Prozessstabilität im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse bereitstellt. Im Kern dieser Trainingseinheit wird es darum gehen, im Rahmen der Prozessfähigkeitsanalyse alle relevanten Fähigkeitskennzahlen kennenzulernen, die sich zum einen auf die Gesamtprozessfähigkeit und zum anderen auf die potentielle Prozessfähigkeit beziehen. Hierbei werden wir insbesondere die zentralen Fähigkeitskennzahlen CP, CPK, PP oder PKK kennenlernen, aber auch den sogenannten Taguchi- Capability- Index CPM erarbeiten, der zu den sogenannten Fähigkeitskennzahlen der zweiten Generation gehört. Wir werden anhand einfacher Rechenbeispiele die wichtigsten Kennzahlen Schritt für Schritt auch manuell berechnen, um zu verstehen, wie Fähigkeitskennzahlen, die im Ausgabefenster dargestellt werden, überhaupt zustande gekommen sind. Und auch verstehen, was die sogenannte Leistungskennzahl z-Benchmark bedeutet und wie diese mit dem Sigma Level zusammenhängt. Anhand weiterer Leistungskennzahlen wie zum Beispiel beobachtete Leistung oder erwartete Leistung werden wir dann auch in der Lage sein, die Prozessfähigkeit sowohl innerhalb wie auch zwischen den Teilgruppen zu beurteilen. Wir werden die sehr nützliche Funktion Capability Six Pack kennenlernen, die uns insbesondere im turbulenten Tagesgeschäft sehr schnell helfen wird, alle erforderlichen Analysen, die auch im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse erforderlich sind, mit wenigen Schritten zu berechnen. Anhand des erlernten Wissens und der vorliegenden Analyseergebnisse werden wir dann in der Lage sein, die Prozessfähigkeit unseres Druckgussprozesses differenziert zu beurteilen und so entsprechende Handlungsmaßnahmen abzuleiten, um die Prozessfähigkeit zu verbessern. Nach der Umsetzung der Verbesserungsmaßnahmen werden wir final eine erneute Prozessfähigkeitsanalyse durchführen und anhand der Fähigkeitskennzahlen den verbesserten Prozess mit dem ursprünglichen noch nicht verbesserten Prozess ausführlich vergleichen.

Themenschwerpunkte 10, Teil 1:

  • Grundlagen der Normregelwerke bezüglich Prozessfähigkeit

  • Grundprinzip und Logik der Prozessfähigkeitsdefinition

  • Prozessausbeute versus Prozessfähigkeit

  • Prozessfähigkeitsindizes: PP, PPL, PPU, PPk

  • Prozessfähigkeit bei zentrierten Prozessen

  • Prozessfähigkeit bei nicht zentrierten Prozessen

Themenschwerpunkte 10, Teil 2:

  • Vorarbeiten zur Prozessfähigkeitsanalyse:

  • Deskriptive Statistik

  • Test auf Normalverteilung: Anderson-Darling Test

  • Herleitung des Wahrscheinlichkeitsnetzes aus der Wahrscheinlichkeitsfunktion

  • Prozessstabilitätsanalyse: X-quer und R-Karte

  • Schätzmethoden zur Ermittlung der Standardabweichung

  • Kennzahlen der Gesamtprozessfähigkeit

  • Kennzahlen der potentiellen Prozessfähigkeit

  • Gesamtstandardabweichung vs. Standardabweichung innerhalb der Teilgruppen

  • Sigma Level vs. Prozessfähigkeitslevel

  • Beobachtete Leistung, erwartete Leistung gesamt, erwartete Leistung innerhalb

  • Manuelle Bestimmung der Standardabweichung für die potentielle Prozessfähigkeit

Themenschwerpunkte 10, Teil 3:

  • Manuelle Herleitung der Leistungskennzahlen

  • Manuelle Herleitung der Standardabweichung innerhalb der R-quer- Methode

  • Manuelle Herleitung der „zusammengefassten Standardabweichung“

  • Benchmark-Z (Sigma-Niveau)

  • Arbeiten mit dem Punktediagramm im Rahmen einer Prozessfähigkeitsanalyse

  • Extraktion von Dateninformationen im Rahmen einer Prozessfähigkeitsanalyse

  • Arbeiten mit der Option „Capability Six Pack“


Who Should Attend!

  • Datenanalytiker, Six Sigma Belts, Minitab Prozessoptimierer, Minitab Anwender
  • Minitab Anwender

TAKE THIS COURSE

Tags

  • Minitab

Subscribers

28

Lectures

18

TAKE THIS COURSE



Related Courses