Minitab® Professional unter: Tabtrainer.com-
Der Minitab® Expert richtet sich an Prozessoptimierer:innen aller Funktionsbereiche und insbesondere an Six Sigma Belts. Die Schulungsinhalte wurden unter der Leitung von Prof. Mola entwickelt und basieren auf seinen AQAS und ISO 13053 akkreditierten Six Sigma Hochschulmodulen in den Studiengängen Maschinenbau und Technisches Produktionsmanagement.
01 BENUTZEROBERFLÄCHE VON MINITAB®
Bevor wir in die eigentlichen Analysemethodiken einsteigen, werden wir in der ersten Trainingseinheit uns zunächst einmal mit der Benutzeroberfläche von Minitab® vertraut machen und erleben, wie wir Minitab® fremde Dateitypen importieren, exportieren und auch sicher abspeichern können. Nachdem wir die Oberflächenbereiche wie zum Beispiel Navigation, Ausgabe und Verlauf kennengelernt haben, werden wir uns anhand eines typischen Minitab® Datensatzes anschauen, wie ein typisches Minitab® Projekt aufgebaut sein kann. Auch werden wir uns die Struktur der Arbeitsblätter genauer anschauen und lernen, wie Daten-Arbeitsblätter strukturell aufgebaut sind und verstehen, wie unterschiedlich Datentypen in den Arbeitsblättern indiziert werden. Wir erlernen auch, wie wir eigene Kommentare und Texthinweise in die Arbeitsblätter integrieren können.
Themenschwerpunkte:
• Arbeiten im Navigations-, Ausgabe- und Verlaufsfenster
• Datenimport aus unterschiedlichen Quellen
• Spezifische Standardspeicherorte für Projekte festlegen
• Indizierung von Datentypen
• Oberflächenansicht individuell anpassen
• Kommentare und Hinweise in Textform hinzufügen
• Arbeitsblätter und Projekte speichern und schließen
02 ZEITREIHENANALYSE
In der 2. Trainingseinheit begleiten wir das Team des Qualitätsmanagements der Smartboard AG und werden erleben, wie mithilfe einer Zeitreihenanalyse die Schrottquote der letzten Geschäftsjahre Schritt für Schritt analysiert wird. Wir werden in diesem Zusammenhang erleben, wie die Datenaufbereitung und -analyse am Beispiel einer Zeitreihenanalyse durchgeführt wird und die unterschiedlichen Typen von Zeitreihendiagrammen kennenlernen. Wir werden die nützliche Funktion Zeitstempel kennenlernen und wie wir Teilmengen aus einem Arbeitsblatt extrahieren können. Mit der sogenannten nützlichen Pinselfunktion werden wir wissen, wie wir im Bearbeitungsmodus einer Grafik gezielt einzelne Datencluster analysieren können. Im Rahmen unserer Datenaufbereitung wird die nützliche Kalenderfunktion ebenfalls Thema sein. Wir werden auch verstehen, was sogenannte Identifikationsvariablen sind und welchen Nutzen diese für unsere Datenanalyse haben. Wir werden erleben, wie wir zum Beispiel für eine Teambesprechung unsere Analyseergebnissen mit wenig Aufwand nach PowerPoint oder Word exportieren können.
Themenschwerpunkte:
Zeitreihenanalyse, Grundlagen
Zeilen und Spaltenkapazität von Minitab-Arbeitsblättern
Import-Vorschaufenster interpretieren
Dateinamen aktualisieren
Datumsangaben extrahieren
Aufbau und Struktur von Zeitreihendiagrammen
Arbeiten mit dem Zeitstempel
Extrahieren von Daten
Teilmenge von Arbeitsblättern bilden
Wochentage aus Datumsangaben extrahieren
Hervorheben von Datenpunkten im Bearbeitungsmodus einer Grafik
Untersuchung von Datencluster mithilfe der Pinselfunktion
Festlegen von Identifikationsvariablen
Export von Minitab-Analyseergebnissen nach MS Office Anwendungen
03 BOXPLOT-ANALYSE
In der 3. Trainingseinheit begleiten wir das Qualitätsverbesserungsprojekt der Smartboard AG, um die Schrottquote der letzten Geschäftsjahre mithilfe einer Boxplot- Analyse zu untersuchen. Wir werden erleben, wie das Team hiermit unterschiedliche Datengruppen vergleicht, um zum Beispiel herauszufinden, ob an bestimmten Produktionstagen mehr oder weniger Schrottmengen angefallen sind als an den übrigen Produktionstagen. In diesem Zusammenhang werden wir lernen, was ein Boxplot ist, wie er prinzipiell aufgebaut ist und welche nützlichen Informationen dieses Werkzeug bereitstellt. Wir werden hierbei sehen, dass der besondere Vorteil einer Boxplot- Analyse darin liegt, dass wir durch diese grafische Darstellungsform sehr übersichtlich die Lage- und Streuparameter wie Median, arithmetische Mittelwerte sowie Minimum-/ Maximum-Werte unterschiedlicher Datensätze kompakt und übersichtlich miteinander vergleichen können. Auch werden wir lernen, zusätzliche Informationselemente in die Datenanzeige einzubauen, einen Hypothesentest auf Datenausreißer durchzuführen und ein Einzelwertediagramm zu erstellen und zu interpretieren. Auch die insbesondere im Tagesgeschäft sehr nützliche Automatisierung von wiederkehrenden Analysen mithilfe von sogenannten Makros wird vorgestellt werden. Abschließend erzeugen wir eine personalisierte Schaltfläche in der Menüleiste, um im turbulenten Tagesgeschäft mit einem einfachen Klick täglich wiederkehrende Analyseroutinen- zum Beispiel für den täglichen Qualitätsbericht- zeitsparend durchzuführen.
Themenschwerpunkte:
Boxplot-Analyse, Grundlagen
Prinzipieller Aufbau und Interpretation von Boxplots
Quartile, Mediane und arithmetische Mittelwerte in Boxplots
Darstellung von Datenausreißern im Boxplot
Boxplots für einen geraden Datensatz
Boxplots für einen ungeraden Datensatz
Boxplot- Typen im Vergleich
Boxplot erzeugen und interpretieren
Arbeiten im Boxplot-Bearbeitungsmodus
Hypothesentest auf Ausreißer nach Grubbs
Einzelwertediagramm erzeugen und interpretieren
Automatisierung von Analysen mithilfe von Makros
Erzeugen einer individuellen Schaltfläche im Menüband
04 PARETO-ANALYSE
In der 4. Trainingseinheit werden wir erleben, wie das Qualitätsteam der Smartboard AG mithilfe einer Pareto- Analyse ihre Lieferperformance untersucht. Hierbei werden wir zunächst einmal verstehen, wie ein Pareto- Diagramm grundsätzlich aufgebaut ist und welche Informationen es uns bereitstellt. Im Rahmen unserer Pareto- Analyse werden wir dann eine Reihe weiterer nützlicher Möglichkeiten kennenlernen, um zum Beispiel Streu- und Lageparameter schnell abrufen zu können oder wie wir mithilfe der Rechnerfunktion Rechenoperationen durchführen können. Wir werden lernen, wie ein Tortendiagramm und ein Histogramm erzeugt werden kann und zum Beispiel auch verstehen, wie die Klassenbildung im Histogramm berechnet wird. Im Rahmen der Pareto- Analyse werden wir zur Erstellung des Pareto Diagramms auch lernen, stetig skalierte Daten in kategoriale Wertebereiche zuzuweisen und wie wir diese Wertebereiche individuell kodieren können. Neben der nützlichen sogenannten Übersichtstabelle werden wir auch die Datenextraktion mithilfe entsprechender Funktionsbefehle kennenlernen.
Themenschwerpunkte:
Pareto-Analyse
Abrufen und Interpretieren von Arbeitsblattinformationen
Arbeiten mit der Rechnerfunktion
Darstellung von fehlenden Werten im Datensatz
Abrufen von Lage- und Streuparameter mithilfe der deskriptiven Statistik
Histogrammtypen im Vergleich
Histogramm und Tortendiagramm erzeugen und interpretieren
Berechnung der Balkenanzahl und-Breite im Histogramm
Pareto Diagramm erzeugen und interpretieren
Erzeugen spezifischer Wertebereiche im Pareto Diagramm
Neukodierung von stetig skalierten Pareto-Wertebereichen in kategoriale Wertebereiche
gezielte Extraktion von Einzelinformationen aus Datenzellen
Erzeugung von Pareto Diagrammen auf Basis unterschiedlicher kategorialer Variablen
05 t-TEST 1 STICHPROBE
In der 5. Trainingseinheit begleiten wir die Wärmebehandlung und werden erleben, wie mithilfe des Hypothesentests t-Test eine Stichprobe herausgefunden werden kann, ob der Wärmebehandlungsprozess so eingestellt ist, dass die Skateboardachsen die geforderte Druckfestigkeiten erreichen. Um diese zu erreichen, durchlaufen die Skateboardachsen einen mehrstufigen Wärmebehandlungsprozess. Unsere Aufgabe in dieser Trainingseinheit besteht darin, anhand von Stichprobendaten und dem Hypothesentest t-Test für eine Stichprobe eine zuverlässige Handlungsempfehlung an die Produktionsleitung abzugeben, ob der aktuelle Wärmebehandlungsprozess ausreichend gut eingestellt ist. Oder ob der aktuell laufende Prozess eventuell sogar gestoppt und optimiert werden müsste, falls unser Hypothesentest aufzeigt, dass der geforderte mittlere Sollwert nicht erreicht wird. Im Kern dieser Trainingseinheit werden wir erleben, wie ein Hypothesentest eine Stichprobe ordnungsgemäß durchgeführt wird und vorab durch mittels Prüfung sicherstellen, ob unser Datensatz den Gesetzen der Normalverteilung folgt. Mithilfe einer sogenannten Trennschärfeanalyse werden wir herausarbeiten, ob der vorliegende Stichprobenumfang ausreichend groß genug ist. Anhand der Dichtefunktion und Wahrscheinlichkeitsverteilungen werden wir lernen, wie der t-Wert im t-Test einzuordnen ist und auch verstehen, welche Fehlentscheidung im Rahmen eines Hypothesentests möglich sind. Mithilfe entsprechender Einzelwertdiagramme entwickelt sich ein Verständnis dafür, wie das Konfidenzintervall im Rahmen des ein Stichproben t-Testes einzuordnen ist.
Themenschwerpunkte 05, Teil 1:
t-Test, eine Stichprobe, Grundlagen
Abrufen und Interpretation von Arbeitsblattinformationen
Abrufen und Interpretation der deskriptiven Statistik
Die Trennschärfe „Power“ eines Hypothesentests
Anderson- Darling- Test als Vorstufe zum t-Test
Herleitung des Wahrscheinlichkeitsnetzes auf Basis der Dichtefunktion
Interpretation des Wahrscheinlichkeitsnetzes
Durchführung des Hypothesentests t-Test für den Mittelwert, 1 Stichprobe
Aufstellen der Nullhypothese und Alternativhypothese
Test auf Normalverteilung nach Anderson-Darling
Das Wahrscheinlichkeitsnetz der Normalverteilung
Themenschwerpunkte 05, Teil 2:
Erzeugung und Interpretation von Einzelwertediagrammen im Rahmen des t-Tests
Konfidenzniveau und Irrtumswahrscheinlichkeit
Testprüfgröße und Signifikanzwert
Fehler 1. Art und Fehler 2. Art im Rahmen der Hypothesenentscheidung
Themenschwerpunkte 05, Teil 3:
Trennschärfenanalyse und Stichprobenumfang im Rahmen des t-Tests
Einfluss des Stichprobenumfangs auf das Hypothesenergebnis
Grafische Konstruktion der Wahrscheinlichkeitsverteilung
Interpretation der Trennschärfekurve
Bestimmung des Stichprobenumfangs auf Basis der Trennschärfengüte
Einfluss unterschiedlicher Stichprobenumfänge auf die Hypothesenentscheidung
06 EINFACHE VARIANZANALYSE (ANOVA)
In der 06. Trainingseinheit geht es um die von der Smartboard AG verwendeten Kugellager für die Skateboardrollen. Ein wichtiges Kriterium für die Passform ist der Außendurchmesser der Kugellager. Die Smartboard AG vergleicht hierfür drei neue Kugellagerlieferanten. Im Fokus dieser Trainingseinheit steht die Fragestellung, ob sich die Kugellager-Außendurchmesser der drei Lieferanten voneinander signifikant unterscheiden. Wir werden sehen, dass die Besonderheit in dieser Aufgabenstellung darin liegt, dass wir es nun mit mehr als zwei Prozessen bzw. mit mehr als zwei Stichprobenmittelwerten zu tun haben und somit auch die bisher kennengelernten Hypothesentests nicht weiterhelfen werden. Vor dem Einstieg in die eigentliche Varianzanalyse – häufig abgekürzt mit dem Akronym ANOVA – werden wir uns zunächst mithilfe der deskriptiven Statistik einen Überblick über die Lage- und Streuparameter unserer drei Lieferanten-Datensätze verschaffen. Vor dem Einstieg in die eigentliche Varianzanalyse muss noch eine Trennschärfeanalyse durchgeführt werden, um den angemessenen Stichprobenumfang zu bestimmen. Um das Prinzip der Varianzanalyse zu verstehen, werden wir aus didaktischen Gründen zunächst einmal an einem allgemein kleinen Datensatz die relativ komplexe Varianzanalyse Schritt für Schritt näher kennenlernen und werden dann mit diesen Vorarbeiten und Informationen in die sogenannte einfaktorielle Varianzanalyse einsteigen, die im Tagesgeschäft häufig auch nur „einfache Varianzanalyse“ bezeichnet wird, so dass wir über diesen Analyseansatz die entsprechenden Streuanteile bestimmen, die die jeweilige Gesamtstreuung ausmachen. Das Verhältnis dieser Streuanteile werden wir mit dem sogenannten Streuverhältnis-Verteilungs-Diagramm genauer anschauen, das, in Anlehnung an seinen Entwickler Fisher, als F- Verteilung bezeichnet wird. Wir lernen, auf Basis der F-Verteilung die Wahrscheinlichkeit für das Auftreten eines Streuverhältnisses, einfach F- Wert genannt, in Form eines p-Wertes ermitteln zu können. Zum besseren Verständnis werden wir auch über den grafischen Weg den p-Wert zum jeweiligen F-Wert herleiten. Im letzten Schritt wird mittels der zugehörigen Hypothesentests ordnungsgemäß ermittelt, ob signifikante Unterschiede zwischen den Kugellagerlieferanten vorliegen. Interessant und sehr nützlich im Rahmen dieser einfaktoriellen Varianzanalyse werden dann die mithilfe des Vergleichstests nach Fisher erzeugten sogenannten Gruppierungsbuchstaben, die uns im Tagesgeschäft immer sehr schnell helfen werden zu erkennen, welche Kugellagerhersteller sich signifikant voneinander unterscheiden.
Themenschwerpunkte:
Aufstellung der Hypothesentests im Rahmen der einfaktoriellen ANOVA
Kor(SS)- und Kor(MS) – Werte im Rahmen der einfaktoriellen ANOVA
Herleitung des F-Wertes im Rahmen der einfaktoriellen ANOVA
Herleitung der F-Verteilung im Rahmen der einfaktoriellen ANOVA
Fehlerbalkendiagramm im Rahmen der einfaktoriellen ANOVA
Paardifferenztest nach Fisher
Gruppierungsinformationen anhand der Fisher Grenzdifferenz
Individuelle Fisher-Tests für Mittelwertdifferenzen.
07 EINFACHE KORRELATION UND REGRESSION
In der 07. Trainingseinheit besuchen wir die Wärmebehandlung der Smartboard AG. Hier werden die Skateboardachsen einer Wärmebehandlung unterzogen, um die vom Kunden geforderte Materialfestigkeit zu erreichen. Einen Einfluss auf die Materialfestigkeit hat neben den Wärmebehandlungsparametern auch der Kupferanteil in den Skateboardachsen. Vor diesem Hintergrund soll in dieser Trainingseinheit auf Basis von vorhandenen historischen Prozessdaten der Zusammenhang zwischen Kupferanteil und Materialfestigkeit untersucht werden. Hierfür werden wir zunächst mithilfe einer einfachen Korrelationsanalyse untersuchen, ob eine wechselseitige Beziehung zwischen der Höhe des Kupferanteils im Material und der Materialfestigkeit nachzuweisen ist. Sollte das der Fall sein, werden wir mit einer einfachen Regressionsanalyse zeigen, welcher Kupferanteil schlussendlich erforderlich ist, um die vom Kunden gewünschte Materialfestigkeit zu erreichen. Im Rahmen unserer Korrelationsanalyse werden wir den wichtigen Korrelationsfaktor nach Pearson kennenlernen, um eine quantitative Aussage darüber zu erhalten, ob die entsprechenden Einflussfaktoren schwach, stark, oder gar nicht miteinander korrelieren. In diesem Zusammenhang werden wir das Grundprinzip der Korrelationsanalyse auf Basis der „Methode der kleinsten Fehlerquadrate“ ausführlich erlernen, indem wir anhand eines vereinfachten Datensatzes eine vollständige Korrelationsanalyse Schritt für Schritt aktiv durchrechnen, um zu verstehen, wie die Ergebnisse im Ausgabefenster entstanden sind. Final können wir mit einer einfachen Regressionsanalyse unsere technische Problemstellung mit einer mathematischen Regressionsgleichung beschreiben, um zukünftige Materialfestigkeiten in Abhängigkeit des Einflussfaktors Kupferanteil mit einer hohen Prognosegüte vorhersagen zu können.
Themenschwerpunkte:
Korrelationsanalyse nach Pearson
Korrelationsmatrix
Tabelle der „paarweisen Korrelationen“
Hypothesentest zur paarweisen Korrelation nach Pearson
Arbeiten mit „Zeichentools“ im Rahmen des Matrixplots
Regressionsanalyse
Regressionsmodell anpassen
Methode der kleinsten Fehlerquadrate
Darstellung der Anpassungslinie
Residuenanalyse im Rahmen der Regression
Konfidenzintervalle und Prognoseintervalle
Antwortvariable anhand des Regressionsmodells prognostizieren
08 GEKREUZTE MSA
In der 08. Trainingseinheit betrachten wir die Endmontage der Smartboard AG und werden das Qualitätsteam dabei begleiten, wie es eine sogenannte gekreuzte Messsystemanalyse durchführt. Vorab werden wir im ersten Teil unserer mehrteiligen Trainingseinheit in die Grundlagen einarbeiten, um die wichtigsten Definitionen, wie zum Beispiel Messgenauigkeit, Wiederhol- und Vergleichspräzision oder auch Linearität, Stabilität und Auflösevermögen zu verstehen. Gut gerüstet mit den Grundlagen werden wir dann im zweiten Teil in die praktische Umsetzung der gekreuzten Messsystemanalyse einsteigen und bei der Gelegenheit auch den Unterschied zwischen einer gekreuzten und geschachtelten Messsystemanalyse kennenlernen. Wir werden erfahren, dass es grundsätzlich zwei mathematische Ansätze gibt, um die gekreuzte Messsystemanalyse durchzuführen: Zum einen die ARM- Methode und zum anderen die ANOVA- Methode. Um beide Methoden besser zu verstehen, werden wir im zweiten Teil dieser Trainingseinheit unsere gekreuzte Messsystemanalyse zunächst anhand der ARM- Methode durchführen und zum Vergleich im dritten Teil dieser Trainingseinheit auf Basis desselben Datensatzes eine gekreuzte Messsystemanalyse anhand der ANOVA- Methode durchführen. Hierbei werden wir beide Methoden ausführlich manuell Schritt für Schritt aktiv berechnen und die entsprechenden Messsystemkenngrößen herleiten, um zu verstehen, wie die Ergebnisse im Ausgabefenster erzeugt wurden.
Themenschwerpunkte 08, Teil 1:
Nationale und internationale MSA Normregelwerke im Vergleich
Prozessvariation versus Messsystemvariation
Messgenauigkeit
Wiederhol- und Vergleichspräzision
Linearität, Stabilität, Bias
Ansprechschwelle, Toleranzauflösung
Themenschwerpunkte 08, Teil 2:
ARM- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse
Unterschied zwischen gekreuzter, geschachtelter und erweiterter MSA
Manuelle Herleitung aller Streukomponenten gemäß ARM- Methode
Manuelle Herleitung der Toleranzauflösung auf Basis des ndc- Parameters
Balkendiagramm, Streukomponenten
Prüferbezogene R-Karten-Analyse
Manuelle Herleitung der Eingriffsgrenzen in der R-Karte
Prüferbezogene X-quer-Karten-Analyse
Manuelle Herleitung der Eingriffsgrenzen in der X-quer-Karte
Einzelwertediagramm zur Analyse der Datenstreuung
Prüferabhängige Boxplot- Analyse
Arbeiten mit der Markierungspalette im Bericht der Messsystemanalyse
Arbeiten mit Identifikationsvariablen im Bericht der Messsystemanalyse
Themenschwerpunkte 08, Teil 3:
ANOVA- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse
2-fache ANOVA-Tabelle mit Wechselwirkungen
Manuelle Herleitung aller Streukomponenten gemäß ANOVA- Methode
Manuelle Herleitung der Toleranzauflösung auf Basis des ndc-Parameters
Hypothesentest im Rahmen der ANOVA-Methode
Hypothesentest bezüglich Wechselwirkungseffekte
09 ANALYSE DER PROZESSSTABILITÄT
In der dreiteiligen 09. Trainingseinheit befinden wir uns in der Druckgussfertigung der Smartboard AG. Hier werden über zwei Druckgussanlagen die Skateboardachsen hergestellt. Das zentrale Qualitätsmerkmal der Skateboardachsen ist hierbei die Achsenfestigkeit. Die Kunden der Smartboard AG fordern eine mittlere Achsenfestigkeit von 400 Megapascal plus/minus fünf Megapascal. Im Rahmen dieser Trainingseinheit werden wir das Qualitätsteam der Smartboard AG begleiten und erleben, wie mithilfe entsprechender Qualitätsregelkarten analysiert wird, ob der Druckgussprozess im Sinne der Kundenspezifikation und AIAG-Norm als stabiler Prozess eingestuft werden kann. Wir werden sehen, wie sich das Qualitätsteam vor der eigentlichen Prozessstabilitätsanalyse zunächst mithilfe der deskriptiven Statistik einen ersten Eindruck über die mittlere Prozesslage und Prozessstreuung verschafft und anschließend mit entsprechenden Qualitätsregelkarten die Güte der Prozessstabilität auswertet. Wir werden hierbei lernen, dass je nach Skalenniveau und Teilgruppengröße unterschiedliche Arten von Qualitätsregelkarten zum Einsatz kommen. Wir werden uns in diesem Zusammenhang zunächst mittels eines einfachen Datensatzes mit dem Streuverhalten von Einzelwerten und Mittelwerten beschäftigen, um den sogenannten statistischen Parameter Standardfehler besser zu verstehen. Wir werden die Qualitätsregelkarten Einzelwert-Karte, auch I- Karte bezeichnet, die Mittelwertkarte x-quer und die Standardabweichungs-Karte, s-quer- Karte bezeichnet, kennenlernen. Hierfür werden wir aus didaktischen Gründen zum besseren Verständnis auch die jeweiligen oberen und unteren Eingriffsgrenzen in den Qualitätsregelkarten Schritt für Schritt manuell berechnen und mit den Ergebnissen im Ausgabefenster vergleichen. Bei der Gelegenheit werden wir auch die Spannweitenkarte R- Karte einsetzen und auch hierfür die entsprechenden Eingriffsgrenzen manuell herleiten. Wir werden dann die in der Industrie etablierten acht wichtigsten Kontrolltests ausführlich erlernen, die uns in Anlehnung an die AIAG Normregelwerke helfen können, eventuelle Prozessinstabilitäten aufzudecken. Wir erleben, dass bei einer falschen Wahl einer Qualitätsregelkarte immer die Gefahr besteht, dass die Kontrolltests weniger sensibel auf vorhandene Prozessinstabilitäten reagieren und in diesem Zusammenhang auch erfahren, wie ein Gesamtprozess in zwei Teilprozesse aufgeteilt werden kann, in dem wir die nützliche Funktion „Teilmenge des Arbeitsblattes bilden“ einsetzen. Mit dem bis dahin erlernten Wissen werden wir die Qualitätsregelkarte mit der Bezeichnung Gleitende Spannweite, im allgemeinen als MR-Karte bezeichnet, kennenlernen und erfahren, dass die sogenannte kombinierte I/MR- Karte immer dann sehr nützlich wird, wenn Einzelwerte miteinander verglichen werden sollen, die nicht in Teilgruppen zusammengefasst vorliegen.
Themenschwerpunkte 09, Teil 1:
Einschätzung der Datenlandschaft mithilfe der deskriptiven Statistik
Prozessstabilität versus Prozessfähigkeit
Aufbau von Qualitätsregelkarten am Beispiel I-Karte und X-quer-Karte
Prozessinstabilitäten mithilfe von Tests auf Ausnahmebedingungen identifizieren
Themenschwerpunkte 09, Teil 2:
Prozessanalyse mithilfe der kombinierten X-quer/ R- Karte
Identifikation von Prozessinstabilitäten mithilfe der Kontrolltests gemäß AIAG
Manuelle Herleitung der Eingriffsgrenzen in der S- Karte
Manuelle Herleitung der Eingriffsgrenzen in der X- quer- Karte
Manuelle Herleitung der Eingriffsgrenzen in der R- Karte
Anlagenbezogene Prozessanalyse durch Teilmengenbildung
Einbindung von Kundenspezifikationsgrenzen und Prozess- Sollwerten
Arbeiten mit dem Zeitstempel in Qualitätsregelkarten
Aufteilung eines Gesamtprozesses in mehrere Teilprozesse
Ausrichtung der Skalenbeschriftungen in Qualitätsregelkarten
Themenschwerpunkte 09, Teil 3:
Einzelwertkarte I- Karte
Gleitende Spannweitenkarte MR- Karte
Herleitung der Eingriffsgrenzen in der MR- Karte
Herleitung der Eingriffsgrenzen in der I- Karte
10 ANALYZE DER PROZESSFÄHIGKEIT
In der dreiteiligen 10. Trainingseinheit begleiten wir das Qualitätsteam der Smartboard AG, wie im Rahmen eines Qualitätsverbesserungsprozesses die Prozessfähigkeit des Druckgussprozesses für die Herstellung der Skateboardachsen analysiert wird. Bevor wir in die eigentliche Prozessfähigkeitsanalyse einsteigen, werden wir zunächst sehen, welche Arbeitsschritte im Vorfeld dazu erforderlich sind. Wir werden erleben, wie das Qualitätsteam hierfür mithilfe des Wahrscheinlichkeitsnetzes und dem zugehörigen Anderson- Darling- Test erarbeitet, ob der für die Prozessfähigkeit vorliegende Stichprobendatensatz den Gesetzen der Normalverteilung folgt. Wir lernen, wie mit entsprechenden Qualitätsregelkarten überprüft werden kann, ob der Druckgussprozess die nötige Prozessstabilität im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse bereitstellt. Im Kern dieser Trainingseinheit wird es darum gehen, im Rahmen der Prozessfähigkeitsanalyse alle relevanten Fähigkeitskennzahlen kennenzulernen, die sich zum einen auf die Gesamtprozessfähigkeit und zum anderen auf die potentielle Prozessfähigkeit beziehen. Hierbei werden wir insbesondere die zentralen Fähigkeitskennzahlen CP, CPK, PP oder PKK kennenlernen, aber auch den sogenannten Taguchi- Capability- Index CPM erarbeiten, der zu den sogenannten Fähigkeitskennzahlen der zweiten Generation gehört. Wir werden anhand einfacher Rechenbeispiele die wichtigsten Kennzahlen Schritt für Schritt auch manuell berechnen, um zu verstehen, wie Fähigkeitskennzahlen, die im Ausgabefenster dargestellt werden, überhaupt zustande gekommen sind. Und auch verstehen, was die sogenannte Leistungskennzahl z-Benchmark bedeutet und wie diese mit dem Sigma Level zusammenhängt. Anhand weiterer Leistungskennzahlen wie zum Beispiel beobachtete Leistung oder erwartete Leistung werden wir dann auch in der Lage sein, die Prozessfähigkeit sowohl innerhalb wie auch zwischen den Teilgruppen zu beurteilen. Wir werden die sehr nützliche Funktion Capability Six Pack kennenlernen, die uns insbesondere im turbulenten Tagesgeschäft sehr schnell helfen wird, alle erforderlichen Analysen, die auch im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse erforderlich sind, mit wenigen Schritten zu berechnen. Anhand des erlernten Wissens und der vorliegenden Analyseergebnisse werden wir dann in der Lage sein, die Prozessfähigkeit unseres Druckgussprozesses differenziert zu beurteilen und so entsprechende Handlungsmaßnahmen abzuleiten, um die Prozessfähigkeit zu verbessern. Nach der Umsetzung der Verbesserungsmaßnahmen werden wir final eine erneute Prozessfähigkeitsanalyse durchführen und anhand der Fähigkeitskennzahlen den verbesserten Prozess mit dem ursprünglichen noch nicht verbesserten Prozess ausführlich vergleichen.
Themenschwerpunkte 10, Teil 1:
Grundlagen der Normregelwerke bezüglich Prozessfähigkeit
Grundprinzip und Logik der Prozessfähigkeitsdefinition
Prozessausbeute versus Prozessfähigkeit
Prozessfähigkeitsindizes: PP, PPL, PPU, PPk
Prozessfähigkeit bei zentrierten Prozessen
Prozessfähigkeit bei nicht zentrierten Prozessen
Themenschwerpunkte 10, Teil 2:
Vorarbeiten zur Prozessfähigkeitsanalyse:
Deskriptive Statistik
Test auf Normalverteilung: Anderson-Darling Test
Herleitung des Wahrscheinlichkeitsnetzes aus der Wahrscheinlichkeitsfunktion
Prozessstabilitätsanalyse: X-quer und R-Karte
Schätzmethoden zur Ermittlung der Standardabweichung
Kennzahlen der Gesamtprozessfähigkeit
Kennzahlen der potentiellen Prozessfähigkeit
Gesamtstandardabweichung vs. Standardabweichung innerhalb der Teilgruppen
Sigma Level vs. Prozessfähigkeitslevel
Beobachtete Leistung, erwartete Leistung gesamt, erwartete Leistung innerhalb
Manuelle Bestimmung der Standardabweichung für die potentielle Prozessfähigkeit
Themenschwerpunkte 10, Teil 3:
Manuelle Herleitung der Leistungskennzahlen
Manuelle Herleitung der Standardabweichung innerhalb der R-quer- Methode
Manuelle Herleitung der „zusammengefassten Standardabweichung“
Benchmark-Z (Sigma-Niveau)
Arbeiten mit dem Punktediagramm im Rahmen einer Prozessfähigkeitsanalyse
Extraktion von Dateninformationen im Rahmen einer Prozessfähigkeitsanalyse
Arbeiten mit der Option „Capability Six Pack“
Der Minitab® Expert Kurs richtet sich an Prozessoptimierer:innen aller Funktionsbereiche und insbesondere an Six Sigma Belts. Die Schulungsinhalte wurden unter der Leitung von Prof. Mola entwickelt und basieren auf seinen AQAS und ISO 13053 akkreditierten Six Sigma Hochschulmodulen in den Studiengängen Maschinenbau und Technisches Produktionsmanagement.
01 BENUTZEROBERFLÄCHE VON MINITAB®
Bevor wir in die eigentlichen Analysemethodiken einsteigen, werden wir in der ersten Trainingseinheit uns zunächst einmal mit der Benutzeroberfläche von Minitab® vertraut machen und erleben, wie wir Minitab® fremde Dateitypen importieren, exportieren und auch sicher abspeichern können. Nachdem wir die Oberflächenbereiche wie zum Beispiel Navigation, Ausgabe und Verlauf kennengelernt haben, werden wir uns anhand eines typischen Minitab® Datensatzes anschauen, wie ein typisches Minitab® Projekt aufgebaut sein kann. Auch werden wir uns die Struktur der Arbeitsblätter genauer anschauen und lernen, wie Daten-Arbeitsblätter strukturell aufgebaut sind und verstehen, wie unterschiedlich Datentypen in den Arbeitsblättern indiziert werden. Wir erlernen auch, wie wir eigene Kommentare und Texthinweise in die Arbeitsblätter integrieren können.
Themenschwerpunkte:
• Arbeiten im Navigations-, Ausgabe- und Verlaufsfenster
• Datenimport aus unterschiedlichen Quellen
• Spezifische Standardspeicherorte für Projekte festlegen
• Indizierung von Datentypen
• Oberflächenansicht individuell anpassen
• Kommentare und Hinweise in Textform hinzufügen
• Arbeitsblätter und Projekte speichern und schließen
02 ZEITREIHENANALYSE
In der 2. Trainingseinheit begleiten wir das Team des Qualitätsmanagements der Smartboard AG und werden erleben, wie mithilfe einer Zeitreihenanalyse die Schrottquote der letzten Geschäftsjahre Schritt für Schritt analysiert wird. Wir werden in diesem Zusammenhang erleben, wie die Datenaufbereitung und -analyse am Beispiel einer Zeitreihenanalyse durchgeführt wird und die unterschiedlichen Typen von Zeitreihendiagrammen kennenlernen. Wir werden die nützliche Funktion Zeitstempel kennenlernen und wie wir Teilmengen aus einem Arbeitsblatt extrahieren können. Mit der sogenannten nützlichen Pinselfunktion werden wir wissen, wie wir im Bearbeitungsmodus einer Grafik gezielt einzelne Datencluster analysieren können. Im Rahmen unserer Datenaufbereitung wird die nützliche Kalenderfunktion ebenfalls Thema sein. Wir werden auch verstehen, was sogenannte Identifikationsvariablen sind und welchen Nutzen diese für unsere Datenanalyse haben. Wir werden erleben, wie wir zum Beispiel für eine Teambesprechung unsere Analyseergebnissen mit wenig Aufwand nach PowerPoint oder Word exportieren können.
Themenschwerpunkte:
Zeitreihenanalyse, Grundlagen
Zeilen und Spaltenkapazität von Minitab-Arbeitsblättern
Import-Vorschaufenster interpretieren
Dateinamen aktualisieren
Datumsangaben extrahieren
Aufbau und Struktur von Zeitreihendiagrammen
Arbeiten mit dem Zeitstempel
Extrahieren von Daten
Teilmenge von Arbeitsblättern bilden
Wochentage aus Datumsangaben extrahieren
Hervorheben von Datenpunkten im Bearbeitungsmodus einer Grafik
Untersuchung von Datencluster mithilfe der Pinselfunktion
Festlegen von Identifikationsvariablen
Export von Minitab-Analyseergebnissen nach MS Office Anwendungen
03 BOXPLOT-ANALYSE
In der 3. Trainingseinheit begleiten wir das Qualitätsverbesserungsprojekt der Smartboard AG, um die Schrottquote der letzten Geschäftsjahre mithilfe einer Boxplot- Analyse zu untersuchen. Wir werden erleben, wie das Team hiermit unterschiedliche Datengruppen vergleicht, um zum Beispiel herauszufinden, ob an bestimmten Produktionstagen mehr oder weniger Schrottmengen angefallen sind als an den übrigen Produktionstagen. In diesem Zusammenhang werden wir lernen, was ein Boxplot ist, wie er prinzipiell aufgebaut ist und welche nützlichen Informationen dieses Werkzeug bereitstellt. Wir werden hierbei sehen, dass der besondere Vorteil einer Boxplot- Analyse darin liegt, dass wir durch diese grafische Darstellungsform sehr übersichtlich die Lage- und Streuparameter wie Median, arithmetische Mittelwerte sowie Minimum-/ Maximum-Werte unterschiedlicher Datensätze kompakt und übersichtlich miteinander vergleichen können. Auch werden wir lernen, zusätzliche Informationselemente in die Datenanzeige einzubauen, einen Hypothesentest auf Datenausreißer durchzuführen und ein Einzelwertediagramm zu erstellen und zu interpretieren. Auch die insbesondere im Tagesgeschäft sehr nützliche Automatisierung von wiederkehrenden Analysen mithilfe von sogenannten Makros wird vorgestellt werden. Abschließend erzeugen wir eine personalisierte Schaltfläche in der Menüleiste, um im turbulenten Tagesgeschäft mit einem einfachen Klick täglich wiederkehrende Analyseroutinen- zum Beispiel für den täglichen Qualitätsbericht- zeitsparend durchzuführen.
Themenschwerpunkte:
Boxplot-Analyse, Grundlagen
Prinzipieller Aufbau und Interpretation von Boxplots
Quartile, Mediane und arithmetische Mittelwerte in Boxplots
Darstellung von Datenausreißern im Boxplot
Boxplots für einen geraden Datensatz
Boxplots für einen ungeraden Datensatz
Boxplot- Typen im Vergleich
Boxplot erzeugen und interpretieren
Arbeiten im Boxplot-Bearbeitungsmodus
Hypothesentest auf Ausreißer nach Grubbs
Einzelwertediagramm erzeugen und interpretieren
Automatisierung von Analysen mithilfe von Makros
Erzeugen einer individuellen Schaltfläche im Menüband
04 PARETO-ANALYSE
In der 4. Trainingseinheit werden wir erleben, wie das Qualitätsteam der Smartboard AG mithilfe einer Pareto- Analyse ihre Lieferperformance untersucht. Hierbei werden wir zunächst einmal verstehen, wie ein Pareto- Diagramm grundsätzlich aufgebaut ist und welche Informationen es uns bereitstellt. Im Rahmen unserer Pareto- Analyse werden wir dann eine Reihe weiterer nützlicher Möglichkeiten kennenlernen, um zum Beispiel Streu- und Lageparameter schnell abrufen zu können oder wie wir mithilfe der Rechnerfunktion Rechenoperationen durchführen können. Wir werden lernen, wie ein Tortendiagramm und ein Histogramm erzeugt werden kann und zum Beispiel auch verstehen, wie die Klassenbildung im Histogramm berechnet wird. Im Rahmen der Pareto- Analyse werden wir zur Erstellung des Pareto Diagramms auch lernen, stetig skalierte Daten in kategoriale Wertebereiche zuzuweisen und wie wir diese Wertebereiche individuell kodieren können. Neben der nützlichen sogenannten Übersichtstabelle werden wir auch die Datenextraktion mithilfe entsprechender Funktionsbefehle kennenlernen.
Themenschwerpunkte:
Pareto-Analyse
Abrufen und Interpretieren von Arbeitsblattinformationen
Arbeiten mit der Rechnerfunktion
Darstellung von fehlenden Werten im Datensatz
Abrufen von Lage- und Streuparameter mithilfe der deskriptiven Statistik
Histogrammtypen im Vergleich
Histogramm und Tortendiagramm erzeugen und interpretieren
Berechnung der Balkenanzahl und-Breite im Histogramm
Pareto Diagramm erzeugen und interpretieren
Erzeugen spezifischer Wertebereiche im Pareto Diagramm
Neukodierung von stetig skalierten Pareto-Wertebereichen in kategoriale Wertebereiche
gezielte Extraktion von Einzelinformationen aus Datenzellen
Erzeugung von Pareto Diagrammen auf Basis unterschiedlicher kategorialer Variablen
05 t-TEST 1 STICHPROBE
In der 5. Trainingseinheit begleiten wir die Wärmebehandlung und werden erleben, wie mithilfe des Hypothesentests t-Test eine Stichprobe herausgefunden werden kann, ob der Wärmebehandlungsprozess so eingestellt ist, dass die Skateboardachsen die geforderte Druckfestigkeiten erreichen. Um diese zu erreichen, durchlaufen die Skateboardachsen einen mehrstufigen Wärmebehandlungsprozess. Unsere Aufgabe in dieser Trainingseinheit besteht darin, anhand von Stichprobendaten und dem Hypothesentest t-Test für eine Stichprobe eine zuverlässige Handlungsempfehlung an die Produktionsleitung abzugeben, ob der aktuelle Wärmebehandlungsprozess ausreichend gut eingestellt ist. Oder ob der aktuell laufende Prozess eventuell sogar gestoppt und optimiert werden müsste, falls unser Hypothesentest aufzeigt, dass der geforderte mittlere Sollwert nicht erreicht wird. Im Kern dieser Trainingseinheit werden wir erleben, wie ein Hypothesentest eine Stichprobe ordnungsgemäß durchgeführt wird und vorab durch mittels Prüfung sicherstellen, ob unser Datensatz den Gesetzen der Normalverteilung folgt. Mithilfe einer sogenannten Trennschärfeanalyse werden wir herausarbeiten, ob der vorliegende Stichprobenumfang ausreichend groß genug ist. Anhand der Dichtefunktion und Wahrscheinlichkeitsverteilungen werden wir lernen, wie der t-Wert im t-Test einzuordnen ist und auch verstehen, welche Fehlentscheidung im Rahmen eines Hypothesentests möglich sind. Mithilfe entsprechender Einzelwertdiagramme entwickelt sich ein Verständnis dafür, wie das Konfidenzintervall im Rahmen des ein Stichproben t-Testes einzuordnen ist.
Themenschwerpunkte 05, Teil 1:
t-Test, eine Stichprobe, Grundlagen
Abrufen und Interpretation von Arbeitsblattinformationen
Abrufen und Interpretation der deskriptiven Statistik
Die Trennschärfe „Power“ eines Hypothesentests
Anderson- Darling- Test als Vorstufe zum t-Test
Herleitung des Wahrscheinlichkeitsnetzes auf Basis der Dichtefunktion
Interpretation des Wahrscheinlichkeitsnetzes
Durchführung des Hypothesentests t-Test für den Mittelwert, 1 Stichprobe
Aufstellen der Nullhypothese und Alternativhypothese
Test auf Normalverteilung nach Anderson-Darling
Das Wahrscheinlichkeitsnetz der Normalverteilung
Themenschwerpunkte 05, Teil 2:
Erzeugung und Interpretation von Einzelwertediagrammen im Rahmen des t-Tests
Konfidenzniveau und Irrtumswahrscheinlichkeit
Testprüfgröße und Signifikanzwert
Fehler 1. Art und Fehler 2. Art im Rahmen der Hypothesenentscheidung
Themenschwerpunkte 05, Teil 3:
Trennschärfenanalyse und Stichprobenumfang im Rahmen des t-Tests
Einfluss des Stichprobenumfangs auf das Hypothesenergebnis
Grafische Konstruktion der Wahrscheinlichkeitsverteilung
Interpretation der Trennschärfekurve
Bestimmung des Stichprobenumfangs auf Basis der Trennschärfengüte
Einfluss unterschiedlicher Stichprobenumfänge auf die Hypothesenentscheidung
06 EINFACHE VARIANZANALYSE (ANOVA)
In der 06. Trainingseinheit geht es um die von der Smartboard AG verwendeten Kugellager für die Skateboardrollen. Ein wichtiges Kriterium für die Passform ist der Außendurchmesser der Kugellager. Die Smartboard AG vergleicht hierfür drei neue Kugellagerlieferanten. Im Fokus dieser Trainingseinheit steht die Fragestellung, ob sich die Kugellager-Außendurchmesser der drei Lieferanten voneinander signifikant unterscheiden. Wir werden sehen, dass die Besonderheit in dieser Aufgabenstellung darin liegt, dass wir es nun mit mehr als zwei Prozessen bzw. mit mehr als zwei Stichprobenmittelwerten zu tun haben und somit auch die bisher kennengelernten Hypothesentests nicht weiterhelfen werden. Vor dem Einstieg in die eigentliche Varianzanalyse – häufig abgekürzt mit dem Akronym ANOVA – werden wir uns zunächst mithilfe der deskriptiven Statistik einen Überblick über die Lage- und Streuparameter unserer drei Lieferanten-Datensätze verschaffen. Vor dem Einstieg in die eigentliche Varianzanalyse muss noch eine Trennschärfeanalyse durchgeführt werden, um den angemessenen Stichprobenumfang zu bestimmen. Um das Prinzip der Varianzanalyse zu verstehen, werden wir aus didaktischen Gründen zunächst einmal an einem allgemein kleinen Datensatz die relativ komplexe Varianzanalyse Schritt für Schritt näher kennenlernen und werden dann mit diesen Vorarbeiten und Informationen in die sogenannte einfaktorielle Varianzanalyse einsteigen, die im Tagesgeschäft häufig auch nur „einfache Varianzanalyse“ bezeichnet wird, so dass wir über diesen Analyseansatz die entsprechenden Streuanteile bestimmen, die die jeweilige Gesamtstreuung ausmachen. Das Verhältnis dieser Streuanteile werden wir mit dem sogenannten Streuverhältnis-Verteilungs-Diagramm genauer anschauen, das, in Anlehnung an seinen Entwickler Fisher, als F- Verteilung bezeichnet wird. Wir lernen, auf Basis der F-Verteilung die Wahrscheinlichkeit für das Auftreten eines Streuverhältnisses, einfach F- Wert genannt, in Form eines p-Wertes ermitteln zu können. Zum besseren Verständnis werden wir auch über den grafischen Weg den p-Wert zum jeweiligen F-Wert herleiten. Im letzten Schritt wird mittels der zugehörigen Hypothesentests ordnungsgemäß ermittelt, ob signifikante Unterschiede zwischen den Kugellagerlieferanten vorliegen. Interessant und sehr nützlich im Rahmen dieser einfaktoriellen Varianzanalyse werden dann die mithilfe des Vergleichstests nach Fisher erzeugten sogenannten Gruppierungsbuchstaben, die uns im Tagesgeschäft immer sehr schnell helfen werden zu erkennen, welche Kugellagerhersteller sich signifikant voneinander unterscheiden.
Themenschwerpunkte:
Aufstellung der Hypothesentests im Rahmen der einfaktoriellen ANOVA
Kor(SS)- und Kor(MS) – Werte im Rahmen der einfaktoriellen ANOVA
Herleitung des F-Wertes im Rahmen der einfaktoriellen ANOVA
Herleitung der F-Verteilung im Rahmen der einfaktoriellen ANOVA
Fehlerbalkendiagramm im Rahmen der einfaktoriellen ANOVA
Paardifferenztest nach Fisher
Gruppierungsinformationen anhand der Fisher Grenzdifferenz
Individuelle Fisher-Tests für Mittelwertdifferenzen.
07 EINFACHE KORRELATION UND REGRESSION
In der 07. Trainingseinheit besuchen wir die Wärmebehandlung der Smartboard AG. Hier werden die Skateboardachsen einer Wärmebehandlung unterzogen, um die vom Kunden geforderte Materialfestigkeit zu erreichen. Einen Einfluss auf die Materialfestigkeit hat neben den Wärmebehandlungsparametern auch der Kupferanteil in den Skateboardachsen. Vor diesem Hintergrund soll in dieser Trainingseinheit auf Basis von vorhandenen historischen Prozessdaten der Zusammenhang zwischen Kupferanteil und Materialfestigkeit untersucht werden. Hierfür werden wir zunächst mithilfe einer einfachen Korrelationsanalyse untersuchen, ob eine wechselseitige Beziehung zwischen der Höhe des Kupferanteils im Material und der Materialfestigkeit nachzuweisen ist. Sollte das der Fall sein, werden wir mit einer einfachen Regressionsanalyse zeigen, welcher Kupferanteil schlussendlich erforderlich ist, um die vom Kunden gewünschte Materialfestigkeit zu erreichen. Im Rahmen unserer Korrelationsanalyse werden wir den wichtigen Korrelationsfaktor nach Pearson kennenlernen, um eine quantitative Aussage darüber zu erhalten, ob die entsprechenden Einflussfaktoren schwach, stark, oder gar nicht miteinander korrelieren. In diesem Zusammenhang werden wir das Grundprinzip der Korrelationsanalyse auf Basis der „Methode der kleinsten Fehlerquadrate“ ausführlich erlernen, indem wir anhand eines vereinfachten Datensatzes eine vollständige Korrelationsanalyse Schritt für Schritt aktiv durchrechnen, um zu verstehen, wie die Ergebnisse im Ausgabefenster entstanden sind. Final können wir mit einer einfachen Regressionsanalyse unsere technische Problemstellung mit einer mathematischen Regressionsgleichung beschreiben, um zukünftige Materialfestigkeiten in Abhängigkeit des Einflussfaktors Kupferanteil mit einer hohen Prognosegüte vorhersagen zu können.
Themenschwerpunkte:
Korrelationsanalyse nach Pearson
Korrelationsmatrix
Tabelle der „paarweisen Korrelationen“
Hypothesentest zur paarweisen Korrelation nach Pearson
Arbeiten mit „Zeichentools“ im Rahmen des Matrixplots
Regressionsanalyse
Regressionsmodell anpassen
Methode der kleinsten Fehlerquadrate
Darstellung der Anpassungslinie
Residuenanalyse im Rahmen der Regression
Konfidenzintervalle und Prognoseintervalle
Antwortvariable anhand des Regressionsmodells prognostizieren
08 GEKREUZTE MSA
In der 08. Trainingseinheit betrachten wir die Endmontage der Smartboard AG und werden das Qualitätsteam dabei begleiten, wie es eine sogenannte gekreuzte Messsystemanalyse durchführt. Vorab werden wir im ersten Teil unserer mehrteiligen Trainingseinheit in die Grundlagen einarbeiten, um die wichtigsten Definitionen, wie zum Beispiel Messgenauigkeit, Wiederhol- und Vergleichspräzision oder auch Linearität, Stabilität und Auflösevermögen zu verstehen. Gut gerüstet mit den Grundlagen werden wir dann im zweiten Teil in die praktische Umsetzung der gekreuzten Messsystemanalyse einsteigen und bei der Gelegenheit auch den Unterschied zwischen einer gekreuzten und geschachtelten Messsystemanalyse kennenlernen. Wir werden erfahren, dass es grundsätzlich zwei mathematische Ansätze gibt, um die gekreuzte Messsystemanalyse durchzuführen: Zum einen die ARM- Methode und zum anderen die ANOVA- Methode. Um beide Methoden besser zu verstehen, werden wir im zweiten Teil dieser Trainingseinheit unsere gekreuzte Messsystemanalyse zunächst anhand der ARM- Methode durchführen und zum Vergleich im dritten Teil dieser Trainingseinheit auf Basis desselben Datensatzes eine gekreuzte Messsystemanalyse anhand der ANOVA- Methode durchführen. Hierbei werden wir beide Methoden ausführlich manuell Schritt für Schritt aktiv berechnen und die entsprechenden Messsystemkenngrößen herleiten, um zu verstehen, wie die Ergebnisse im Ausgabefenster erzeugt wurden.
Themenschwerpunkte 08, Teil 1:
Nationale und internationale MSA Normregelwerke im Vergleich
Prozessvariation versus Messsystemvariation
Messgenauigkeit
Wiederhol- und Vergleichspräzision
Linearität, Stabilität, Bias
Ansprechschwelle, Toleranzauflösung
Themenschwerpunkte 08, Teil 2:
ARM- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse
Unterschied zwischen gekreuzter, geschachtelter und erweiterter MSA
Manuelle Herleitung aller Streukomponenten gemäß ARM- Methode
Manuelle Herleitung der Toleranzauflösung auf Basis des ndc- Parameters
Balkendiagramm, Streukomponenten
Prüferbezogene R-Karten-Analyse
Manuelle Herleitung der Eingriffsgrenzen in der R-Karte
Prüferbezogene X-quer-Karten-Analyse
Manuelle Herleitung der Eingriffsgrenzen in der X-quer-Karte
Einzelwertediagramm zur Analyse der Datenstreuung
Prüferabhängige Boxplot- Analyse
Arbeiten mit der Markierungspalette im Bericht der Messsystemanalyse
Arbeiten mit Identifikationsvariablen im Bericht der Messsystemanalyse
Themenschwerpunkte 08, Teil 3:
ANOVA- Analyseansatz im Rahmen einer gekreuzten Messsystemanalyse
2-fache ANOVA-Tabelle mit Wechselwirkungen
Manuelle Herleitung aller Streukomponenten gemäß ANOVA- Methode
Manuelle Herleitung der Toleranzauflösung auf Basis des ndc-Parameters
Hypothesentest im Rahmen der ANOVA-Methode
Hypothesentest bezüglich Wechselwirkungseffekte
09 ANALYSE DER PROZESSSTABILITÄT
In der dreiteiligen 09. Trainingseinheit befinden wir uns in der Druckgussfertigung der Smartboard AG. Hier werden über zwei Druckgussanlagen die Skateboardachsen hergestellt. Das zentrale Qualitätsmerkmal der Skateboardachsen ist hierbei die Achsenfestigkeit. Die Kunden der Smartboard AG fordern eine mittlere Achsenfestigkeit von 400 Megapascal plus/minus fünf Megapascal. Im Rahmen dieser Trainingseinheit werden wir das Qualitätsteam der Smartboard AG begleiten und erleben, wie mithilfe entsprechender Qualitätsregelkarten analysiert wird, ob der Druckgussprozess im Sinne der Kundenspezifikation und AIAG-Norm als stabiler Prozess eingestuft werden kann. Wir werden sehen, wie sich das Qualitätsteam vor der eigentlichen Prozessstabilitätsanalyse zunächst mithilfe der deskriptiven Statistik einen ersten Eindruck über die mittlere Prozesslage und Prozessstreuung verschafft und anschließend mit entsprechenden Qualitätsregelkarten die Güte der Prozessstabilität auswertet. Wir werden hierbei lernen, dass je nach Skalenniveau und Teilgruppengröße unterschiedliche Arten von Qualitätsregelkarten zum Einsatz kommen. Wir werden uns in diesem Zusammenhang zunächst mittels eines einfachen Datensatzes mit dem Streuverhalten von Einzelwerten und Mittelwerten beschäftigen, um den sogenannten statistischen Parameter Standardfehler besser zu verstehen. Wir werden die Qualitätsregelkarten Einzelwert-Karte, auch I- Karte bezeichnet, die Mittelwertkarte x-quer und die Standardabweichungs-Karte, s-quer- Karte bezeichnet, kennenlernen. Hierfür werden wir aus didaktischen Gründen zum besseren Verständnis auch die jeweiligen oberen und unteren Eingriffsgrenzen in den Qualitätsregelkarten Schritt für Schritt manuell berechnen und mit den Ergebnissen im Ausgabefenster vergleichen. Bei der Gelegenheit werden wir auch die Spannweitenkarte R- Karte einsetzen und auch hierfür die entsprechenden Eingriffsgrenzen manuell herleiten. Wir werden dann die in der Industrie etablierten acht wichtigsten Kontrolltests ausführlich erlernen, die uns in Anlehnung an die AIAG Normregelwerke helfen können, eventuelle Prozessinstabilitäten aufzudecken. Wir erleben, dass bei einer falschen Wahl einer Qualitätsregelkarte immer die Gefahr besteht, dass die Kontrolltests weniger sensibel auf vorhandene Prozessinstabilitäten reagieren und in diesem Zusammenhang auch erfahren, wie ein Gesamtprozess in zwei Teilprozesse aufgeteilt werden kann, in dem wir die nützliche Funktion „Teilmenge des Arbeitsblattes bilden“ einsetzen. Mit dem bis dahin erlernten Wissen werden wir die Qualitätsregelkarte mit der Bezeichnung Gleitende Spannweite, im allgemeinen als MR-Karte bezeichnet, kennenlernen und erfahren, dass die sogenannte kombinierte I/MR- Karte immer dann sehr nützlich wird, wenn Einzelwerte miteinander verglichen werden sollen, die nicht in Teilgruppen zusammengefasst vorliegen.
Themenschwerpunkte 09, Teil 1:
Einschätzung der Datenlandschaft mithilfe der deskriptiven Statistik
Prozessstabilität versus Prozessfähigkeit
Aufbau von Qualitätsregelkarten am Beispiel I-Karte und X-quer-Karte
Prozessinstabilitäten mithilfe von Tests auf Ausnahmebedingungen identifizieren
Themenschwerpunkte 09, Teil 2:
Prozessanalyse mithilfe der kombinierten X-quer/ R- Karte
Identifikation von Prozessinstabilitäten mithilfe der Kontrolltests gemäß AIAG
Manuelle Herleitung der Eingriffsgrenzen in der S- Karte
Manuelle Herleitung der Eingriffsgrenzen in der X- quer- Karte
Manuelle Herleitung der Eingriffsgrenzen in der R- Karte
Anlagenbezogene Prozessanalyse durch Teilmengenbildung
Einbindung von Kundenspezifikationsgrenzen und Prozess- Sollwerten
Arbeiten mit dem Zeitstempel in Qualitätsregelkarten
Aufteilung eines Gesamtprozesses in mehrere Teilprozesse
Ausrichtung der Skalenbeschriftungen in Qualitätsregelkarten
Themenschwerpunkte 09, Teil 3:
Einzelwertkarte I- Karte
Gleitende Spannweitenkarte MR- Karte
Herleitung der Eingriffsgrenzen in der MR- Karte
Herleitung der Eingriffsgrenzen in der I- Karte
10 ANALYZE DER PROZESSFÄHIGKEIT
In der dreiteiligen 10. Trainingseinheit begleiten wir das Qualitätsteam der Smartboard AG, wie im Rahmen eines Qualitätsverbesserungsprozesses die Prozessfähigkeit des Druckgussprozesses für die Herstellung der Skateboardachsen analysiert wird. Bevor wir in die eigentliche Prozessfähigkeitsanalyse einsteigen, werden wir zunächst sehen, welche Arbeitsschritte im Vorfeld dazu erforderlich sind. Wir werden erleben, wie das Qualitätsteam hierfür mithilfe des Wahrscheinlichkeitsnetzes und dem zugehörigen Anderson- Darling- Test erarbeitet, ob der für die Prozessfähigkeit vorliegende Stichprobendatensatz den Gesetzen der Normalverteilung folgt. Wir lernen, wie mit entsprechenden Qualitätsregelkarten überprüft werden kann, ob der Druckgussprozess die nötige Prozessstabilität im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse bereitstellt. Im Kern dieser Trainingseinheit wird es darum gehen, im Rahmen der Prozessfähigkeitsanalyse alle relevanten Fähigkeitskennzahlen kennenzulernen, die sich zum einen auf die Gesamtprozessfähigkeit und zum anderen auf die potentielle Prozessfähigkeit beziehen. Hierbei werden wir insbesondere die zentralen Fähigkeitskennzahlen CP, CPK, PP oder PKK kennenlernen, aber auch den sogenannten Taguchi- Capability- Index CPM erarbeiten, der zu den sogenannten Fähigkeitskennzahlen der zweiten Generation gehört. Wir werden anhand einfacher Rechenbeispiele die wichtigsten Kennzahlen Schritt für Schritt auch manuell berechnen, um zu verstehen, wie Fähigkeitskennzahlen, die im Ausgabefenster dargestellt werden, überhaupt zustande gekommen sind. Und auch verstehen, was die sogenannte Leistungskennzahl z-Benchmark bedeutet und wie diese mit dem Sigma Level zusammenhängt. Anhand weiterer Leistungskennzahlen wie zum Beispiel beobachtete Leistung oder erwartete Leistung werden wir dann auch in der Lage sein, die Prozessfähigkeit sowohl innerhalb wie auch zwischen den Teilgruppen zu beurteilen. Wir werden die sehr nützliche Funktion Capability Six Pack kennenlernen, die uns insbesondere im turbulenten Tagesgeschäft sehr schnell helfen wird, alle erforderlichen Analysen, die auch im Vorfeld zur eigentlichen Prozessfähigkeitsanalyse erforderlich sind, mit wenigen Schritten zu berechnen. Anhand des erlernten Wissens und der vorliegenden Analyseergebnisse werden wir dann in der Lage sein, die Prozessfähigkeit unseres Druckgussprozesses differenziert zu beurteilen und so entsprechende Handlungsmaßnahmen abzuleiten, um die Prozessfähigkeit zu verbessern. Nach der Umsetzung der Verbesserungsmaßnahmen werden wir final eine erneute Prozessfähigkeitsanalyse durchführen und anhand der Fähigkeitskennzahlen den verbesserten Prozess mit dem ursprünglichen noch nicht verbesserten Prozess ausführlich vergleichen.
Themenschwerpunkte 10, Teil 1:
Grundlagen der Normregelwerke bezüglich Prozessfähigkeit
Grundprinzip und Logik der Prozessfähigkeitsdefinition
Prozessausbeute versus Prozessfähigkeit
Prozessfähigkeitsindizes: PP, PPL, PPU, PPk
Prozessfähigkeit bei zentrierten Prozessen
Prozessfähigkeit bei nicht zentrierten Prozessen
Themenschwerpunkte 10, Teil 2:
Vorarbeiten zur Prozessfähigkeitsanalyse:
Deskriptive Statistik
Test auf Normalverteilung: Anderson-Darling Test
Herleitung des Wahrscheinlichkeitsnetzes aus der Wahrscheinlichkeitsfunktion
Prozessstabilitätsanalyse: X-quer und R-Karte
Schätzmethoden zur Ermittlung der Standardabweichung
Kennzahlen der Gesamtprozessfähigkeit
Kennzahlen der potentiellen Prozessfähigkeit
Gesamtstandardabweichung vs. Standardabweichung innerhalb der Teilgruppen
Sigma Level vs. Prozessfähigkeitslevel
Beobachtete Leistung, erwartete Leistung gesamt, erwartete Leistung innerhalb
Manuelle Bestimmung der Standardabweichung für die potentielle Prozessfähigkeit
Themenschwerpunkte 10, Teil 3:
Manuelle Herleitung der Leistungskennzahlen
Manuelle Herleitung der Standardabweichung innerhalb der R-quer- Methode
Manuelle Herleitung der „zusammengefassten Standardabweichung“
Benchmark-Z (Sigma-Niveau)
Arbeiten mit dem Punktediagramm im Rahmen einer Prozessfähigkeitsanalyse
Extraktion von Dateninformationen im Rahmen einer Prozessfähigkeitsanalyse
Arbeiten mit der Option „Capability Six Pack“