Schwerpunkte in der Forschung

Statistische Methoden im Qualitätsmanagement

Modernes Qualitätsmanagement, wie es sich beispielsweise hinter dem Schlagwort TQM (Total Quality Management) verbirgt, betrachtet alle Strukturen, Aktivitäten und Ergebnisse des Unternehmens integriert unter dem Gesichtspunkt der Qualität. Zu den klassischen statistischen Methoden, den On-line-Verfahren, wie Stichprobenplänen (in der Wareneingangs- und -endprüfung) und Qualitätsregelkarten (in der Prozeßregelung), sind Off-line-Verfahren hinzugekommen: Statistische Versuchsplanung und moderne Verfahren der statistischen Datenanalyse. Qualitätsregelkarten sind im Grunde genommen Regler, d.h. statistische Instrumente zum Soll-Ist-Vergleich und zur eventuellen Auslösung von Regelschritten, in einem Qualitätsregelkreis. Diese Regler wurden seit ihrer Einführung durch Shewhart (ca. 1930) und werden auch heute noch entworfen und eingesetzt, ohne daß der zu regelnde Prozeß vorher eingehend analysiert wird. Die Folgen reichen von Unsicherheiten bei der Wahl des geeigneten Reglers, d.h. der geeigneten Qualitätsregelkarte, bis zu Fehlanwendungen bestimmter Karten. Auch Stichprobenpläne sind eigentlich keine Instrumente zur Selektion von schlechten Losen, sondern Regelinstrumente, die den Prozeß der Losentstehung auf einem angemessenen Niveau halten sollen. Der Prozeßanalyse kommt daher eine fundamentale Bedeutung zu. Wir beschäftigen uns hauptsächlich mit der Entwicklung von Algorithmen und EDV Programmen zur Prozeßanalyse; auf der CEBIT 1991 wurde ein Programmsystem SPA (Statistische Prozeß Analyse) vorgestellt. In der statistischen Versuchsplanung beschäftigen wir uns insbesondere mit Versuchsplänen für Ringversuche, d.h. für interlaboratorielle Versuche zur Ermittlung der Genauigkeit von Meßsystemen und Meßverfahren, wie auch mit Versuchsplänen zur Erfassung nicht nur des Erwartungswertes, sondern gleichzeitig auch der Varianz einer Zielgröße in Abhängigkeit von den Einflußgrößen. Auf der CEBIT 1991 wurde das Programmsystem RING zur computergestützten Auswertung von Ringversuchen vorgestellt.

 

Die Statistische Beurteilung der Genauigkeit von Meßsystemen

Erster Schritt der Datenanalyse muß eine Beurteilung der Qualität der Daten sein. Diese schließt die Frage nach der Genauigkeit der Messung, des Meßsystems oder allgemein des Meßverfahrens ein. Insbesondere bei indirekten Messungen hängt diese von den Bedingungen ab, unter denen die Kalibrierung erfolgt. Wir befassen uns mit Problemen der Kalibrierung; im Zusammenhang damit wurde im Jahre 1995 ein von der Bundesanstalt für Materialforschung und -prüfung gefördertes Forschungsvorhaben zur "Konzeption der statistischen Auswertung von Kalibrierrohdaten unter Berücksichtigung gerätespezifischer und peripherer Merkmale" abgeschlossen. Ausgelöst durch die zunehmende Anzahl von Vorschriften zur Begrenzung von Umweltbelastungen, wie z.B. Grenzwerte der Kontamination von Boden, Wasser, Luft, Lebensmitteln bekommt die Spurenanalytik besondere Bedeutung, in der es um die Frage geht, ob - und ggf. wie stark - bestimmte (meist unerwünschte) Stoffe in Proben vorhanden sind. Zur quantitativen Erfassung der Fähigkeit von Meßsystemen zu diesen Nachweisen machen wir Methodenvorschläge und beteiligen uns an der internationalen Harmonisierung (nicht nur der Methoden, sondern auch der Begriffe).

 

Workshops on Intelligent Statistical Quality Control

Gemeinsam mit meinen Kollegen Lenz und (bis 1990) Wetherill (Canterbury, später Newcastle) veranstalte ich in Abständen von zwei bis drei Jahren einen internationalen "Workshop on Intelligent Statistical Quality Control" (Berlin 1980, Canterbury 1983, Kopenhagen 1986, Baton Rouge 1990, Osaka 1994, Würzburg 1997, Waterloo, Kanada 2001), in denen in einem Kreise von ca. 25 eingeladenen Wissenschaftlern neue Forschungsergebnisse auf dem Gebiet statistischer Methoden des Qualitätsmanagements vorgestellt und diskutiert werden. Die Ergebnisse werden in den "Frontiers in Statistical Quality Control" veröffentlicht.