Aktuelle Praxishilfen:

Ganzheitlich digitale Rechnungsprozesse

In der Praxishilfe werden die kritischen Faktoren in der gegenwärtigen Realität

... [mehr]
Fitness-Check der IT-Infrastruktur

Die Praxishilfe untersucht die Leistungsbedingungen anhand von zehn zentralen Me

... [mehr]
Auswahl des IT-Providers nach der Service-Qualität

Anhand der Praxishilfe können die Anwender unter dem Gesichtspunkt der Service-Q

... [mehr]
Analyse der internen IT-Service-Qualität

Im Wettbewerb kommt nicht nur den IT-Technologien, sondern auch der Qualität der

... [mehr]
Anforderungsanalyse ECM

Die Praxishilfe beschäftigt sie sich insbesondere mit den zentralen Nutzenaspekt

... [mehr]
Suchen & Finden  
erweiterte Suche  

Prozesscontrolling zur Fehlersuche in komplexen Produktionsabläufen

28.07.15

Ursachen können in vorherigen Prozesssequenzen liegen und nicht dort, wo sie festgestellt wurden

Verschiedene Komponenten für das Prozesscontrolling notwendig

Zu den Kernzielen des Produktionsmanagements gehört es im Interesse einer optimalen Produktivität, Unterbrechungen der Fertigungsprozesse so gering wie möglich zu halten. Daraus leitet sich die Konsequenz ab, die Problemursachen und Unterbrechungsbedingungen klar identifizieren zu müssen, um daraus notwendige Optimierungserkenntnisse ableiten zu können.

Konrad Steinmetz, Senior Consultant bei der FELTEN Group, weist allerdings darauf hin, dass die Ermittlung von Fehlern keineswegs eine triviale Angelegenheit sei. „Dies resultiert daraus, dass Produktionsprozesse vielfach nicht nur aus einem Fertigungsschritt, sondern aus einer ganzen Reihe aufeinanderfolgender Produktionsabschnitte bestehen. In solchen komplexen Fertigungssystemen ist die Anzahl der zu berücksichtigenden Eingangsparameter, Steuerinformationen und Störgrößen extrem groß.“ Somit werde ein Prozessabschnitt sowohl durch die eigenen Leistungsfaktoren und Bedingungen als auch durch die Ergebnisse der vorauslaufenden Prozessschritte beeinflusst, betont er.

Daraus leitet sich eine hohe Anforderung für die Identifikation der Fehlerquellen ab, weil sie ihre Ursachen nicht zwangsläufig dort haben, wo sie festgestellt wurden, sondern in vorherigen Prozesssequenzen vorgelegen haben können. „Je komplexer die Fertigungsabläufe sind, desto schwieriger lassen sich aufgrund der möglichen Fehlerfortpflanzung auch die eigentlichen Störgrößen lokalisieren“, beschreibt Steinmetz die Schwierigkeit.

Die Antwort darauf ist ein durchgängiges Monitoring der Produktionsprozesse einschließlich ihrer relevanten Einflussgrößen. Für dieses Controlling bedarf es einerseits Kennzahlen zu den produktionsrelevanten Faktoren bereitzustellen, die sich mittels Filter nach Auftragsnummern, Schichten, Produktionszeiten usw. weiter differenzieren lassen. Eine typische und weit verbreitete Kennzahl stellt dabei die OEE (Overall Equipment Effectiveness) dar.

Ein weiteres Element sind Maschinenlaufdiagramme, die Stillstände einer Produktionseinheit grafisch darstellen. Durch frei definierbare Zeitbereiche, Kostenstellen oder auch Auftrag bzw. Schicht etc. soll eine detaillierte Darstellung und Auswertung ermöglicht werden. Um den tatsächlichen Grund des Stillstands festzumachen, werden Fehler der vor- und nachgeschalteten Maschinen berücksichtigt. Neben den Maschinenstillständen sollten auch die daraus errechneten Linienstillstände angezeigt werden und ob der Ausfall einer Maschine den Stillstand der kompletten Linie verursacht hat.

Darüber hinaus ist eine Stillstandsanalyse zur Erfassung und Kategorisierung aller Ausfälle einer Produktionslinie notwendig. Die Störstatistiken sollten einen hohen Differenzierungsgrad aufweisen, indem sie Auswertungen für definierte Zeitkonten, Zeitbereiche und Aufträge bereitstellen. Zudem sind Trendanalysen notwendig, die vorangegangene Produktionsprozesse auswerten und auf dieser Basis qualifizierte Informationen für weitere Entscheidungen liefern. „Mit Unterstützung eines Data Gathering Systems (DGS) lassen sich die in unterschiedlichen Automationszellen und Datenbanken verfügbaren Informationen gezielt auslesen, personifiziert aufbereiten und individuell in übersichtlichen Grafiken darstellen“, erläutert der FELTEN-Consultant.

Schließlich gilt es auch, die Analyseergebnisse den Verantwortlichen zur Verfügung zu stellen. Dies erfolgt sowohl durch übersichtlich gestaltete Reports als auch über ein Dashboard, das zudem bei kritischen Entwicklungen durch Alarmfunktionen zum Handeln auffordert.

Weitere Meldungen

Datenqualität behauptet sich auch in der Wirtschaftskrise

Die Bedeutung der Datenqualität leidet auch in der Wirtschaftskrise nicht und führt in den

...
BITKOM und Messe IT & Business vereinbaren Partnerschaft

Die neue Fachmesse IT & Business, die ihre Tore erstmals vom 6. bis 8. Oktober öffnet,

...
Deutsche Bahn AG stellt Weichen Richtung Content Management

DB Systel GmbH, IT-Dienstleister der Deutschen Bahn AG, hat mit SER Solutions einen Rahmen

...
Bechmarkingprojekt der compamedia sucht den Top-Arbeitgeber im Mittelstand

Laut dem Institut für Mittelstandsforschung in Bonn sind 70,5 Prozent aller Beschäftigten

...
Studie: SLAs für Netzwerkservices immer häufiger als Frühwarnsystem genutzt

In den Unternehmen sind zwar meistens Service Level Agreements (SLA) für die Netzwerkdiens

...
Steria Mummert Consulting: Telkos investieren in IT-Sicherheit

70 der Prozent Telekommunikationsunternehmen (Telkos) planen bis 2013  Investitionen

...
Maßgeschneiderte Angebote lassen sich jetzt einfach erstellen

Die Erstellung von individuellen B2B-Angeboten im Vertrieb erzeugt im Regelfall sehr kompl

...
T-System bringt Reiseinformation der TUI auf den Bildschirm

Nach erfolgreicher Pilotprojekt-Phase hat T-Systems ca. 200 TUI-Reisebüros mit Flachbildsc

...
Kernpunkte einer systematischen Gefährdungsanalyse der IT

Obwohl ein Pflichtprogramm der Unternehmen, werden mögliche Gefährdungen der Informationst

...
IMU Hard- und Sofwareservice mit kostenlosem Testangebot für Online-Backup

Gegen Datenverlust schützt ein Backup. Im optimalen Fall befinden sich die gesicherten Dat

...