Qualitätsmanagement als Sisyphosarbeit

Qualitätsmanagement ist eine Sisyphosarbeit, bei der man nie wirklich am Ziel ankommt. Irgendwann fällt einem der Felsblock wieder vor die Füße. Davon kann der japanische Automobilhersteller Toyota ein (Klage-)Lied singen – ein richtiges sogar; nix mit Karaoke. Obwohl die Japaner das Qualitätsmanagement quasi erfunden haben, produzieren sie in letzter Zeit Rückruf-Aktionen in Serie.

Ein klarer Fall für CAPA (Corrective And Preventive Action) möchte man spotten: Aus den Fehlern der Japaner lernen, um sie in Zukunft zu vermeiden. Schadenfreude ist jedoch fehl am Platze: Erst Ende letzten Jahres musste der Volkswagen-Konzern in einer der größten Rückrufaktionen der Unternehmensgeschichte 2,6 Millionen Fahrzeuge wegen eines drohenden Getriebeschadens und Problemen mit dem Lichtsystem in die Werkstätten beordern. Betroffen war vor allem der chinesische Markt, wo die Fahrzeuge bei schwülen Temperaturen länger als anderswo im Stau stehen.

Toyoda Sakichi, König der japanischen Erfinder und Vater des Gründers von Automobilhersteller Toyota. Bild: Toyota

Toyoda Sakichi, König der japanischen Erfinder und Vater des Gründers von Automobilhersteller Toyota. Bild: Toyota

Das Toyota-Produktionssystem, das auf die Maximierung der Kundenzufriedenheit bei Qualität, Lieferzeit und Kosten ausgerichtet ist, war lange Zeit und ist immer noch Vorbild für ein erfolgreiches Qualitätsmanagement. Ganze Bücher wurden über den Toyota Way geschrieben. Eine seiner Grundlagen ist das von Toyoda Sakichi, dem Vater des Firmengründers, Anfang des 20. Jahrhunderts entwickelte Jidöka-Prinzip der autonomen Automatisierung. Es sieht die Kontrolle der gefertigten Materialien während des laufenden Produktionsprozesses vor, und zwar durch Komponenten und Funktionen der Maschinen (Webstühle), die es erlauben, Abweichungen vom Normalzustand selbsttätig zu erkennen.

Das muss man sich mal vorstellen: Die revolutionäre Idee von Industrie 4.0 wurde nicht etwa in Deutschland, sondern in Japan geboren, und das vor über 100 Jahren, während der zweiten industriellen Revolution. Arigatou! Toyoda-san, möchte man mit höflicher Verneigung Richtung aufgehender Sonne sagen.

Aber zurück zu unserem eigentlichen Thema. Toyoda Sakichi verdanken wir das Prinzip der prozessbegleitenden Qualitätssicherung und damit zugleich die Einsicht, dass es effizienter ist, die Produktqualität über gute Prozesse sicherzustellen als durch nachträgliche Kontrollen. Das bedeutet, dass Qualitätsmanagement nicht nur die Qualität des Produkts, sondern auch die der produkt-relevanten Prozesse im Blick hat. Allerdings war diese Prozesssicht zunächst noch sehr stark auf die Optimierung der Fertigung fokussiert.

Inzwischen hat sich die Erkenntnis durchgesetzt, dass Qualitätsmanagement dort ansetzen muss, wo 70 bis 80 der Kosten des späteren Produkts und damit auch die Kosten für die Beseitigung von Fehlern definiert werden: In der Produktentwicklung. Oder um genauer zu sein: In der Konzeptphase, in der die Qualitätsmerkmale des Produkts festgelegt und die Produktionsprozesse, das heißt das Zusammenspiel von Maschinen, Anlagen, Betriebsmitteln und Automatisierungstechnik für ihre Herstellung konzipiert werden. Dafür steht das Konzept der Advanced Product Quality Planning (APQP) und die dazu gehörigen Methoden zur Analyse möglicher Fehler im Prozess und ihrer Eintrittswahrscheinlichkeit (FMEA).

Die besten Konzepte der Qualitätsvorausplanung nützen allerdings nichts, wenn die Planungsergebnisse im laufenden Entwicklungsprozess nicht durch entsprechende Reifeprüfungen regelmäßig abgesichert werden. Das Qualitätsmanagement kann deshalb nicht allein Aufgabe der Qualitätssicherung sein, sondern betrifft alle Disziplinen, die in den Produktentstehungsprozess involviert sind. Das bedeutet aber auch, dass die Werkzeuge und Methoden für das Qualitäts- und Risikomanagement in die IT-Lösungen zur Steuerung des Produktlebenszyklus integriert werden müssen.

Quality Lifecycle Management (QLM) sei einer der neuen Zuständigkeitsbereiche von PLM, schrieb Jim Brown von Tech Clarity schon vor Jahren in einem Blog-Beitrag, um gleich einzuschränken, dass die meisten PLM-Lösungen dafür funktional noch nicht reif seien. Das sollte sich inzwischen geändert haben. Schließlich muss die Befriedigung der Kundenbedürfnisse auch für Software-Hersteller das oberste Ziel des Qualitätsmanagements sein.

Veröffentlicht unter PLM-Anwendungen, Trends | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Industrie 4.0 braucht smarte Produkte

Die vierte industrielle Revolution kann die Produktivität der deutschen Wirtschaft bis zum Jahr 2025 um mindestens 78 Milliarden Euro steigern. Das behauptet eine Untersuchung, die das Fraunhofer IAO im Auftrag des Hightech-Verbands BITKOM durchgeführt hat (als PDF downloaden). Die Betonung liegt auf dem Wörtchen “kann”: Es handelt sich nicht um eine statistisch abgesicherte Prognose, sondern um die Einschätzung des Wachstumspotentials in ausgewählten Branchen durch verschiedene Branchenexperten.

Für die erfolgreiche Umsetzung von Industrie 4.0 müssen eine Reihe von Voraussetzungen technischer, organisatorischer und normativer Natur gegeben sein – so die Studie. Eine Revolution, die Normen voraussetzt, statt sie außer Kraft zu setzen? Das ist wieder mal typisch deutsch, möchte man spotten. Kein Wunder, dass hierzulande noch jede Revolution gescheitert ist, geschweige denn dass wir je eine Revolution erfolgreich exportiert hätten. Wir erlauben Revolutionären allenfalls die Durchreise in plombierten Waggons, damit sie andernorts umstürzlerisch tätig werden. Und dass sich Angela Merkel als deutsche Jeanne d’ Arc an die Spitze dieser Umsturzbewegung stellt, entbehrt nicht einer gewissen Komik. Das ist ungefähr so als wäre Louis XVI im Juli 1789 auf den Balkon von Versailles getreten und hätte zum Sturm auf die Bastille aufgerufen.

Quelle: Abschlussbericht des Arbeitskreises Industrie 4.0 von acatech – Deutsche Akademie der Technikwissenschaften e.V.

Wenn ich, was die Erfolgsaussichten von Industrie 4.0 anbelangt, skeptisch bin, dann aber aus einem anderen Grund: Das von der Bundesregierung initiierte Zukunftsprojekt oder das, was davon bislang an die Öffentlichkeit dringt, ist für meinen Geschmack viel zu einseitig auf die Produktion d.h. die intelligente Vernetzung der Fertigungs- und Logistikprozesse fokussiert. Da sind wir in Deutschland eigentlich ganz gut aufgestellt. Die intelligente Fabrik ist zweifellos wichtig, weil wir aufgrund der Individualisierung unserer Produkte bei kleiner werdenden Stückzahlen hohe Anforderungen an die Flexibilisierung der Produktionsprozesse haben. Aber sie reicht nicht aus. Was nutzt uns eine noch so intelligente Fabrik, wenn wir darin dumme Produkte fertigen, die keiner mehr haben will?

Prof. Martin Eigner, einer der Autoren des bei acatech veröffentlichten Diskussionspapiers zum Thema Smart Engineering (als PDF downloaden), hat das in einem Gespräch am Rande des ProSTEP iViP-Symposiums neulich auf den Punkt gebracht: “Ohne intelligente Produkte gibt es keine Industrie 4.0. Unser Problem in Deutschland ist nicht die Fertigung, sondern dass wir dafür neue Produkte und Geschäftsmodelle generieren müssen.”

Um Missverständnissen vorzubeugen: Ich finde es begrüßenswert, dass die vierte industrielle Revolution mit Forschungsgeldern in Milliardenhöhe gefördert wird. Nur befürchte ich, dass viele dieser Gelder in die falschen Projekte investiert werden. Industrie 4.0 tut nämlich den zweiten Schritt vor dem ersten: Bevor wir uns darüber Gedanken machen, wie sich Produkte intelligenter fertigen lassen, sollten wir uns erst einmal überlegen, wie wir es schaffen, smartere Produkte zu entwickeln. Produkte, die über das Internet of Things (IoT) miteinander kommunizieren und dadurch neue Dienstleistungsangebote und Geschäftsmodelle ermöglichen. Das ist der Denkansatz, den die Amerikaner verfolgen. Mit wie viel Intelligenz diese smarten Produkte dann gefertigt werden, wird auch davon abhängen, wo auf der Welt die Fertigung angesiedelt ist. Ich glaube nämlich nicht, dass es uns dank noch so intelligenter Fabriken gelingen wird, beispielsweise die Handy-Fertigung nach Europa zu holen. Je mehr Varianz in einem Produkt über die Software abgebildet werden kann, desto einfacher lassen sich die mechanischen Komponenten in Großserie fertigen und montieren. Und dafür muss eine Fabrik nicht besonders schlau sein.

Das IoT bedeutet eine große Herausforderung für die Innovationsfähigkeit der Unternehmen. Sie müssen in der Lage sein, komplexe mechatronische Systeme zu entwickeln, die über das Internet miteinander kommunizieren. Und sie müssen diese cyberphysischen Systeme um innovative Dienstleistungen ergänzen, die gegebenenfalls ihre bestehenden Geschäftsmodelle in Frage stellen. Dafür benötigen sie einerseits leistungsfähige Werkzeuge und Methoden für die interdisziplinäre Produktenwicklung und für ein systematisches Innovationsmanagement; andererseits müssen sie ihre Innovations- und Entwicklungsprozesse neu strukturieren.

Wenn die vierte industrielle Revolution nicht im Engineering ansetzt, wo meines Erachtens der größere Handlungsbedarf besteht, ist sie zum Scheitern verurteilt. Dann wird Industrie 4.0 ebenso schnell wieder vergessen sein wie die selige CIM-Philosophie vor 30 Jahren. Hier für Nostalgiker zur Erinnerung noch mal die CIM-Definition der Society of Manufacturing Engineers (SME): CIM is the integration of total manufacturing enterprise by using integrated systems and data communication coupled with new managerial philosophies that improve organizational and personnel efficiency. Das ist nicht weit von der Idee der digitalen Fabrik entfernt. Nur dass es das Internet als Plattform für ihre Vernetzung damals noch nicht gab. Aber genau wie damals fehlen auch heute wieder die Standards. Ohne solche Standards – so die eingangs erwähnte BITKOM-Studie – ist die freie, problemlose Austauschbarkeit von Industrie 4.0-Komponenten nach dem Prinzip des “Plug and Produce” nicht denkbar.

Veröffentlicht unter Technologien, Trends | Verschlagwortet mit , , , | 2 Kommentare

Datei- oder datenbankorientiert – ist das die Frage?

Auf dem diesjährigen ProSTEP iViP-Symposium hatte ich das Plaisir, einen ziemlich erbosten Dominique Florack zu interviewen. “Wenn die europäischen Unternehmen nicht endlich verstehen, dass die Zukunft der PLM-Technologie im datenbankorientierten Arbeiten liegt, setzen sie ihre internationale Wettbewerbsfähigkeit aufs Spiel”, meinte der Mann, der als Senior Vice President Research & Development bei Dassault Systèmes maßgeblich für die Entwicklung der 3DExperience-Plattform verantwortlich ist. ERP- oder CRM-Systeme arbeiteten schließlich auch datenbankgestützt.

Foto_database

Mit freundlicher Genehmigung Danilo Rizzuti, FreeDigitalPhotos.net

Obwohl ich Florack prinzipiell durchaus zustimmen würde, muss ich zu bedenken geben, dass die Frage des datei- oder datenbankorientierten Arbeitens in erster Linie eine Frage der Autorensysteme ist. Solange CAD-Systeme die Arbeitsergebnisse als Files ablegen, bleibt den PDM/PLM-Lösungen nichts viel anderes übrig, als sie dateibasiert zu verwalten. Aber genau da liegt der Hase im Pfeffer: Was Florack den bockigen Kunden (und uns Journalisten) mit der Cloud im Hinterkopf eigentlich sagen will ist, dass die Zukunft der CAD-Technologie im datenbankorientierten Arbeiten liegt. Um CAD in der Cloud betreiben zu können, brauche man eine andere Software-Architektur.

Auch dagegen wäre prinzipiell nichts einzuwenden, wenn es einen allgemein akzeptierten Standard dafür gäbe, wie der Content einer CAD-Konstruktion datenbankgestützt zu verwalten ist. Oder wenn die CAD-Hersteller ihre Verwaltungsstrukturen offen legen würden. Dann wäre der Kunde nicht gezwungen, ein bestimmtes Datenmanagementsystem (nämlich das seines CAD-Lieferanten) einzusetzen, um aus einzelnen Elementen wieder ein digitales Produktmodell aufzubauen, und er könnte sie auch datenbankgestützt austauschen. Denn es macht keinen Sinn, bei verteilten Entwicklungsprojekten erst datenbankorientiert zu konstruieren, um die Konstruktionen den Partnern in der Zulieferkette dann doch wieder dateibasiert zur Verfügung zu stellen. Dann wären wir wieder in den Anfangszeiten der 3D-Konstruktion, als die Modelle immer wieder platt geklopft wurden, um sie mit den Zulieferern zeichnungsbasiert austauschen zu können.

Ehrlich gesagt, bin ich skeptisch, dass wir einen solchen Standard und/oder das nötige Maß an Offenheit je sehen werden. Zwar haben inzwischen alle namhaften PLM-Hersteller den berühmten Codex of PLM Openness unterzeichnet, der in den letzten Jahren maßgeblich vom ProSTEP iViP-Verein vorangetrieben wurde, doch bezeichnenderweise wurde der CPO auf dem diesjährigen Symposium nicht mit einem Wort erwähnt. Oder wenn, dann so leise, dass ich es nicht vernommen habe. Man hätte gerne gewusst, welche Fortschritte Anwender und Anbieter bei der Umsetzung in den letzten 12 Monaten gemacht haben. Ist die PLM-Welt dadurch ein bisschen offener geworden?

Was das Thema Standardisierung anbelangt, erwähnte Florack STEP AP 242 als mögliche Referenz für die datenbankorientierte Engineering Collaboration; man müsse den Standard nur endlich richtig implementieren, statt ihn auf seine Funktionen für den (dateibasierten) Geometriedatenaustausch zu reduzieren. Das mag wohl sein, aber mir wäre nicht bekannt, dass Dassault ihren Kunden inzwischen die Möglichkeit bietet, CATIA V6-Daten STEP AP242-konform mit einem anderen PDM-System als ENOVIA V6 zu verwalten. Aber was nicht ist, kann ja noch werden, wenn die ISO-Normierung des neuen STEP-Standards erst einmal abgeschlossen ist.

Letztlich geht es aber nicht um die Frage, ob man PLM datei- oder datenbankorientiert betreibt, sondern darum, wie zugänglich die Informationen in der Datenbank sind – für den Erzeuger, dessen geistiges Eigentum sie sind, für seine Partner, die mit den Daten weiter arbeiten sollen, für künftige Anwender, die vielleicht auch noch in 50 Jahren noch darauf zugreifen müssen, und letztlich auch für andere PLM-Hersteller, die diese Daten eventuell in ihre IT-Lösungen migrieren sollen. Solange diese Offenheit nicht gegeben ist, werden die Unternehmen dem datenbankorientierten PLM-Ansatz misstrauen.

Veröffentlicht unter Uncategorized | Verschlagwortet mit , , , | Hinterlasse einen Kommentar

Multiprojektmanagement fängt beim Einzelprojekt an

Es gibt viele, durchaus erfolgreiche Unternehmen, in denen die Geschäftsleitung nicht genau weiß, wie viele Entwicklungsprojekte gerade laufen und wann welche Ressourcen wieder frei werden, um gegebenenfalls neue Projekte einlasten zu können. Und das liegt nicht nur an den so genannten U-Boot-Projekten, die vom Management-Periskop nicht erfasst werden. Gerade in mittelständischen Unternehmen ist das Projektmanagement oft noch sehr hemdsärmelig, das heißt die Projekte werden ohne jede IT-Unterstützung abgewickelt, wenn man mal von den klassischen Excellisten absieht. Entsprechend aufwendig ist es, zuverlässige Informationen über den Stand der Projekte zusammenzutragen.

Mit freundlicher Genehmigung www.FreeDigitalPhotos.net

Mit freundlicher Genehmigung von Stuart Miles, FreeDigitalPhotos.net

Für ein Unternehmen, das eine Handvoll Projekte im Jahr abwickelt, mag das angehen. Aber das ist nicht die Regel. Zumindest nicht bei deutschen Mittelständlern, deren Stärke ja gerade darin besteht, viele kundenspezifische Entwicklungsprojekte gleichzeitig abzuwickeln – und das mit manchmal atemberaubender Geschwindigkeit. Solange alles nach Plan läuft, ist das kein Problem. Problematisch wird es immer dann, wenn Projekte aus dem Ruder laufen, das heißt nicht rechtzeitig fertig werden und/oder mehr Budget als geplant verschlingen. Ohne entsprechende IT-Lösungen hat die Geschäftsleitung kaum Möglichkeiten, solche Abweichungen frühzeitig zu entdecken und sofort gegenzusteuern.

Bei der Auswahl der entsprechenden IT-Lösung stehen die Unternehmen vor der Wahl, ein allgemeines Projektmanagement-System einzuführen, oder aber das Projektmanagement in ihre PLM-Lösung zu implementieren. Für erstere Option spricht, dass in den Unternehmen normalerweise nicht nur Entwicklungsprojekte, sondern auch eine Vielzahl von anderen Projekte abgewickelt werden. Deshalb bevorzugen sie verständlicherweise eine Lösung, die für Mitarbeiter unterschiedlicher Disziplinen und Abteilungen nutzbar und einfach zu bedienen ist. Für die Implementierung des Projektmanagements in die PLM-Lösung spricht hingegen, dass die Steuerung von Entwicklungsprojekten normalerweise besonders anspruchsvoll ist, gerade was das Management der Arbeitsfortschritte angeht. Diesen Anforderungen werden allgemeine Projektmanagement-Lösungen vielfach nicht gerecht.

Ein Projektmanagement zur Unterstützung des Entwicklungsprozesses muss die Möglichkeit bieten, neben den Kosten und Terminen auch die Qualität der Arbeitsergebnisse (Deliverables) zu kontrollieren. Dazu müssen sie notwendigerweise im Projektkontext verwaltet werden. Ohne Kenntnis des Umfangs und Reifegrads der Ergebnisse lässt sich nämlich nur schwer beurteilen, ob ein Projekt hinsichtlich Terminen und Kosten noch im grünen Bereich ist. Ein effizientes Management von Kosten, Terminen und Ergebnissen auf Einzelprojektebene ist letztlich die Grundlage für ein Multiprojektmanagement, das Programm- und Portfoliomanager oder die Geschäftsleitung mit belastbaren Informationen über den tatsächlichen Stand der Projekte versorgt. Dabei geht es nicht nur darum, Projekte in Schieflagen frühzeitig zu identifizieren, sondern auch Aussagen über die zu erwartende Geschäftsentwicklung zu treffen.

Erfolgsgeheimnis eines von den Mitarbeitern akzeptierten und gelebten Multiprojektmanagements ist die Nutzung von bereits vorhandenen Informationen bzw. von Informationen, die gewissermaßen beiläufig während der täglichen Projektarbeit erhoben werden. Dadurch reduziert sich für das „Fußvolk“ der Aufwand für die Pflege der Informationen. Sie brauchen nur noch gefiltert, verdicht und grafisch aufbereitet zu werden, um den Managern einen schnell verständlichen Überblick über das aktuelle Projektgeschehen in dem tatsächlich benötigten Detaillierungsgrad zu geben. Dank ihrer engen Verzahnung mit dem Produktentstehungsprozess bieten PLM-Lösungen die Möglichkeit, sowohl produkt- als auch prozessrelevante Kennzahlen automatisch zu erheben und auszuwerten. Ein Grund mehr für die PLM-Integration des Projektmanagements.

Veröffentlicht unter PLM-Anwendungen | Verschlagwortet mit , , , | Hinterlasse einen Kommentar

Hintertürchen zur Collaboration

Engineering Collaboration, die Zusammenarbeit von Unternehmen bei der Produktentwicklung, ist eigentlich nichts Neues. Es gibt das Thema schon solange wie es das Outsourcing gibt. Umso verwunderlicher ist, dass die wesentliche Herausforderung bei der Collaboration immer noch einer Lösung harrt: Die Einbettung der unternehmensübergreifenden Austausch- und Abstimmungsprozesse in die PDM/PLM-Lösungen, mit denen die Produktentwicklung in den Unternehmen gesteuert wird.

An fehlenden Tools liegt es wahrlich nicht – im Gegenteil: die Landschaft der Collaboration-Anwendungen ist dank Cloud und Social Media eher noch bunter geworden. Das eigentliche Problem ist die Integration dieser Tools in die IT-Infrastrukturen und Geschäftsprozesse des jeweiligen Unternehmens. Aus Sicherheitsgründen scheuen

PLM_portal

Mit freundlicher Genehmigung Gualberto107 / FreeDigitalPhotos.net

 die IT-Spezialisten davor zurück, ihre Enterprise Anwendungen nach außen zu öffnen. Das führt oft zu der absurden Situation, dass Daten und Know-how im Unternehmen bombensicher sind, dann aber schnell mal per Email ausgetauscht werden, weil die Ingenieure ja irgendwie ihre Entwicklungsarbeit erledigen müssen. Und die verteilt sich heute nun mal über eine immer längere Supply Chain. Selbst in der sicherheitsbewussten Automobilindustrie tauschen 45 Prozent der Unternehmen ihre Produktdaten mit Auftraggebern und Zulieferern noch vorwiegend per Email aus. Da reiben sich neugierige Nachrichtendienste und andere Datenpiraten freudig die Hände.

In Anbetracht der Tatsache, dass die Collaboration weiter zunimmt und immer globalere Züge annimmt, ist es vielleicht an der Zeit, mal über eine Neugewichtung nachzudenken. Das heißt mit anderen Worten: auf das letzte Quäntchen an innerer Sicherheit zu verzichten, indem man die PLM-Lösung gezielt für den Zugriff von außen öffnet, um dadurch Datensicherheit und Know-how-Schutz bei der Zusammenarbeit mit externen Partnern zu steigern. Insgesamt würde sich die Sicherheitsbilanz bei der verteilten Produktentwicklung dadurch spürbar verbessern. Man muss ja nicht gleich ein großes Portal aufreißen – mit einem Hintertürchen wäre den Projektverantwortlichen manchmal schon gedient.

Eine wesentliche Anforderung an eine solche Collaboration-Lösung ist, dass sie sowohl für die Auftraggeber, als auch für ihre Zulieferer von Nutzen ist. Allzu oft wurden in der Vergangenheit gerade im Automotive-Umfeld Lösungen implementiert, die die Last der Datenkommunikation einseitig den Partnern aufbürdete. Sie mussten für jeden Auftraggeber eine andere Anwendung implementieren und betreiben – oft ohne Integration in ihre Backend-Systeme. Die Daten wurden weitgehend von Hand in die Auftraggeber-Systeme eingepflegt.

Ganz wichtig ist natürlich auch, dass die Lösung unterschiedliche Szenarien der Zusammenarbeit unterstützt. Die Anforderungen bei einem Standardprozess wie zum Beispiel der Angebotseinholung (Request for Quotation) sind andere als bei einem gemeinsamen Entwicklungsprojekt, bei dem die Partner ihre Dateien idealerweise in eine gemeinsame Projektablage einstellen und dadurch die Arbeitsfortschritte online verfolgen. Asynchrone Workflows bieten die Möglichkeit, den Umfang an bereit gestellten Daten und PLM-Funktionen gezielt auf die Empfänger zuzuschneiden. Sie sind gewissermaßen das Hintertürchen der Collaboration, das man dann schrittweise zu einem Portal für die synchrone Zusammenarbeit bei Entwicklungsprojekten ausbauen kann.

Kurzmitteilung | Veröffentlicht am von | Verschlagwortet mit , , , | Hinterlasse einen Kommentar

PLM – Zuviel der Ehre

Es muss mal raus. Niemand sagt, dass PLM einfach ist. Das ist aber kein Grund, das Thema unnötig und ehrfürchtig zu überhöhen. Gängige Definitionen und Interpretationen tun aber leider genau das: PLM ist „ein Konzept“ (Wikipedia, WZL Aachen), „eine Strategie“ (IBM, Schöttner) oder „eine Methode“. Dass Konzepte, Strategien und Methoden helfen, mag so sein, aber mehr auch nicht.

Was haben wir? Den Gegenstand – hier den Lebenszyklus von Produkten – auf der einen Seite, und die Aufforderung, den Lebenszyklus zu managen, auf der anderen Seite. Nicht mehr und nicht weniger. Im Übrigen taugt auch der Begriff Lebenszyklus nicht besonders, um ins Staunen zu kommen. Dass auch Produkte einen solchen haben, liegt in der Natur der Sache. Jetzt muss man nur noch darauf kommen, diesen auch bewusst managen zu wollen, was auf der Hand liegt, wenn man mit Produkten sein Geld verdient.

Erst jetzt fängt es an, interessant werden. Es gibt halt gutes (Bau des Schweizer Gotthard Tunnels) und weniger gutes (Bau des Berliner Flughafens) Management.

PLM ist dann gut, wenn es die Vorgaben und Ziele des Unternehmens optimal erfüllt. Diese misst man am besten anhand von Kennzahlen und Vergleichen mit anderen Unternehmen (Benchmarking). Nun stellt sich die Frage, wie ich die Werte meines Unternehmens verbessern kann: Unverändert bewährt sind die Perspektiven Mensch, Organisation und Technik, und die Idee kontinuierlicher Verbesserung anhand eines Plan/Do/Check/Act-Regelkreises. Der Rest sind Details. Zugegeben: Da steckt der Teufel drin. Es sind aber keine Aufgaben, die nicht mit gesundem Menschenverstand und Kompetenz vorangebracht werden könnten, sofern das Management ehrlich dahinter steht!

Die Überhöhung, die hinter Begriffen wie Strategie und Methode steckt, ist der Sache nicht dienlich, weil sie ablenkt, ehrfürchtige Distanz schafft und Raum für Ausreden bietet: „kompliziert!“, „später!“. Da ist die Frage nach den Zielen viel geeigneter, weil sie zugleich eine gemeinsame Diskussionsebene mit dem Management bietet: Was will ich konkret verbessern und anhand welcher Kennzahlen kann ich dies beschreiben?

Was ist also PLM? Eine Managementaufgabe! Die wird natürlich heute auch schon irgendwie erledigt, bietet aber in vielen Unternehmen noch Potenzial. In Anlehnung an den Begriff der Good Manufacturing Practice passt hier „Good Management Practice“ mit dem Ziel, Durchlaufzeiten und Kosten zu reduzieren und die (Produkt-) Qualität zu erhöhen. Der Rest ergibt sich. Bange machen gilt nicht.

Veröffentlicht unter Praxis | Ein Kommentar

Produkt und Service verschmelzen

Immer mehr produzierende Unternehmen erkennen die Bedeutung des Service für ihren Markterfolg. “Wir setzen Akzente durch unsere Serviceführerschaft “, sagte mir neulich der PLM-Projektleiter eines mittelständischen Schweizer Maschinenbauers, der Klebstoff-Auftragssysteme herstellt und seine Kunden auch bei der Optimierung ihrer Klebeprozesse berät. Einige Mitbewerber verkaufen sogar nur noch Verbrauchsmaterialien und liefern die Maschinen gleich zusammen mit dem Klebstoff.

Produkte durch Dienstleistungen zu ergänzen oder sogar zu ersetzen, macht ökonomisch Sinn. Zunächst einmal erschließen sich produzierende Unternehmen zusätzliche Einnahmequellen. Sie steigern dadurch nicht nur ihren Umsatz, sondern auch und vor allem ihren Gewinn, weil die Margen im Servicegeschäft größer sind. Das belegt eine Studie von Deloitte aus dem Jahr 2006, der zufolge die Fertigungsunternehmen 26 Prozent ihrer Umsätze, aber 46 Prozent ihrer Gewinne mit Dienstleistungen erwirtschafteten.

Image

Power by the Hour: Rollce-Royce verkauft seinen Kunden keine Triebwerke, sondern Triebwerksstunden und kümmert sich selbst um die Wartung. (copyright © Rolls-Royce plc 2012)

Dienstleistungen haben außerdem den Vorteil, dass sie schneller und kostengünstiger bereit gestellt werden können als physische Produkte. Sie lassen sich nicht so einfach von Mitbewerbern in Billiglohnländern kopieren, weil sie eine entsprechende Infrastruktur und qualifiziertes Personal erfordern. Und sie unterstützen die Differenzierung des Produktangebots bzw. in Kombination mit Retrofitting die Verlängerung der Produktlebenszyklen. Die Qualität der Dienstleistungen trägt maßgeblich zur Intensivierung der Kundenbindung bei. Ein kompetenter und kulanter Service kann manchen Mangel des Produkts wettmachen und sorgt für eine höhere Kundenzufriedenheit.

Der Trend in der Fertigungsindustrie geht dahin, über das klassische Ersatzteil- und Wartungsgeschäft hinaus immer anspruchsvollere Dienstleistungen anzubieten, um die Kunden dauerhaft an sich zu binden. Amerikanische Marketing-Experten haben für die Kombination von Produkt- und Serviceangeboten, die unter dem Einfluss des Internets der Dinge zunehmend miteinander verschmelzen, den Begriff der Servitization geprägt. Im Extremfall zahlt der Kunde nur noch für das, was Prof. Tim Baines von der Ashton Business School, einer der führenden Servitization-Experten, die Customer Experience nennt. Die Befähigung des Kunden, zum Beispiel eine bestimmte Anzahl an Flaschen pro Monat abzufüllen oder Passagiere pünktlich mit dem Zug von A nach B zu befördern.

Die Kombination von Produkten mit anspruchsvollen Serviceangeboten bietet Fertigungsunternehmen neue Chancen, bedeutet aber auch neue Herausforderungen. Sie müssen ihre Geschäftsmodelle überdenken und treten unter Umständen in Wettbewerb zu Service-Providern, die diese Dienstleistungen auch bisher schon angeboten haben. Sie müssen lernen, wie ein Dienstleistungsunternehmen zu denken und zu handeln, was neue Mitarbeiter und Qualifikationen erfordert. Und sie müssen sich Gedanken darüber machen, wie sie ihr Risiko eingrenzen, d.h. wie sie sich vertraglich gegen Fehlbedienungen durch die Anwender absichern. Denn sie garantieren die Verfügbarkeit von Produkten, die sie in der Regel nicht selber betreiben oder bedienen.

Diese Herausforderungen lassen sich nur bewältigen, wenn Produktentwicklung und Service enger zusammen rücken. Das ist in erster Linie eine organisatorische Aufgabe, die aber IT-technisch unterstützt werden kann. Zum einen müssen Anforderungen an die Produkte, die sich aus neuen Serviceangeboten ergeben, schon frühzeitig in die Portfolioplanung und das Anforderungsmanagement einfließen. Zum anderen müssen Informationen aus dem Service, die für die Weiterentwicklung der Produkte relevant sind, wieder in die PLM-Umgebung zurückfließen. Aberdeen kommt in der erwähnten Studie zu dem Schluss, dass die Serviceorganisationen leistungsfähigere IT-Lösungen für Konzeption, Planung und Management ihrer Operationen benötigen. Sie brauchen auch leistungsfähige Integrationen zu den PLM-Lösungen, die allenfalls einen Teil dieser Aufgaben werden übernehmen können.

Veröffentlicht unter Uncategorized | Hinterlasse einen Kommentar