Wohin mit der Fertigungsstückliste?

In Fachkreisen wird seit einiger Zeit lebhaft darüber diskutiert, wo die Fertigungsstückliste eigentlich hingehört. Da diese Diskussion im wesentlichen auf Englisch geführt wird, ist allerdings meist von Manufacturing Bill of Material bzw. mBOM die Rede. Spontan würde man sagen, sie gehört ins ERP-System, weil das ERP-System – oft in Verbindung mit einem MES-System (Manufacturing Execution System) – die Fertigungsprozesse steuert und weil es das bevorzugte Werkzeug der Mitarbeiter im Unternehmen ist, die für die Steuerung dieser Prozesse verantwortlich sind. Aber die Sache ist nicht ganz so einfach.

Fertigungsstücklisten werden immer seltener von Hand im ERP-System angelegt. Meist sind sie das Ergebnis einer Produktstruktur, die im 3D-CAD-System wächst. Der PLM-Einsatz hat in vielen Unternehmen zu einem arbeitsteiligen Stücklistenmanagement geführt: Die Konstruktionsstückliste (Engineering Bill of Material oder kurz eBOM) wird im PLM-System angelegt und ab einem bestimmten Reifegrad an das ERP-System übergeben, um die mBOM abzuleiten. Je nach Prozess-Anforderungen wird sie im ERP-System nicht nur um Positionen wie den berühmten Tropfen Öl ergänzt, sondern sogar in ihrem Aufbau verändert.

wegweiser2

Mit freundlicher Genehmigung Stuart Miles, http://www.FreeDigitalPhotos.net

Die quasi automatische Erzeugung bzw. Ableitung der Stücklisten spart Zeit und vermeidet Fehleingaben. Bei technischen Änderungen verursachen die Unterschiede zwischen eBOM und mBOM jedoch einen erheblichen Aufwand für die Synchronisation der redundanten Stücklisten-Informationen in den verschiedenen IT-Systemen. Das umso mehr, wenn die eBOM auf mehrere, werkspezifische mBOMs abgebildet werden muss, weil ein und dasselbe Produkt an verschiedenen Standorten mit unterschiedlichen Zutaten und nach unterschiedlichen Rezepten produziert wird.

Der Leidensdruck bei der Stücklisten-Synchronisation ist nicht in allen Unternehmen gleich groß. Insbesondere Hersteller von komplexen Produkten mit langen Lebenszyklen, die viel Re-Engineering und Re-Konfiguration betreiben, beklagen sich oft über die mangelnde ERP-Unterstützung bei Änderungen an den Fertigungsstücklisten. Auch Unternehmen, die an ihren global verteilten Fertigungsstandorten separate ERP-Systeme oder -Instanzen nutzen, vermissen ein übergreifendes Stücklistenmanagement, um Änderungen schnell und sicher an die Werke kommunizieren zu können. Noch schwieriger ist die Synchronisation zwischen eBOM und mBOM, wenn sich die Entwicklung und Fertigung über eine lange Zulieferkette verteilen, was heute vielen Branchen der Fall ist.

Das arbeitsteilige Stücklistenmanagement wird deshalb zunehmend in Frage gestellt – bis hin zu der Überlegung, ein so genanntes Master Data Management (MDM) für die Verwaltung sämtlicher Stücklisten-Ausprägungen aufzusetzen. So charmant die Idee ist, ich glaube nicht, dass wir dafür ein neues IT-System brauchen. Die Frage, wo die Fertigungsstückliste hingehört, ist nämlich im Prinzip falsch gestellt. Natürlich gehört sie irgendwann ins ERP- oder auch ins MES-System, damit das Produkt gefertigt werden kann. Worum es eigentlich geht ist, die Anlage der Fertigungsstückliste(n) und die Synchronisation zwischen mBOM und eBOM in einem System zusammenzuführen, das in der Lage ist, mehrere Stücklisten-Sichten zu verwalten und zu synchronisieren, um den Abstimmungsaufwand zu minimieren.

Meines Erachtens ist das keine Frage der Ideologie, sondern eine ganz pragmatische Entscheidung, die das Unternehmen entsprechend seiner Anforderungen und seiner IT-Landschaft fällen sollte. Wenn das ERP-System die Abbildung unterschiedlicher Sichten nicht oder nur ungenügend unterstützt, das PLM-System aber entsprechende Funktionen bietet, dann spricht nichts dagegen, die Hoheit über die Fertigungsstückliste an das PLM-System zu übertragen. Im Gegenteil, es spricht sogar einiges dafür – zum Beispiel die Möglichkeit, eBOM und mBOM im PLM auch mit der Service-Stückliste zu synchronisieren, die wieder ganz anders aufgebaut sein kann.

Veröffentlicht unter PLM-Anwendungen, Trends | Verschlagwortet mit , , , , | Hinterlasse einen Kommentar

Verbesserungen am laufenden Band

Der Ausdruck “am laufenden Band” stammt – so möchte ich mal vermuten – aus der Welt der Fertigung, hat sich aber dank Rudi Carrell zu einem stehenden Begriff für alles entwickelt, was in rastloser Unruhe ist. Vielleicht sollte man besser von Verbesserungen im laufenden Betrieb sprechen. Denn darum geht es, wenn Unternehmen ihre funktionierenden PLM-Installationen weiter ausbauen und verbessern.

Mit freundlicher Genehmigung freedigitalphotos.net

Mit freundlicher Genehmigung Chomnancoffee, FreeDigitalPhotos.net

Neulich sprach ich mit dem Projektleiter eines mittelständischen Schweizer Unternehmens, das im vergangenen Jahr eine umfassende PLM-Lösung einschließlich Projektverwaltung implementiert hatte. Unmittelbare Nutzeneffekte waren eine bessere Prozessdurchgängigkeit und Datenkonsistenz. Inzwischen hat das Unternehmen sein Änderungsmanagement dahingehend erweitert, dass bei Freigabe der Änderung eines Artikels die Stücklisten von allen Produkten, in denen dieser Artikel verbaut ist, automatisch aktualisiert werden. Die Zeiteinsparungen durch die Neuerung sind nicht gewaltig, weil man auch früher schon Sammeloperationen ausführen konnte, aber die erweiterten Änderungsmanagement-Funktionen befreien die Anwender von lästigen Routinetätigkeiten. Vor allem aber sind sie die Grundlage für die Abbildung des gesamten ECM-Prozesses (Engineering Change Management) in einem elektronischen Workflow, von dem das sich Unternehmen sich eine spürbare Verkürzung der Durchlaufzeiten von Änderungen verspricht. Sie soll der nächsten Ausbaustufe umgesetzt werden.

Die Moral von der Geschichte ist, dass PLM-Projekte eigentlich nie zu Ende gehen. Es müssen im laufenden Betrieb immer wieder neue Wünsche und Bedürfnisse umgesetzt werden, und sei es nur deshalb, weil sich die Anforderungen des Unternehmens mit der Zeit verändern. Eines ist allerdings sicher: Es werden nie weniger, sondern immer mehr, weshalb sich der Funktionsumfang der PLM-Installationen ständig vergrößert. Wer hätte vor ein paar Jahren gedacht, dass Themen wie Anforderungsmanagement, Konfigurationsmanagement, Projektmanagement oder Qualitätsmanagement mal zu den PLM-Funktionen gehören würden.

Mit wachsendem Funktionsumfang wächst der Kreis der PLM-Anwender und er wird heterogener. Im Unterschied zu den Ingenieuren, die zu den Power Usern gehören, greifen viele andere Anwendergruppen nur gelegentlich auf PLM-Informationen zu. Sie brauchen eine einfache, intuitiv zu bedienende Benutzeroberfläche, in der sie sich ohne Lernaufwand zurecht finden. Dieser Anforderung werden viele PLM-Systeme immer noch nicht ganz gerecht, was sich negativ auf die Akzeptanz auswirkt.

Auch seitens des Managements ergeben sich neue Anforderungen an die PLM-Systeme. Die Führungskräfte wollen vielleicht ihre Entscheidungen mit Hilfe von Kennzahlen besser absichern, die sich aus den oft beiläufig erfassten Informationen im PLM destillieren lassen. Oder sie wollen eine Multiprojektsicht auf alle laufenden und geplanten Entwicklungsprojekte haben, um Prognosen über die weitere Geschäftsentwicklung machen zu können.

Was bedeutet das für die PLM-Systeme und ihre Hersteller? Zunächst einmal, dass sie wachstumsfähig sein müssen. Mit den monolithischen Software-Architekturen der Vergangenheit ist es kaum möglich, den erweiterten Funktionsumfang in einer angemessenen Zeit bereitzustellen. Notwendig sind modulare Software-Plattformen, die sich schnell und flexibel um neue Anwendungsmodule ergänzen lassen. Notwendig sind leistungsfähigere Programmierwerkzeuge, mit denen der Kunde oder sogar ein Third-Party-Entwickler zusätzliche Module entwickeln kann, ohne die Update-Fähigkeit der Lösung zu verbauen. Notwendig ist aber auch und vor allem mehr Offenheit der PLM-Systeme, um Fremdanwendungen leichter integrieren zu können, denn die Hersteller werden auf Dauer nicht den gesamten Funktionsumfang aus eigener Kraft bereitstellen wollen oder können.

Veröffentlicht unter PLM-Anwendungen, Technologien | Hinterlasse einen Kommentar

PLM-Nutzen muss messbar sein

Vor ein paar Monaten hat Oleg Shilovitsky den PLM-Herstellern und ihren Lösungen in einem Blog-Beitrag vorgeworfen, dass sie sich mit dem Nachweis des Return on Invest (ROI) traditionell schwer tun. Kein neuer Vorwurf und einer, der dem Problem nicht ganz gerecht wird. Es sind nämlich nicht nur die PLM-Hersteller, sondern auch die Anwender selbst, die sich damit schwer tun.

Viele Unternehmen scheuen den Aufwand für die Berechnung des ROI, gerade weil sie einen möglichst schnellen ROI erzielen möchten. Nur scheinbar ein Widerspruch: Um die Nutzeneffekte der Investition exakt messen zu können, müssten sie erst die bestehenden Prozesse und ihre Schwachstellen genau analysieren und Kennzahlen für die Messung von Verbesserungen definieren. Das kostet Zeit und Geld, insbesondere wenn externe Berater involviert sind, weshalb die Analyse des Ist-Zustands meist recht rudimentär ausfällt.

Mit freundlicher Genehmigung von marcolm, freedigitalphotos.net

Mit freundlicher Genehmigung von marcolm, freedigitalphotos.net

Manchmal sind die Nutzeneffekte des PLM-Einsatzes so offensichtlich, dass die Unternehmen glauben, sich den Analyseaufwand schenken zu können. Der Geschäftsführer eines Anlagenbauers mit mehr als 150 PLM-Anwendern, der gerade ein aufwendiges Migrationsprojekt hinter sich gebracht hatte, sagte mir neulich auf die Frage nach dem ROI: „Die Investition war definitiv notwendig. Wenn jeder meiner Mitarbeiter dadurch auch nur zehn Minuten Zeit am Tag spart und wir gleichzeitig die Neuanlage von Artikeln reduzieren, brauchen wir über den ROI nicht mehr zu reden.”

In anderen Fällen ist die PLM-Investition unerlässlich, um den wachsenden Nachweispflichten nachkommen zu können. Gerade Automobilzulieferer müssen ihre Entwicklungsprozesse und die Ergebnisse minutiös dokumentieren– sonst laufen sie Gefahr, keine Aufträge mehr zu bekommen. PLM ist dabei von strategischer Bedeutung; wie schnell sich diese Investition bezahlt macht, spielt deshalb eine untergeordnete Rolle.

Erschwert wird der Nachweis des ROI auch noch durch ein anderes Phänomen: Der breiter werdende Funktionsumfang der PLM-Anwendungen und ihre zunehmende Verzahnung mit anderen Unternehmensanwendungen führt zu immer mehr Nutzeneffekten, die sich nur schwer quantifizieren und nicht mehr klar zuordnen lassen. Wie will man zum Beispiel die Produktivitätszuwächse messen, die sich daraus ergeben, dass jüngere Mitarbeiter dank PLM einfacher auf das Erfahrungswissen ihrer Kollegen zugreifen können? Bei Großunternehmen mit vielen Kostenstellen ergibt sich zudem das Problem, dass die Nutzeneffekte nicht unbedingt dort entstehen, wo die Kosten anfallen und auch genehmigt werden müssen.

Es geht bei der Analyse der Nutzeneffekte aber nicht nur um die Rechtfertigung einer einmaligen Investition, sondern auch und vor allem um die Frage, wie sich mit Hilfe von PLM die Effizienz der Produktentwicklung nachhaltig steigern lässt. Dazu müssen entsprechende Prozesskennzahlen definiert und kontinuierlich verfolgt werden. Eigentlich kein Hexenwerk, da die Basisdaten in der PLM-Lösung meist schon vorhanden sind und nur verdichtet werden müssen. Wann eine Änderung beantragt und wann sie abgeschlossen wurde, erfasst das System zum Beispiel automatisch. Es ist mithin ein Leichtes, die Durchlaufzeiten von Änderungsaufträgen zu berechnen.

Wie in meinem letzten Blog-Beitrag zu lesen, sind viele Führungskräfte mit dem Nutzen ihrer bisherigen PLM-Investitionen unzufrieden. Das gilt insbesondere für den Nutzen, den sie für ihre Führungsaufgaben aus den PLM-Daten ziehen. Der Accenture-Surveys erlaubt eine positive und eine negative Interpretation: Erfreulich ist, dass sich die Führungskräfte der strategischen Bedeutung der PLM-Lösungen und der in ihnen steckenden Informationen bewusst sind. Bedauerlich hingegen, dass viele PLM-Hersteller es offensichtlich noch nicht geschafft haben, ihnen geeignete Werkzeuge für die Nutzung dieser Informationen an die Hand zu geben. Ein flexibles Kennzahlenmanagement und gute Reporting-Funktionen sollten heute zum Standardumfang jeder PLM-Lösung gehören.

Veröffentlicht unter Uncategorized | 2 Kommentare

Hindernisse im PLM-Parcour

In diesem Sommer habe ich Irland wieder entdeckt, wo ich das letzte Mal vor über 15 Jahren war. Vieles hat sich seitdem verändert, nur die Infrastruktur scheint in vielen Gegenden so unberührt geblieben zu sein wie die herrlich grüne Natur: Man fährt mit viel zu breiten Autos über viel zu schmale Straßen vorbei an viel zu vielen Schafen – und das auch noch auf der “falschen” Seite. Dass da der Verkehrsfluss öfter mal stockt, nimmt nicht wunder.

PLMparcour

Connemara-Pony müsste man sein! Im PLM-Parcour sind viele Hindernisse zu überspringen. (Bild: Wendenburg)

Das irische Straßen-Bild kam mir in den Sinn, als ich den Accenture-Survey über PLM in der Luftfahrt und Wehrtechnik las (zugegeben, ich war noch halb im Urlaubsmodus): Ausgedehnte IT-Landschaften mit schlechten Verbindungen, über die Informationen langsam und oft nur in eine Richtung fließen. Die befragten Führungskräfte betrachten PLM zwar als wesentlich für Effizienzsteigerungen im Produktlebenszyklus, sind aber mit dem Nutzen ihrer bisherigen PLM-Investitionen nicht zufrieden. Ich denke, dass sich die Ergebnisse auch auf andere Branchen übertragen lassen.

Die Unternehmen der Luftfahrt und Wehrtechnik würden das PLM-Potenzial gerne nutzen, um ihre Umsätze deutlich zu steigern und ihre Kosten zu senken, stoßen aber dabei auf eine Vielzahl von Hindernissen: Handlungsbedarf besteht vor allem bei der Integration zwischen PLM und der Fertigung sowie bei der Kollaboration mit der Zulieferkette, aber auch bei der Zusammenarbeit zwischen Engineering und Service. Statt in die Tiefe der PLM-Funktionalität, sollten Unternehmen laut Accenture lieber in die Breite einer Prozessintegration investieren.

Die Führungskräfte sind sich der Schwachstellen bewusst. Immerhin 94 Prozent der Befragten gaben an, dass die Fertigung von einer besseren Integration mit der Produktentwicklung profitieren würde und die meisten von ihnen planen entsprechende Investitionen. Die Studie zeigt verschiedene Handlungsfelder auf: Companies’ responses show significant discrepancies between expected benefits of integrating product development and manufacturing, and satisfaction with today’s performance. Similar gaps are seen across the bill of materials, efficiency and control of change orders, graphical work instructions and process plans.”

Eine wesentliche Erkenntnis der Studie ist, dass die Unternehmen zu wenig Nutzen aus den PLM-Daten ziehen. Das gilt sowohl für den Umfang an Daten, die anderen Funktionen und Prozessen bereit gestellt werden, als auch für die Informationen, die sie aus diesen Daten ziehen. Ein Großteil der Befragten gab an, Analytik- und Business-Intelligence-Funktionen anzuwenden oder anwenden zu wollen, um die Nutzung der Produktdaten zu verbreitern und bessere Entscheidungen treffen zu können. Accenture zufolge werden wir in der nächsten Zeit deshalb vermehr Einführungen von entsprechenden Analytik-Werkzeugen sehen.

Um den Nutzen ihrer PLM-Investitionen zu verbessern, werden die Unternehmen weiterhin in PLM investieren (müssen) – allerdings wird sich der Fokus in den nächsten Jahren verschieben. Während zum Beispiel die Investitionen in Projekt- und Programm-Management-Funktionen deutlich sinken sollen, werden die Unternehmen weiterhin massiv in das Konfigurationsmanagement investieren. Davon werden PLM-Hersteller profitieren, die sich seit Jahren intensiv mit dem Thema beschäftigen – vorausgesetzt sie schaffen es, eine wesentliche Anforderung zu erfüllen: Die Komplexität des Konfigurationsmanagements zu reduzieren!

Veröffentlicht unter Markt & Anbieter, Trends | Hinterlasse einen Kommentar

Qualitätsmanagement als Sisyphosarbeit

Qualitätsmanagement ist eine Sisyphosarbeit, bei der man nie wirklich am Ziel ankommt. Irgendwann fällt einem der Felsblock wieder vor die Füße. Davon kann der japanische Automobilhersteller Toyota ein (Klage-)Lied singen – ein richtiges sogar; nix mit Karaoke. Obwohl die Japaner das Qualitätsmanagement quasi erfunden haben, produzieren sie in letzter Zeit Rückruf-Aktionen in Serie.

Ein klarer Fall für CAPA (Corrective And Preventive Action) möchte man spotten: Aus den Fehlern der Japaner lernen, um sie in Zukunft zu vermeiden. Schadenfreude ist jedoch fehl am Platze: Erst Ende letzten Jahres musste der Volkswagen-Konzern in einer der größten Rückrufaktionen der Unternehmensgeschichte 2,6 Millionen Fahrzeuge wegen eines drohenden Getriebeschadens und Problemen mit dem Lichtsystem in die Werkstätten beordern. Betroffen war vor allem der chinesische Markt, wo die Fahrzeuge bei schwülen Temperaturen länger als anderswo im Stau stehen.

Toyoda Sakichi, König der japanischen Erfinder und Vater des Gründers von Automobilhersteller Toyota. Bild: Toyota

Toyoda Sakichi, König der japanischen Erfinder und Vater des Gründers von Automobilhersteller Toyota. Bild: Toyota

Das Toyota-Produktionssystem, das auf die Maximierung der Kundenzufriedenheit bei Qualität, Lieferzeit und Kosten ausgerichtet ist, war lange Zeit und ist immer noch Vorbild für ein erfolgreiches Qualitätsmanagement. Ganze Bücher wurden über den Toyota Way geschrieben. Eine seiner Grundlagen ist das von Toyoda Sakichi, dem Vater des Firmengründers, Anfang des 20. Jahrhunderts entwickelte Jidöka-Prinzip der autonomen Automatisierung. Es sieht die Kontrolle der gefertigten Materialien während des laufenden Produktionsprozesses vor, und zwar durch Komponenten und Funktionen der Maschinen (Webstühle), die es erlauben, Abweichungen vom Normalzustand selbsttätig zu erkennen.

Das muss man sich mal vorstellen: Die revolutionäre Idee von Industrie 4.0 wurde nicht etwa in Deutschland, sondern in Japan geboren, und das vor über 100 Jahren, während der zweiten industriellen Revolution. Arigatou! Toyoda-san, möchte man mit höflicher Verneigung Richtung aufgehender Sonne sagen.

Aber zurück zu unserem eigentlichen Thema. Toyoda Sakichi verdanken wir das Prinzip der prozessbegleitenden Qualitätssicherung und damit zugleich die Einsicht, dass es effizienter ist, die Produktqualität über gute Prozesse sicherzustellen als durch nachträgliche Kontrollen. Das bedeutet, dass Qualitätsmanagement nicht nur die Qualität des Produkts, sondern auch die der produkt-relevanten Prozesse im Blick hat. Allerdings war diese Prozesssicht zunächst noch sehr stark auf die Optimierung der Fertigung fokussiert.

Inzwischen hat sich die Erkenntnis durchgesetzt, dass Qualitätsmanagement dort ansetzen muss, wo 70 bis 80 der Kosten des späteren Produkts und damit auch die Kosten für die Beseitigung von Fehlern definiert werden: In der Produktentwicklung. Oder um genauer zu sein: In der Konzeptphase, in der die Qualitätsmerkmale des Produkts festgelegt und die Produktionsprozesse, das heißt das Zusammenspiel von Maschinen, Anlagen, Betriebsmitteln und Automatisierungstechnik für ihre Herstellung konzipiert werden. Dafür steht das Konzept der Advanced Product Quality Planning (APQP) und die dazu gehörigen Methoden zur Analyse möglicher Fehler im Prozess und ihrer Eintrittswahrscheinlichkeit (FMEA).

Die besten Konzepte der Qualitätsvorausplanung nützen allerdings nichts, wenn die Planungsergebnisse im laufenden Entwicklungsprozess nicht durch entsprechende Reifeprüfungen regelmäßig abgesichert werden. Das Qualitätsmanagement kann deshalb nicht allein Aufgabe der Qualitätssicherung sein, sondern betrifft alle Disziplinen, die in den Produktentstehungsprozess involviert sind. Das bedeutet aber auch, dass die Werkzeuge und Methoden für das Qualitäts- und Risikomanagement in die IT-Lösungen zur Steuerung des Produktlebenszyklus integriert werden müssen.

Quality Lifecycle Management (QLM) sei einer der neuen Zuständigkeitsbereiche von PLM, schrieb Jim Brown von Tech Clarity schon vor Jahren in einem Blog-Beitrag, um gleich einzuschränken, dass die meisten PLM-Lösungen dafür funktional noch nicht reif seien. Das sollte sich inzwischen geändert haben. Schließlich muss die Befriedigung der Kundenbedürfnisse auch für Software-Hersteller das oberste Ziel des Qualitätsmanagements sein.

Veröffentlicht unter PLM-Anwendungen, Trends | Verschlagwortet mit , , | Hinterlasse einen Kommentar

Industrie 4.0 braucht smarte Produkte

Die vierte industrielle Revolution kann die Produktivität der deutschen Wirtschaft bis zum Jahr 2025 um mindestens 78 Milliarden Euro steigern. Das behauptet eine Untersuchung, die das Fraunhofer IAO im Auftrag des Hightech-Verbands BITKOM durchgeführt hat (als PDF downloaden). Die Betonung liegt auf dem Wörtchen “kann”: Es handelt sich nicht um eine statistisch abgesicherte Prognose, sondern um die Einschätzung des Wachstumspotentials in ausgewählten Branchen durch verschiedene Branchenexperten.

Für die erfolgreiche Umsetzung von Industrie 4.0 müssen eine Reihe von Voraussetzungen technischer, organisatorischer und normativer Natur gegeben sein – so die Studie. Eine Revolution, die Normen voraussetzt, statt sie außer Kraft zu setzen? Das ist wieder mal typisch deutsch, möchte man spotten. Kein Wunder, dass hierzulande noch jede Revolution gescheitert ist, geschweige denn dass wir je eine Revolution erfolgreich exportiert hätten. Wir erlauben Revolutionären allenfalls die Durchreise in plombierten Waggons, damit sie andernorts umstürzlerisch tätig werden. Und dass sich Angela Merkel als deutsche Jeanne d’ Arc an die Spitze dieser Umsturzbewegung stellt, entbehrt nicht einer gewissen Komik. Das ist ungefähr so als wäre Louis XVI im Juli 1789 auf den Balkon von Versailles getreten und hätte zum Sturm auf die Bastille aufgerufen.

Quelle: Abschlussbericht des Arbeitskreises Industrie 4.0 von acatech – Deutsche Akademie der Technikwissenschaften e.V.

Wenn ich, was die Erfolgsaussichten von Industrie 4.0 anbelangt, skeptisch bin, dann aber aus einem anderen Grund: Das von der Bundesregierung initiierte Zukunftsprojekt oder das, was davon bislang an die Öffentlichkeit dringt, ist für meinen Geschmack viel zu einseitig auf die Produktion d.h. die intelligente Vernetzung der Fertigungs- und Logistikprozesse fokussiert. Da sind wir in Deutschland eigentlich ganz gut aufgestellt. Die intelligente Fabrik ist zweifellos wichtig, weil wir aufgrund der Individualisierung unserer Produkte bei kleiner werdenden Stückzahlen hohe Anforderungen an die Flexibilisierung der Produktionsprozesse haben. Aber sie reicht nicht aus. Was nutzt uns eine noch so intelligente Fabrik, wenn wir darin dumme Produkte fertigen, die keiner mehr haben will?

Prof. Martin Eigner, einer der Autoren des bei acatech veröffentlichten Diskussionspapiers zum Thema Smart Engineering (als PDF downloaden), hat das in einem Gespräch am Rande des ProSTEP iViP-Symposiums neulich auf den Punkt gebracht: “Ohne intelligente Produkte gibt es keine Industrie 4.0. Unser Problem in Deutschland ist nicht die Fertigung, sondern dass wir dafür neue Produkte und Geschäftsmodelle generieren müssen.”

Um Missverständnissen vorzubeugen: Ich finde es begrüßenswert, dass die vierte industrielle Revolution mit Forschungsgeldern in Milliardenhöhe gefördert wird. Nur befürchte ich, dass viele dieser Gelder in die falschen Projekte investiert werden. Industrie 4.0 tut nämlich den zweiten Schritt vor dem ersten: Bevor wir uns darüber Gedanken machen, wie sich Produkte intelligenter fertigen lassen, sollten wir uns erst einmal überlegen, wie wir es schaffen, smartere Produkte zu entwickeln. Produkte, die über das Internet of Things (IoT) miteinander kommunizieren und dadurch neue Dienstleistungsangebote und Geschäftsmodelle ermöglichen. Das ist der Denkansatz, den die Amerikaner verfolgen. Mit wie viel Intelligenz diese smarten Produkte dann gefertigt werden, wird auch davon abhängen, wo auf der Welt die Fertigung angesiedelt ist. Ich glaube nämlich nicht, dass es uns dank noch so intelligenter Fabriken gelingen wird, beispielsweise die Handy-Fertigung nach Europa zu holen. Je mehr Varianz in einem Produkt über die Software abgebildet werden kann, desto einfacher lassen sich die mechanischen Komponenten in Großserie fertigen und montieren. Und dafür muss eine Fabrik nicht besonders schlau sein.

Das IoT bedeutet eine große Herausforderung für die Innovationsfähigkeit der Unternehmen. Sie müssen in der Lage sein, komplexe mechatronische Systeme zu entwickeln, die über das Internet miteinander kommunizieren. Und sie müssen diese cyberphysischen Systeme um innovative Dienstleistungen ergänzen, die gegebenenfalls ihre bestehenden Geschäftsmodelle in Frage stellen. Dafür benötigen sie einerseits leistungsfähige Werkzeuge und Methoden für die interdisziplinäre Produktenwicklung und für ein systematisches Innovationsmanagement; andererseits müssen sie ihre Innovations- und Entwicklungsprozesse neu strukturieren.

Wenn die vierte industrielle Revolution nicht im Engineering ansetzt, wo meines Erachtens der größere Handlungsbedarf besteht, ist sie zum Scheitern verurteilt. Dann wird Industrie 4.0 ebenso schnell wieder vergessen sein wie die selige CIM-Philosophie vor 30 Jahren. Hier für Nostalgiker zur Erinnerung noch mal die CIM-Definition der Society of Manufacturing Engineers (SME): CIM is the integration of total manufacturing enterprise by using integrated systems and data communication coupled with new managerial philosophies that improve organizational and personnel efficiency. Das ist nicht weit von der Idee der digitalen Fabrik entfernt. Nur dass es das Internet als Plattform für ihre Vernetzung damals noch nicht gab. Aber genau wie damals fehlen auch heute wieder die Standards. Ohne solche Standards – so die eingangs erwähnte BITKOM-Studie – ist die freie, problemlose Austauschbarkeit von Industrie 4.0-Komponenten nach dem Prinzip des “Plug and Produce” nicht denkbar.

Veröffentlicht unter Technologien, Trends | Verschlagwortet mit , , , | 2 Kommentare

Datei- oder datenbankorientiert – ist das die Frage?

Auf dem diesjährigen ProSTEP iViP-Symposium hatte ich das Plaisir, einen ziemlich erbosten Dominique Florack zu interviewen. “Wenn die europäischen Unternehmen nicht endlich verstehen, dass die Zukunft der PLM-Technologie im datenbankorientierten Arbeiten liegt, setzen sie ihre internationale Wettbewerbsfähigkeit aufs Spiel”, meinte der Mann, der als Senior Vice President Research & Development bei Dassault Systèmes maßgeblich für die Entwicklung der 3DExperience-Plattform verantwortlich ist. ERP- oder CRM-Systeme arbeiteten schließlich auch datenbankgestützt.

Foto_database

Mit freundlicher Genehmigung Danilo Rizzuti, FreeDigitalPhotos.net

Obwohl ich Florack prinzipiell durchaus zustimmen würde, muss ich zu bedenken geben, dass die Frage des datei- oder datenbankorientierten Arbeitens in erster Linie eine Frage der Autorensysteme ist. Solange CAD-Systeme die Arbeitsergebnisse als Files ablegen, bleibt den PDM/PLM-Lösungen nichts viel anderes übrig, als sie dateibasiert zu verwalten. Aber genau da liegt der Hase im Pfeffer: Was Florack den bockigen Kunden (und uns Journalisten) mit der Cloud im Hinterkopf eigentlich sagen will ist, dass die Zukunft der CAD-Technologie im datenbankorientierten Arbeiten liegt. Um CAD in der Cloud betreiben zu können, brauche man eine andere Software-Architektur.

Auch dagegen wäre prinzipiell nichts einzuwenden, wenn es einen allgemein akzeptierten Standard dafür gäbe, wie der Content einer CAD-Konstruktion datenbankgestützt zu verwalten ist. Oder wenn die CAD-Hersteller ihre Verwaltungsstrukturen offen legen würden. Dann wäre der Kunde nicht gezwungen, ein bestimmtes Datenmanagementsystem (nämlich das seines CAD-Lieferanten) einzusetzen, um aus einzelnen Elementen wieder ein digitales Produktmodell aufzubauen, und er könnte sie auch datenbankgestützt austauschen. Denn es macht keinen Sinn, bei verteilten Entwicklungsprojekten erst datenbankorientiert zu konstruieren, um die Konstruktionen den Partnern in der Zulieferkette dann doch wieder dateibasiert zur Verfügung zu stellen. Dann wären wir wieder in den Anfangszeiten der 3D-Konstruktion, als die Modelle immer wieder platt geklopft wurden, um sie mit den Zulieferern zeichnungsbasiert austauschen zu können.

Ehrlich gesagt, bin ich skeptisch, dass wir einen solchen Standard und/oder das nötige Maß an Offenheit je sehen werden. Zwar haben inzwischen alle namhaften PLM-Hersteller den berühmten Codex of PLM Openness unterzeichnet, der in den letzten Jahren maßgeblich vom ProSTEP iViP-Verein vorangetrieben wurde, doch bezeichnenderweise wurde der CPO auf dem diesjährigen Symposium nicht mit einem Wort erwähnt. Oder wenn, dann so leise, dass ich es nicht vernommen habe. Man hätte gerne gewusst, welche Fortschritte Anwender und Anbieter bei der Umsetzung in den letzten 12 Monaten gemacht haben. Ist die PLM-Welt dadurch ein bisschen offener geworden?

Was das Thema Standardisierung anbelangt, erwähnte Florack STEP AP 242 als mögliche Referenz für die datenbankorientierte Engineering Collaboration; man müsse den Standard nur endlich richtig implementieren, statt ihn auf seine Funktionen für den (dateibasierten) Geometriedatenaustausch zu reduzieren. Das mag wohl sein, aber mir wäre nicht bekannt, dass Dassault ihren Kunden inzwischen die Möglichkeit bietet, CATIA V6-Daten STEP AP242-konform mit einem anderen PDM-System als ENOVIA V6 zu verwalten. Aber was nicht ist, kann ja noch werden, wenn die ISO-Normierung des neuen STEP-Standards erst einmal abgeschlossen ist.

Letztlich geht es aber nicht um die Frage, ob man PLM datei- oder datenbankorientiert betreibt, sondern darum, wie zugänglich die Informationen in der Datenbank sind – für den Erzeuger, dessen geistiges Eigentum sie sind, für seine Partner, die mit den Daten weiter arbeiten sollen, für künftige Anwender, die vielleicht auch noch in 50 Jahren noch darauf zugreifen müssen, und letztlich auch für andere PLM-Hersteller, die diese Daten eventuell in ihre IT-Lösungen migrieren sollen. Solange diese Offenheit nicht gegeben ist, werden die Unternehmen dem datenbankorientierten PLM-Ansatz misstrauen.

Veröffentlicht unter Uncategorized | Verschlagwortet mit , , , | Hinterlasse einen Kommentar