KI oder K.O.: Warum Fertigungsunternehmen jetzt handeln müssen

OEE Dashboards: 4 Beispiele mit Excel, PowerBI, Grafana & Co.

Clemens Hensen

Clemens Hensen

|

28.02.2025

28.02.2025

|

Meinung

Meinung

|

12

12

Minuten Lesezeit

Minuten Lesezeit

Künstliche Intelligenz (KI) ist längst nicht mehr nur ein „nice-to-have“, sondern entwickelt sich in nahezu allen Branchen zum entscheidenden Wettbewerbsfaktor. Gerade im produzierenden Gewerbe – ob in großen Konzernen oder im Mittelstand – verspricht der Einsatz von KI-Methoden, insbesondere mithilfe generativer Verfahren (z. B. Large Language Models, LLMs), enorme Produktivitätsgewinne und Wettbewerbsvorteile. Zugleich stehen Unternehmen vor der Herausforderung, die richtigen Strategien und technischen Konzepte zu finden, um KI gewinnbringend und sicher zu integrieren.

In diesem Beitrag gehen wir den folgenden Fragen nach:

  • Warum sollte KI eingesetzt werden?
    Welche strategischen und operativen Fragen können durch den Einsatz von KI beantwortet werden – von der Optimierung des Energieverbrauchs bis zur Steigerung der Produktqualität?

  • Welche Herausforderungen gilt es zu meistern?
    Welche technischen, organisatorischen und datenspezifischen Hürden bestehen auf dem Weg zur erfolgreichen Implementierung von KI?

  • Welche Anwendungsansätze gibt es?
    Wie können Unternehmen KI in bestehende Prozesse integrieren – von der eigenen Modellentwicklung bis hin zur Nutzung externer KI-Dienste?

  • Was können produzierende Unternehmen von Softwarefirmen lernen?
    Wie hilft ein modularer Technologie-Stack, agiler und innovationsfreudiger zu werden?

  • Wie unterstützt die ENLYZE-Plattform diese Transformation?
    Anhand eines praktischen Beispiels wird gezeigt, wie eine nahtlose Integration von Maschinendaten und KI-Modellen aussehen kann.

Unternehmensinterne Daten als strategischer Hebel

Viele Mitarbeiterinnen und Mitarbeiter nutzen bereits privat oder beruflich generative KI-Tools wie ChatGPT, Claude oder Gemini, um Texte zu erstellen, E-Mails vorzubereiten, Code-Snippets zu generieren oder schneller an Informationen zu gelangen. Diese individuelle Produktivitätssteigerung ist jedoch nur der erste Schritt: Der wahre Mehrwert entsteht, wenn firmeninterne Daten mit leistungsfähigen LLMs verknüpft werden.

Operative Fragestellungen schnell beantworten

Durch den intelligenten Einsatz betrieblicher Daten können Unternehmen in kürzester Zeit komplexe, operative Fragen adressieren, wie etwa:

  • Welche Auswirkungen hat die Verwendung von Material A auf den Energieverbrauch?

  • Welche Maschinenparameter sind ausschlaggebend für eine optimale Produktqualität?

  • Wie hat sich die Ausschussquote in den vergangenen Monaten entwickelt?

Indem Maschinen- und Prozessdaten mit weiteren Betriebskennzahlen (z. B. verbrauchtes Rohmaterial oder Materialkosten) verknüpft werden, ergeben sich zahlreiche Anwendungsfälle, die weit über reine Automatisierung hinausgehen.

Entlastung im Kontext des Fachkräftemangels

Auch beim Thema Fachkräftemangel hilft der Einsatz von KI. Ein zentraler Punkt ist die bereits erwähnte persönliche Produktivitätssteigerung. Weiterhin können neue Mitarbeitende schneller geschult werden, wenn KI-Modelle Zugriff auf Dokumentation und Prozessabläufe haben. Viele Arbeitsschritte – etwa das Erstellen von Reports in Power BI oder Dashboards in Grafana – lassen sich durch KI effizienter gestalten. So bauen die Mitarbeitenden schneller Expertise auf und können sich auf anspruchsvollere Aufgaben konzentrieren.

Die typischen Herausforderungen für KI-Projekte

Trotz der vielversprechenden Möglichkeiten und Anwendungsfälle existieren in der Praxis einige Hindernisse, die es zu überwinden gilt:

1.Sensible Daten dürfen das Unternehmen nicht verlassen
Produktionsdaten – etwa Fertigungsparameter, Rezepturen oder Maschinenkennzahlen – haben in vielen Branchen einen hohen strategischen Wert. Unternehmen müssen sicherstellen, dass diese Informationen nicht ungewollt in das Training globaler KI-Modelle einfließen und damit möglicherweise nachträglich extrahierbar sind.

2. Fehlende oder unzureichend strukturierte Daten
Häufig existieren zwar große Datenmengen (z. B. in Data-Lakes), doch liegen sie nicht in einer für KI-Modelle direkt verwertbaren Form vor. Einheitliche Strukturen, klar definierte Schnittstellen (APIs) und saubere Metadaten sind essenziell, damit KI-Lösungen zuverlässig auf die relevanten Informationen zugreifen können. 

3. Traditionelle Beschaffungsprozesse
Ein häufig unterschätztes Problem ist das klassische Einkaufsverfahren, das auf langfristige Vertragsmodelle setzt. Man schreibt umfangreiche Lastenhefte, wählt einen Anbieter aus und geht davon aus, dass das System für fünf oder zehn Jahre im Einsatz bleibt. Die Werkzeuge und das Ökosystem rund um KI entwickeln sich jedoch rasant. Während 2022 noch Bilder von Teddybären auf dem Mond der Höhepunkt waren, kann man mittlerweile in wenigen Minuten Lieder schreiben oder sich eigene Notizen als Podcast anhören (z. B. über Google NotebookLM). Was einst das beste Modell war, ist heute womöglich veraltet.

Die schnelle Weiterentwicklung erfordert flexible, anpassbare Lösungen – ein Umdenken in den Beschaffungsprozessen ist daher unumgänglich.

Mögliche Strategien und Ansätze

Die genannten Herausforderungen sind real – aber nicht unüberwindbar. Wer KI-Projekte erfolgreich umsetzen will, benötigt einen pragmatischen Ansatz, der Sicherheit, Datenqualität und Flexibilität in den Fokus rückt. Doch wie gelingt das, ohne sich in komplexen Strukturen oder hohen Kosten zu verlieren?

1. Eigene Modelle trainieren: für (fast) niemanden realistisch

Die Idee, ein eigenes großes Sprachmodell (Foundation Model) zu entwickeln, ist verlockend – in der Praxis jedoch meist unrealistisch. Hohe Hardware-Kosten, immense Rechenressourcen und der enorme Personalbedarf machen diesen Ansatz selbst für Konzerne oft unattraktiv.

Für den Mittelstand ist das praktisch aussichtslos. Auch wenn das kürzlich veröffentlichte Modell von Deepseek zeigte, dass man mit vergleichsweise geringem Aufwand ein ähnlich leistungsfähiges Modell erschaffen kann, lagen die Kosten für den letzten Trainingslauf dennoch bei rund 5,6 Millionen US-Dollar.

2. Inhouse-Training und -Hosting: machbar mit langfristiger Vision

Eine Alternative ist das Finetuning bereits existierender Modelle mithilfe firmeneigener Daten. Durch Inhouse-Hosting kann die Datensicherheit gewährleistet werden. Die Auswahl an Modellen wächst stetig, und jeden Monat kommen neue, leistungsfähigere Varianten hinzu. Die Nutzung dieser Modelle ist jedoch nicht „plug-and-play“, sondern erfordert weiterhin Expertenwissen und regelmäßige Anpassungen, wenn die Datenbasis wächst. Unternehmen können diese Aufgaben an spezialisierte Dienstleister auslagern, sollten jedoch bedenken, dass auch dann technische und personelle Ressourcen erforderlich sind.

Außerdem ist es meist nicht sinnvoll, Unternehmenskennzahlen als Trainingsdaten in das Modell einfließen zu lassen. Später werden wir auf diesen Punkt noch genauer eingehen.

3. Integrieren vorhandene Modelle:

Die großen Anbieter wie OpenAI, Anthropic, Microsoft und Google ermöglichen es Unternehmen, hoch entwickelte KI-Modelle zu nutzen, ohne sie selbst hosten oder trainieren zu müssen. Ein prominentes Beispiel ist die OpenAI Platform, die über einfache APIs einen direkten Zugriff auf leistungsfähige Modelle bietet. Gleichzeitig können Unternehmen vertraglich über „No-Data-Use“ sicherstellen, dass ihre Daten nicht in das globale Training dieser Modelle einfließen.

Diese Vorgehensweise wird bereits in vielen Softwareprodukten umgesetzt, etwa in Microsoft Office, Salesforce oder SAP. Hier kommen KI-Features zum Einsatz, die jedoch häufig nur auf Daten aus dem jeweiligen System zugreifen können – was die Anwendungsmöglichkeiten einschränkt.

Wie kommen die Daten in das Modell?

Ein vielversprechender Ansatz ist die strukturelle Anbindung über APIs. Dabei agieren sogenannte „Agents“ oder Orchestratoren im Hintergrund: Sie erkennen, wenn das Modell externe Daten benötigt, und fragen dafür definierte Datenquellen ab. Ein Large Language Model (LLM) – beispielsweise über die OpenAI Platform – formuliert intern eine strukturierte Abfrage, sendet diese an die Unternehmensdatenbank oder einen spezialisierten Datenservice und verarbeitet anschließend die Ergebnisse. 

Damit dieser Prozess reibungslos funktioniert, müssen Unternehmen ihre Datenlandschaft neu denken und auf eine API-first-Architektur setzen.

Rethink: Was produzierende Unternehmen von Softwarefirmen lernen können

Die primäre Wertschöpfung in der Fertigung liegt in der Produktion physischer Güter – weswegen traditionell der Fokus auf der Optimierung von Lieferketten, einer optimal ausgelasteten Produktion sowie hoher Qualität und Liefertreue liegt.

Zwar wird dieser Prozess bereits durch digitale Tools (ERP, MES, oder QS) unterstützt, doch handelt es sich meist um Software-Monolithen mit keinen oder stark eingeschränkten Schnittstellen untereinander. Weil ein Großteil der Unternehmensprozesse in wenigen Tools abgebildet wird, sind die Anforderungen an diese Lösungen immens – und damit auch die Zeit und Kosten für die Implementierung.

Um beim Innovationstempo von KI mitzuhalten, lohnt sich der Blick auf Softwarefirmen, in denen die Wertschöpfung komplett digital stattfindet und der Einsatz neuer Software zur Produktoptimierung an der Tagesordnung steht.

Die Rolle eines modularen „Tech-Stacks“

In der Softwarebranche spricht man häufig vom Technologie-Stack eines Unternehmens. Damit bezeichnet man die Gesamtheit aller Technologien, Tools und Infrastrukturen, die ein Unternehmen nutzt, um eine Softwarelösung oder ein digitales Produkt zu entwickeln und zu betreiben. In der Praxis kann man sich einen Tech-Stack meist als mehrere aufeinander aufbauende Schichten vorstellen:

  • Infrastruktur- und Hosting-Ebene: z. B. AWS, Microsoft Azure, Google Cloud.

  • Daten- und Verarbeitungsschicht: z. B. MySQL, PostgreSQL, MongoDB.

  • Middleware (Security, Monitoring, Logging): z. B. Authentifizierungs- und Sicherheitslösungen, Tools wie Grafana.

  • Frontend: Darstellung der Daten für die Nutzer, inklusive Interaktionsmöglichkeiten.

Zwischen den verschiedenen Schichten und Tools existieren definierte Schnittstellen, die einen einfachen Datenaustausch ermöglichen und das System modular halten. Internationale oder branchenweite Standards erleichtern zudem, Technologien flexibel auszutauschen oder neue Tools hinzuzufügen. Damit kann man mit vergleichsweise wenig Aufwand auf Veränderungen reagieren, Technologien austauschen (z. B. Wechsel von AWS zu Azure) oder neue Tools hinzufügen (z. B. ein neues Monitoring für Fehlermeldungen).

Wie sieht also ein solcher Technologie-Stack für produzierende Unternehmen aus?

Für Unternehmen mit einer physischen Wertschöpfungskette kann man den Technologie-Stack in vier Ebenen aufteilen:

1. Datenebene (Data Layer)
Hier werden Maschinen-, Produktions- und Qualitätsdaten in normalisierter und abrufbarer Form erfasst.

2. API-Schicht (Datenzugang)
Über klar dokumentierte Schnittstellen erfolgt der Zugriff auf diese Daten – anstelle eines direkten Datenbankzugriffs.

3. KI-Schicht (Modelle und Orchestrierung)
Zentrale KI-Modelle nutzen z. B. Retrieval-Augmented-Verfahren oder Prompt-Techniken, um relevante Daten abzufragen und zu verarbeiten. Diese werden auch als Agents oder Agentic AI Modelle bezeichnet.

4. Anwendungs- und UI-Ebene
Verschiedene Frontends, Integrationen (z. B. Excel, Power BI, Produktionsleitsysteme) oder Chat-Oberflächen, über die Mitarbeitende in natürlicher Sprache oder grafisch mit den Systemen interagieren können.

Zugriffsmanagement ist in jedem Fall essentiell: Wer darf auf welche Daten zugreifen? Jede Schicht sollte klar regeln, welche Teile des Systems erreichbar sind und welche Rechte dafür benötigt werden.

Die Manufacturing Data Platform von ENLYZE

Die ENLYZE-Plattform bildet das Rückgrat eines modernen Technologie-Stacks in der Fertigungsindustrie. Bevor ein KI-Modell fundierte Analysen durchführen kann, müssen die anfallenden Maschinendaten zuverlässig erfasst, mit Kontextinformationen angereichert und strukturiert bereitgestellt werden. Genau hier setzt unsere Plattform an: Sie kombiniert kontinuierlich aufgezeichnete Zeitreihendaten – etwa Temperaturen, Drücke, Geschwindigkeiten oder Energieverbräuche – mit wichtigen Produktionskontextdaten wie Auftragsinformationen, Produktionszeiten oder Stillständen.

Maschinendaten aufzeichnen

Als ersten Schritt müssen die relevanten Maschinenparameter kontinuierlich erfasst werden. Maschinensteuerungen, Sensordaten oder Energiezähler liefern unterschiedliche Prozesswerte:

Maschinendaten mit Kontext verbinden

Im zweiten Schritt werden Kontextinformationen hinzugefügt, die beschreiben, was zu welchem Zeitpunkt auf der Maschine passiert ist. Liegt ein Stillstand vor und was ist der Grund dafür? Welches Produkt wird in welchem Auftrag gefertigt? Welche Daten tatsächlich relevant sind, hängt immer vom konkreten Prozess und den jeweiligen Anwendungsfällen ab.

Diese Verknüpfung in der ENLYZE-Plattform ermöglicht die Berechnung präziser Kennzahlen, etwa:

  • Produzierte Menge pro Auftrag: Aus dem Durchsatz über den Zeitraum eines Auftrags kann die hergestellte Menge berechnet werden.

  • Energieverbrauch pro Auftrag: Aus der Leistungsaufnahme kann der Energieverbrauch für einen Auftrag berechnet werden.

  • Spezifischer Energieverbrauch: Aus Energieverbrauch und Menge lässt sich wiederum der spezifische Energieverbrauch kWh/kg bestimmen. 

Bereitstellung der Daten über eine standardisierte API

Ein zentraler Bestandteil der ENLYZE-Plattform ist die Bereitstellung der aufbereiteten Maschinendaten über eine standardisierte API. So können interne Web-Applikationen, Visualisierungstools (z. B. Grafana, Power BI) und insbesondere KI-Modelle stets auf konsistente und aktuelle Daten zugreifen – ohne direkten Zugriff auf die Datenbank. Hier der Link zu den API Docs der ENLYZE Platform.

Beispiel:

Über den Endpunkt get_production_runs können spezifische Produktionsaufträge für eine Maschine abgerufen werden. Neben Rohdaten werden bereits aggregierte Kennzahlen (z. B. produzierte Mengen, Energieverbräuche) geliefert, was den Integrationsaufwand reduziert und Fehlerquellen minimiert.

Durch Datenspeicherung, -verarbeitung und -bereitstellung via API werden zwei wesentliche Teile im Tech-Stack abgedeckt: eine solide Datenebene und ein klar definierter Datenzugang.

Warum ist das besonders wichtig für LLMs?

  • Beschränkte Kontextfenster: Große LLMs können nur eine begrenzte Menge an Text oder Tokens gleichzeitig verarbeiten. Werden umfangreiche Rohdaten als Text eingespeist, ist das Kontextfenster schnell gefüllt. Besser ist es, dem Modell bereits aggregierte Kennzahlen bereitzustellen.

  • Effiziente Datenverarbeitung: Für mathematische Operationen ist kein Sprachverständnis erforderlich. Datenbanksysteme wie TimescaleDB sind auf die Verarbeitung großer Datenmengen optimiert und liefern schnelle, zuverlässige Ergebnisse. Das LLM kann sich somit auf das Interpretieren und Formulieren konzentrieren.

  • Reduziertes Halluzinationsrisiko: Wenn das LLM nur die vorab berechneten Kennzahlen erhält, sinkt die Gefahr von „Halluzinationen“. Bestimmte Werte wie Energieverbrauch oder Anzahl an Stillständen sollten deterministisch sein und nicht je nach Abfrage variieren.

Praktisches Beispiel

Stellen wir uns eine Frage vor:

Wie hoch war der spezifische Energieverbrauch für Produkt X im letzten Monat auf Maschine Y?

  1. Das LLM erhält diese Nutzerfrage.

  2. Über die ENLYZE-API wird der spezifische Energieverbrauch für Maschine Y und Produkt X abgefragt.

  3. Die Plattform berechnet anhand der relevanten Zeitreihen- und Event-Daten (nur Aufträge, in denen Produkt X gefertigt wurde) den Kennzahlenwert – beispielsweise 1,8 kWh/kg.

  4. Das LLM formuliert daraufhin eine verständliche Antwort, etwa: „Die Maschine verbrauchte durchschnittlich 1,8 kWh pro produziertes Kilogramm.“ oder kann für diese Daten direkt einen Report erstellen.

Fazit

Die Implementierung von KI in der Fertigungsindustrie ist längst kein Zukunftsmodell mehr, sondern eine strategische Notwendigkeit, um Effizienzsteigerungen zu realisieren, den Fachkräftemangel zu kompensieren und sich im Wettbewerb zu behaupten. Entscheidend ist dabei nicht nur die Auswahl des passenden KI-Ansatzes, sondern auch der Aufbau einer modernen, modularen Datenarchitektur und -infrastruktur.

Die ENLYZE Manufacturing Data Platform demonstriert, wie sich durch die gezielte Erfassung und Aufbereitung von Maschinendaten sowie den Zugriff über standardisierte APIs ein lückenloser Datenfluss schaffen lässt. So wird nicht nur die Basis für fundierte KI-Analysen gelegt, sondern auch die Integration von LLMs und anderen KI-Modellen reibungslos ermöglicht – ganz im Sinne eines flexiblen, zukunftssicheren Technologie-Stacks.

Für produzierende Unternehmen bedeutet dies: Der Blick über den eigenen Tellerrand, insbesondere hin zu agilen, softwaregetriebenen Prozessen, kann den entscheidenden Unterschied machen. Wer jetzt handelt und KI intelligent in seine Prozesse integriert, sichert sich nachhaltige Wettbewerbsvorteile und ist bestens auf die Herausforderungen der digitalen Zukunft vorbereitet.

subscribe

Melden Sie sich für den Newsletter an und keinen Beitrag mehr verpassen!

Melden Sie sich für den Newsletter an und keinen Beitrag mehr verpassen!