Warum sollte KI in der Fertigung eingesetzt werden?
Unternehmensinterne Daten als strategischer Hebel
Durch die Nutzung von Unternehmensdaten und die Verknüpfung von Maschinen- und Prozessdaten mit weiteren Betriebskennzahlen können Firmen komplexe, betriebliche Fragen lösen, sich Wettbewerbsvorteile verschaffen und zahlreiche Anwendungsfälle erschließen, wie zum Beispiel:
Wie beeinflusst der Einsatz von „Material A“ den Energieverbrauch?
Welche Parameter-Einstellungen sind wichtig für die beste Produktqualität?
Wie hat sich die Anzahl der fehlerhaften Produkte in den letzten Monaten verändert?
Mit KI den Fachkräftemangel abfedern
Künstliche Intelligenz steigert die Arbeitseffizienz und verbessert die Produktivität:
Neue Mitarbeitende können schneller geschult werden, wenn KI-Modelle Zugriff auf Dokumentationen und Prozessabläufe haben.
Arbeitsschritte wie das Erstellen von Reports in Power BI oder Dashboards in Grafana lassen sich durch KI effizienter gestalten.
Mitarbeitende bauen schneller Expertise auf und können sich auf anspruchsvollere Aufgaben konzentrieren.

Webinar On-Demand
KI Use Cases auf dem Shopfloor erfolgreich umsetzen
Der Weg für erfolgreiche KI-Projekte in der Produktion ebnen.
5 typische Herausforderungen für KI-Projekte
Unzureichende Datenqualität
Einer der größten Hürden beim Einsatz von KI-Anwendungen in der Fertigung ist die unzureichende Datenqualität. Ein Großteil der Daten wird durch manuelle Eingaben in MES-, ERP-Systeme oder Excel-Tabellen erzeugt, doch das führt zu Ungenauigkeiten und Fehlern beim Ein- oder Übertragen der Daten und damit zu einer schwachen Grundlage für den Einsatz von KI.
Die Folge: Die Modelle liefern unzuverlässige Ergebnisse. Um dennoch aussagekräftige Analysen zu erhalten, ist ein hoher manueller Aufwand für Datenaufbereitung und -bereinigung erforderlich.
Sensible Daten dürfen das Unternehmen nicht verlassen
Fehlendes Personal mit Data Science Kenntnissen
Für die Entwicklung und Implementierung wird Personal mit Kenntnissen in KI und Datenanalyse benötigt. Doch gerade in der Fertigung gibt es kaum Personen mit diesem Hintergrund. Diese Lücke behindert die Entwicklung, den Einsatz und die Wartung von KI-Systemen. Bemühungen, die vorhandenen Mitarbeiter weiterzubilden, sind von entscheidender Bedeutung, können aber durch Zeitmangel, begrenzten Zugang zu Schulungsressourcen und moderner Ausstattung behindert werden.
Klassische Beschaffungsprozesse
Ein oft übersehenes Problem ist das klassische Einkaufsmodell: Langfristige Verträge, umfangreiche Lastenhefte und die Erwartung, dass Systeme über Jahre unverändert laufen. Doch KI-Technologien entwickeln sich rasant weiter – was heute aktuell ist, kann morgen überholt sein. Statt starrer Vorgaben braucht es flexible, anpassbare Beschaffungsmodelle, die schnelle Entwicklungen mitgehen können. Ohne dieses Umdenken bleibt das Innovationspotenzial vieler Unternehmen ungenutzt.

Webinar On-Demand
Die wichtigsten Schritte für den Start eines KI-Projekts
KI-Anwendungen auf dem Shopfloor erfolgreich umsetzen.
Welche Ansätze gibt es für KI in der Produktion?
Die Herausforderungen sind real – aber nicht unüberwindbar. Wer KI-Projekte erfolgreich umsetzen möchte, braucht einen pragmatischen Ansatz, der Sicherheit, Datenqualität und Flexibilität betont, ohne sich in komplexen Strukturen oder hohen Kosten zu verlieren. Schauen wir uns drei allgemeine Strategien an:
Eigene Modelle trainieren: Für (fast) niemanden realistisch
Die Idee, ein eigenes großes Sprachmodell (Foundation Model) zu entwickeln, ist verlockend. In der Praxis jedoch meist unrealistisch. Hohe Hardware-Kosten, immense Rechenressourcen und der enorme Personalbedarf machen diesen Ansatz selbst für Konzerne oft unattraktiv.
Für den Mittelstand ist das praktisch aussichtslos. Auch wenn das kürzlich veröffentlichte Modell von Deepseek zeigte, dass man mit vergleichsweise geringem Aufwand ein ähnlich leistungsfähiges Modell erschaffen kann, lagen die Kosten für den letzten Trainingslauf dennoch bei rund 5,6 Millionen US-Dollar.
Inhouse-Training und -Hosting: Machbar mit langfristiger Vision
Eine Alternative ist das Feintuning bereits existierender Modelle mithilfe firmeneigener Daten. Durch Inhouse-Hosting kann die Datensicherheit gewährleistet werden. Die Auswahl an Modellen wächst stetig und jeden Monat kommen neue, leistungsfähigere Varianten hinzu. Die Nutzung dieser Modelle ist jedoch nicht „plug-and-play“, sondern erfordert weiterhin Expertenwissen und regelmäßige Anpassungen, wenn die Datenbasis wächst.
Unternehmen können diese Aufgaben an spezialisierte Dienstleister auslagern, sollten jedoch bedenken, dass auch dann technische Expertise und personelle Ressourcen erforderlich sind.
Integration von vorhandene Modelle: Leicht aber mit Einschränkungen
Die großen Anbieter wie OpenAI, Anthropic, Microsoft und Google ermöglichen es Unternehmen, hochentwickelte KI-Modelle zu nutzen, ohne sie selbst hosten oder trainieren zu müssen. Ein prominentes Beispiel ist die OpenAI Platform, die über einfache APIs einen direkten Zugriff auf leistungsfähige Modelle bietet. Gleichzeitig können Unternehmen vertraglich über „No-Data-Use“ sicherstellen, dass ihre Daten nicht in das globale Training dieser Modelle einfließen.
Diese Vorgehensweise wird bereits in vielen Softwareprodukten umgesetzt, etwa in Microsoft Office, Salesforce oder SAP. Hier kommen KI-Features zum Einsatz, die jedoch häufig nur auf Daten aus dem jeweiligen System zugreifen können – was die Anwendungsmöglichkeiten einschränkt.
Wie kommen die Daten in das KI-Modell?
Ein vielversprechender Ansatz ist die strukturelle Anbindung über APIs. Dabei agieren sogenannte „Agents“ oder Orchestratoren im Hintergrund: Sie erkennen, wenn das Modell externe Daten benötigt, und fragen dafür definierte Datenquellen ab. Ein Large Language Model (LLM) – beispielsweise über die OpenAI Platform – formuliert intern eine strukturierte Abfrage, sendet diese an die Unternehmensdatenbank oder einen spezialisierten Datenservice und verarbeitet anschließend die Ergebnisse.
Damit dieser Prozess reibungslos funktioniert, müssen Unternehmen ihre Datenlandschaft neu denken und auf einen API-First Tech-Stack setzen.
Der Tech-Stack für industrielle Künstliche Intelligenz im Fertigungsunternehmen
Um beim Innovationstempo von künstlicher Intelligenz mitzuhalten, lohnt sich der Blick auf Softwarefirmen, in denen die Wertschöpfung komplett digital stattfindet und der Einsatz neuer Software zur Produktoptimierung an der Tagesordnung steht.
In der Softwarebranche spricht man häufig vom Technologie-Stack eines Unternehmens. Damit bezeichnet man die Gesamtheit aller Technologien, Tools und Infrastrukturen, die ein Unternehmen nutzt, um eine Softwarelösung oder ein digitales Produkt zu entwickeln und zu betreiben.
Wie sieht ein Technologie-Stack für produzierende Unternehmen aus?
Für Unternehmen mit einer physischen Wertschöpfungskette kann man den Technologie-Stack in vier Ebenen aufteilen:
Physische Ebene
Maschinen, Sensoren, SPS, etc.
Datenebene (Data Layer)
Hier werden Maschinen-, Produktions- und Qualitätsdaten in normalisierter und abrufbarer Form erfasst.
API-Schicht (Datenzugang)
Über klar dokumentierte Schnittstellen erfolgt der Zugriff auf diese Daten – anstelle eines direkten Datenbankzugriffs.
KI-Schicht (Modelle und Orchestrierung)
Zentrale KI-Modelle nutzen z.B. Retrieval-Augmented-Verfahren oder Prompt-Techniken, um relevante Daten abzufragen und zu verarbeiten. Diese werden auch als Agents oder Agentic AI Modelle bezeichnet.
Anwendungs- und Nutzeroberfläche-Ebene
Verschiedene Frontends, Integrationen (z. B. Excel, Power BI, Produktionsleitsysteme) oder Chat-Oberflächen, über die Mitarbeitende in natürlicher Sprache oder grafisch mit den Systemen interagieren können.

Blog
KI oder K.O.: Der modulare Tech-Stack und seine Bedeutung für KI in der Fertigung
Wie der modulare Tech-Stack Flexibilität und Skalierbarkeit für KI in der Fertigung bietet.
05.
Wie unterstützt ENLYZE diese Transformation?
Um den vollen Wert von industrieller KI zu realisieren, braucht es eine zentrale, automatisierte Datenplattform, die eine hohe Datenqualität sicherstellt und fundierte Entscheidungen auf Basis von validierten Daten ermöglicht – ohne wertvolles Personal mit manuellen Datenmanagementaufgaben zu binden. Genau hier setzt ENLYZE Manufacturing Data Platform an: