Der wichtigste Maßstab in der Fertigung ist die Produktivität, und die generative KI (GenAI) hat neue Möglichkeiten eröffnet, dies zu erreichen. Mithilfe dieser Technologie können Bediener und Manager nun über eine Chat-Schnittstelle über oee.ai mit ihren Anlagen interagieren. In diesem Artikel untersuchen wir die Technologie, die diese bemerkenswerte Fähigkeit ermöglicht.
Open Source Large Language Model als Kern
Der Kern der Chat-Funktion von oee.ai ist ein großes Sprachmodell (LLM). Ein großes Sprachmodell ist ein fortschrittliches KI-System, das auf riesigen Mengen an Textdaten trainiert wird, um menschenähnliche Sprache zu verstehen und zu erzeugen. Es prognostiziert und erstellt Text basierend auf Mustern, die während des Trainings gelernt wurden, und ermöglicht so Aufgaben wie das Beantworten von Fragen und die Teilnahme an Gesprächen. Diese Modelle werden mithilfe von Deep-Learning-Techniken erstellt, insbesondere neuronalen Netzen mit Milliarden von Parametern.
LLMs sind in verschiedenen Konfigurationen erhältlich. oee.ai hat sich für ein Open-Source-Hosting-Modell entschieden – auf eigenen Servern, um unseren Kunden größtmöglichen Datenschutz zu gewährleisten. Keine Daten verlassen unsere Infrastruktur und alles unterliegt den europäischen Datenschutzgesetzen.
Agenten erledigen die Arbeit
Agenten sind autonome Programme, die Entscheidungen treffen und Maßnahmen ergreifen, um bestimmte Ziele zu erreichen. Sie können unabhängig agieren oder mit anderen Agenten und Systemen interagieren, wobei sie häufig KI nutzen, um sich an veränderte Bedingungen anzupassen. Agenten werden häufig in Simulationen, Robotik und KI-Anwendungen wie virtuellen Assistenten eingesetzt.
In oee.ai interagieren Agenten mit drei anderen Infrastrukturkomponenten: den Maschinendaten als Kern von oee.ai, einer Vektordatenbank zum Abfragen spezifischer Dokumente mithilfe von Retrieval-Augmented Generation (RAG) und einer relationalen Datenbank zum Speichern des Verlaufs von vergangenen Gesprächen.
Agenten sind die Koordinatoren der Tools, die zur Beantwortung der Frage des Benutzers erforderlich sind.
OEE-Daten aus der Zeitreihendatenbank
Um das oee.ai-Chat-System zu betreiben, sammelt der Agent aktuelle oder historische Daten für die angeschlossenen Geräte, indem er die relevanten APIs abfragt. Zu diesen Daten gehören Produktivitätsstatus, Schichtmodelle und Verlustursachenkataloge – um nur einige zu nennen – die alle in oee.ai gespeichert sind, einige davon in einer Zeitreihendatenbank. Wenn ein Benutzer eine Frage stellt, wie zum Beispiel „Wie war die OEE gestern in der Spätschicht?“, ruft der Agent die notwendigen Daten über die API ab und das LLM formuliert eine klare, benutzerfreundliche Antwort für die Chat-Oberfläche.
Agentic Retrieval-Augmented Generation (RAG) für den BWL-Kontext
Zusätzlich zu historischen und Echtzeit-Maschinendaten können Benutzer auch betriebswirtschaftlichen Kontext und gezielte Beratung durch den oee.ai-Chatbot anfordern. Während das Large Language Model (LLM) allgemeine Erkenntnisse aus dem Training liefert, wird für präzise und kontextspezifische Antworten – wie beispielsweise auf die Frage „Was kann ich tun, um die OEE zu verbessern?“ – eine Vektordatenbank genutzt. Diese Datenbank enthält sorgfältig ausgewählte, proprietäre Ressourcen wie Bücher und Webseiten, um die Qualität der Antworten zu optimieren. Dadurch erhält der Chatbot auch Zugang zu Informationen, die nicht in den Internet-Trainingsdaten des LLM enthalten sind, wie etwa Konfigurationsleitfäden. Dies ermöglicht es dem Chatbot, präzise Antworten auf spezifische Fragen zu geben, wie z.B. „Wo konfiguriere ich das Schichtmodell in oee.ai?“.
Ein faszinierender Aspekt dieses Systems ist seine Fähigkeit, mit Daten in nahezu jeder Sprache zu interagieren. Ob es sich um Produktionsdaten oder komplexe Dokumente wie Bücher handelt – der Chatbot kann Anfragen mühelos in einer Sprache bearbeiten, auch wenn das Quellmaterial in einer anderen Sprache vorliegt. Es ist, als würde man ein Buch auf Deutsch schreiben und es dann auf Spanisch oder Französisch abfragen. Diese bemerkenswerte Fähigkeit verdeutlicht die fortschrittliche Natur moderner KI und zeigt, wie außergewöhnlich die heutige Zeit ist, in der wir leben.
Konversationsgedächtnis über eine relationale Datenbank
Obwohl LLMs über umfangreiche Kenntnisse aus dem Internet verfügen, benötigen sie dennoch ein Konversationsgedächtnis, um effektiv mit Benutzern interagieren zu können. Dieses Gedächtnis wird durch eine relationale Datenbank verwaltet, die sowohl aktuelle als auch vergangene Gespräche speichert und es dem Chatbot ermöglicht, den Kontext während des gesamten Dialogs aufrechtzuerhalten. Wenn ein Benutzer beispielsweise zu Beginn des Chats den Namen einer Anlage nennt, kann er im weiteren Verlauf des Gesprächs Fragen stellen, ohne die Anlage erneut erwähnen zu müssen. Dies spiegelt den natürlichen Ablauf menschlicher Gespräche wider, bei denen der Kontext im Gedächtnis bleibt.
So greifen Sie auf den Chatbot von oee.ai zu
Apps haben sich im 21. Jahrhundert zu einer der gängigsten Methoden entwickelt, wie Menschen mit Technologie interagieren. Um diesem Trend gerecht zu werden, ist der Chatbot von oee.ai über spezielle iOS- und Android-Apps zugänglich, die in den jeweiligen App Stores verfügbar sind. Zusätzlich bietet oee.ai ein integriertes Webinterface innerhalb der Web-App an, das einen einfachen Online-Zugriff direkt aus der gewohnten Arbeitsumgebung ermöglicht.
Die Grenzen des Möglichen weiter verschieben
Wenn Mitarbeiter direkt mit Maschinendaten interagieren, wird der Zugang zu Produktivitätsinformationen deutlich erleichtert. Dieser direkte Zugriff verleiht ihnen ein größeres Gefühl von Kontrolle und Verantwortung für ihre Arbeit, was die Arbeitszufriedenheit und das Engagement steigern kann. Doch dies ist nur der Anfang dessen, was die Technologie von oee.ai zu bieten hat. In Zukunft können Sie noch fortschrittlichere Funktionen erwarten, wie beispielsweise Anlagen, die bei der Selbstreparatur unterstützen. Bleiben Sie gespannt.
Wenn Sie erfahren möchten, wie KI in den Arbeitsablauf Ihrer Mitarbeiter in der Fabrik integriert werden kann, kontaktieren Sie uns gerne unter info@oee.ai.
Autor: Linus Steinbeck