Automatisierung mit KI: Der robotspaceship Projekt-Liveticker
Wenn ihr auf unserer Startseite landet, öffnet sich automatisch unser Projekt-Liveticker: Ihr seht, wer im robotspaceship Team gerade was gemacht hat.
Das Ganze ist unser aktueller Proof of Concept für automatisierte Prozesse mit KI: DSGVO-konform und vollständig on-premises über unser lokales LLM ohne externe Cloud-Dienste.
Der Use Case
Wir wollten einen Workflow aufzusetzen, der unsere täglichen Projektaktivitäten automatisch in einheitliche, lesbare und anonyme Kurzmeldungen zu verwandeln.
Diese Meldungen dienen als Liveticker auf unserer Webseite für transparente Einblicke in unserer laufender Projekte.
Unsere Mitarbeitenden tragen ihre Zeiteinträge wie gewohnt in unser Zeiterfassungssystem ein und der Workflow übernimmt ab dann alle weiteren Schritte: Verarbeitung, Textgenerierung, Validierung und Speicherung und damit Veröffentlichung im Content-Management-System.
Der technische Ablauf - Node für Node
Hier findet ihr den gesamten Workflow im Detail, wie ihn unser Team entwickelt hat.
1. Eingang & Testphase
Manueller oder automatischer Start des Workflows. Unser Zeiterfassungssystem sendet Projektzeit-Einträge über einen Webhook (eine Schnittstelle, die automatisch Daten zwischen Systemen austauscht).
Ein optionaler TEST-JSON-Block ermöglicht uns lokale Simulationen. Diese nutzen wir für Testläufe des Workflows mit vordefinierten Daten, ohne dass echte Daten vom Zeiterfassungssystem kommen müssen.
2. Vorverarbeitung & Validierung
Jeder Zeiterfassungstext wird auf Schlüsselwörter geprüft, die auf irrelevante Einträge hinweisen, zum Beispiel "Pause". Anschließend wird das Datenpaket mit allen relevanten Informationen (Payload) aufgeteilt und leere Felder werden gefiltert.
Nur valide Nachrichten gelangen in die KI-Verarbeitung.
3. KI-Verarbeitung (On-Premises)
Der KI-Agent generiert aus dem Originaltext drei paraphrasierte Varianten (50, 100 und 200 Zeichen). Dafür nutzen wird das lokale KI-Modell gpt-oss:latest über die Software Ollama, mit der wir KI-Modelle auf unserem eigenen Server laufen lassen.
4. Parsing & Strukturprüfung
Jetzt erfolgt für den Output des LLMs das sogenannte Parsing: Die Antwort der KI wird von Formatierungszeichen für Codeblöcke (JSON-Codefences), internen Gedankengängen (Think-Blöcken) und einfachen Textformatierungen (Markdown) befreit. Eine Validierungsfunktion prüft, ob alle Felder korrekt gefüllt sind.
5. Zusammenführen der Daten
Original- und KI-Daten werden in einem einheitlichen, strukturierten Datenformat (JSON-Objekt) zusammengeführt. Dieses enthält alle Textvarianten sowie Metainformationen wie Autor oder Zeitstempel.
6. Übergabe an Website-Datenbank
Die finalen Datensätze werden per HTTP-POST an das robotspaceship Content Management System übermittelt. Eine Erfolgskontrolle prüft, ob die Übertragung erfolgreich war.
7. Ausgabe & Benachrichtigung
Nachdem alles erfolgreich gespeichert ist, wird eine Benachrichtigung per E-Mail an die Verantwortlichen Personen im Team verschickt. Fehlerhafte Einträge werden protokolliert und optional erneut angestoßen.
8. Fehlerhandling
Mehrstufige Wenn-Dann-Verzweigungen (If-Gates) und festgelegte Punkte an denen der Workflow bei Fehlern stoppt (Stop/Error-Nodes) sorgen dafür, dass keine unvollständigen oder fehlerhaften Daten in die Datenbank gelangen.
Was ihr daraus für euer Unternehmen mitnehmen könnt?
Dieser Workflow ist ein Blueprint: Nehmt eure bestehenden Systeme, ergänzt ein lokales LLM, definiert klare Regeln – und lasst die KI die monotone Textarbeit übernehmen.
Ob Projektstatusberichte, Ticketzusammenfassungen oder interne Dokumentationen: Überall wo ihr strukturierte Daten in lesbare Texte verwandeln müsst, funktioniert dieses Prinzip.
Ohne Cloud, ohne DSGVO-Kopfschmerzen, mit voller Kontrolle über eure Daten.