KI-Think Tank @NUEDIGITAL? Ja!
- Cornelia Hebrank
- 23. Juli
- 3 Min. Lesezeit
Ein Think Tank zum Thema KI auf dem Nürnberg Digital Festival? Da sind wir natürlich dabei! Eins ist sicher: KI bleibt relevant. Und das AI Camp ist für uns jedes Jahr wieder eine tolle Gelegenheit, um uns mit anderen Neugierigen, Nerds und Vordenkenden über die neuesten Entwicklungen auszutauschen.

Unsere Crew Member Cornelia Hebrank und Dominik Wagner haben beim AI Camp 2025 auf dem NUEDIGITAL unsere Learnings aus einer internen Case Study vorgestellt. Im Gepäck: ein funktionierender Prototyp, jede Menge Gedanken zur Skalierbarkeit und ein paar Fragen, die wir uns selbst erst beim Ausprobieren gestellt haben. Ihr konntet nicht live dabei sein? Kein Problem! Conny hat für euch die wichtigsten Erkenntnisse zusammengefasst. Ab hier wird's technisch:
Von KI-Automatisierung und lästigen Projektberichten
Vermutlich kennt ihr das: Alle paar Wochen fordert die Chefetage einen Projektbericht an, um den aktuellen Status zu prüfen. Dazu werden die Zahlen aus verschiedenen Excel-Tabellen zusammengekramt und dann die entsprechenden PowerPoint-Folien befüllt… eine undankbare Arbeit! Und damit war klar: Das ist doch ein perfekter Use Case für eine Automatisierung, die uns genau solche Aufgaben abnimmt.

Power Automate als Sprungbrett
Die Grundidee war schnell auf dem Tisch, die Rahmenbedingungen ebenfalls grob gesteckt. Da wir in diesem Fall im Microsoft-Ökosystem unterwegs waren, fiel unser erster Blick natürlich auf Power Automate. Damit hatten wir schnell einen ersten Workflow zusammengeklickt. Allerdings zeigte sich auch rasch, dass die Anpassungsmöglichkeiten doch noch ziemlich begrenzt sind. Vor allem, wenn es darum geht, die Ergebnisse schön zu präsentieren und nicht nur Text zu ersetzen. Für eine skalierbare Lösung war das nicht genug.
Vom Prototyp zur skalierbaren Lösung
Trotzdem hat uns der Prototyp einen echten Mehrwert gebracht: Er lieferte eine gute Basis, um die Anforderungen im Detail zu diskutieren, und diente als Startpunkt für die weitere Recherche und das Konzept einer flexibleren Lösung. Dabei hat sich die Aufteilung unseres Prototyps – Daten aus Excel einlesen und daraus eine PowerPoint-Präsentation bauen – direkt als sinnvoller Ansatz bestätigt.
Warum das? Na ja, der zweite Schritt ist im Prinzip nicht schwierig, da es nur um die Darstellung bereits vorhandener Informationen geht. Aber jetzt kommt der wirklich spannende Teil: Wie bringt man unterschiedlich strukturierte Daten in ein einheitliches Schema?
Datenstrukturierung? Challenge accepted!
Glücklicherweise können die meisten modernen LLM-Modelle (Large Language Models) ihre Antworten mittlerweile im sogenannten Structured Output, also im JSON-Format, ausgeben. So kann man sich die Daten einfach über das Modell auswerten und direkt passend zusammenfassen lassen. Klingt gut – aber: Die Ergebnisse sind nicht immer valide. Deshalb lohnt sich hier eine zusätzliche Nachbearbeitung, bei
der die Daten validiert und Fehler ausgebessert werden. Wenn es um größere Datenmengen geht, kann es zudem sinnvoll sein, die Verarbeitung in mehreren Schritten durchzuführen – das nennt sich dann Hierarchical Decoding.

Wenn man diese Logik nun in ein einfaches „Aufbereitungssystem“ einbettet, das die gewonnenen Daten nicht nur in ein PowerPoint-Format bringt, sondern vielleicht auch noch in einem Data Lake speichert (Daten schaden bekanntlich nie!), entsteht ein skalierbares und individuell anpassbares System.
Multi-Agenten-Systeme – die Zukunft?
Moment mal – gibt’s da nicht inzwischen auch Agenten, die so etwas übernehmen? Korrekt! Eine weitere Möglichkeit für die Umsetzung wäre ein Multi-Agenten-System: Hier überlässt man den gesamten Prozess der KI, die sich Form von dedizierten Validierungsagenten selbst überprüft oder, falls nötig, einen Menschen hinzuzieht. Manchmal macht ein human-in-the-loop eben doch Sinn.

Das klingt natürlich alles schon ziemlich cool, aber was würden wir an der Stelle empfehlen? Tja, es kommt drauf an! (Ich weiß, absolute Standardantwort.) Wichtig ist: Bei der Wahl der Lösung sollte man immer auch die Datenschutzanforderungen im Blick behalten. Nicht jedes Unternehmen kann oder will eine extern laufende KI-Lösung nutzen, und manche Modelle lassen sich lokal deutlich einfacher hosten als andere. Außerdem: Bei einem programmierten System hat man meist mehr Kontrolle über die Verarbeitung und Absicherung der Ergebnisse und inhouse lässt sich so ein System oft leichter warten und weiterentwickeln.
Datenschutz, Nachhaltigkeit & Realismus
Ein Punkt liegt uns dabei besonders am Herzen: Bitte denkt bei solchen Projekten auch an die Nachhaltigkeit der Lösung! Wie viel Ressourcen verbrauchen die verschiedenen Ansätze? Und wenn die fancy KI-Lösung viel mehr kosten würde, bietet sie wirklich den entsprechenden Mehrwert? Die Umwelt wird es euch danken, wenn ihr hier zumindest mal einen Gedanken dran verschwendet!
Der Prototyp hat sich für uns definitiv gelohnt. Er war die perfekte Diskussionsbasis, um die Anforderungen zu schärfen, und ein guter Startpunkt für die weitere Recherche. Und ganz nebenbei lernt man beim Zusammenklicken auch eine Menge über KI-Tools, Prompt Engineering und wie schnelllebig dieser Bereich ist!