Herr Budke, Datenmanagement wird auch wegen KI immer wichtiger. Was sind Ihrer Meinung nach aktuell die grössten Herausforderungen für Unternehmen im Umgang mit grossen Datenmengen?
Eine der grössten Herausforderungen in der heutigen Geschäftswelt besteht darin, die Qualität der Daten zu gewährleisten. Angesichts der immensen, exponentiell wachsenden Datenmengen, die Unternehmen täglich erzeugen und speichern, wird es immer schwieriger, sicherzustellen, dass diese Daten konsistent, korrekt und verwertbar bleiben. Gleichzeitig wachsen die Anforderungen an die Datensicherheit. Der Schutz sensibler Daten vor Missbrauch und unbefugtem Zugriff hat sich in einer zunehmend komplexen Datenlandschaft zu einer zentralen Aufgabe entwickelt. Ein Beispiel dafür ist Instant Payment, wo schnelle Transaktionen stattfinden, aber gleichzeitig innerhalb von Sekunden zuverlässige automatische Betrugserkennung gewährleistet werden muss. Dies erfordert nicht nur moderne Sicherheitslösungen, sondern auch umfassende Governance-Prozesse innerhalb der Unternehmen. Besonders hervorheben möchte ich dabei die Bedeutung eines sauberen Metadatenmanagements, also der systematischen Verarbeitung von Daten über Daten, wie etwa durch einen Datenkatalog. Das Management von Daten entwickelt sich somit zu einer nicht nur technischen, sondern zunehmend strategischen Herausforderung, die auf höchster Managementebene adressiert werden muss. Ein gutes Datenmanagement ist die solide Basis der Geschäftsmodelle von morgen. Wenn die Datenbasis nicht solide ist, kann selbst die beste Künstliche Intelligenz nichts ausrichten. Nur wenn die Datenqualität stimmt, insbesondere beim Training von Modellen, die mit Unternehmensdaten gefüttert werden (etwa durch Retrieval-Augmented Generation, RAG), kann ein LLM (Large Language Model) fundierte Entscheidungen treffen.
Sie werben dafür, Datenplattformen kombiniert mit einer kontinuierlichen Echtzeit-Datenverarbeitung einzusetzen. Wo liegen die Vorteile?
Mit einer Datenplattform können Unternehmen Daten unternehmensweit bereitstellen und somit den Zugriff auf Informationen nicht nur auf einzelne Anwendungen beschränken. Dies eliminiert die Notwendigkeit teurer, aufwändiger und oft mühsamer Punkt-zu-PunktVerbindungen, die traditionell verwendet werden, um Systeme miteinander zu verknüpfen. Solche Verbindungen führen häufig zu einer fragilen und instabilen Infrastruktur, bei der bereits eine kleine Störung erhebliche Auswirkungen haben kann. Das Ergebnis ist meist eine chaotische Datenarchitektur, die sich in ihrer Komplexität und Unübersichtlichkeit mit einem Teller Spaghetti vergleichen lässt. Eine Datenplattform im Zentrum hingegen fördert eine strukturierte, robuste und zukunftssichere Datenverwaltung.Der grosse Vorteil von Datenplattformen mit Echtzeit-Datenverarbeitung, auch Data Streaming genannt, liegt, neben der aktuellen Verfügbarkeit der Daten, in der Konsistenz und damit der Qualität der Daten. Die Daten werden beim Data Streaming nicht erst gesammelt und über Nacht in einem Batchlauf verarbeitet, sondern können kontinuierlich einbezogen werden. Das vereinfacht die einzelnen Verarbeitungsschritte und sorgt dafür, dass die Daten aktuell und konsistent sind und andere Applikationen diese Daten auch operativ nutzen können. Dies sorgt für höhere Effizienz und die Möglichkeit, jederzeit fundierte Entscheidungen auf Basis der Daten zu treffen.
Sie haben zu Beginn auch über die Wichtigkeit der Datenqualität und Datenkonsistenz gesprochen. Wie sichert man diese Aspekte ab?
Ein klares und durchdachtes Datenmodell im Unternehmen ist unerlässlich, um eine stabile Grundlage für alle Prozesse zu schaffen. Es muss definiert sein, welche Datenobjekte im Unternehmen von zentraler Bedeutung sind — wie zum Beispiel Kunden, Produkte oder Materialien — und diese müssen unternehmensweit oder zumindest innerhalb der jeweiligen Domäne einheitlich behandelt werden. Es reicht nicht aus, zu erwarten, dass eine Künstliche Intelligenz oder ein anderes System allein in der Lage ist, mit inkonsistenten Daten umzugehen. Durch einheitliche Standards und klare Definitionen lässt sich die Datenqualität und -konsistenz nachhaltig sicherstellen. Eine solche Disziplin bei der Datenverwaltung ermöglicht es, verlässliche Analysen durchzuführen, fundierte Entscheidungen zu treffen und letztlich das volle Potenzial moderner Technologien, einschliesslich KI, auszuschöpfen. Ein gut strukturiertes Datenmodell ist daher nicht nur ein technisches Erfordernis, sondern ein entscheidender Faktor für den unternehmerischen Erfolg.
Kann man die Resilienz der Unternehmung stärken, indem man ein internes LLM baut?
Für die meisten Unternehmen in der Schweiz liegt der Aufbau eigener interner LLM ausserhalb des realistischen und sinnvollen Rahmens. Der Entwicklungsaufwand, die notwendigen Ressourcen und das spezialisierte Know-how, das hierfür erforderlich ist, übersteigen die Kapazitäten und Budgets der meisten Organisationen. Es gibt jedoch Alternativen: Einerseits können Unternehmen auf öffentlich verfügbare LLM-Modelle zurückgreifen, um diese intern zu nutzen. Diese Modelle bieten eine kostengünstige und flexible Alternative, da sie an spezifische Bedürfnisse angepasst werden können, ohne den riesigen Aufwand für die Entwicklung eines eigenen Modells. Zudem ermöglicht die Nutzung solcher Modelle eine bessere Kontrolle über Daten und Prozesse, da sie vollständig in der eigenen Infrastruktur implementiert werden können. Ein weiterer Trend, den ich beobachte, ist die Bewegung weg von grossen LLMs hin zu kleineren Sprachmodellen (SLM), die einfacher lokal betrieben werden können und weniger Ressourcen benötigen. Für kleine und mittlere Unternehmen (KMU) ist selbst dies jedoch oft nicht realistisch. Stattdessen sollten KMU auf Cloud-Anbieter setzen, denen sie ihre Daten anvertrauen können. Dabei ist es wichtig, sicherzustellen, dass die Daten weder an Drittparteien weitergegeben noch für das Training der LLMs verwendet werden. So können auch KMU ihren Mitarbeitern aktuelle KI-Modelle und darauf basierende dedizierte KI-Anwendungen zur Verfügung stellen und somit die Resilienz erhöhen.
Kann man als Unternehmen auch einfach nichts machen? Ist das nicht die günstigste Alternative?
Wenn Unternehmen nichts unternehmen, riskieren sie, dass Mitarbeiter eigenständig KITools verwenden, die sie irgendwo gefunden haben, ganz nach dem Motto «Bring your own AI». In diesem Fall verliert das Unternehmen jegliche Kontrolle darüber, was mit sensiblen Unternehmensdaten geschieht. Dies kann zu erheblichen Sicherheitsrisiken mit fatalen Folgen führen.
Wie kann man als unternehmen datengetriebene Entscheidungen treffen und wie kann ich jetzt meine Organisation und ihre Daten auf die Ära der KI vorbereiten?
Um als Unternehmen datengetriebene Entscheidungen zu treffen und sich auf die Ära der KI vorzubereiten, sind mehrere Schritte entscheidend: Zunächst sollte eine umfassende Standortbestimmung mit den wichtigsten Stakeholdern im Bereich Datenmanagement und der eigenen Datenreife (Maturität) durchgeführt werden. Es ist essenziell, das aktuelle Niveau der eigenen Organisation zu verstehen und mögliche Lücken zu identifizieren, um gezielt Verbesserungen voranzutreiben. Unternehmen müssen beginnen, Daten als wertvolle Artefakte zu betrachten, die sorgfältige Pflege und Management erfordern. Oft wird der immense Wert der vorhandenen Daten unterschätzt. Ein datenbewusstes Mindset sollte etabliert werden, bei dem die Daten als interne Produkte mit einem klaren Lebenszyklus betrachtet werden («Data-as-a-Product»). Jedes Team sollte Verantwortung für die Datenqualität und deren Nutzung übernehmen. Zudem empfiehlt es sich, die Metadaten in einem Katalog aufzuführen. Diese Sichtweise hilft, den vollen Wert der Daten zu erkennen und auszuschöpfen. Ein weiteres Ziel sollte sein, die mehrfache Führung von Daten zu vermeiden und stattdessen eine zentrale Datendrehscheibe per Data Streaming zu etablieren. Diese Plattform macht Daten leicht zugänglich und stellt sicher, dass sie konsistent und korrekt genutzt werden können. Dadurch wird die Effizienz erheblich gesteigert, und die Datenlandschaft bleibt übersichtlich. Sobald die Daten verfügbar sind, sollten sie effektiv ausgewertet und genutzt werden. Der bisherige Ansatz, Daten manuell hin und her zu kopieren oder zu extrahieren, sollte der Vergangenheit angehören. Stattdessen muss der Bezug von Daten aus Applikationen und für KI-Zwecke klar definiert und automatisiert erfolgen. Diese Schritte legen den Grundstein für eine datengetriebene Kultur und bereiten das Unternehmen optimal auf die Zukunft in der KI-Ära vor. So gelingt es, aus Daten neue Erkenntnisse abzuleiten und darauf basierend Entscheidungen zu fällen und die richtigen Massnahmen zu ergreifen.
Das Interview erschien am 28. September in der Tages Anzeiger Beilage "Business Pointers".