Data & DevOps in der Tech Due Diligence
18. August 2025
Data & DevOps Due Diligence
Die unterschätzten Risikofelder im Tech-Stack
Einleitung: Es geht nicht nur um den Code
Wenn Tech-Due-Diligence zur Pflichtübung verkommt, werden schnell die offensichtlichen Fragen gestellt: Was ist das Kernprodukt? Welche Programmiersprachen werden verwendet? Ist der Code wartbar?
Doch wer M&A wirklich strategisch betreibt, muss tiefer gehen. Denn die größten Risiken und Chancen liegen nicht im Frontend oder in der Feature-Roadmap. Sie liegen dort, wo viele Investoren kaum hinschauen: in den Datenstrukturen und den DevOps-Prozessen.
Denn: Ohne skalierbare Datenflüsse und stabile Deployments lässt sich kein Produkt effizient weiterentwickeln und schon gar nicht integrieren oder internationalisieren.
Warum Data & DevOps oft übersehen werden
Zwei Gründe:
- Sie sind „unter der Haube“:
Datenpipelines, CI/CD-Workflows und Monitoring-Setups sieht man nicht in der UI. Sie lassen sich nicht einfach in PowerPoint-Folien packen. - Sie wirken nur indirekt auf den Geschäftserfolg:
Ein fehlgeschlagenes Deployment oder ein nicht dokumentierter ETL-Prozess kostet zunächst kein Geld, bis plötzlich ein Marktlaunch scheitert oder Reporting-Zahlen nicht stimmen. Dann wird’s richtig teuer.
Was ist Data Due Diligence und warum ist sie so wichtig?
Bei einer professionellen Data Due Diligence geht es nicht nur darum, welche Daten ein Unternehmen besitzt, sondern wie es mit diesen Daten umgeht.
Wichtige Prüfbereiche:
- Datenqualität: Wie vollständig, aktuell und konsistent sind die Daten? Gibt es Dubletten, Leichen, Inkonsistenzen?
- Datenflüsse & Pipelines: Gibt es automatisierte Prozesse (ETL/ELT), oder läuft alles manuell über Excel und Importe?
- Data Ownership: Wer ist für welche Daten verantwortlich? Gibt es klare Zuständigkeiten?
- Datensicherheit & Compliance: DSGVO-Konformität, Datenverschlüsselung, Zugriffskontrollen?
- BI & Reporting: Ist die Datenbasis entscheidungsfähig oder nur reaktiv?
- Plattformfähigkeit: Lassen sich Daten gemeinsam mit anderen Systemen nutzen, z.B. über APIs und standardisierte Datenformate?
Typische Red Flags:
- Keine dokumentierte Datenarchitektur
- Individuell gepflegte Excel-Dateien statt zentraler Quellen
- Kein Data Stewardship
- BI basiert auf Exporten statt Live-Daten
- Datenquellen sind technisch nicht skalierbar
Fazit: Ein Unternehmen ohne strukturierte Datenbasis wird M&A-Werthebel wie Cross-Selling, Skalierung oder Reporting-Optimierung nicht realisieren können.
Was ist DevOps Due Diligence und warum ist sie kritisch?
Während sich viele Due-Diligence-Prozesse auf den „Code-Zustand“ fokussieren, wird der Weg vom Code zur Produktion oft ignoriert. Dabei entscheidet genau dieser über Geschwindigkeit, Qualität und Skalierbarkeit der Entwicklung.
DevOps Due Diligence beleuchtet u. a.:
- Build- & Release-Prozesse: Wie lange dauert ein vollständiger Build und Deployment? Vollautomatisch oder manuell?
- Testing-Infrastruktur: Gibt es automatisierte Tests (Unit, Integration, E2E)? Wie hoch ist die angestrebte und tatsächliche Testabdeckung?
- Monitoring & Alerting: Wie werden Fehler entdeckt und behandelt? Gibt es klare Prozesse?
- Infrastructure as Code: Wird Infrastruktur dokumentiert und versioniert oder lebt sie „in Köpfen“?
- Security & Secrets Management: Wie werden Zugangsdaten, Tokens und Keys verwaltet?
Warnsignale in der Praxis:
- „Wir deployen nur freitagabends, wenn nichts mehr kaputtgehen kann.“
- Keine Staging-Umgebung vorhanden
- Feature-Toggles werden manuell umgeschaltet
- Kein Rollback-Plan bei Release-Fehlern
- Downtime bei jedem Update
Fazit: Wer DevOps-Prozesse nicht im Griff hat, verliert Geschwindigkeit, Innovationskraft und die Kontrolle über das Produkt.
Der M&A-Kontext: Warum Data & DevOps über Erfolg entscheiden
Gerade im Kontext von Buy-and-Build, Internationalisierung oder Produktbündelung ist es entscheidend, dass Systeme:
- Miteinander sprechen können (APIs, gemeinsame Datenmodelle)
- Schnell weiterentwickelt werden können (CI/CD, automatisierte Tests)
- Verlässlich funktionieren (Monitoring, Alerts, Release-Risiken minimiert)
Denn sonst passiert genau das, was niemand will:
- Zukäufe lassen sich nicht integrieren.
- Skalierung kostet mehr als geplant.
- Der Go-to-Market verzögert sich, weil das DevOps-Team erst mal aufräumen muss.
Praxis-Tipp: Was Investoren konkret tun sollten
1. Fragen stellen, die nicht jeder stellt:
- Wie lange dauert ein vollständiger Deployment-Zyklus?
- Wie viele Schritte in der Datenverarbeitung sind manuell?
- Gibt es Metriken zur Build-Stabilität?
2. Datenfluss-Diagramme & DevOps-Metriken anfordern:
- ETL-Pipelines, Datenquellen, Datenziele
- Build- & Testzeiten, Releasefrequenz, Mean Time to Recovery
3. Audits mit Tech-Experten durchführen:
- Nicht nur CTO sprechen lassen, sondern Codebase, Pipelines und Dokumentation prüfen.
4. Synergien auf Machbarkeit prüfen:
- Können Zukäufe wirklich integriert werden, oder ist es ein Silo-Fest?
Fazit: Data & DevOps Due Diligence
Die technische Zukunftsfähigkeit eines Unternehmens entscheidet sich nicht nur am Produkt, sondern an den Prozessen, die es ermöglichen, dieses Produkt zuverlässig, datenbasiert und schnell weiterzuentwickeln.
Wer Data & DevOps ignoriert, kauft operative Komplexität ein, statt skalierbare Innovation, und das wird teurer, als jede veraltete Codezeile.
Du planst einen Tech-Deal und willst die kritischen Stellen im Stack erkennen,
bevor es teuer wird? Ich unterstütze dich pragmatisch, technisch fundiert
und mit M&A-Erfahrung.
Schauen Sie gerne auch mal auf fup-ag.com