Vertraulich — Nur für interne Verwendung

AI Governance
Framework

Healthcare/MedTech/Pharma PE Fund
Erstellt von
Karolyne Hahn Advisory
Version
1.0 — April 2026
Regulierung
DORA · EU AI Act · BaFin-AIFM
Nächste Review
Oktober 2026
6 Bausteine
15+ Portfolio Co's
01 AI-Strategie 02 Datenklassifizierung 03 Tool-Whitelist 04 Acceptable Use Policy 05 Audit-Log 06 DORA-Checkliste
01

AI-Strategie

Zweck

Der Fund setzt KI-Technologien ein, um Wertschöpfung im Portfolio zu beschleunigen, operative Effizienz zu steigern und Investitionsentscheidungen zu schärfen — ohne dabei Compliance, Datenschutz oder Patientensicherheit zu gefährden. Dieses Framework definiert den verbindlichen Rahmen für alle KI-Aktivitäten auf Fund- und Portfolioebene.

Scope
  • [Fund Management GmbH] (Fondsbetrieb)
  • Alle direkt betreuten Portfoliounternehmen (Healthcare, MedTech, Pharma)
  • Externe Berater mit Zugang zu Fund-Systemen oder -Daten
  • Gilt für generative KI, ML-Modelle, RPA und autonome Agenten
  • Ausgenommen: reine Statistiksoftware ohne Lernkomponenten
Management-Verantwortung
AI Governance Owner
Managing Partner / GP
Genehmigt AI-Policy, trägt Gesamtverantwortung gegenüber BaFin und LPs
Operativer AI Owner
Value Creation Team
Koordiniert Tool-Freigaben, Onboarding in Portfoliounternehmen, Incident Reporting
Data Protection
Externer DSB / Legal
DSGVO-Konformität, Auftragsverarbeitungsverträge mit AI-Anbietern, Datentransfers
IT / Security
CISO / IT-Leitung (Portfolio)
Tool-Integration, SSO-Enforcement, Audit-Log-Aktivierung, Zugriffsrechte
Fachlicher AI Lead
Fractional Chief AI Officer
Use-Case-Bewertung, Framework-Maintenance, Trainings, Eskalationsinstanz
Compliance Review
Quartalsweise
Policy-Review, Audit-Log-Stichproben, Incident-Statistik, DORA-Update
Erlaubte Use Cases (fundlevel & portfolio)
Fund Operations
  • Deal Screening & Due Diligence Drafts
  • IC-Memo-Zusammenfassung
  • LP-Reporting Entwürfe
  • Vertragsanalyse (NDA, SPA — Review-Pflicht)
  • Research & Marktanalysen
Portfolio Operations
  • Interne Dokumentation & SOPs
  • HR-Stellenbeschreibungen, Onboarding
  • Marketing-Content (nicht reguliert)
  • Code-Unterstützung (interne Tools)
  • Übersetzungen interner Dokumente
Reguliert / Freigabe nötig
  • Klinische Datenauswertung (MDR-Kontext)
  • Pharmakologische Entscheidungsunterstützung
  • Patientenkommunikation (streng reguliert)
  • Autonome Finanzentscheidungen (BaFin)
  • HR-Entscheidungen mit KI-Scoring
Grundsatz: KI ist immer ein Hilfsmittel, nie ein Entscheider. Jedes KI-Output das nach außen geht, eine regulatorische oder finanzielle Konsequenz hat, oder Patientendaten berührt, erfordert menschliche Freigabe durch eine benannte Person.
02

Datenklassifizierung & AI-Input-Regeln

L0 Öffentlich ✓ Ja — uneingeschränkt
Beispiele
Pressemitteilungen, Produktbroschüren, öffentliche Jahresberichte, Stellenanzeigen, Marktdaten (öffentlich), Fachliteratur (publiziert)
Bedingungen
Keine Sonderbedingungen. Output immer fachlich prüfen.
L1 Intern ✓ Ja — mit Bedingungen
Beispiele
Interne Präsentationen, Meeting-Protokolle, Prozessbeschreibungen, HR-Materialien (anonymisiert), Marketingbriefs. Auch: CRM-, ERP- und Finanzdaten — wenn über freigegebene Integration übertragen.
Bedingungen
Nur freigegebene Tools (Whitelist). CRM/ERP/Finanzdaten: ✓ erlaubt via native Integration (Langdock ↔ Salesforce etc.) mit Audit-Log — ✗ verboten per manuellem Copy-Paste in Consumer-Tools.
L2 Vertraulich ⚠ Nur mit expliziter Freigabe
Beispiele
Unveröffentlichte DD-Reports, Portfolio-KPIs, Term Sheets / LOIs, Mitarbeiter-Performance-Daten, Kundenlisten, Preisstrukturen, klinische Studiendaten (anonymisiert), Regulatory Affairs Dokumente
Bedingungen
Nur Enterprise-Tier mit deaktiviertem Training (Vertrag nachweisen). Daten pseudonymisieren. AVV vorliegend. Keine Consumer-Tools. Ergebnis intern als vertraulich markieren.
L3 Streng vertraulich ✗ Verboten
Beispiele
Patientendaten (auch pseudonymisiert), Portfoliofinanzierungen vor Closing, M&A-Targets (nicht-öffentlich), Insider-Informationen gem. MAR, BaFin-Meldungen, Personalakten, proprietärer Medizinsoftware-Code, klinische Rohdaten mit Personenbezug
Bedingungen
Keine KI-Verarbeitung ohne DSGVO-Gutachten, explizite GF-Freigabe und technische Isolation (On-Premise oder Private Cloud). Verstöße → sofortige Eskalation an DSB + Managing Partner.
Praktische Regel für Mitarbeiter: Im Zweifel: eine Stufe höher klassifizieren. Wer unsicher ist, ob Daten in ein AI-Tool eingegeben werden dürfen, fragt zuerst — handelt nicht.
03

Tool-Whitelist

Microsoft 365 Copilot Word, Excel, Teams, Outlook
L0 · L1 · L2 (AVV)
Freigegeben
Enterprise Agreement aktiv; Training opt-out aktiviert; SSO + MFA; Tenant-Isolation nachgewiesen; AVV §28 DSGVO vorliegend
IT-Leitung + DSB
Langdock Enterprise AI Platform — empfohlen für Portfolio-Rollout
L0 · L1 · L2 (AVV)
Freigegeben
EU-Hosting (Azure Germany); ISO 27001 + SOC 2 Type II; No-Training vertraglich; SSO gegen Azure AD; native CRM/ERP-Integrationen mit Audit-Log — bevorzugter Weg für Unternehmensdaten aus Finanzsystemen
Value Creation Team
Claude for Work Anthropic — Team/Enterprise
L0 · L1 · L2 (Enterprise)
Freigegeben
Enterprise-Plan mit No-Training-Klausel; AVV abgeschlossen; Nutzung nur über SSO; kein Consumer-Account erlaubt
Value Creation Team
Perplexity / Consensus Research & Literaturdatenbanken
L0 · L1
Freigegeben
Nur für Research mit öffentlichen Quellen; keine proprietären Daten eingeben; Ergebnisse immer im Original verifizieren
Value Creation Team
DeepL Pro Übersetzungen
L0 · L1
Freigegeben
Pro-Account (kein Free-Tier); AVV aktiv; L2-Dokumente nur mit expliziter Genehmigung
Value Creation Team
Notion AI / Confluence AI Wissensmanagement
L0 · L1
Bedingt
Nur wenn EU-Datenhaltung konfiguriert; kein AI-Training aktiviert; L2-Daten explizit ausschließen; AVV vorliegend
IT-Leitung
GitHub Copilot Code-Unterstützung
L0 · L1 (interner Code)
Bedingt
Kein proprietärer Code für Medizinprodukte (MDR); kein API-Key im Prompt; Business-Plan mit No-Training; Code-Review durch Senior Developer bleibt Pflicht
IT-Leitung + CISO
ChatGPT (Consumer) OpenAI — kostenlose Accounts
Verboten
Kein AVV; Training auf Nutzerdaten; kein Enterprise-Datenschutz. Ausnahme: ChatGPT Enterprise nach individuellem AVV-Abschluss neu beantragen.
Gemini / Google Bard Consumer-Accounts
Verboten
Kein DSGVO-konformer AVV für Consumer-Tier; Datenweitergabe an Google-Dienste unkontrolliert. Workspace-Gemini separat prüfen.
Midjourney / DALL-E (Consumer) Bildgenerierung
Verboten
Keine Unternehmens-Daten, Logos oder vertrauliche Visualisierungen; IP-Risiken bei generiertem Content ungeklärt
Sonstige / Neue Tools
Gesperrt bis Freigabe
Freigabeantrag an Value Creation Team. Checkliste: AVV, Datenhaltungsort, Training-Opt-out, Sicherheitsnachweis. Bearbeitungszeit: max. 10 Werktage.
Value Creation Team + DSB
04

Acceptable Use Policy (AUP)

✓ Erlaubt
  • Freigegebene Tools aus der Whitelist nutzen
  • L0/L1-Daten für Drafts, Research, Zusammenfassungen verwenden
  • CRM-, ERP- und Finanzdaten über freigegebene native Integrationen (Langdock, M365 Copilot) in AI einbinden — das ist der Kernmehrwert
  • AI-Output vor externer Nutzung menschlich reviewen und freigeben
  • Erkannte Datenfehler oder Halluzinationen im Tool melden
  • AI für interne Produktivität (Drafts, Übersetzung, Dokumentation) einsetzen
  • Neue Use Cases beim Value Creation Team anmelden
  • AI-Schulungen und Trainingsangebote wahrnehmen
  • Ergebnisse mit Quellenangaben versehen und überprüfen
✗ Verboten
  • L2/L3-Daten in nicht freigegebene Tools eingeben
  • Patientendaten, Diagnosen oder klinische Rohdaten in Consumer-Tools
  • Insider-Informationen (M&A-Targets, unveröffentlichte Finanzdaten) in KI
  • KI-generierte Dokumente ohne Review nach außen geben
  • Unternehmensdaten (CRM, ERP, Finanzen) manuell per Copy-Paste in Consumer-Tools eingeben — nur freigegebene native Integrationen erlaubt
  • Persönliche AI-Accounts für berufliche Zwecke nutzen
  • AI für diskriminierende HR-Entscheidungen einsetzen
  • Zugangsdaten, API-Keys oder Passwörter in Prompts eingeben
  • KI-generierten Output als eigene Originalarbeit deklarieren (ohne Kennzeichnung)
  • Jailbreaking oder Umgehung von Safety-Mechanismen
  • KI für regulierte Medizinprodukt-Entscheidungen ohne MDR-Validierung
! Konsequenzen bei Verstoß
  • Stufe 1 — Unbeabsichtigt: Schriftliche Verwarnung + Pflicht-Schulung (2h). Dokumentiert in Personalakte.
  • Stufe 2 — Wiederholung oder fahrlässig: Formale Abmahnung, vorübergehender Entzug AI-Tool-Zugang (30 Tage), HR-Eskalation.
  • Stufe 3 — Schwerwiegend / vorsätzlich: Außerordentliche Kündigung möglich, Meldung an DSB und ggf. BaFin, zivilrechtliche Haftung bei Datenschutzverletzungen.
  • Sonderfall — Datenpanne: Sofortige Meldung an CISO + DSB (72h-DSGVO-Frist). Interne Untersuchung. Betroffene benachrichtigen.
Meldepflicht: Jeder Verdacht auf Datenmissbrauch, unerwünschte Datenweitergabe durch ein AI-Tool oder ungewöhnliches Tool-Verhalten ist unverzüglich an [email protected] zu melden. Kein Selbst-Troubleshooting bei Datenvorfällen.
05

Audit-Log-Anforderungen

Microsoft 365 / Copilot
Microsoft Purview Audit
  • Unified Audit Log aktivieren (Tenant-Ebene)
  • Copilot-Interaktionen: Prompt + Response-Metadaten loggen
  • User-Aktivitäten: Datei-Zugriff, Export, Sharing
  • Admin-Aktionen: Policy-Änderungen, Rollen-Zuweisungen
  • DLP-Alerts bei Datenklassen-Verstößen aktivieren
  • eDiscovery-Hold für regulatorische Anfragen konfigurieren
Aufbewahrung: 12 Monate standard / 10 Jahre auf E5-Lizenz (BaFin)
Claude for Work / Anthropic
Enterprise Usage Logs
  • Admin Console: User-Aktivitätsberichte aktivieren
  • Conversation-Level Logging für Compliance-Nutzer
  • API-Nutzung: Tokens, Modell, Timestamp, User-ID
  • Exported Outputs markieren und separat aufbewahren
  • Monatlicher Export in SIEM (z.B. Microsoft Sentinel)
  • Anomalie-Alerts bei ungewöhnlichen Nutzungsmustern
Aufbewahrung: 6 Monate im Tool / 12 Monate im SIEM
Zugriffsverwaltung (IAM)
Azure AD / Entra ID Logs
  • Sign-in Logs: Alle AI-Tool-Zugriffe mit MFA-Status
  • Conditional Access: Policy-Auswertungen protokollieren
  • Privileged Access: Admin-Aktionen vollständig loggen
  • Failed Logins und anomale Geo-Zugriffe alertieren
  • Lifecycle-Events: Onboarding, Offboarding, Rechteänderung
  • Service Principal / App-Registrierungen dokumentieren
Aufbewahrung: 90 Tage nativ / 12 Monate im SIEM (DORA)
Datei- und Datenzugriff
SharePoint / OneDrive / DMS
  • Datei-Zugriff auf L2/L3-klassifizierte Dokumente vollständig loggen
  • Externe Freigaben: Jede Link-Erstellung protokollieren
  • Bulk-Downloads: Alert bei >50 Dateien/Session
  • Sensitivity Labels: Änderungen und Downgrades loggen
  • AI-generierte Dokumente mit Metadaten-Tag versehen
Aufbewahrung: 12 Monate / L3-Dokumente: 10 Jahre
Netzwerk / Endpoint
Firewall / Proxy / EDR
  • Proxy-Log: Zugriffe auf nicht-freigegebene AI-Domains blocken und loggen
  • DNS-Filtering: Verbotene AI-Consumer-URLs protokollieren
  • Endpoint-Detection: Unbekannte AI-Browser-Extensions melden
  • Data Exfiltration: Große Uploads an AI-Domains überwachen
  • Monatlicher Bericht: Top-10 blockierte AI-Zugriffe
Aufbewahrung: 90 Tage nativ / 12 Monate SIEM
Governance & Compliance
Policy-Lifecycle-Log
  • Jede Policy-Version versionieren und Änderungen dokumentieren
  • Mitarbeiter-Schulungen: Teilnahme und Abschluss nachweisen
  • Tool-Freigaben: Anträge, Entscheidung, Begründung archivieren
  • Incidents: Vollständige Vorgangsakte pro Vorfall führen
  • Quarterly Reviews: Protokoll + Sign-off Management dokumentieren
Aufbewahrung: 10 Jahre (BaFin AIFMD-Anforderung)
DORA-Mindestanforderung: Alle Logs müssen integer (tamper-proof), verschlüsselt und außerhalb der produktiven Umgebung gespeichert werden. Wiederherstellbarkeit muss jährlich getestet werden. Log-Zugriff auf dedizierte Compliance-Rolle beschränken.
06

DORA-Konformitäts-Checkliste

Applicable for BaFin-regulated AIFMs. DORA gilt ab 17. Januar 2025 (VO (EU) 2022/2554). Die folgenden 10 Checkboxen decken die KI-spezifischen Anforderungen ab. Klick zum Abhaken.
01
ICT-Risikomanagement: AI-Tools im ICT-Asset-Register erfasst Alle freigegebenen AI-Tools (Microsoft Copilot, Claude, etc.) sind im ICT-Inventar dokumentiert mit Anbieter, Vertragsstatus, Datenkategorien, Kritikalitätsstufe und Business-Owner.
Art. 8 DORA
02
Drittanbieter-Risiko: Alle AI-Anbieter als ICT-Drittdienstleister klassifiziert Microsoft, Anthropic und alle weiteren freigegebenen Anbieter sind im Drittanbieter-Register erfasst. Kritische Anbieter haben einen vollständigen DORA-konformen Vertrag (Audit-Rechte, Notfallplan, Subauftragnehmer-Transparenz).
Art. 28–30 DORA
03
Incident-Management: KI-Vorfälle im DORA-Incident-Prozess integriert AI-spezifische Incidents (Datenleck durch Tool, Halluzination mit regulatorischer Wirkung, unbefugter Zugriff) sind in den bestehenden ICT-Incident-Prozess integriert. Eskalationswege und Meldepflicht an BaFin (erhebliche Vorfälle) sind schriftlich definiert.
Art. 17–23 DORA
04
Business Continuity: Ausfall kritischer AI-Tools in BCP abgedeckt Für jeden kritischen AI-Prozess ist definiert: Was passiert bei Ausfall des Tools? Manuelle Ersatzprozesse sind dokumentiert. Recovery Time Objective (RTO) und Recovery Point Objective (RPO) sind für AI-gestützte Prozesse festgelegt.
Art. 11 DORA
05
Penetration Testing / TLPT: AI-Systeme in Resilience-Tests einbezogen Threat-Led Penetration Testing (TLPT) für kritische AI-Infrastruktur ist eingeplant (gem. DORA-Zeitplan). Für nicht-kritische Systeme: jährliche Vulnerability Assessments und Konfigurationsprüfungen der AI-Tool-Integrationen.
Art. 26 DORA
06
Audit-Logs: Vollständige, integre Protokollierung aller AI-Aktivitäten aktiv Alle in Abschnitt 05 definierten Log-Anforderungen sind technisch umgesetzt und verifiziert. Logs sind tamper-proof, verschlüsselt und außerhalb der produktiven Systeme gespeichert. Aufbewahrungsfristen sind systemseitig erzwungen.
Art. 9 DORA
07
Zugriffsmanagement: Least-Privilege für alle AI-Tool-Zugriffe umgesetzt Jeder Mitarbeiter hat nur Zugriff auf die AI-Tools und Datenkategorien, die seine Rolle erfordert. Privilegierte Accounts (Admins, Policy-Owner) sind separat gesichert. Quarterly Access Reviews für AI-Tool-Berechtigungen sind terminiert.
Art. 9 DORA
08
Schulung & Awareness: AI-Governance-Training für alle Mitarbeiter nachweisbar Jeder Mitarbeiter hat eine dokumentierte AI-Governance-Schulung abgeschlossen (Onboarding + jährliches Refresh). Inhalte umfassen: Datenklassifizierung, Tool-Whitelist, AUP, Meldepflichten. Schulungsnachweise sind revisionssicher archiviert.
Art. 13 DORA
09
Policy-Governance: Framework wird mindestens jährlich reviewed und aktualisiert Formaler Review-Prozess ist definiert: Trigger (regulatorische Änderungen, neue Tools, Incidents), Verantwortliche (Fractional CAIO + Legal), Genehmigungsweg (Managing Partner Sign-off), Versionierung und Kommunikation an alle Betroffenen.
Art. 6 DORA
10
Konzentrationsrisiko: Abhängigkeit von einzelnen AI-Anbietern bewertet und dokumentiert Falls Microsoft Copilot oder ein einzelner Anbieter >50% der KI-gestützten Prozesse abdeckt: Konzentrationsrisiko formell bewertet, dokumentiert und im Risikobericht ausgewiesen. Alternativszenarien für kritische Prozesse sind definiert.
Art. 29 DORA