01
AI-Strategie
Zweck
Der Fund setzt KI-Technologien ein, um Wertschöpfung im Portfolio zu beschleunigen, operative Effizienz zu steigern und Investitionsentscheidungen zu schärfen — ohne dabei Compliance, Datenschutz oder Patientensicherheit zu gefährden. Dieses Framework definiert den verbindlichen Rahmen für alle KI-Aktivitäten auf Fund- und Portfolioebene.
Scope
- [Fund Management GmbH] (Fondsbetrieb)
- Alle direkt betreuten Portfoliounternehmen (Healthcare, MedTech, Pharma)
- Externe Berater mit Zugang zu Fund-Systemen oder -Daten
- Gilt für generative KI, ML-Modelle, RPA und autonome Agenten
- Ausgenommen: reine Statistiksoftware ohne Lernkomponenten
Management-Verantwortung
AI Governance Owner
Managing Partner / GP
Genehmigt AI-Policy, trägt Gesamtverantwortung gegenüber BaFin und LPs
Operativer AI Owner
Value Creation Team
Koordiniert Tool-Freigaben, Onboarding in Portfoliounternehmen, Incident Reporting
Data Protection
Externer DSB / Legal
DSGVO-Konformität, Auftragsverarbeitungsverträge mit AI-Anbietern, Datentransfers
IT / Security
CISO / IT-Leitung (Portfolio)
Tool-Integration, SSO-Enforcement, Audit-Log-Aktivierung, Zugriffsrechte
Fachlicher AI Lead
Fractional Chief AI Officer
Use-Case-Bewertung, Framework-Maintenance, Trainings, Eskalationsinstanz
Compliance Review
Quartalsweise
Policy-Review, Audit-Log-Stichproben, Incident-Statistik, DORA-Update
Erlaubte Use Cases (fundlevel & portfolio)
Fund Operations
- Deal Screening & Due Diligence Drafts
- IC-Memo-Zusammenfassung
- LP-Reporting Entwürfe
- Vertragsanalyse (NDA, SPA — Review-Pflicht)
- Research & Marktanalysen
Portfolio Operations
- Interne Dokumentation & SOPs
- HR-Stellenbeschreibungen, Onboarding
- Marketing-Content (nicht reguliert)
- Code-Unterstützung (interne Tools)
- Übersetzungen interner Dokumente
Reguliert / Freigabe nötig
- Klinische Datenauswertung (MDR-Kontext)
- Pharmakologische Entscheidungsunterstützung
- Patientenkommunikation (streng reguliert)
- Autonome Finanzentscheidungen (BaFin)
- HR-Entscheidungen mit KI-Scoring
Grundsatz: KI ist immer ein Hilfsmittel, nie ein Entscheider. Jedes KI-Output das nach außen geht, eine regulatorische oder finanzielle Konsequenz hat, oder Patientendaten berührt, erfordert menschliche Freigabe durch eine benannte Person.
02
Datenklassifizierung & AI-Input-Regeln
L0
Öffentlich
Beispiele
Pressemitteilungen, Produktbroschüren, öffentliche Jahresberichte, Stellenanzeigen, Marktdaten (öffentlich), Fachliteratur (publiziert)
Bedingungen
Keine Sonderbedingungen. Output immer fachlich prüfen.
L1
Intern
Beispiele
Interne Präsentationen, Meeting-Protokolle, Prozessbeschreibungen, HR-Materialien (anonymisiert), Marketingbriefs. Auch: CRM-, ERP- und Finanzdaten — wenn über freigegebene Integration übertragen.
Bedingungen
Nur freigegebene Tools (Whitelist). CRM/ERP/Finanzdaten: ✓ erlaubt via native Integration (Langdock ↔ Salesforce etc.) mit Audit-Log — ✗ verboten per manuellem Copy-Paste in Consumer-Tools.
L2
Vertraulich
Beispiele
Unveröffentlichte DD-Reports, Portfolio-KPIs, Term Sheets / LOIs, Mitarbeiter-Performance-Daten, Kundenlisten, Preisstrukturen, klinische Studiendaten (anonymisiert), Regulatory Affairs Dokumente
Bedingungen
Nur Enterprise-Tier mit deaktiviertem Training (Vertrag nachweisen). Daten pseudonymisieren. AVV vorliegend. Keine Consumer-Tools. Ergebnis intern als vertraulich markieren.
L3
Streng vertraulich
Beispiele
Patientendaten (auch pseudonymisiert), Portfoliofinanzierungen vor Closing, M&A-Targets (nicht-öffentlich), Insider-Informationen gem. MAR, BaFin-Meldungen, Personalakten, proprietärer Medizinsoftware-Code, klinische Rohdaten mit Personenbezug
Bedingungen
Keine KI-Verarbeitung ohne DSGVO-Gutachten, explizite GF-Freigabe und technische Isolation (On-Premise oder Private Cloud). Verstöße → sofortige Eskalation an DSB + Managing Partner.
Praktische Regel für Mitarbeiter: Im Zweifel: eine Stufe höher klassifizieren. Wer unsicher ist, ob Daten in ein AI-Tool eingegeben werden dürfen, fragt zuerst — handelt nicht.
03
Tool-Whitelist
Microsoft 365 Copilot Word, Excel, Teams, Outlook
L0 · L1 · L2 (AVV)
Freigegeben
Enterprise Agreement aktiv; Training opt-out aktiviert; SSO + MFA; Tenant-Isolation nachgewiesen; AVV §28 DSGVO vorliegend
IT-Leitung + DSB
Langdock Enterprise AI Platform — empfohlen für Portfolio-Rollout
L0 · L1 · L2 (AVV)
Freigegeben
EU-Hosting (Azure Germany); ISO 27001 + SOC 2 Type II; No-Training vertraglich; SSO gegen Azure AD; native CRM/ERP-Integrationen mit Audit-Log — bevorzugter Weg für Unternehmensdaten aus Finanzsystemen
Value Creation Team
Claude for Work Anthropic — Team/Enterprise
L0 · L1 · L2 (Enterprise)
Freigegeben
Enterprise-Plan mit No-Training-Klausel; AVV abgeschlossen; Nutzung nur über SSO; kein Consumer-Account erlaubt
Value Creation Team
Perplexity / Consensus Research & Literaturdatenbanken
L0 · L1
Freigegeben
Nur für Research mit öffentlichen Quellen; keine proprietären Daten eingeben; Ergebnisse immer im Original verifizieren
Value Creation Team
DeepL Pro Übersetzungen
L0 · L1
Freigegeben
Pro-Account (kein Free-Tier); AVV aktiv; L2-Dokumente nur mit expliziter Genehmigung
Value Creation Team
Notion AI / Confluence AI Wissensmanagement
L0 · L1
Bedingt
Nur wenn EU-Datenhaltung konfiguriert; kein AI-Training aktiviert; L2-Daten explizit ausschließen; AVV vorliegend
IT-Leitung
GitHub Copilot Code-Unterstützung
L0 · L1 (interner Code)
Bedingt
Kein proprietärer Code für Medizinprodukte (MDR); kein API-Key im Prompt; Business-Plan mit No-Training; Code-Review durch Senior Developer bleibt Pflicht
IT-Leitung + CISO
ChatGPT (Consumer) OpenAI — kostenlose Accounts
–
Verboten
Kein AVV; Training auf Nutzerdaten; kein Enterprise-Datenschutz. Ausnahme: ChatGPT Enterprise nach individuellem AVV-Abschluss neu beantragen.
–
Gemini / Google Bard Consumer-Accounts
–
Verboten
Kein DSGVO-konformer AVV für Consumer-Tier; Datenweitergabe an Google-Dienste unkontrolliert. Workspace-Gemini separat prüfen.
–
Midjourney / DALL-E (Consumer) Bildgenerierung
–
Verboten
Keine Unternehmens-Daten, Logos oder vertrauliche Visualisierungen; IP-Risiken bei generiertem Content ungeklärt
–
Sonstige / Neue Tools
–
Gesperrt bis Freigabe
Freigabeantrag an Value Creation Team. Checkliste: AVV, Datenhaltungsort, Training-Opt-out, Sicherheitsnachweis. Bearbeitungszeit: max. 10 Werktage.
Value Creation Team + DSB
04
Acceptable Use Policy (AUP)
✓ Erlaubt
- Freigegebene Tools aus der Whitelist nutzen
- L0/L1-Daten für Drafts, Research, Zusammenfassungen verwenden
- CRM-, ERP- und Finanzdaten über freigegebene native Integrationen (Langdock, M365 Copilot) in AI einbinden — das ist der Kernmehrwert
- AI-Output vor externer Nutzung menschlich reviewen und freigeben
- Erkannte Datenfehler oder Halluzinationen im Tool melden
- AI für interne Produktivität (Drafts, Übersetzung, Dokumentation) einsetzen
- Neue Use Cases beim Value Creation Team anmelden
- AI-Schulungen und Trainingsangebote wahrnehmen
- Ergebnisse mit Quellenangaben versehen und überprüfen
✗ Verboten
- L2/L3-Daten in nicht freigegebene Tools eingeben
- Patientendaten, Diagnosen oder klinische Rohdaten in Consumer-Tools
- Insider-Informationen (M&A-Targets, unveröffentlichte Finanzdaten) in KI
- KI-generierte Dokumente ohne Review nach außen geben
- Unternehmensdaten (CRM, ERP, Finanzen) manuell per Copy-Paste in Consumer-Tools eingeben — nur freigegebene native Integrationen erlaubt
- Persönliche AI-Accounts für berufliche Zwecke nutzen
- AI für diskriminierende HR-Entscheidungen einsetzen
- Zugangsdaten, API-Keys oder Passwörter in Prompts eingeben
- KI-generierten Output als eigene Originalarbeit deklarieren (ohne Kennzeichnung)
- Jailbreaking oder Umgehung von Safety-Mechanismen
- KI für regulierte Medizinprodukt-Entscheidungen ohne MDR-Validierung
! Konsequenzen bei Verstoß
- Stufe 1 — Unbeabsichtigt: Schriftliche Verwarnung + Pflicht-Schulung (2h). Dokumentiert in Personalakte.
- Stufe 2 — Wiederholung oder fahrlässig: Formale Abmahnung, vorübergehender Entzug AI-Tool-Zugang (30 Tage), HR-Eskalation.
- Stufe 3 — Schwerwiegend / vorsätzlich: Außerordentliche Kündigung möglich, Meldung an DSB und ggf. BaFin, zivilrechtliche Haftung bei Datenschutzverletzungen.
- Sonderfall — Datenpanne: Sofortige Meldung an CISO + DSB (72h-DSGVO-Frist). Interne Untersuchung. Betroffene benachrichtigen.
Meldepflicht: Jeder Verdacht auf Datenmissbrauch, unerwünschte Datenweitergabe durch ein AI-Tool oder ungewöhnliches Tool-Verhalten ist unverzüglich an [email protected] zu melden. Kein Selbst-Troubleshooting bei Datenvorfällen.
05
Audit-Log-Anforderungen
Microsoft 365 / Copilot
Microsoft Purview Audit
- Unified Audit Log aktivieren (Tenant-Ebene)
- Copilot-Interaktionen: Prompt + Response-Metadaten loggen
- User-Aktivitäten: Datei-Zugriff, Export, Sharing
- Admin-Aktionen: Policy-Änderungen, Rollen-Zuweisungen
- DLP-Alerts bei Datenklassen-Verstößen aktivieren
- eDiscovery-Hold für regulatorische Anfragen konfigurieren
Claude for Work / Anthropic
Enterprise Usage Logs
- Admin Console: User-Aktivitätsberichte aktivieren
- Conversation-Level Logging für Compliance-Nutzer
- API-Nutzung: Tokens, Modell, Timestamp, User-ID
- Exported Outputs markieren und separat aufbewahren
- Monatlicher Export in SIEM (z.B. Microsoft Sentinel)
- Anomalie-Alerts bei ungewöhnlichen Nutzungsmustern
Zugriffsverwaltung (IAM)
Azure AD / Entra ID Logs
- Sign-in Logs: Alle AI-Tool-Zugriffe mit MFA-Status
- Conditional Access: Policy-Auswertungen protokollieren
- Privileged Access: Admin-Aktionen vollständig loggen
- Failed Logins und anomale Geo-Zugriffe alertieren
- Lifecycle-Events: Onboarding, Offboarding, Rechteänderung
- Service Principal / App-Registrierungen dokumentieren
Datei- und Datenzugriff
SharePoint / OneDrive / DMS
- Datei-Zugriff auf L2/L3-klassifizierte Dokumente vollständig loggen
- Externe Freigaben: Jede Link-Erstellung protokollieren
- Bulk-Downloads: Alert bei >50 Dateien/Session
- Sensitivity Labels: Änderungen und Downgrades loggen
- AI-generierte Dokumente mit Metadaten-Tag versehen
Netzwerk / Endpoint
Firewall / Proxy / EDR
- Proxy-Log: Zugriffe auf nicht-freigegebene AI-Domains blocken und loggen
- DNS-Filtering: Verbotene AI-Consumer-URLs protokollieren
- Endpoint-Detection: Unbekannte AI-Browser-Extensions melden
- Data Exfiltration: Große Uploads an AI-Domains überwachen
- Monatlicher Bericht: Top-10 blockierte AI-Zugriffe
Governance & Compliance
Policy-Lifecycle-Log
- Jede Policy-Version versionieren und Änderungen dokumentieren
- Mitarbeiter-Schulungen: Teilnahme und Abschluss nachweisen
- Tool-Freigaben: Anträge, Entscheidung, Begründung archivieren
- Incidents: Vollständige Vorgangsakte pro Vorfall führen
- Quarterly Reviews: Protokoll + Sign-off Management dokumentieren
DORA-Mindestanforderung: Alle Logs müssen integer (tamper-proof), verschlüsselt und außerhalb der produktiven Umgebung gespeichert werden. Wiederherstellbarkeit muss jährlich getestet werden. Log-Zugriff auf dedizierte Compliance-Rolle beschränken.
06
DORA-Konformitäts-Checkliste
Applicable for BaFin-regulated AIFMs. DORA gilt ab 17. Januar 2025 (VO (EU) 2022/2554). Die folgenden 10 Checkboxen decken die KI-spezifischen Anforderungen ab. Klick zum Abhaken.
01
ICT-Risikomanagement: AI-Tools im ICT-Asset-Register erfasst
Alle freigegebenen AI-Tools (Microsoft Copilot, Claude, etc.) sind im ICT-Inventar dokumentiert mit Anbieter, Vertragsstatus, Datenkategorien, Kritikalitätsstufe und Business-Owner.
Art. 8 DORA
02
Drittanbieter-Risiko: Alle AI-Anbieter als ICT-Drittdienstleister klassifiziert
Microsoft, Anthropic und alle weiteren freigegebenen Anbieter sind im Drittanbieter-Register erfasst. Kritische Anbieter haben einen vollständigen DORA-konformen Vertrag (Audit-Rechte, Notfallplan, Subauftragnehmer-Transparenz).
Art. 28–30 DORA
03
Incident-Management: KI-Vorfälle im DORA-Incident-Prozess integriert
AI-spezifische Incidents (Datenleck durch Tool, Halluzination mit regulatorischer Wirkung, unbefugter Zugriff) sind in den bestehenden ICT-Incident-Prozess integriert. Eskalationswege und Meldepflicht an BaFin (erhebliche Vorfälle) sind schriftlich definiert.
Art. 17–23 DORA
04
Business Continuity: Ausfall kritischer AI-Tools in BCP abgedeckt
Für jeden kritischen AI-Prozess ist definiert: Was passiert bei Ausfall des Tools? Manuelle Ersatzprozesse sind dokumentiert. Recovery Time Objective (RTO) und Recovery Point Objective (RPO) sind für AI-gestützte Prozesse festgelegt.
Art. 11 DORA
05
Penetration Testing / TLPT: AI-Systeme in Resilience-Tests einbezogen
Threat-Led Penetration Testing (TLPT) für kritische AI-Infrastruktur ist eingeplant (gem. DORA-Zeitplan). Für nicht-kritische Systeme: jährliche Vulnerability Assessments und Konfigurationsprüfungen der AI-Tool-Integrationen.
Art. 26 DORA
06
Audit-Logs: Vollständige, integre Protokollierung aller AI-Aktivitäten aktiv
Alle in Abschnitt 05 definierten Log-Anforderungen sind technisch umgesetzt und verifiziert. Logs sind tamper-proof, verschlüsselt und außerhalb der produktiven Systeme gespeichert. Aufbewahrungsfristen sind systemseitig erzwungen.
Art. 9 DORA
07
Zugriffsmanagement: Least-Privilege für alle AI-Tool-Zugriffe umgesetzt
Jeder Mitarbeiter hat nur Zugriff auf die AI-Tools und Datenkategorien, die seine Rolle erfordert. Privilegierte Accounts (Admins, Policy-Owner) sind separat gesichert. Quarterly Access Reviews für AI-Tool-Berechtigungen sind terminiert.
Art. 9 DORA
08
Schulung & Awareness: AI-Governance-Training für alle Mitarbeiter nachweisbar
Jeder Mitarbeiter hat eine dokumentierte AI-Governance-Schulung abgeschlossen (Onboarding + jährliches Refresh). Inhalte umfassen: Datenklassifizierung, Tool-Whitelist, AUP, Meldepflichten. Schulungsnachweise sind revisionssicher archiviert.
Art. 13 DORA
09
Policy-Governance: Framework wird mindestens jährlich reviewed und aktualisiert
Formaler Review-Prozess ist definiert: Trigger (regulatorische Änderungen, neue Tools, Incidents), Verantwortliche (Fractional CAIO + Legal), Genehmigungsweg (Managing Partner Sign-off), Versionierung und Kommunikation an alle Betroffenen.
Art. 6 DORA
10
Konzentrationsrisiko: Abhängigkeit von einzelnen AI-Anbietern bewertet und dokumentiert
Falls Microsoft Copilot oder ein einzelner Anbieter >50% der KI-gestützten Prozesse abdeckt: Konzentrationsrisiko formell bewertet, dokumentiert und im Risikobericht ausgewiesen. Alternativszenarien für kritische Prozesse sind definiert.
Art. 29 DORA