← Alle Playbooks
Playbook· legal

DACH-Legal. EU AI Act und DSGVO für AI-Operator

Was seit Februar 2025 gilt, was ab August 2026 enforced wird. Was KMU und Selbständige jetzt umsetzen müssen. Keine Paragraphen-Lyrik, nur Pflichten.

Wer AI-Tools beruflich nutzt, kann sich nicht mehr darauf verlassen dass Legal "später mal kommt". Der EU AI Act ist seit Februar 2025 in Teilen bindend, die erste Enforcement-Welle rollt im August 2026 an. Plus DSGVO die weiter gilt. Plus das DDG (früher TMG), plus §356a BGB wenn Du Online-Verträge schließt. Hier ist was davon für Dich als AI-Operator oder AI-nutzende Firma wirklich relevant ist, ohne Juristen-Vokabular.

Warnung

Dies ist kein Rechtsberatung. Ich bin kein Anwalt, das hier ist eine Zusammenfassung aus Recherche und aus Anwendung in eigenen Firmen. Für konkrete Fälle bitte eine AHK, eine IHK, oder einen Anwalt. Was Du hier liest sind die Fragen die Du stellen solltest.

Artikel 4 EU AI Act. AI Literacy ist Pflicht

Seit 2. Februar 2025 in Kraft. Enforcement ab 2. August 2026.

Was er verlangt: Jede Firma die AI-Systeme einsetzt muss sicherstellen dass Mitarbeiter die mit AI arbeiten, "ein ausreichendes Mass an AI-Kompetenz" haben. Das ist vage formuliert, aber die EU-Kommission hat klargestellt dass es keine Pflicht-Prüfung gibt, dokumentierte Training-Massnahmen reichen.

Was Du konkret brauchst:

  • Eine schriftliche AI-Use-Policy.
  • Jeder Mitarbeiter mit AI-Kontakt hat ein Training durchlaufen.
  • Training-Nachweise (wer, wann, welches Modul) aufbewahrt.
  • Neue Mitarbeiter bekommen das Training innerhalb der Probezeit.
  • Jährliche Auffrischung.

Als Solo-Selbständiger: trifft Dich nur indirekt, über Deine Kunden. Wenn Du B2B arbeitest und Deine Kunden AI-Tools implementieren, werden sie von Dir das Nachweise-Set erwarten. Diese Kunden werden ab August 2026 darauf achten.

Artikel 5 und Risiko-Kategorien

Der AI Act unterscheidet vier Kategorien:

  • Verboten (Social Scoring, unterschwellige Manipulation, biometrische Massen-Überwachung).
  • High-Risk (AI in Personalauswahl, Kreditentscheidungen, kritischer Infrastruktur, Bildung wenn Prüfungen bewertet werden).
  • Transparenz-pflichtig (Chatbots müssen sich als AI zu erkennen geben, Deepfakes müssen gekennzeichnet werden, AI-generierte Texte in Journalismus müssen markiert sein).
  • Minimum Risk (der Rest, keine besonderen Pflichten).

Die meisten Anwendungen die Du baust sind "Transparenz-pflichtig" oder "Minimum Risk". Keine Panik, keine drohende Verboten-Kategorie.

Wichtig: wenn Du einen Chatbot auf Deiner Website betreibst, muss der Nutzer erkennen dass er mit einer AI redet. Das reicht als Label "AI-Assistent" oder "dieser Chat wird von AI beantwortet". Versteck es nicht.

DSGVO und AI, die echten Stolpersteine

DSGVO ist älter als ChatGPT, aber sie gilt trotzdem für alles was Du in Deinem AI-Tool machst. Die drei echten Fragen:

Was passiert mit Daten die in ChatGPT/Claude reingehen?

OpenAI und Anthropic bewahren Inputs und Outputs für Betriebs- und Missbrauchs-Zwecke auf. Unterschiedlich lang je nach Plan und Einstellung. Das ist eine Auftragsdaten-Verarbeitung nach DSGVO, wenn Du personenbezogene Daten reingibst.

Zwei Implikationen:

  • Du musst einen AV-Vertrag (Auftragsverarbeitungs-Vertrag) mit dem Anbieter haben. Anthropic und OpenAI bieten die an, Du musst sie aber explizit ziehen.
  • Du darfst sensible Daten (Gesundheit, Religion, biometrische Daten) NICHT einfach in den Standard-Tools verarbeiten. Das braucht separate Enterprise-Agreements oder eigene Modelle.

Was ist mit US-Transfer?

Die Anbieter hosten primär in den USA. DSGVO verlangt für US-Transfer Standard Contractual Clauses (SCC) oder einen Adequacy Decision. Anthropic hat SCC, OpenAI auch. Die SCCs musst Du aber nachweisen können wenn Du Daten-Anfragen bekommst.

Bei sensiblen Daten reicht SCC oft nicht (Schrems-II-Urteil). Für diese Fälle brauchst Du technische Massnahmen zusätzlich. Pseudonymisierung vor dem Reinsenden, oder EU-hosted Modelle (Mistral, Aleph Alpha) statt US-Anbieter.

Was ist mit Memory-Systemen?

Wenn Du Daten in einem externen Memory-Server speicherst (wie StudioMeyer Memory oder selbst gehostet), ist der Server-Betreiber Auftragsverarbeiter. AV-Vertrag nötig. Bei self-hosted Memory bist Du selbst verantwortlich, das heißt DSGVO-konform hosten (verschlüsselung, Zugriffs-Logs, Löschrechte).

DDG (Digitale Dienste Gesetz), ersetzt TMG seit Mai 2024

Relevant für jeden der eine Website oder App betreibt. Die Kernpunkte:

  • Impressum-Pflicht bleibt bestehen. §5 DDG statt §5 TMG, inhaltlich das Gleiche.
  • Kontaktmöglichkeiten müssen "einfach" sein. E-Mail + Kontaktformular + Telefon ist Gold-Standard.
  • "User-generated Content" auf Deiner Plattform: Du haftest wenn Du nicht schnell reagierst auf Meldungen über rechtswidrige Inhalte.

Für AI-Anwendungen speziell: wenn User Prompts reinschreiben die dann irgendwo veröffentlicht werden (Blog-Kommentare durch AI, Forum-Posts), gelten die Moderations-Pflichten.

§356 und §356a BGB. Widerruf bei Online-Verträgen

Wenn Du AI-Services online an Endverbraucher verkaufst (B2C), gelten die Fernabsatz-Vorschriften:

  • §356 BGB: Widerruf 14 Tage nach Vertragsschluss. Ohne Begründung.
  • §356 Abs. 5: Digitale Inhalte. Widerrufs-Verzicht möglich, muss aber explizit angekreuzt werden (Checkbox muss UNCHECKED starten, User setzt den Haken bewusst).
  • §356a: Button-Lösung, der Kauf-Button muss eindeutig beschriftet sein ("zahlungspflichtig bestellen" oder äquivalent).

Praktische Konsequenz: wenn Du digitale Produkte verkaufst und der Kunde nach drei Tagen sagt "doch nicht", musst Du zurückzahlen, es sei denn er hat explizit auf Widerruf verzichtet und Du hast ihn darauf hingewiesen. Ein allgemeines "kein Widerruf bei digitalen Produkten" reicht nicht mehr.

Urheberrecht, was AI-generiert ist gehört eigentlich niemandem

AI-generierte Werke sind nicht urheberrechtlich geschützt, solange kein ausreichender menschlicher Anteil drin ist. Das heißt:

  • Ein rein AI-geschriebenes Bild kann nicht urheberrechtlich geschützt werden.
  • Ein AI-geschriebener Text, den Du nur aus dem Tool kopierst, auch nicht.
  • Sobald Du nennenswert redaktionell arbeitest (Umstellen, Ergänzen, Kürzen, Fact-Check), entsteht ein schützbares Werk, aber nur Dein Anteil.

Für Agentur-Arbeit heißt das: wenn Du AI-Outputs an Kunden lieferst ohne nennenswerte Bearbeitung, kann der Kunde das Werk nicht exklusiv schützen. Das ist oft kein Problem (Marketing-Text, Präsentationen brauchen meistens keinen urheberrechtlichen Schutz), bei Software und Buchveröffentlichungen aber schon.

Meine konkreten Empfehlungen für Selbständige und kleine KMU

  1. Impressum + Datenschutz + AGB auf Deiner Website. DDG + DSGVO + Widerruf-Belehrung wenn B2C.
  2. AV-Verträge mit OpenAI und Anthropic ziehen (beide haben Standard-Portale dafür).
  3. AI-Use-Policy schreiben (2 Seiten reicht), Mitarbeitern + Freelancern zur Unterschrift geben, unterschriebene Kopie aufheben.
  4. Chatbot-Label auf jeder Web-Anwendung die AI nutzt.
  5. Sensible Daten nicht in Standard-ChatGPT oder Standard-Claude. Für Gesundheit / Finanzen / Recht entweder Enterprise-Plan oder EU-hosted oder gar nicht.
  6. Cookie-Banner wenn Du Analytics nutzt (Umami ist DSGVO-konform und braucht keinen Banner, gut).
  7. Löschrechte dokumentieren, wie kann ein User / Kunde seine Daten bei Dir löschen lassen.

Das sind die sieben Massnahmen die 95 Prozent aller Fälle abdecken.

Was am 2. August 2026 wirklich enforced wird

Stand April 2026, drei Monate vor dem Stichtag, sind die enforcement-relevanten Punkte:

High-Risk Vollenforcement. Ab 2. August 2026 sind alle High-Risk-Pflichten aus Anhang III in voller Wirkung. Das betrifft AI in Personalauswahl, Kreditvergabe, Bildungsbewertung, kritischer Infrastruktur und einigen weiteren Bereichen. Wer in dieser Kategorie ist, braucht ein konformitätsbewertetes System mit CE-Kennzeichnung. Das ist für 95 Prozent der Selbständigen und KMU NICHT relevant, aber wenn Du z.B. ein HR-Tool für einen Kunden baust das Bewerber automatisch sortiert, musst Du genauer hinschauen.

Transparenzpflichten für End-User. AI-Content-Labeling für Endnutzer wird ab August 2026 enforcement-pflichtig. Heißt praktisch: AI-generierte Texte, Bilder und Audio die der Nutzer sieht, müssen erkennbar als AI deklariert sein. Das gilt auch für Deepfakes (verschärft) und für synthetisch erstellten redaktionellen Content. Für Deine Website mit AI-Chatbot reicht ein klarer Hinweis, für AI-generierte Bilder in Marketing brauchst Du ein Wasserzeichen oder Caption.

GPAI-Strafrahmen aktiv. Schon seit 2. August 2025 in Kraft, aber praxisrelevant erst durch die Vollenforcement-Welle. Verstösse gegen die GPAI-Pflichten (Transparenz, technische Doku, Datenzusammenfassung für Modell-Provider) können bis zu 15 Millionen Euro oder 3 Prozent vom weltweiten Jahresumsatz kosten, was höher ist. Das trifft primär die Modellanbieter (OpenAI, Anthropic, Mistral), nicht Dich als Anwender. Aber wenn Du selber ein Foundation-Modell trainierst und über die GPAI-Schwelle kommst, dann doch.

AI-Sandbox je Mitgliedstaat. Ab August 2026 verpflichtet jeder EU-Mitgliedstaat eine "AI Regulatory Sandbox" zu betreiben in der Firmen ihre AI-Systeme vor dem Roll-Out testen können, mit Aufsicht aber ohne sofortige Sanktionen. In Deutschland nimmt das die Bundesnetzagentur in Bonn mit, die einen "AI Service Desk" für KMU eingerichtet hat. Wer in einem grenzwertigen Bereich baut (z.B. AI in Bildung oder Personal), kann dort vorher anfragen. Spart später Ärger.

MCP-Server-Sicherheit, was die OX-Security-Story für DACH-Compliance bedeutet

Im April 2026 hat OX Security eine systemische RCE-Schwachstelle im MCP-STDIO-Transport veröffentlicht. 11 CVEs in produktiven Frameworks (LangFlow, Windsurf, Flowise, LiteLLM, Bisheng, Upsonic und weitere), bis zu 200.000 verwundbare Instanzen geschätzt. Anthropic hat das als "expected behavior" eingeordnet, Sanitization sei Developer-Verantwortung.

Für DSGVO-Compliance ist das ein konkreter Punkt. Wenn Du in Deinem Unternehmen MCP-Server einsetzt die Personen-bezogene Daten verarbeiten, schreibt Art. 32 DSGVO Dir technische und organisatorische Massnahmen vor (TOMs). Eine TOM ist auch die Auswahl von Software die nicht mit bekannten RCE-Lücken arbeitet. Heißt praktisch, vor dem produktiven Einsatz eines MCP-Servers prüfst Du die Quelle, idealerweise mit einem dokumentierten Auswahl-Prozess. Wenn ein Datenschutz-Audit später fragt warum Du einen bestimmten MCP-Server gewählt hast, willst Du nicht "wir haben den ersten genommen den ChatGPT vorgeschlagen hat" antworten.

Konkrete Empfehlung für KMU und Selbständige, drei Punkte. Erstens, Liste aller produktiv genutzten MCP-Server pflegen. Wer hat sie gebaut, woher sind sie bezogen, welche Tool-Calls sind aktiv. Zweitens, MCP-Server nur aus vertrauenswürdigen Quellen (offizielle Anthropic-Releases, etablierte OSS-Projekte mit aktivem Maintainer, eigene Builds mit Code-Review). Drittens, falls Du selbst MCP-Server für Kunden baust und vertreibst, Sanitization der Tool-Argumente ist Pflicht und Teil Deiner Sicherheits-Dokumentation. Lies dazu den dedicated Playbook "MCP-STDIO-Sicherheit" der die technischen Details und Code-Patterns abdeckt.

Auftragsverarbeitungs-Vertrag-Aspekt, falls ein MCP-Server im Auftrag Daten verarbeitet (z.B. ein cloud-gehosteter MCP-Server) brauchst Du wie bei jedem anderen Sub-Auftragsverarbeiter einen AVV mit dem Anbieter, plus die Standard-Garantien für Datenübermittlungen ausserhalb der EU.

Bundesnetzagentur-Hinweis, der AI Service Desk in Bonn ist auch für Sicherheits-Fragen rund um MCP ansprechbar. Wenn Du unsicher bist ob Dein Setup compliance-fähig ist, lieber dort vorab anfragen als nach einem Incident.

Bundesnetzagentur ist die nationale Aufsicht

Wichtig für DACH-spezifisch: die Bundesnetzagentur in Bonn ist die deutsche Aufsicht für den AI Act. Der "AI Service Desk" ist KMU-freundlich und kostenlos für Erstanfragen. Wenn Du unsicher bist ob Dein Use-Case High-Risk ist, frag dort an, lieber zwei Wochen Wartezeit als ein böses Audit nach Live-Gang. Österreich hat die RTR, die Schweiz hat den AI Act formal nicht aber orientiert sich an den EU-Standards für grenzüberschreitende Anbieter.

Was sich noch ändern wird

Die EU AI Office (europäische Aufsichtsbehörde) arbeitet weiter an konkreten Leitlinien. Bis Ende 2026 kommen voraussichtlich:

  • Konkrete Trainings-Standards für AI Literacy (Artikel 4).
  • Technische Standards für Transparenz-Kennzeichnung (wie genau muss AI als AI deklariert werden).
  • Code of Practice für General-Purpose AI (wen betrifft's, wen nicht).
  • Konkretere Schwellwerte für die High-Risk-Kategorisierung.

Halt Dich up-to-date über das EU-AI-Office-Portal, das Bundesnetzagentur AI-Service-Desk-Update, oder Fachmedien wie Heise, c't oder die IHK-Newsletter.

Weiter

Wenn Du AI-Systeme für Dich oder für Kunden baust, hilft Dir Level 5 Lesson 5 Human-in-the-Loop dabei die richtigen Freigabe-Punkte einzubauen, was für "High-Risk" Systeme rechtlich zusätzlich Pflicht ist.

Und Level 6 zeigt wie Du Deine Memory-Systeme und MCP-Server selbst hostest, was für DSGVO-sensible Anwendungen oft der sauberste Weg ist.