Künstliche Intelligenz im deutschen Arbeitsrecht

Rolle und Relevanz von KI in der Arbeitswelt

Künstliche Intelligenz (KI) ist zu einem prägenden Treiber der digitalen Transformation geworden und verändert die Arbeitswelt tiefgreifend. In immer mehr Unternehmen werden KI-Systeme eingesetzt, um Prozesse zu optimieren, Entscheidungen auf Basis von Daten zu unterstützen und Routineaufgaben zu automatisieren. Dadurch entstehen vielversprechende Chancen – von effizienterer Personalplanung bis hin zur Entlastung von Beschäftigten bei eintönigen Aufgaben. Gleichzeitig wirft der KI-Einsatz neue rechtliche und ethische Fragen auf: Wie können Arbeitnehmer vor Nachteilen durch automatisierte Entscheidungen geschützt werden? Welche Vorgaben macht das deutsche Arbeitsrecht beim Einsatz von KI-Systemen und wo liegen die Grenzen? Und wie lassen sich die Interessen von Arbeitgebern,Betriebsräten und Beschäftigten ausgewogen berücksichtigen, um eine menschengerechte Nutzung von KI zu gewährleisten?

Dieser Artikel gibt einen umfassenden Überblick zum Thema „Künstliche Intelligenz im deutschen Arbeitsrecht“. Er richtet sich an gut informierte, aber nicht juristisch ausgebildete Leser – insbesondere Arbeitnehmer, Betriebsräte, Arbeitgeber und HR-Verantwortliche. Fachlich fundiert, aber allgemeinverständlich erläutern wir konkrete Einsatzbereiche von KI im Arbeitsleben, den geltenden rechtlichen Rahmen (Betriebsverfassungsrecht, Datenschutz, Zivilrecht etc.), die Mitbestimmungsrechte des Betriebsrats, Datenschutz- und Haftungsfragen, Risiken wie Diskriminierung durch Algorithmen sowie die Bedeutung der neuen EU-KI-Verordnung (AI Act). Abschließend geben wir praxisnahe Empfehlungen für Arbeitgeber und beleuchten die Rechte von Arbeitnehmern und Betriebsräten – mit einem Ausblick, wie sich das Arbeitsrecht im digitalen Wandel weiterentwickeln könnte.

Konkrete Einsatzbereiche von KI im Arbeitsverhältnis

KI-Technologien finden heute in vielen HR- und Arbeitsprozessen Anwendung. Hier einige zentrale Einsatzbereiche, in denen KI im Arbeitsverhältnis zum Tragen kommt:

KI im Recruiting und Personalmanagement

Ein besonders praxisrelevanter Einsatz von KI liegt im Recruiting. KI-gestützte Software kann Bewerbungsunterlagen automatisiert sichten und bewerten, geeignete Kandidaten vorselektieren und sogar Vorstellungsgespräche terminieren. Unternehmen nutzen z.B. Chatbots im Recruiting, die Bewerbern standardisierte Fragen stellen oder Auskünfte zum Bewerbungsprozess geben. So können Routineaufgaben in der Personalbeschaffung beschleunigt werden. Allerdings dürfen Algorithmen nicht die endgültige Entscheidung über Einstellungen treffen – hierzu später mehr bei Datenschutz (Stichwort automatisierte Entscheidungen) und Diskriminierungsschutz. Insgesamt birgt KI im Recruiting großes Potenzial, erfordert aber einen sensiblen Umgang, damit Chancengleichheit und Datenschutz gewahrt bleiben.

Leistungsbeurteilung und Personalentwicklung mit KI

Auch bei der Beurteilung von Leistung und der Personalentwicklung setzen manche Unternehmen KI-Systeme ein. Beispielsweise können Algorithmen große Mengen an Leistungsdaten analysieren – etwa Vertriebszahlen, Produktionsquoten oder Kundenfeedback – und Führungskräften Empfehlungen geben, welche Mitarbeiter förderungswürdig sind oder Unterstützungsbedarf haben. Solche KI-gestützten Bewertungssysteme sollen objektiver sein als menschliche Beurteilungen, da sie vermeintlich frei von spontanen subjektiven Eindrücken agieren. Allerdings besteht das Risiko, dass verzerrte Datengrundlagen zu unfairen Ergebnissen führen (Bias). Für Betriebsräte ist dabei relevant, ob solche Systeme allgemeine Beurteilungsgrundsätze darstellen – dann benötigen sie ihre Zustimmung (siehe dazu unten Mitbestimmung). Wichtig ist, dass entscheidende Personalmaßnahmen – etwa Beförderungen oder Boni – nicht allein von einer Blackbox-KI bestimmt werden dürfen. Human Resources sollte KI als Hilfsmittelzur Entscheidungsvorbereitung nutzen, die finale Entscheidung aber kritisch prüfen und verantworten.

Überwachung und Steuerung der Arbeit durch KI

Ein heikles Feld ist der KI-Einsatz zur Überwachung und Steuerung von Beschäftigten. Moderne Softwaresystemekönnen etwa Mausbewegungen, Tastaturanschläge oder Standortdaten auswerten, um Arbeitszeiten und Produktivität zu kontrollieren. In der Logistik oder im Außendienst kommen KI-Lösungen zur Routenoptimierung und Tourenplanung zum Einsatz – etwa Navigations-KIs, die Fahrer anweisen, welche Strecke sie nehmen oder wo Pausen eingelegt werden sollen. Auch in Produktionsbetrieben können Sensoren mit KI Mitarbeiterbewegungen analysieren, um Arbeitsabläufe zu steuern. Bei solchen Anwendungen ist besondere Vorsicht geboten: Sobald ein System dazu geeignet ist, das Verhalten oder die Leistung der Mitarbeiter zu überwachen, besteht Mitbestimmungspflicht des Betriebsrats nach § 87 Abs. 1 Nr. 6 BetrVG. Auch müssen Datenschutz und Persönlichkeitsrechte der Beschäftigten gewahrt bleiben – permanente lückenlose Überwachung ist unzulässig. Arbeitgeber sollten daher transparente Regelungen schaffen, was erlaubt ist und was nicht (z.B. durch Betriebsvereinbarungen), und den Betriebsrat frühzeitig einbinden.

Chatbots und digitale Assistenten im Arbeitsalltag

KI-basierte Chatbots und virtuelle Assistenten halten in vielen Büros Einzug. Sie beantworten Mitarbeiteranfragen im IT-Support oder zu HR-Themen (z.B. Urlaubsanspruch, Lohnabrechnung) automatisiert rund um die Uhr. Auch im Kundenservice werden Chatbots eingesetzt, was indirekt die Arbeit von Servicemitarbeitern verändert (Entlastung bei Standardfragen, aber auch Überwachung der Chatqualität durch KI-Auswertung). In der Personalentwicklung helfen Chatbots ggf. beim Training, indem sie z.B. Dialoge simulieren (Sprachlernprogramme, Verkaufsgespräche üben etc.). Wichtig ist hierbei die Grenzziehung: Wenn ein Chatbot personenbezogene Daten abfragt (z.B. im Onboarding neuer Mitarbeiter) oder sogar Entscheidungen trifft (z.B. Vorauswahl im Bewerbungsverfahren durch automatisierte Interviews), greifen arbeitsrechtliche Schutzvorschriften. So wäre ein Chatbot, der Bewerbern in der ersten Runde standardisierte oder KI-generierte Fragen stellt, als digitaler Personalfragebogen anzusehen – dafür bräuchte es die Zustimmung des Betriebsrats nach § 94 BetrVG. Generell sollten KI-Assistenten klar als solche kenntlich sein und nur unterstützend wirken, ohne menschliche Stellen komplett zu ersetzen.

Automatisierung von Prozessen und Entscheidungen

KI treibt auch die Automatisierung vieler Prozesse voran. In Verwaltungsaufgaben (etwa Buchhaltung, Zeitwirtschaft) kann Robotic Process Automation (RPA) mit KI einfache, repetitive Vorgänge übernehmen – vom Abgleichen von Rechnungen bis zur Krankmeldungsverarbeitung. In der Fertigung steuern KI-Systeme Maschinen, Roboter oder Cobots, die mit Menschen zusammenarbeiten. Die Personaleinsatzplanung lässt sich von KI unterstützen: So können komplexe Dienstpläne erstellt werden, die Urlaubsansprüche, Schichtmodelle, Qualifikationen und sogar Vorhersagen von Arbeitsaufkommen berücksichtigen. In all diesen Fällen fungiert KI als Werkzeug, um effizientere Entscheidungen vorzubereiten. Arbeitgeber dürfen ihr Direktionsrecht grundsätzlich an KI delegieren, solange der menschliche Ursprung der Entscheidung erkennbar bleibt. Trotzdem gilt: Kernentscheidungen mit erheblicher Wirkung – z.B. Einstellungen, Versetzungen oder Kündigungen – dürfen nicht vollautomatisiert allein von einer KI gefällt werden. Hier muss immer ein verantwortlicher Mensch zwischengeschaltet sein, der die Entscheidung prüft und trägt. Ansonsten würden zwingende arbeitsrechtliche Formvorschriften und Schutzregeln umgangen (etwa das Schriftformerfordernis bei Kündigungen nach § 623 BGB, das nur ein Mensch erfüllen kann).

Zusammenfassend zeigt sich, dass KI im Arbeitsleben vielfältige Anwendungen findet – von Personalgewinnung über Leistungssteuerung bis zur Prozessautomation. Diese neuen Möglichkeiten gehen Hand in Hand mit neuen Regelungsbedarfen. Im nächsten Abschnitt betrachten wir daher den rechtlichen Rahmen in Deutschland, der sicherstellen soll, dass KI fair, transparent und unter Wahrung der Arbeitnehmerrechte eingesetzt wird.

Rechtlicher Rahmen in Deutschland

Auch wenn es noch kein eigenes, umfassendes „KI-Gesetz“ gibt, ist der KI-Einsatz im Arbeitsverhältnis keineswegs ein rechtsfreier Raum. Vielmehr greifen bereits bestehende Gesetze und Regelungen. Die wichtigsten Rechtsgrundlagen im deutschen Arbeitsrecht für KI-Anwendungen sind:

Betriebsverfassungsrecht (BetrVG)

Das Betriebsverfassungsgesetz (BetrVG) regelt die Rechte des Betriebsrats in Betrieben mit in der Regel mindestens 5 wahlberechtigten Arbeitnehmern. Beim Thema KI ist das BetrVG besonders bedeutsam, denn es enthält Beteiligungsrechte der Arbeitnehmervertretung, die bei Einführung neuer Technologien zum Tragen kommen. So müssen Arbeitgeber den Betriebsrat rechtzeitig und umfassend informieren, wenn eine Veränderung wie der Einsatz eines KI-Systems geplant ist (§ 80 Abs. 2 BetrVG). Speziell wurde 2021 durch das Betriebsrätemodernisierungsgesetz klargestellt, dass der Betriebsrat bei der Planung des Einsatzes von KI zu informieren und zu beraten ist (§ 90 Abs. 1 Nr. 3 BetrVG). Der Betriebsrat hat das Recht, über die vorgesehenen Maßnahmen und die Auswirkungen auf die Arbeitnehmer beraten zu werden, sodass seine Vorschläge und Bedenken berücksichtigt werden. Außerdem wurde neu eingeführt, dass die Hinzuziehung eines Sachverständigen als erforderlich gilt, wenn der Betriebsrat die Einführung oder Anwendung von KI beurteilen muss (§ 80 Abs. 3 BetrVG). Das erleichtert es dem Betriebsrat, bei komplexen KI-Themen externen Expertenrat einzuholen. – Neben Informations- und Beratungsrechten begründet das BetrVG auch Mitbestimmungsrechte (siehe eigener Abschnitt unten), z.B. bei technischen Überwachungssystemen (§ 87 Abs. 1 Nr. 6 BetrVG) und bei Auswahlrichtlinien für Personalentscheidungen (§ 95 BetrVG). Kurz gesagt: Das Betriebsverfassungsrecht stellt sicher, dass KI-Einführungen nicht am Betriebsrat vorbei erfolgen können, sondern dieser frühzeitig eingebunden wird und mitgestalten kann.

Datenschutzrecht (DSGVO und BDSG)

KI-Systeme arbeiten meist auf Basis großer Datenmengen – im Arbeitskontext oft personenbezogene Daten von Beschäftigten oder Bewerbern. Hier greift das Datenschutzrecht, insbesondere die EU-Datenschutz-Grundverordnung (DSGVO) und das Bundesdatenschutzgesetz (BDSG). Art. 88 DSGVO erlaubt den EU-Staaten, spezifische Regeln zum Beschäftigtendatenschutz zu erlassen – in Deutschland ist das § 26 BDSG. Dieser erlaubt die Verarbeitung von Beschäftigtendaten, wenn dies für die Entscheidung über die Begründung eines Beschäftigungsverhältnisses oder für dessen Durchführung oder Beendigung erforderlich ist. Das heißt, Arbeitgeber dürfen z.B. personenbezogene Daten im Bewerbungsverfahren oder während des Arbeitsverhältnisses erheben und auswerten, soweit es einen sachlichen Bezug zum Job hat (etwa Qualifikationen, Leistungsdaten) und ein legitimes Interesse besteht. Zusätzlich kann eine Verarbeitung auf Einwilligung des Beschäftigten gestützt werden (§ 26 Abs. 2 BDSG), wobei im Arbeitsverhältnis strenge Anforderungen an die Freiwilligkeit gestellt werden (ein Beschäftigter darf keinen Zwang zur Einwilligung verspüren).

Wichtig im KI-Zusammenhang ist Art. 22 DSGVO: Diese Vorschrift schützt davor, allein durch automatisierte Verarbeitung (einschließlich Profiling) einer Entscheidung unterworfen zu werden, die rechtliche Wirkung entfaltet oder einen Betroffenen erheblich beeinträchtigt. Vereinfacht: Schicksalshafte Entscheidungen über einen Arbeitnehmer – z.B. Einstellung, Beförderung, Versetzung oder Kündigung – dürfen grundsätzlich nicht vollautomatisiert nur von einer KI getroffen werden. Der Mensch muss in der Entscheidungskette verbleiben und die letztliche Verantwortung tragen. Automatisierte Einzelentscheidungen sind nur ausnahmsweise zulässig, etwa wenn sie für den Vertragsschluss oder -erfüllung erforderlich sind oder der Betroffene ausdrücklich eingewilligt hat (Art. 22 Abs. 2 DSGVO). Und selbst dann müssen Schutzmaßnahmen greifen: Der Betroffene hat das Recht, eine Person als Ansprechpartner zu verlangen, den eigenen Standpunkt darzulegen und die Entscheidung anzufechten. Für den Arbeitgeber bedeutet das, dass KI zwar zur Vorbereitung von Entscheidungen (Scoring, Ranking etc.) eingesetzt werden kann, die finale Entscheidung aber von einem Menschen überprüft und getroffen werden muss. Zudem sind Transparenz- und Informationspflichten zu beachten: Betroffene (z.B. Bewerber) müssen auf Anfrage erfahren können, dass eine automatisierte Auswertung stattgefunden hat und welche Logik dahintersteht (wobei Geschäftsgeheimnisse der Algorithmen natürlich gewahrt werden müssen).

Zusammengefasst setzt das Datenschutzrecht dem KI-Einsatz klare Grenzen: Die DSGVO schließt KI im Arbeitsleben nicht aus, zieht aber Leitplanken ein – insbesondere beim Automatisierungsgrad von Entscheidungen und beim Umgang mit sensiblen personenbezogenen Daten. Arbeitgeber müssen für KI-Projekte im HR-Bereich stets eine Rechtsgrundlage nachweisen können (z.B. berechtigtes Interesse oder Vertragserfüllung) und in vielen Fällen eine Datenschutz-Folgenabschätzung (Art. 35 DSGVO) durchführen, wenn der Einsatz voraussichtlich ein hohes Risiko für die Rechte der Beschäftigten mit sich bringt.

Zivilrechtliche Grundlagen (BGB)

Das individuelle Arbeitsverhältnis ist im Kern ein zivilrechtlicher Vertrag zwischen Arbeitgeber und Arbeitnehmer, der auf dem Bürgerlichen Gesetzbuch (BGB) fußt. Das BGB enthält zwar keine speziellen Regeln zur KI (was bei einem Gesetz von 1900 nicht verwundert), aber die allgemeinen Grundsätze gelten auch hier. So muss der Arbeitgeber bei Ausübung seines Weisungsrechts (geregelt in § 106 Gewerbeordnung, eng verknüpft mit § 315 BGB „billiges Ermessen“) die Interessen des Arbeitnehmers angemessen berücksichtigen – auch wenn Anweisungen durch ein KI-System erteilt werden. Beispielsweise dürfen Dienstplanentscheidungen, die eine KI trifft, nicht willkürlich oder diskriminierend sein, sonst kann der Arbeitnehmer Widerspruch einlegen. Ein wichtiger Grundsatz ist: Die KI selbst hat keine Rechtspersönlichkeit und kann nicht Vertragspartner sein. Rechtlich wirksame Erklärungen (wie Kündigungen oder Abmahnungen) müssen weiterhin vom Arbeitgeber bzw. einer bevollmächtigten Person abgegeben werden, da z.B. für Kündigungen die Schriftform (§ 623 BGB) und eigenhändige Unterschrift erforderlich sind – eine KI kann diese formelle Anforderung nicht erfüllen.

Auch im Bereich Haftung (dazu unten mehr) spielt das BGB eine Rolle: Verursacht der Einsatz von KI einen Schaden, greifen die normalen Haftungsregeln. So haftet stets derjenige, der sich die Ergebnisse der KI zueigen macht oder einsetzt – im Zweifel also das Unternehmen, das ein KI-System im Arbeitsverhältnis nutzt. Arbeitgeber können sich nicht hinter „dem Computer“ verstecken, sondern müssen für Fehlentscheidungen oder schädliche Folgen einstehen, als hätten sie selbst gehandelt. Ebenso bleiben die Schutzpflichten aus dem BGB relevant: Der Arbeitgeber hat nach § 618 BGB die Pflicht, das Leben und die Gesundheit der Arbeitnehmer zu schützen. Setzt er also z.B. ein KI-gestütztes Arbeitsmittel ein, muss er prüfen, ob davon Gefahren für die Mitarbeiter ausgehen, und gegebenenfalls Maßnahmen ergreifen (Unterweisung, Abschaltung bei Fehlfunktionen etc.).

Diskriminierungsschutz (AGG)

Ein weiterer wichtiger Teil des Rechtsrahmens – gerade beim KI-gestützten Personalmanagement – ist das Allgemeine Gleichbehandlungsgesetz (AGG). Das AGG verbietet u.a. Benachteiligungen aus Gründen der Rasse/ethnischen Herkunft, des Geschlechts, der Religion/Weltanschauung, einer Behinderung, des Alters oder der sexuellen Identität (§ 1 AGG). Diese Diskriminierungsverbote gelten uneingeschränkt auch für KI-Entscheidungen im Arbeitsrecht. Mit anderen Worten: Wenn ein Algorithmus bei Einstellungen, Beförderungen oder Kündigungen bestimmte Personengruppen benachteiligt (sei es bewusst programmiert oder aufgrund verzerrter Trainingsdaten), verstößt dies ebenso gegen das AGG wie eine diskriminierende Entscheidung durch einen Menschen. Arbeitgeber sind sogar nach § 12 AGG verpflichtet, vorbeugend Maßnahmen zu ergreifen, um Benachteiligungen zu verhindern. Im KI-Kontext bedeutet das etwa, die verwendeten Datensätze und Modelle auf Bias (systematische Verzerrungen) zu überprüfen und bei Auffälligkeiten gegenzusteuern, Schulungen zum AGG durchzuführen und bei Einsatz externer KI-Dienste vertraglich sicherzustellen, dass diese keine diskriminierenden Kriterien verwenden. Tut der Arbeitgeber dies nicht und kommt es zu einer Benachteiligung, kann der oder die Betroffene Schadensersatz und Entschädigung nach § 15 AGG verlangen (siehe unten Risiken: Diskriminierung durch Algorithmen).

Zwischenfazit: Der rechtliche Rahmen in Deutschland setzt KI im Arbeitsleben bereits jetzt deutliche Schranken. Datenschutz, BetrVG, AGG und BGB greifen wie Puzzleteile ineinander, um sicherzustellen, dass Technikeinsatz nicht auf Kosten der Arbeitnehmerrechte geht. In der Praxis erfordert dies oft eine überschneidende Betrachtung – etwa wenn ein KI-System zur Leistungskontrolle eingeführt werden soll, spielen gleichzeitig Betriebsrat (BetrVG), Datenschutz (DSGVO/BDSG) und Diskriminierungsrecht (AGG) eine Rolle. Die folgenden Abschnitte gehen auf besonders wichtige Punkte vertieft ein, beginnend mit den Mitbestimmungsrechten des Betriebsrats.

Mitbestimmungsrechte des Betriebsrats beim Einsatz von KI

Die Mitbestimmung des Betriebsrats ist ein zentrales Element, um einen fairen und transparenten KI-Einsatz im Betrieb zu gewährleisten. Das BetrVG räumt dem Betriebsrat in verschiedenen Vorschriften Beteiligungsrechte ein, die speziell beim Thema KI relevant sind. Im Juni 2021 wurden durch das Betriebsrätemodernisierungsgesetz einige Regelungen sogar explizit an KI angepasst. Hier ein Überblick der wichtigsten Mitbestimmungsrechte:

  • Informations- und Beratungsrechte (§§ 80 Abs. 2, 90 BetrVG): Der Arbeitgeber muss den Betriebsrat über Planungen neuer technischer Einrichtungen rechtzeitig informieren. Seit 2021 ist ausdrücklich klargestellt, dass dies auch für die Planung des Einsatzes von KI-Systemen gilt (§ 90 Abs. 1 Nr. 3 BetrVG). Der Betriebsrat ist über alle erforderlichen Unterlagen zu unterrichten (z.B. Funktionsbeschreibung der KI, Zweck, betroffene Daten). Zudem hat der Betriebsrat ein Beratungsrecht – der Arbeitgeber muss die vorgesehenen Maßnahmen und ihre Auswirkungen mit ihm besprechen, sodass der Betriebsrat Vorschläge und Bedenken einbringen kann. In der Praxis ist es ratsam, den Betriebsrat sehr früh einzubeziehen („mit ins Boot zu holen“), um gemeinsam tragfähige Lösungen für den KI-Einsatz zu entwickeln.
  • Sachverständige hinzuziehen (§ 80 Abs. 3 BetrVG): Geht es um KI, darf der Betriebsrat sich in aller Regel externer Experten bedienen. Normalerweise braucht es für einen Sachverständigen einen Erforderlichkeitsnachweis. Bei KI gilt die Hinzuziehung per Gesetz als „erforderlich“ (§ 80 Abs. 3 S. 2 BetrVG). Der Betriebsrat kann also z.B. einen IT-Fachmann oder Datenethik-Experten hinzuziehen, um die Funktionsweise einer geplanten KI-Anwendung zu verstehen. Natürlich muss er dies formal beschließen und mit dem Arbeitgeber eine Vereinbarung über Kosten und Person treffen. Aber der Arbeitgeber kann die grundsätzliche Notwendigkeit im KI-Fall nicht bestreiten – das ist ein wichtiger Stärkungspunkt für Betriebsräte im digitalen Wandel.
  • Mitbestimmung nach § 87 BetrVG: Besonders bedeutsam sind die erzwingbaren Mitbestimmungsrechtenach § 87 Abs. 1 BetrVG. „Erzwingbar“ heißt hier: Maßnahmen in diesen Bereichen dürfen vom Arbeitgeber nur mit Zustimmung des Betriebsrats durchgeführt werden – oder, falls keine Einigung erzielt wird, kann eine Einigungsstelle entscheiden. Im KI-Kontext sind mehrere Tatbestände des § 87 einschlägig:
    • Ordnung des Betriebs (§ 87 Abs. 1 Nr. 1 BetrVG): Stellt der Arbeitgeber Verhaltensregeln für die Nutzung von KI-Systemen auf, geht es um Fragen der Ordnung und des Verhaltens im Betrieb. Beispielsweise könnte es eine Richtlinie geben, wie Mitarbeiter ChatGPT oder ähnliche Tools einsetzen dürfen (oder eben nicht dürfen). Solche Regeln unterliegen der Mitbestimmung, sofern sie allgemeines Ordnungsverhalten betreffen. (Beispiel: „Es ist verboten, vertrauliche Kundendaten in externe KI-Dienste einzugeben.“ Hier hätte der Betriebsrat mitzureden.)
    • Technische Überwachungseinrichtungen (§ 87 Abs. 1 Nr. 6 BetrVG): Dies ist wohl der prominenteste Mitbestimmungstatbestand beim KI-Einsatz. Der Betriebsrat hat mitzubestimmen bei der Einführung und Anwendung von technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen. KI-Software, die Beschäftigtendaten verarbeitet, fällt grundsätzlich unter „technische Einrichtungen“. Entscheidend ist, ob das System objektiv geeignet ist, Verhalten oder Leistung zu überwachen – eine Absicht des Arbeitgebers zur Überwachung ist nicht erforderlich. Bereits wenn die Möglichkeit besteht, dass der Arbeitgeber auf Nutzungs- oder Leistungsdaten zugreift, liegt ein mitbestimmungspflichtiger Fall vor. Beispiel: Eine KI, die Tastatureingaben protokolliert, ist offensichtlich überwachungsgeeignet. Aber auch subtilere Fälle – z.B. ein KI-Tool, das Kundengespräche analysiert und daraus Kennzahlen pro Mitarbeiter erstellt – fallen darunter. Ohne Betriebsratszustimmung geht hier nichts. Wenn der Arbeitgeber allerdings keinen Zugriff auf die durch KI generierten Daten hat, entfällt die Mitbestimmung. Interessant in diesem Zusammenhang: Das Arbeitsgericht Hamburg entschied 2024, dass wenn Mitarbeiter freiwillig eigene private Accounts für KI-Tools (z.B. ChatGPT) nutzen und der Arbeitgeber keinen Zugriff auf die Nutzungsdaten hat, kein Mitbestimmungsrecht aus § 87 Abs. 1 Nr. 6 besteht. In so einem Fall liegt ja keine „Einführung einer technischen Überwachungseinrichtung durch den Arbeitgeber“ vor. Dieses Urteil zeigt die Abgrenzung: Wird KI betrieblich bereitgestellt und ausgewertet, braucht man die Zustimmung des Betriebsrats; wird KI nur privat/extern ohne Zugriff genutzt, hat der Betriebsrat in puncto Überwachung kein Mitspracherecht (gleichwohl könnte Nr. 1 – Verhaltensregel – berührt sein, wenn der Arbeitgeber den privaten KI-Einsatz reglementiert).
    • Arbeitszeit und Leistungsschutz (§ 87 Abs. 1 Nr. 2, 3, 7 BetrVG): Weitere Mitbestimmungstatbestände können je nach KI-Einsatz relevant sein. Nr. 2 (Beginn und Ende der Arbeitszeit) könnte z.B. berührt sein, wenn eine KI autonom Schichtpläne verändert. Besonders zu nennen ist Nr. 7 – betrieblicher Arbeits- und Gesundheitsschutz. Wenn KI-Systeme psychische Belastungen verursachen (z.B. ständiges Monitoring erzeugt Stress) oder besondere Gefährdungen mit sich bringen, hat der Betriebsrat bei den Maßnahmen zum Gesundheitsschutz mitzubestimmen. In der Praxis müsste zunächst eine Gefährdungsbeurteilung nach Arbeitsschutzgesetz erfolgen; sollte sie eine erhebliche Belastung durch KI ergeben, wäre der Betriebsrat bei den Gegenmaßnahmen (z.B. Nutzungsbeschränkungen, Pausenregelungen) beteiligt. Allerdings wird nicht jeder KI-Einsatz gleich zur mitbestimmungspflichtigen Gefährdung – das ist eine Frage des Einzelfalls. Ein normaler KI-Chatbot als Hilfsmittel z.B. dürfte kaum eine Gefährdung darstellen.
  • Personelle Auswahlrichtlinien und Fragebögen (§§ 94, 95 BetrVG): Auch im Bereich Personalplanung hat der Betriebsrat Mitbestimmungsrechte, die durch KI tangiert sein können. § 94 BetrVG schreibt vor, dass Personalfragebögen und Beurteilungsgrundsätze der Zustimmung des Betriebsrats bedürfen. Wenn also KI im Rahmen von Bewerbungen Fragenkataloge an Bewerber stellt oder automatisierte Bewertungsskalenvorgegeben sind, greift dieses Zustimmungsrecht. Ein Beispiel: Ein Unternehmen setzt einen KI-gestützten Einstellungstest ein, der aus vorgegebenen Fragen ein Profil erstellt – das wäre ohne Betriebsratszustimmung unzulässig. Noch wichtiger: § 95 BetrVG regelt die Aufstellung von Auswahlrichtlinien für personelle Entscheidungen (Einstellungen, Versetzungen, Kündigungen). Hier hat der Betriebsrat ein Mitbestimmungsrecht. Mit der Neuregelung in § 95 Abs. 2a BetrVG wurde klargestellt, dass auch dann eine Zustimmung des Betriebsrats nötig ist, wenn ein KI-System eigenständig oder im Rahmen vorgegebener Kriterien Auswahlrichtlinien aufstellt. Das heißt: Falls eine KI aus historischen Daten implizit Kriterien ableitet und gewichtet, um z.B. die „passendsten“ Bewerber herauszufiltern, zählt das als mitbestimmungspflichtige Auswahlrichtlinie. Der Gesetzgeber hat hier ausdrücklich die KI-gestützten Auswahlprozesse ins Visier genommen, damit Betriebsräte nicht ausgehebelt werden können. Fazit: Ob KI im Recruiting oder bei Personalentscheidungen eingesetzt wird – der Betriebsrat muss ein Wörtchen mitreden, entweder über § 94/95 (wenn es um Fragen- oder Kriterienkataloge geht) oder über § 87 Abs. 1 Nr. 6 (wenn Überwachungsmöglichkeiten bestehen). In der Regel wird kaum ein KI-System mit personenbeziehbaren Daten eingeführt werden können, ohne die Zustimmung des Betriebsrats einzuholen.
  • Berufsbildung und Qualifizierung (§§ 96–98 BetrVG): Nicht zu vergessen: Wenn KI im Betrieb neue Qualifikationsanforderungen stellt, hat der Betriebsrat auch Rechte im Bereich der Weiterbildung. Nach § 96 BetrVG fördert der Betriebsrat die Berufsbildung, und Arbeitgeber und Betriebsrat sollen über entsprechende Maßnahmen beraten. Konkret kann der Betriebsrat verlangen, dass Schulungsbedarf im Umgang mit KI identifiziert wird. Arbeitnehmer haben ein Recht auf Schulung, wenn neue Technologien wie KI eingeführt werden, und der Betriebsrat kann bei der Durchführung von Trainings mitbestimmen (§ 98 BetrVG). Das BetrVG ermöglicht es Betriebsräten zudem, Bildungsmaßnahmen für Arbeitnehmer anzustoßen, um mit den Veränderungen Schritt zu halten. In der Praxis empfiehlt es sich, in Betriebsvereinbarungen zum KI-Einsatz auch immer Regelungen zur Mitarbeiterschulung und Qualifizierung aufzunehmen, damit niemand abgehängt wird.

Ein wichtiger Hinweis: Nicht jeder KI-Einsatz ist automatisch eine „Betriebsänderung“ im Sinne des § 111 BetrVG (die ggf. Interessenausgleich/Sozialplan erfordert). Die Einführung einzelner Software-Tools gilt meist nichtals so erheblich, dass der ganze Betriebsablauf fundamental geändert wird. Daher wird KI-Einführung in der Regel keine Betriebsänderung darstellen – es sei denn, sie geht mit großflächigen Umstrukturierungen oder Personalabbau einher (was aber dann eher die Folgeentscheidungen wären, nicht die KI selbst).

Zusammengefasst: Der Betriebsrat hat umfangreiche Mitbestimmungs- und Beteiligungsrechte beim KI-Einsatz im Betrieb. Von der frühzeitigen Information und Beratung über Zustimmungspflichten bei Überwachungssystemen, Fragebögen und Auswahlalgorithmen bis hin zur Schulung der Belegschaft – in all diesen Punkten sind Arbeitgeber gut beraten, den Betriebsrat aktiv einzubinden. Bisherige Erfahrungen zeigen, dass Mitbestimmung ein zentraler Faktor für eine humane Arbeitswelt der Zukunft ist. Betriebsräte können durch konstruktive Vereinbarungen dazu beitragen, KI zum Vorteil der Beschäftigten zu gestalten und Risiken einzuhegen, anstatt nur zu bremsen.

Datenschutz und automatisierte Entscheidungen

Wie bereits im Rechtsrahmen angesprochen, wirft der Einsatz von KI im Arbeitsleben besondere Datenschutzfragenauf – vor allem, wenn automatisierte Entscheidungen im Spiel sind. Zwei zentrale Aspekte sollen hier vertieft werden: das Verbot vollautomatisierter Entscheidungen nach Art. 22 DSGVO und der Beschäftigtendatenschutz nach § 26 BDSG, insbesondere in Bezug auf personenbezogene Daten von Arbeitnehmern.

Art. 22 DSGVO: Grenzen vollautomatisierter Entscheidungen

Artikel 22 DSGVO stellt einen Schutzmechanismus gegen Entscheidungen dar, die ausschließlich auf automatisierter Verarbeitung beruhen und eine rechtliche oder ähnlich erhebliche Wirkung für die betroffene Person haben. Ein typisches Beispiel wäre eine Software, die vollautomatisch entscheidet, welcher Bewerber eingestellt wird oder welcher Mitarbeiter gekündigt wird, ohne dass noch ein Mensch involviert ist. Abs. 1 von Art. 22 DSGVO verbietet eine solche vollautomatisierte Entscheidung grundsätzlich. Dahinter steht die Idee, den Einzelnen davor zu bewahren, einer bloßen Maschinenlogik „ausgeliefert“ zu sein. Denn Algorithmen können Fehler haben oder Werturteile fällen, die ein Mensch vielleicht anders treffen würde – daher soll immer die Möglichkeit einesmenschlichen Eingreifens bestehen.

Allerdings kennt Art. 22 Ausnahmen (Abs. 2): Eine automatisierte Entscheidung ist zulässig, wenn sie (a) für den Abschluss oder die Erfüllung eines Vertrags erforderlich ist, (b) aufgrund einer Gesetzesvorschrift erlaubt ist oder (c)mit ausdrücklicher Einwilligung der betroffenen Person erfolgt. Wichtig: Selbst in den Ausnahmefällen a und b schreibt Abs. 3 zusätzliche Schutzmaßnahmen vor – insbesondere das Recht der betroffenen Person auf Einschaltung einer menschlichen Person, auf Darlegung des eigenen Standpunkts und auf Anfechtung der Entscheidung. Für den Beschäftigten bedeutet das: Sollte z.B. ein Bewerbungsranking vollautomatisch erstellt worden sein, kann er verlangen, dass noch einmal ein Mensch drüberschaut oder er erklären kann, warum er doch geeignet ist.

In der Arbeitswelt sind viele Entscheidungen – Einstellung, Versetzung, Leistungsbewertung, Kündigung – potenziell „erheblich“ im Sinne des Art. 22. Daher muss hier besonders aufgepasst werden. Praktisch ziehen viele Unternehmen folgenden Schluss: KI darf gerne Daten auswerten und Vorschläge machen, aber die letzte Entscheidung muss ein Mensch treffen und dokumentieren. Oft wird es als ausreichend erachtet, wenn ein Personaler das KI-Resultat zumindest stichprobenartig oder auf Plausibilität prüft und dann abzeichnet. Dieses Vorgehen sollte gut dokumentiert werden, um im Streitfall nachweisen zu können, dass kein Verstoß gegen Art. 22 DSGVO vorliegt. Denn sollte ein abgelehnter Bewerber etwa geltend machen „bei mir hat nur der Algorithmus entschieden, kein Mensch“, könnte das ein Datenschutzverstoß sein – mit der Folge von möglichen Schadensersatzansprüchen (Art. 82 DSGVO) und Bußgeldern.

In der betrieblichen Praxis heißt es also: Mensch in der Schleife halten („Human in the Loop“) Ein Vorgesetzter oder HR-Mitarbeiter sollte die Verantwortung für Personalentscheidungen behalten. KI kann dabei als Assistenz fungieren – etwa durch objektive Analysen –, aber die Letztentscheidung und ggf. Begründung gegenüber dem Mitarbeiter muss von einer natürlichen Person kommen. Außerdem empfiehlt es sich, transparenz zu schaffen: Beschäftigte sollten informiert werden, wenn und wo KI in Entscheidungsprozessen eingesetzt wird (z.B. ein Hinweis im Bewerbungsportal: „Wir nutzen Software XY zur Unterstützung bei der Vorauswahl. Selbstverständlich entscheidet am Ende ein Mensch.“). Das stärkt das Vertrauen und entspricht den Informationspflichten aus Art. 13, 14 DSGVO.

Ein weiteres Datenschutz-Thema im KI-Kontext: Profiling. KI-Systeme erstellen häufig Profile, etwa zur Leistung oder zum Verhalten eines Beschäftigten. Profiling ist nach DSGVO nicht verboten, muss aber transparent sein und unterliegt auch Art. 22, wenn darüber Entscheidungen gefällt werden. So darf z.B. ein vollautomatisiertes Mitarbeiter-Scoring, das über Beförderungen entscheidet, nicht ohne Weiteres eingesetzt werden, weil es ein Profiling mit Entscheidungscharakter wäre.

Abschließend sei erwähnt, dass KI-Systeme im Sinne der DSGVO oft als „neue Technologie“ gelten, die eine Datenschutz-Folgenabschätzung (DSFA) erfordern kann (Art. 35 DSGVO, vgl. auch Erwägungsgrund 91 DSGVO). Wenn also der Einsatz einer KI voraussichtlich ein hohes Risiko für die Rechte der Beschäftigten birgt – z.B. eine KI überwacht permanent die Mitarbeiteraktivitäten – dann muss der Arbeitgeber vorab eine DSFA durchführen und ggf. die Aufsichtsbehörde konsultieren. Dies ist ein weiterer Kontrollmechanismus, um riskante KI-Anwendungen genau zu prüfen.

  • 26 BDSG: Beschäftigtendatenschutz und KI

Der deutsche § 26 BDSG ergänzt die DSGVO für den Arbeitsbereich. Er erlaubt, wie oben erwähnt, die Verarbeitung personenbezogener Daten von Beschäftigten für Zwecke des Beschäftigungsverhältnisses, wenn dies zur Einstellung oder Durchführung/Beendigung des Arbeitsvertrags notwendig ist. Im KI-Kontext bedeutet das: Personaldaten dürfen für KI-Anwendungen genutzt werden, sofern ein ausreichender Bezug zur Entscheidungsfindung im Arbeitsverhältnis besteht. Beispielsweise kann es zur Vertragsdurchführung erforderlich sein, die Leistungsdaten eines Mitarbeiters auszuwerten, um eine Bonuszahlung zu berechnen – das wäre von § 26 gedeckt. Oder im Bewerbungsverfahren dürfen Qualifikationsprofile automatisiert verglichen werden, weil das der Entscheidungsfindung dient.

Aber Vorsicht: § 26 BDSG verlangt immer eine Abwägung und Zweckbindung. Daten dürfen nicht einfach unbegrenzt gesammelt und durch KI ausgewertet werden, nur weil es technisch möglich ist. Der Zweck (z.B. Eignungsprüfung für eine Stelle) muss klar sein, und es dürfen nur relevante Daten verarbeitet werden. Besondere Kategorien personenbezogener Daten (Gesundheit, Herkunft, Religion, Gewerkschaftszugehörigkeit etc.) genießen zusätzlichen Schutz – ihre Verarbeitung ist nach § 26 Abs. 3 nur unter strengen Voraussetzungen möglich (etwa wenn für die Ausübung von Rechten aus dem Arbeitsrecht oder Sozialrecht erforderlich).

Ein weiterer wichtiger Punkt: Einwilligung im Arbeitsverhältnis. § 26 Abs. 2 BDSG erkennt an, dass Beschäftigte in die Datenverarbeitung einwilligen können, aber diese Einwilligung muss freiwillig erfolgen. Im Umfeld des Arbeitsverhältnisses ist Freiwilligkeit problematisch, weil ein Abhängigkeitsverhältnis besteht. Die Vorschrift nennt als Beispiel, dass Freiwilligkeit vorliegen kann, wenn der Beschäftigte einen rechtlichen oder wirtschaftlichen Vorteilerlangt oder Arbeitgeber und Arbeitnehmer gleichgelagerte Interessen haben. Bei KI-Systemen könnte das z.B. der Fall sein, wenn ein Mitarbeiter freiwillig an einem Pilotprojekt teilnimmt, um eine neue KI-Anwendung zu testen, die auch ihm Vorteile bringt (etwa bessere Arbeitsorganisation). In der Praxis verlassen sich Arbeitgeber aber selten auf Einwilligung, sondern eher auf die Notwendigkeit der Verarbeitung, um dem Risiko unwirksamer (weil nicht freiwilliger) Einwilligungen zu entgehen.

Für Arbeitnehmer bedeutet der Beschäftigtendatenschutz: Sie haben Rechte, z.B. Auskunftsrechte (Art. 15 DSGVO) darüber, welche Daten der Arbeitgeber über sie verarbeitet – das schließt KI-Auswertungen prinzipiell ein. Auch können sie Berichtigung verlangen, wenn automatisiert erhobene Daten falsch sind, oder Löschung, wenn Daten unrechtmäßig verarbeitet wurden. Zudem muss der Arbeitgeber das Prinzip der Datenminimierung beachten – es dürfen also nicht mehr Daten erhoben werden als nötig. Ein Beispiel: Wenn eine KI-Kamera am Arbeitsplatz eingeführt wird, um die Nutzung von Werkzeugen zu optimieren, dürfte sie nicht zugleich Gesichter aufnehmen und analysieren, wenn das für den Zweck nicht erforderlich ist.

Praxis-Tipp: Unternehmen sollten bei KI-Projekten im HR-Bereich eng mit dem betrieblichen Datenschutzbeauftragten zusammenarbeiten. Es sollte geklärt werden, auf welcher Rechtsgrundlage die Datenverarbeitung erfolgt, ob eine DSFA nötig ist und wie die Transparenz gegenüber den Beschäftigtengewährleistet wird. Oft empfiehlt sich auch eine Betriebsvereinbarung, die datenschutzrechtliche Aspekte regelt – dazu unten mehr bei den Praxistipps.

Insgesamt gilt: KI im Arbeitsverhältnis bewegt sich im Rahmen der Datenschutz-Grundverordnung und des BDSG. Wer hier Compliance sicherstellt – also die Grenzen von Art. 22 beachtet, Transparenz schafft, Rechtsgrundlagen einhält und Betroffenenrechte respektiert –, der kann KI nutzen, ohne die Privatsphäre und Selbstbestimmung der Beschäftigten zu verletzen. Aber es erfordert Bewusstsein und Sorgfalt, denn Verletzungen von Beschäftigtendatenschutz können nicht nur das Vertrauen der Mitarbeiter zerstören, sondern auch erhebliche rechtliche Konsequenzen haben (inklusive hoher Bußgelder durch Aufsichtsbehörden).

Haftung bei Fehlern von KI-Systemen

Wenn KI-Systeme im Arbeitsalltag Fehler machen oder Schaden anrichten, stellt sich die Frage: Wer trägt die Verantwortung? Weder das Arbeitsrecht noch das allgemeine Zivilrecht kennt bisher eine „Roboterhaftung“ oder Ähnliches – es gelten die üblichen Regeln. Grundsätzlich lassen sich zwei Ebenen betrachten: interne Verantwortungzwischen Arbeitgeber und Arbeitnehmer sowie externe Haftung gegenüber Dritten.

Arbeitgeberverantwortung für KI-Entscheidungen

Arbeitgeber bleiben für ihr Handeln verantwortlich, auch wenn sie KI einsetzen. Das bedeutet: Treffen KI-Systeme Personalentscheidungen oder Empfehlungen, so sind diese dem Arbeitgeber zurechenbar. Der Arbeitgeber kann sich nicht damit entschuldigen, eine Fehlentscheidung sei „der KI“ unterlaufen – in rechtlicher Hinsicht gilt er als der Verwender der KI und haftet für deren Ergebnisse. Beispiel: Wenn ein Algorithmus im Recruiting einen offensichtlich qualifizierten weiblichen Bewerber aussortiert und nur Männer vorschlägt, und der Arbeitgeber übernimmt dieses Ergebnis ungeprüft, kann die abgelehnte Bewerberin den Arbeitgeber nach AGG auf Entschädigung in Anspruch nehmen – es hilft dem Arbeitgeber nicht zu sagen, das Programm sei schuld. Ebenso intern: Würde eine KI einen Mitarbeiter fälschlich als Low Performer einstufen und der Vorgesetzte spricht daraufhin eine Abmahnung oder Kündigung aus, haftet der Arbeitgeber für diese ungerechtfertigte Maßnahme (ggf. Lohnnachzahlung, Wiedereinstellung etc. im Kündigungsschutzprozess). Fazit: Der Arbeitgeber trägt das Haftungsrisiko für KI-bedingte Fehlentscheidungen. Es ist daher in seinem eigenen Interesse, KI-Ausgaben immer durch einen Menschen gegenprüfen zu lassen, um Irrtümer abzufangen.

Darüber hinaus hat der Arbeitgeber Pflichten zur Kontrolle und Wartung der von ihm eingesetzten KI-Systeme. Sollte z.B. ein KI-gestütztes Zeiterfassungssystem ständig zu Lasten der Mitarbeiter falsch rechnen, muss der Arbeitgeber eingreifen und den Fehler beheben – andernfalls macht er sich der Entgeltvorenthaltung schuldig. Auch haftet er für Datenschutzverstöße eines KI-Systems, das er einsetzt. Wenn etwa eine KI-App unerlaubterweise Gesundheitsdaten von Beschäftigten an Dritte sendet, kann die Datenschutzaufsicht gegen den Arbeitgeber vorgehen, da dieser für die Wahl eines datenschutzkonformen Tools verantwortlich ist.

Ein spezieller Punkt ist die Arbeitssicherheit: Setzt ein Unternehmen KI in Maschinen oder Entscheidungsprozessen ein, muss es sicherstellen, dass dadurch niemand zu Schaden kommt. Verletzt z.B. ein KI-gesteuerter Roboter einen Mitarbeiter, greifen die normalen Regeln der Betriebshaftung. In Deutschland sind Arbeitsunfälle zwar primär über die gesetzliche Unfallversicherung abgedeckt (was Ansprüche des Mitarbeiters gegen den Arbeitgeber weitgehend ausschließt), aber der Arbeitgeber muss dennoch ggf. mit behördlichen Konsequenzen rechnen (Berufsgenossenschaft, Arbeitsschutzbehörde) und er könnte in Regress genommen werden, wenn grobe Fahrlässigkeit im Spiel war. Produkthaftungsrechtlich könnte der Hersteller der KI-Technik haften, aber gegenüber dem Arbeitnehmer ist der Arbeitgeber zunächst in der Verantwortung, für eine sichere Arbeitsumgebung zu sorgen (§ 618 BGB, ArbSchG). Er muss also KI-Systeme sorgfältig auswählen, installieren und die Mitarbeiter im sicheren Umgang schulen.

Arbeitnehmerverantwortung und Haftungsszenarien

Auch Arbeitnehmer können im Umgang mit KI-Systemen Verantwortung tragen. Grundsätzlich sind sie gehalten, Weisungen des Arbeitgebers (auch wenn sie durch KI übermittelt werden) auszuführen, aber nicht blind: Wenn eine KI offenkundig falsche oder gefährliche Anweisungen gibt, darf und muss der Mitarbeiter das melden oder nachfragen (Stichwort Gehorsamspflicht vs. Gefahrenabwehr). Beispiel: Gibt ein KI-Logistiksystem einem Lkw-Fahrer eine Route vor, die erkennbar gegen Verkehrsvorschriften verstößt, muss der Fahrer das nicht befolgen. Verletzt er wissentlich Pflichten, weil „die KI hat das so gesagt“, kann er sich nicht immer exkulpieren – im Zweifel haftet er gemäß den Grundsätzen des innerbetrieblichen Schadensausgleichs mit, wenn er grob fahrlässig handelte. Allerdings wird in vielen Fällen der Arbeitgeber die Verantwortung tragen, weil der Arbeitnehmer auf die Korrektheit der Systeme vertrauen darf, solange nichts offensichtlich falsch ist.

Sollte ein Arbeitnehmer falsch bediente KI oder Missbrauch betreiben (z.B. das System manipulieren, um Vorteile zu erlangen), haftet er nach den üblichen arbeitsrechtlichen Regeln. Das kann arbeitsrechtliche Konsequenzen (Abmahnung, Kündigung) und zivilrechtliche Schadensersatzpflicht bedeuten. Doch diese Fälle sind nicht KI-spezifisch, sondern wären mit jeder Technik ähnlich zu beurteilen.

Externe Haftung: Begeht eine KI-Anwendung in Ausübung des Arbeitsverhältnisses einen Schaden an Dritten (z.B. diskriminierende Absage-Mail an einen Bewerber, Datenschutzverletzung an Kundendaten durch einen KI-Bug, Unfall eines KI-gesteuerten Lieferfahrzeugs), haftet in aller Regel der Arbeitgeber. Entweder über die vertragliche Haftung (er muss etwa dem Kunden den Schaden ersetzen, § 278 BGB, weil der Arbeitnehmer oder das eingesetzte System als Erfüllungsgehilfe handelte) oder über deliktische Haftung (§ 831 BGB, Haftung für Verrichtungsgehilfen, sofern der Arbeitgeber sich nicht exkulpieren kann). Sprich: Das Unternehmen muss gegenüber dem Geschädigten geradestehen, kann höchstens intern schauen, ob jemand grob fahrlässig gehandelt hat und in Regress genommen werden kann.

Beispiel: Eine KI schreibt in einem automatisierten Arbeitszeugnis etwas Rufschädigendes über einen Ex-Mitarbeiter – der Ex-Mitarbeiter kann Schadenersatz vom Arbeitgeber verlangen, weil dieser das KI-Tool zu verantworten hat. Oder ein Algorithmus entscheidet fehlerhaft, einem Kunden eine Leistung zu verweigern, woraufhin der Kunde klagt – der Arbeitgeber kann sich nicht rausreden, das System habe es so entschieden; er haftet, als hätte sein Sachbearbeiter so entschieden.

Insgesamt lässt sich festhalten: KI-Systeme sind Werkzeuge, ähnlich wie Maschinen oder Software, die der Arbeitgeber einsetzt. Wer ein Werkzeug einsetzt, trägt die Verantwortung für dessen Outputs und Folgen. Rechtlich haftet immer ein menschlicher oder juristischer Akteur – sei es auf Arbeitgeberseite oder (in weit selteneren Fällen) auf Arbeitnehmerseite. Die KI selbst kann nicht haften, da sie keine Rechtspersönlichkeit hat. In der nahen Zukunft diskutiert die EU eine KI-Haftungsrichtlinie, um geschädigten Dritten den Nachweis von Fehlern zu erleichtern, aber auch diese würde an der Grundregel nichts ändern, dass der Hersteller oder Betreiber haftet, nicht die KI an sich.

Praxisempfehlung in Sachen Haftung: Arbeitgeber sollten klare Verantwortlichkeiten definieren, wer KI-Ergebnisse überprüft und freigibt. Es kann sinnvoll sein, interne Kontrollinstanzen einzubauen (Vier-Augen-Prinzip bei wichtigen KI-Entscheidungen). Zudem sollten Unternehmen für den Fall von Schäden durch KIVersicherungsschutz prüfen – einige Haftpflichtversicherungen bieten mittlerweile Bausteine für Schäden durch IT und KI an. Und last but not least: Transparenz und Dokumentation. Wenn z.B. eine KI bei der Personalentscheidung beteiligt war, sollte der Prozess so dokumentiert sein, dass man im Nachhinein zeigen kann, wie die Entscheidung zustande kam und dass fair gehandelt wurde. Das kann im Streitfall sehr wertvoll sein, um Vorwürfe (etwa Diskriminierung oder Willkür) zu entkräften.

Risiken: Diskriminierung durch Algorithmen und Bias

Eine der am häufigsten diskutierten Risiken beim KI-Einsatz im Personalwesen ist die Gefahr der Diskriminierung durch Algorithmen. KI-Systeme gelten zwar oft als „objektiv“ und neutral, da sie auf Daten basieren und nicht von Emotionen beeinflusst werden. Doch dieser Schein trügt: KI kann verzerrte oder unfaire Ergebnisse produzieren, ein Phänomen, das man „Algorithmic Bias“ oder kurz KI-Bias nennt.

Wie entsteht Bias in KI-Systemen?

Die Ursachen für diskriminierende Tendenzen bei KI sind vielschichtig. Häufig spiegeln Algorithmen einfach die Vorurteile der Vergangenheit wider, die in den Trainingsdaten stecken. Ein klassisches Beispiel: Wenn ein Unternehmen in der Vergangenheit überwiegend Männer eingestellt hat und man eine KI mit diesen historischen Bewerbungs- und Einstellungsdaten trainiert, „lernt“ das Modell unter Umständen, männliche Bewerber zu bevorzugen. Die KI wertet also ein bestimmtes Merkmal (männlich) als impliziten Erfolgsfaktor, weil es in den Daten mit Einstellungen korreliert war. Das führt zu einer mittelbaren Diskriminierung von Frauen, obwohl keine Regel „Frauen ablehnen“ einprogrammiert wurde.

Weitere Ursachen von Bias können sein:

  • Nicht repräsentative Daten: Wenn Datensätze bestimmte Gruppen unterrepräsentieren, kann die KI deren Eigenschaften schlechter beurteilen.
  • Fehlerhafte Labeling oder Proxy-Variablen: Vielleicht sind in den Daten Merkmale enthalten, die als Stellvertreter für geschützte Eigenschaften fungieren (z.B. Wohnort als Proxy für ethnische Zugehörigkeit). Die KI könnte daraus falsche Schlüsse ziehen.
  • Ungünstige Modellparameter: Entwicklerentscheidungen (z.B. Schwellenwerte) können unbeabsichtigt dazu führen, dass etwa strengere Maßstäbe bei einer Gruppe angelegt werden.

Interessant ist auch der Effekt des Automation Bias: Menschen neigen dazu, computergenerierten Ergebnissen zu sehr zu vertrauen, weil sie glauben, die Maschine sei unfehlbar objektiv. Dadurch werden KI-Urteile oft nicht kritisch genug hinterfragt – was es umso gefährlicher macht, wenn die KI tatsächlich einen systematischen Fehler hat.

Diskriminierung rechtlich betrachtet

Arbeitsrechtlich ist klar: Benachteiligt eine KI Personen aufgrund eines in § 1 AGG genannten Merkmals, liegt eine Diskriminierung vor, die das AGG verbietet. Dies kann unmittelbar geschehen (die KI würde z.B. alle Frauen schlechter bewerten, nur weil sie Frauen sind – das wäre eine unmittelbare Benachteiligung wegen Geschlechts, § 3 Abs. 1 AGG) oder mittelbar (die KI nutzt ein scheinbar neutrales Kriterium, das aber tatsächlich bestimmte Gruppen stärker ausschließt, § 3 Abs. 2 AGG). Letzteres wäre z.B. der Fall, wenn ein Algorithmus Bewerber nach der Entfernung ihres Wohnorts vom Arbeitsplatz gewichtet – das scheint neutral, könnte aber mittelbar Menschen mit Migrationshintergrund benachteiligen, wenn diese öfter in bestimmten Stadtteilen wohnen. Unmittelbare Diskriminierung lässt sich nur in sehr engen Ausnahmen rechtfertigen (etwa bei echten beruflichen Anforderungen, §§ 8–10 AGG), mittelbare Diskriminierung ist zulässig, wenn ein rechtmäßiges Ziel verfolgt wird und das Mittel angemessen und erforderlich ist (§ 3 Abs. 2 AGG). In der Praxis wird es dem Arbeitgeber schwerfallen, algorithmische Benachteiligungen ausreichend zu rechtfertigen – oft wird gar nicht bewusst sein, dass sie passieren.

Folgen eines AGG-Verstoßes durch KI: Betroffene – seien es abgelehnte Bewerber oder benachteiligte Beschäftigte – können Entschädigung und Schadensersatz verlangen (§ 15 AGG). Das Entschädigung (für immaterielle Schäden) ist bei Bewerbern auf drei Monatsgehälter begrenzt, wenn man sie ohnehin nicht eingestellt hätte; Schadensersatz (für materielle Schäden wie entgangenes Gehalt) ist unbegrenzt. Außerdem können vor Gericht Beweiserleichterungengreifen: § 22 AGG sagt, dass es schon ausreicht, Indizien darzulegen, die eine Benachteiligung vermuten lassen – dann muss der Arbeitgeber beweisen, dass kein Verstoß vorlag. Ein Indiz könnte etwa sein, dass überproportional wenige Frauen in die engere Auswahl kamen, obwohl ihre Qualifikationen vergleichbar waren. Dann läge es am Arbeitgeber zu belegen, dass der Algorithmus korrekt und nicht diskriminierend arbeitete – was in der Blackbox-Praxis schwierig sein kann. Diese rechtlichen Konsequenzen erzeugen natürlich Druck auf Arbeitgeber, ihre KI-Systeme fair zu gestalten.

Vermeidung von Diskriminierung: Was ist zu tun?

Arbeitgeberpflichten: Nach § 12 AGG müssen Arbeitgeber vorbeugend gegen Benachteiligungen vorgehen. Übertragen auf KI heißt das: Schon bei der Entwicklung oder Anschaffung von KI-Tools ist auf Anti-Diskriminierungzu achten. Mögliche Maßnahmen:

  • Datenauswahl und -aufbereitung: Sicherstellen, dass Trainingsdaten divers und aktuell sind, keine Verzerrungen fortschreiben. Gegebenenfalls Daten bereinigen oder unterrepräsentierte Gruppen gezielt einbringen.
  • Tests vor Einsatz: KI-Modelle sollten mit Blick auf verschiedene Gruppen getestet werden. Erzielen sie durchgängig schlechtere Bewertungen für bestimmte Personengruppen? Es gibt Ansätze wie Fairness-Metriken und Bias-Tests, die hier helfen.
  • Monitoring: Auch im laufenden Betrieb sollte der Output überwacht werden. Stellt man fest, dass z.B. ein Empfehlungsalgorithmus immer die gleichen Typen bevorzugt, muss man nachsteuern.
  • Transparenz und Kriterienprüfung: Idealerweise sollten die Entscheidungskriterien nachvollziehbar sein. Das ist bei komplexen Machine-Learning-Modellen zwar schwierig, aber man könnte z.B. regelmäßige Audits durch externe Stellen durchführen lassen.
  • Menschliche Letztkontrolle: Wie bereits betont: Der Mensch sollte letzte Instanz sein und dabei die Chance haben, offensichtliche Unwuchten zu korrigieren (z.B. einen vielversprechenden Bewerber doch einzuladen, obwohl das Tool ihn aussortiert hat, wenn dafür kein objektiver Grund erkennbar ist).

Betriebsrat und Beschäftigte können ebenfalls beitragen: Ein wachsamer Betriebsrat wird darauf drängen, in einer Betriebsvereinbarung zum KI-Einsatz festzuhalten, dass keine diskriminierenden Faktoren verwendet werden dürfen und dass er Einblick in die Funktionsweise haben kann, soweit möglich. Zudem können Schulungen zum AGG für die Personalabteilung sicherstellen, dass man sich der Bias-Problematik bewusst ist.

Vorgaben des EU AI Act zum Diskriminierungsschutz

Die kommende EU-KI-Verordnung (AI Act) widmet sich dem Thema Bias und Diskriminierung ebenfalls. KI-Systeme, die im Personalwesen eingesetzt werden, werden als Hochrisiko-Systeme eingestuft (siehe nächster Abschnitt zum AI Act), was bedeutet, dass ihre Anbieter und Anwender strenge Auflagen erfüllen müssen. Dazu gehört explizit, dass sie Maßnahmen zur Sicherstellung der Datenqualität und zur Vermeidung von Verzerrungenergreifen müssen. Konkret fordert der AI Act z.B., dass Trainings-, Validierungs- und Testdaten angemessen und repräsentativ sein müssen, um Diskriminierung vorzubeugen. Weiter müssen Hochrisiko-KI-Systeme dokumentiertwerden, menschliche Aufsicht vorsehen und eine gewisse Erklärbarkeit ermöglichen. Verstöße gegen diese Anforderungen können ebenfalls sanktioniert werden. Mit anderen Worten: EU-weit wird ein Framework geschaffen, um sicherzustellen, dass KI nicht zur Bias-Falle für bestimmte Gruppen wird.

Fazit: Diskriminierung durch KI ist ein reales Risiko, dem mit rechtlichen und technischen Mitteln begegnet werden muss. Für Unternehmen heißt das, sich ihrer Verantwortung bewusst zu sein – KI ist nicht per se objektiv. Arbeitgeber müssen KI-Systeme so einsetzen, dass Chancengleichheit gewahrt bleibt, andernfalls laufen sie Gefahr, gegen das AGG zu verstoßen. Umgekehrt bietet KI aber auch Chancen: Richtig konzipiert, könnten Algorithmen helfen, menschliche Vorurteile zu reduzieren – z.B. durch anonymisierte Bewerbungsverfahren oder streng kriterienbasierte Entscheidungen. Entscheidend ist, dass der Bias im System erkannt und ausgemerzt wird, bevor die KI großflächig Entscheidungen beeinflusst. Hier ist interdisziplinäre Zusammenarbeit gefragt: Juristen, Datenwissenschaftler und Betriebsräte sollten gemeinsam daran arbeiten, faire KI in der Arbeitswelt zu ermöglichen.

Bedeutung des EU AI Act für Unternehmen und Beschäftigte

Die Europäische Union befindet sich in der Endphase der Verabschiedung einer umfassenden Verordnung über Künstliche Intelligenz, oft kurz EU AI Act oder KI-Verordnung genannt. Diese Verordnung – voraussichtlich ab 2025/2026 voll anwendbar – wird direkte Geltung in allen Mitgliedstaaten haben und somit auch in Deutschland einheitliche Regeln für KI-Systeme schaffen. Für Unternehmen und Beschäftigte im Arbeitskontext ist der AI Act von großer Bedeutung, da er den Einsatz von KI in Bereichen wie Personalverwaltung ausdrücklich regelt. Im Folgenden ein Überblick über die wichtigsten Punkte: Hochrisiko-KI, Transparenzpflichten, Verbote und aufsichtsrechtliche Konsequenzen.

Risikoklassifizierung und Hochrisiko-KI im Arbeitsleben

Der AI Act verfolgt einen risikobasierten Ansatz: KI-Anwendungen werden je nach ihrem Gefährdungspotenzial in Kategorien eingeteilt – von minimalem Risiko (kaum reguliert) über begrenztes und hohes Risiko bis zu inakzeptablem Risiko (verboten). Für den HR-Bereich relevant sind vor allem die Hochrisiko-Systeme. Als Hochrisiko eingestuft werden gemäß Anhang III der Verordnung u.a. KI-Systeme für:

  • Auswahl und Einstellung von Bewerbern (inkl. Vorauswahl, Bewerbungsanalyse, Profiling von Kandidaten),
  • Entscheidungen über Beförderungen, Versetzungen und Kündigungen,
  • Arbeitsplatz-Zuweisungen (wie Aufgabenverteilung) sowie
  • Überwachung und Bewertung von Arbeitnehmern (z.B. Leistungskontrolle, Verhaltensüberwachung).

Kurz: Fast alle KI-Anwendungen, die direkt auf Personalentscheidungen oder die Überwachung am Arbeitsplatz abzielen, gelten als Hochrisiko-KI. Der Verordnungsentwurf sieht nur wenige Ausnahmen vor (etwa für untergeordnete Unterstützungssysteme, die keine automatisierten Profilings vornehmen), aber im Regelfall wird KI im HR-Bereich unter die strengen Hochrisiko-Anforderungen fallen.

Für solche Hochrisiko-KI-Systeme schreibt der AI Act umfangreiche Pflichten vor. Einige davon richten sich an die Hersteller/Anbieter der KI (z.B. Risiko- und Qualitätsmanagement bei der Entwicklung, Technische Dokumentation, Konformitätsbewertung bevor das System auf den Markt kommt). Andere Pflichten treffen die Betreiber/Nutzer, also die Unternehmen, die die KI einsetzen:

  • Es müssen maßgebliche Informationen offengelegt werden, z.B. die KI muss verständliche Anweisungen und Beschreibungen mitliefern.
  • Transparenzpflichten: Nutzer müssen informiert werden, wenn sie mit einer KI interagieren (z.B. muss ein Arbeitgeber transparent machen, dass ein Videointerview durch eine KI ausgewertet wird).
  • Monitoring und Meldung: Nutzer sollen die KI-Anwendung im Betrieb überwachen und schwerwiegende Vorfälle oder Fehlfunktionen den Behörden melden.
  • Menschliche Aufsicht sicherstellen: Es muss vorgesehen sein, dass Menschen den Betrieb der KI überwachen können und notfalls eingreifen oder das System abschalten, korrigieren etc. („Human-in-the-loop“ Prinzip).
  • Bias-Minimierung: Betreiber müssen Maßnahmen treffen, um Diskriminierungsrisiken zu mindern, z.B. durch Auswahl geeigneter Daten und regelmäßige Evaluierung.
  • Datenschutz-Folgenabschätzung: Für Hochrisiko-KI wird in der Regel auch eine DSFA nach DSGVO verlangt, sofern personenbezogene Daten verarbeitet werden (was hier fast immer der Fall ist).

Die Hochrisiko-Systeme werden zudem in einem EU-Datenbank-Register erfasst, das von den Behörden geführt wird. Unternehmen müssen damit rechnen, dass der Einsatz solcher Systeme melde- oder dokumentationspflichtig wird.

Verbotene KI-Praktiken im Arbeitsumfeld

Neben den regulierten Hochrisiko-Systemen zieht der AI Act auch rote Linien: Einige KI-Anwendungen gelten als so gefährlich für Grundrechte oder Sicherheit, dass sie verboten sind. Für das Arbeitsleben besonders relevant ist das Verbot der Emotionserkennung am Arbeitsplatz. Konkret verbietet Art. 5 Abs. 1 lit. f KI-VO KI-Systeme, die am Arbeitsplatz mittels biometrischer Daten Emotionen oder innere Zustände von Menschen erkennen oder daraus ableiten sollen. Beispiele wären KI, die Mimik, Gesichtsausdruck, Stimme oder Körperbewegungen analysiert, um Stimmung, Stresslevel oder Ehrlichkeit von Mitarbeitern zu „messen“. Solche Systeme dürfen nicht eingesetzt werden – es sei denn ausschließlich zu erlaubten medizinischen oder Sicherheitszwecken (z.B. Übermüdungs- oder Gesundheitsüberwachung bei Piloten ist ausdrücklich ausgenommen). Die EU zieht hier also einen klaren Strich: Die Gefühle von Beschäftigten auszuspionieren oder zu manipulieren ist tabu.

Weitere verbotene KI-Praktiken (wenngleich eher außerhalb klassischer Betriebe) sind etwa KI zur verhaltensbasierten sozialen Bewertung („Social Scoring“) durch Behörden oder allgemeine biometrische Massenüberwachung in der Öffentlichkeit. Im Unternehmen könnten aber z.B. Tools, die heimlich Mitarbeiterbewertungen aus öffentlichen Social-Media-Daten erstellen (eine Art Scoring), ebenfalls in einen Graubereich fallen. Generell wird empfohlen, bei ungewöhnlichen KI-Ideen im Personalwesen immer zu prüfen, ob sie vielleicht unter die Verbote des Art. 5 AI Act fallen – die Liste der Verbote ist nicht sehr lang, aber die genannten Fälle sind absolut zu meiden.

Transparenzpflichten und Rechte Betroffener

Der AI Act enthält auch Bestimmungen zu Transparenz bei KI-Systemen. Zum einen müssen bestimmte KI-Anwendungen den Nutzern gegenüber offenlegen, dass sie es mit einer KI zu tun haben (z.B. wenn ein Mitarbeiter mit einem KI-Chatbot chattet, muss klar sein, dass es kein Mensch ist, Art. 52 KI-VO). Zum anderen gibt es spezielle Transparenzvorgaben für generative KI (diese müssen z.B. KI-generierte Inhalte kennzeichnen) – für Arbeitsverhältnisse weniger relevant, außer man denkt an KI-generierte E-Mails oder Berichte, wo Kennzeichnungspflichten bestehen könnten.

Wichtig ist: Der AI Act ergänzt die DSGVO, aber ersetzt sie nicht. Das heißt, Betroffenenrechte bleiben bestehen: Beschäftigte können weiterhin Auskunft verlangen, ob und wie KI sie beeinflusst hat, und sie können sich bei Aufsichtsbehörden beschweren. Neu wird möglicherweise, dass die KI-VO Aufsichtsbehörden vorsieht, die auch ein Auge auf KI-Einsätze haben – wahrscheinlich werden bestehende Stellen (wie Bundesamt für Sicherheit in der Informationstechnik BSI oder Marktüberwachungsbehörden) hierfür zuständig sein, in Zusammenarbeit mit Datenschutzbehörden.

Aufsicht und Sanktionen

Für Unternehmen besonders zu beachten sind die Sanktionen, die der AI Act vorsieht. Bei Verstößen drohen sehr empfindliche Geldbußen – teils sogar höher als nach DSGVO. Insbesondere:

  • Einsatz eines verbotenen KI-Systems: Bußgelder bis zu 35 Mio. € oder 7 % des weltweiten Jahresumsatzes (je nachdem, was höher ist). Das heißt, wer z.B. trotz Verbot ein Emotionserkennungstool im Büro nutzt, riskiert existenzielle Strafen.
  • Verstöße gegen Verpflichtungen bei Hochrisiko-KI (z.B. fehlende Risikobewertung, mangelnde Aufsicht): Bußgelder bis 25 Mio. € oder 6 % des Jahresumsatzes (Zahlen können je nach finalem Text leicht variieren; der Trend geht zu ähnlicher Größenordnung wie die DSGVO oder darüber).
  • Verstöße gegen sonstige Anforderungen oder Transparenzpflichten: bis 20 Mio. € oder 4 % des Umsatzes.

Für Arbeitgeber heißt das: KI-Compliance wird kein Luxus, sondern Pflicht. Die Behörden werden ab Anwendbarkeit der VO Kontrollen durchführen können. Bereits jetzt sollten Unternehmen, die KI einsetzen, ihre Anwendungen katalogisieren und prüfen, ob sie unter die Hochrisiko-Kategorie fallen. Falls ja, müssen sie bis zum Inkrafttreten die nötigen Vorkehrungen treffen (Dokumentation, ggf. Zertifizierung der KI-Komponenten vom Hersteller einfordern, interne Prozesse aufsetzen). Es drohen sonst empfindliche Bußgelder und Reputationsschäden.

Auch Beschäftigte sollten wissen: Mit der KI-VO erhalten sie indirekt mehr Schutz. Wenn ihr Arbeitgeber KI im HR einsetzt, muss er transparent sein und bestimmte Standards einhalten. Beschäftigte könnten bei Verdacht auf Regelverstöße auch die Aufsichtsbehörden einschalten. Beispielsweise wenn jemand meint, sein Arbeitgeber nutze eine nicht erlaubte KI-Überwachung, kann er das den Behörden melden – ähnlich wie ein DSGVO-Verstoß.

Zusammengefasst: Der EU AI Act bringt verbindliche Regeln für KI in der Arbeitswelt. Unternehmen werden in die Pflicht genommen, Risikomanagement, Transparenz und menschliche Kontrolle bei KI-Systemen sicherzustellen. Hochrisiko-Anwendungen wie Bewerberauswahl oder Mitarbeiterüberwachung unterliegen strenger Aufsicht. Einige Praktiken – besonders Emotionserkennung am Arbeitsplatz – sind kategorisch verboten. Für Arbeitgeber bedeutet das zunächst Umstellungsaufwand, aber auf lange Sicht schafft ein klarer Ordnungsrahmen auch Rechtssicherheit und Vertrauen in KI-Systeme. Für Beschäftigte bedeutet es mehr Schutz und Rechte gegenüber KI-Entscheidungen. Die EU will mit dem AI Act erreichen, dass KI „Vertrauenswürdig“ ist – gerade in sensiblen Bereichen wie dem Arbeitsleben. Es bleibt zu beobachten, wie schnell und konsequent diese Vorgaben in der Praxis umgesetzt werden, aber eines ist sicher: KI-Compliance wird ab sofort ein fester Bestandteil des HR-Managements und der betrieblichen Mitbestimmung sein.

Praxisempfehlungen für Arbeitgeber beim KI-Einsatz

Wenn ein Arbeitgeber plant, KI-Systeme im Betrieb einzuführen – sei es im Recruiting, in der Personalverwaltung oder zur Produktionssteuerung – sollte er vorausschauend vorgehen. KI-Einführung ist nicht nur ein IT-Projekt, sondern immer auch ein Change-Prozess, der Belegschaft und Mitbestimmung einbezieht. Hier sind Praxisempfehlungen, die sich aus rechtlichen Vorgaben und Erfahrungen ableiten lassen:

  1. Frühzeitige Beteiligung des Betriebsrats: Wie ausführlich dargestellt, hat der Betriebsrat Informations-, Beratungs- und Mitbestimmungsrechte. Erfolgreiche KI-Einführungen basieren auf Kooperation. Informieren Sie den Betriebsrat so früh wie möglich über das Vorhaben. Nutzen Sie das Beratungsrecht nach § 90 BetrVG positiv: binden Sie die Betriebsräte ein, holen Sie deren Feedback ein. So lassen sich Bedenken früh klären und Akzeptanz fördern. Kalkulieren Sie ein, dass der Betriebsrat ggf. einen Sachverständigen hinzuziehen möchte – zeigen Sie sich offen dafür, denn es schafft Vertrauen, wenn eine neutrale Expertise bestätigt, dass das System in Ordnung ist.
  2. Abschluss einer Betriebsvereinbarung: Es empfiehlt sich dringend, den KI-Einsatz in einer Betriebsvereinbarungverbindlich zu regeln. Darin können Rahmenbedingungen festgelegt werden: z.B. Zweckbindung der KI (wofür darf sie verwendet werden, wofür nicht), Art der erhobenen Daten, Speicherfristen, Zugriffsrechte und Auswertungskriterien. Auch sollten in der Vereinbarung Mitbestimmungsrechte konkretisiert sein, etwa dass bei Änderungen des KI-Systems erneut der Betriebsrat zu beteiligen ist. Ebenso können Schutzmechanismen vereinbart werden: z.B. „Kein Mitarbeiter wird ausschließlich aufgrund eines KI-Ergebnisses sanktioniert, ohne vorherige menschliche Überprüfung“ – was de facto Art. 22 DSGVO spiegelt. Eine Betriebsvereinbarung schafft Transparenz gegenüber allen Beteiligten und kann individuell auf den Betrieb zugeschnittene Lösungen (etwa bei Arbeitszeit-KI oder Zutrittskontroll-KI) enthalten. Insbesondere im Datenschutz kann eine Betriebsvereinbarung die Grundlage dafür legen, Beschäftigtendaten rechtmäßig für KI-Anwendungen zu verarbeiten (eine solche Vereinbarung gilt nämlich als Geeignetes Datenschutzkonzept i.S.v. § 26 Abs. 4 BDSG).
  3. Datenschutz und IT-Sicherheit einbinden: Bereits in der Planungsphase sollte der Datenschutzbeauftragteinvolviert werden. Führen Sie – falls nötig – eine Datenschutz-Folgenabschätzung durch (was bei KI im Personalbereich oft der Fall sein wird). Stellen Sie Privacy-by-Design sicher: sammelt die KI nur die Daten, die sie wirklich braucht? Werden Daten pseudonymisiert oder aggregiert, wo möglich? Klären Sie auch, ob Daten das Unternehmen verlassen (Cloud-Dienste, externe Anbieter) und prüfen Sie Verträge (Stichwort Auftragsverarbeitung). Ebenso wichtig: IT-Sicherheit. KI-Systeme können Angriffspunkte bieten (Manipulation der Trainingsdaten etwa). Sorgen Sie für angemessene Sicherheitsmaßnahmen, um Integrität und Vertraulichkeit der Daten zu gewährleisten. Und beachten Sie die Informationspflichten: Beschäftigte sollten wissen, welche Daten von ihnen erfasst und wofür sie verwendet werden. Am besten kombiniert man hier Datenschutz und HR-Kommunikation – etwa durch einen daten­schutz­rechtlichen Hinweis oder eine interne Richtlinie, die jedem Mitarbeiter erklärt, was ein neues KI-System tut.
  4. Schulung und Qualifizierung der Mitarbeiter: Die Einführung von KI ist ein Lernprozess für alle. Arbeitnehmer müssen geschult werden, um mit KI-gestützten Systemen richtig umzugehen. Das umfasst zum einen die Bedienung(z.B. wie nutze ich ein KI-Tool in meiner täglichen Arbeit?) und zum anderen das Verständnis der Grenzen: Mitarbeiter sollten sensibilisiert werden, dass KI auch Fehler machen kann und wann menschliches Urteilsvermögen gefragt ist. Beispielsweise sollten Personalentscheider geschult werden, die Vorschläge eines KI-Recruiting-Tools kritisch zu hinterfragen, statt blind zu vertrauen. Ebenso wichtig: Beschäftigte sollten angewiesen werden, keine sensiblen oder personenbezogenen Daten in unautorisierte KI-Systeme einzugeben – gerade bei frei zugänglichen KI-Tools (ChatGPT & Co.) besteht sonst das Risiko von Datenschutz- oder Geheimnisverstößen. Arbeitgeber tun gut daran, klare Nutzungsregeln für KI zu erlassen und ihre Arbeitnehmer im Umgang mit diesen Systemen zu schulen. Das erhöht die Kompetenz im Betrieb und mindert Risiken. Übrigens: Auch Betriebsräte selbst haben ein Recht auf Fortbildung, um KI zu verstehen (Seminare zu „KI und Mitbestimmung“ etwa). Diese sollte man ermöglichen, damit der Betriebsrat auf Augenhöhe mitdiskutieren kann.
  5. Transparenz und Kommunikation: Oft entsteht Widerstand gegen neue Technologien durch Unklarheit und Ängste. Kommunizieren Sie offen in der Belegschaft, warum die KI eingeführt wird, welchen Nutzen sie bringt und welche Kontrollen eingebaut sind. Zeigen Sie, dass KI nicht zur Überwachung oder willkürlichen Aussortierungmissbraucht wird, sondern z.B. lästige Routine abnimmt oder Prozesse fairer machen soll. Je nach Anwendung kann es sinnvoll sein, zunächst einen Pilotbetrieb durchzuführen, aus dem man lernt, bevor das System flächendeckend ausgerollt wird. Binden Sie Mitarbeitende ein, holen Sie Feedback aus der Praxis – das kann helfen, das System anzupassen und Akzeptanz zu schaffen. Gerade wenn KI für Bewertungen genutzt wird, ist es klug, den betroffenen Mitarbeitern die Möglichkeit zu geben, die Kriterien und Funktionsweise zumindest grob nachzuvollziehen. Etwa: „Unser neues System analysiert Vertriebszahlen pro Quartal und gibt eine Leistungseinschätzung, die aber nur als Gesprächsgrundlage für Mitarbeitergespräche dient.“ So wissen die Leute, woran sie sind.
  6. Technische Qualität sicherstellen: Wählen Sie KI-Systeme sorgsam aus. Achten Sie auf Qualitätssiegel oder Zertifizierungen, soweit verfügbar. Prüfen Sie, ob der Anbieter Angaben zu Bias-Freiheit und Datensicherheit macht. Eventuell können Sie eigene Tests mit historischen Daten durchführen, um zu sehen, ob das System sinnvolle und faire Ergebnisse liefert (Stichwort: Audit). Etablieren Sie intern Prozesse, um die Leistung der KI regelmäßig zu evaluieren – z.B. stimmt die KI-Einschätzung mit späteren tatsächlichen Entwicklungen überein? Gibt es Anzeichen systematischer Abweichungen? Setzen Sie bei Hochrisiko-KI auf das Prinzip: klein anfangen, dann skalieren. Vielleicht erst nur in einer Abteilung pilotieren, Erkenntnisse sammeln und dann ausweiten.
  7. Dokumentation und Nachweisführung: Halten Sie wichtige Entscheidungen rund um KI schriftlich fest. Wenn der Betriebsrat zugestimmt hat, dokumentieren Sie die Vereinbarung. Führen Sie Protokoll über etwaige manuelle Übersteuerungen der KI (um im Nachhinein zeigen zu können, dass Menschen eingebunden waren). All das kann Gold wert sein, sollte es einmal zu einer Überprüfung durch Behörden oder einem Rechtsstreit kommen. Wie Rödl & Partner schreibt: „Die Dokumentation der Entscheidungsfindung, die Schulung der Mitarbeiter und die enge Zusammenarbeit mit dem betrieblichen Datenschutzbeauftragten sind essenziell, um den rechtlichen Anforderungen gerecht zu werden und das Vertrauen der betroffenen Personen in KI-gestützte Entscheidungen zu stärken.“

Zusammengefasst lautet die Devise für Arbeitgeber: „Prävention und Beteiligung“. Mit einer proaktiven Strategie – Betriebsrat mitnehmen, juristische Hausaufgaben (Datenschutz, Mitbestimmung) machen, Mitarbeiter schulen und transparent kommunizieren – lässt sich KI erfolgreich und rechtskonform einführen. Dann kann das Unternehmen die Vorteile der KI nutzen, ohne in die typischen Fallstricke (Rechtsverstöße, Akzeptanzprobleme) zu geraten. Eine gut geregelte KI-Nutzung kann am Ende allen Seiten dienen: den Arbeitgebern durch Effizienz und bessere Entscheidungen, den Arbeitnehmern durch Entlastung und objektivere Verfahren, und den Betriebsräten durch die Gewissheit, dass die Interessen der Belegschaft gewahrt bleiben.

Rechte und Handlungsmöglichkeiten für Arbeitnehmer und Betriebsräte

Nicht nur Arbeitgeber müssen sich an Regeln halten – auch Arbeitnehmer und Betriebsräte selbst haben in einer von KI geprägten Arbeitswelt gewisse Rechte und Möglichkeiten, ihre Interessen zu schützen. Im Folgenden beleuchten wir getrennt, was Beschäftigte individuell tun können und welche Handlungsspielräume die Betriebsratsgremien haben.

Rechte der Arbeitnehmer gegenüber KI-Systemen

Für Arbeitnehmerinnen und Arbeitnehmer ist es wichtig zu wissen, dass sie auch im Umgang mit KI geschützt sind und nicht rechtlos einer „Maschine“ ausgeliefert werden.

  • Recht auf menschliche Überprüfung: Wie oben beschrieben, haben Beschäftigte ein Recht darauf, nicht nur von einer KI beurteilt zu werden (Art. 22 DSGVO). Praktisch heißt das: Sollte z.B. eine automatisierte Leistungsbewertung durchgeführt werden, kann der Arbeitnehmer verlangen, dass ein Vorgesetzter die Bewertung prüft oder dass er selbst seinen Standpunkt dazu mitteilen darf, bevor Konsequenzen gezogen werden. Dieses Recht ist zwar primär in der DSGVO verankert, aber es lässt sich auch als allgemeiner Fairness-Grundsatz verstehen – kein Arbeitnehmer muss eine Entscheidung widerspruchslos hinnehmen, wenn sie offensichtlich allein auf einem Algorithmus beruht, der evtl. falsch liegt.
  • Auskunftsrecht: Beschäftigte können vom Arbeitgeber Auskunft verlangen, welche Daten über sie verarbeitet werden (Art. 15 DSGVO). Das schließt auch ein, zu erfahren, ob KI-gestützte Verfahren eingesetzt wurden, die ihre Daten verarbeiten, und zumindest in groben Zügen die Logik dieser Verfahren. Zudem haben sie ein Recht auf Zugang zu ihren Bewertungs- oder Leistungsdaten, soweit nicht Rechte Dritter entgegenstehen. Beispiel: Ein Mitarbeiter könnte anfragen, ob sein Unternehmen ein Profiling zu seiner Arbeitsleistung durchführt und wie das funktioniert. Der Arbeitgeber muss darauf in der Regel antworten.
  • Recht auf Berichtigung und Löschung: Wenn ein KI-System falsche Informationen über einen Mitarbeiter generiert hat (z.B. es ordnet einer Person fälschlich eine schlechte Kennzahl zu), kann der Mitarbeiter Berichtigung verlangen (Art. 16 DSGVO). Ebenso kann er Löschung verlangen (Art. 17), wenn Daten unrechtmäßig erhoben wurden. Beispiel: Falls ein Arbeitgeber ohne Rechtsgrundlage die Social-Media-Profile eines Beschäftigten durch eine KI scannen ließ, könnte der Beschäftigte die Löschung dieser Auswertung verlangen.
  • Widerspruchsrecht: In manchen Fällen haben Arbeitnehmer ein Widerspruchsrecht gegen die Verarbeitung ihrer Daten (Art. 21 DSGVO), vor allem wenn die Verarbeitung auf berechtigten Interessen beruht. Angenommen, ein Unternehmen rechtfertigt den Einsatz eines KI-Überwachungstools mit seinem Interesse an Produktivitätssteigerung – ein Mitarbeiter könnte dagegen Widerspruch einlegen, weil seine Interessen (Privatsphäre) überwiegen. Dann müsste der Arbeitgeber prüfen, ob er die Verarbeitung einstellen muss oder ob er zwingende Gründe hat.
  • Schutz vor Diskriminierung: Arbeitnehmer, die das Gefühl haben, sie wurden durch einen KI-gestützten Prozess diskriminiert (z.B. bei einer Beförderung übergangen aus unlauteren Gründen), sollten wissen, dass sie Ansprüche nach dem AGG geltend machen können. Sie müssen innerhalb von 2 Monaten nach Kenntnis des Nachteils diesen schriftlich rügen (§ 13 AGG) und können dann Entschädigung fordern. Dabei reicht es, Indizienvorzubringen, z.B.: „Von fünf gleichqualifizierten Kollegen wurden nur die jüngeren befördert, die KI hält wohl älteren implizit für weniger geeignet.“ Dann liegt es am Arbeitgeber, sich zu entlasten.
  • Weigerungsrecht bei unzumutbaren KI-Weisungen: Arbeitnehmer dürfen sich weigern, Weisungen zu befolgen, die offensichtlich rechtswidrig sind – das gilt auch, wenn die Anweisung von einer KI kommt. Ein häufig genanntes Beispiel: Eine KI-Schichtplanung, die permanent die Ruhezeiten des Arbeitszeitgesetzes unterschreitet, braucht der Arbeitnehmer nicht klaglos hinnehmen. Er kann darauf verweisen, dass die Anweisung gegen gesetzliche Vorschriften verstößt, und hat das Recht, korrekte Einteilung zu verlangen. Ebenso, wenn eine KI den Mitarbeiter zu Tätigkeiten einteilen will, die nicht vom Arbeitsvertrag gedeckt sind (z.B. eine völlig andere Qualifikation erfordern), kann er das zurückweisen.
  • Ansprechpartner und Beschwerdestellen: Arbeitnehmer haben die Möglichkeit, sich bei Problemen mit KI intern an den Betriebsrat oder den Datenschutzbeauftragten zu wenden, oder extern an Datenschutzbehörden oder ggf. die KI-Aufsicht (wenn die VO in Kraft ist). So kann ein Mitarbeiter, der glaubt, unrechtmäßig überwacht zu werden, eine Beschwerde einreichen. Unternehmen sind verpflichtet, eine solche Beschwerde ernst zu nehmen und Abhilfe zu schaffen (§ 85 Abs. 3 BetrVG für Beschwerden beim Betriebsrat, Art. 38 DSGVO für Datenschutzbeschwerden intern, Art. 77 DSGVO für externe Beschwerden bei der Behörde).
  • Klagerechte: Sollte es zum Äußersten kommen, können Arbeitnehmer natürlich auch vor dem Arbeitsgerichtihre Rechte durchsetzen. Etwa: Ein abgelehnter Bewerber, der Diskriminierung vermutet, kann auf Entschädigung klagen. Ein Arbeitnehmer, der aufgrund einer KI-Empfehlung gekündigt wurde, kann Kündigungsschutzklage einreichen – das Gericht wird dann prüfen, ob die Kündigung sozial gerechtfertigt war oder ob etwa ein fehlerhaftes Bewertungssystem Grundlage war (was die Kündigung anfechtbar macht). Zwar klagt man formal gegen die Entscheidung des Arbeitgebers, aber die KI als Entscheidungsgrund wird dann mit auf dem Prüfstand stehen.

Tipp für Beschäftigte: Dokumentieren Sie, falls Sie glauben, dass Ihnen Unrecht durch KI geschieht. Heben Sie z.B. Schreiben oder E-Mails auf, aus denen hervorgeht, dass eine Software über etwas entschieden hat („Unser Auswahlsystem hat ergeben, dass…“). Sprechen Sie den Betriebsrat an – er hat Einblicks- und Mitbestimmungsrechte, die Sie selbst nicht haben. Und haben Sie keine Scheu, Fragen zu stellen: Sie dürfen fragen, ob eine Entscheidung automatisiert gefallen ist und um Erläuterung bitten. Das Unternehmen muss hier zumindest teilweise transparent sein und kann das nicht mit Geheimhaltung abtun, wenn es um Ihre eigenen Daten und Karriere geht.

Handlungsmöglichkeiten des Betriebsrats

Betriebsräte haben in Bezug auf KI eine entscheidende Schlüsselrolle, wie wir schon gesehen haben. Über die formalen Mitbestimmungsrechte hinaus (die bereits im Abschnitt dazu beschrieben wurden) gibt es ein paar strategische Handlungsoptionen:

  • Proaktive Vereinbarungen treffen: Betriebsräte müssen nicht warten, bis der Arbeitgeber mit einer fertigen KI-Lösung vor der Tür steht. Sie können von sich aus Initiativen ergreifen, z.B. den Abschluss einer Rahmen-Betriebsvereinbarung „KI“ anregen. Darin könnten Grundsätze festgelegt werden, die für alle zukünftigen KI-Einsätze gelten (Transparenz, Rechte der Beschäftigten, Verfahren der Mitbestimmung etc.). So eine Rahmenvereinbarung schafft Planungssicherheit und vermeidet Streit bei jeder einzelnen Einführung.
  • Informationsansprüche nutzen: Sollte der Arbeitgeber zögerlich informieren, kann der Betriebsrat aktiv Auskunft verlangen. § 80 Abs. 2 BetrVG verpflichtet den Arbeitgeber zur umfassenden Unterrichtung – das umfasst auch technische Funktionsweisen. Der Betriebsrat kann also bspw. fragen: „Welche Daten werden ins KI-System eingespeist?“, „Welchen Algorithmus nutzt es, liegen Evaluierungen vor?“. Notfalls kann man einen Sachverständigen hinzuziehen, der bei technischen Details hilft.
  • Mitbestimmung durchsetzen: Wenn der Arbeitgeber einen KI-Prozess ohne Zustimmung einführt, sollte der Betriebsrat nicht zögern, die Einigungsstelle anzurufen oder per Unterlassungsanspruch vorzugehen. Die Arbeitsgerichte haben in der Vergangenheit z.B. die Installation von Leistungskontrollsoftware gestoppt, bis eine Einigung mit dem Betriebsrat erzielt war. Der Betriebsrat kann in Eilfällen auch per einstweiliger Verfügungagieren (wie im Fall ChatGPT-Nutzung, den das ArbG Hamburg verhandelt hat). Wichtig ist, deutlich zu machen: Ohne Betriebsrat-Beteiligung kein Roll-out – diese Stärke hat das Gremium kraft Gesetzes, und sie dient letztlich dem Schutz der Belegschaft.
  • Expertenwissen aufbauen: KI ist komplex, daher sollte der Betriebsrat Schulungen besuchen (was vom Arbeitgeber zu bezahlen ist, sofern erforderlich nach § 37 Abs. 6 BetrVG). Zudem kann er gemäß § 80 Abs. 3 BetrVG in KI-Fragen praktisch immer einen externen Sachverständigen hinzuziehen – hier sollte er sein Recht nutzen. Es empfiehlt sich auch, Kontakt zu anderen Betriebsräten zu suchen, die schon KI im Betrieb haben, um Erfahrungen auszutauschen (z.B. über Gewerkschaften oder Verbände wie den Bund-Verlag & die Fachzeitschrift „Computer und Arbeit“, die ja KI-Artikel veröffentlicht).
  • Datenschutz und BR: Betriebsräte sollten eng mit dem betrieblichen Datenschutzbeauftragtenzusammenarbeiten. Beide haben ein Interesse daran, dass datenschutzkonforme Lösungen zum Einsatz kommen. Ein BR kann z.B. ein gemeinsames Audit anregen, ob der KI-Einsatz den DSGVO-Vorgaben entspricht – das stärkt die Position gegenüber dem Arbeitgeber, wenn beide an einem Strang ziehen.
  • Anlaufstelle für Kollegen: Für die Belegschaft ist der Betriebsrat die natürliche Anlaufstelle, wenn es um Sorgen bzgl. KI geht. Betriebsräte sollten die Anliegen der Mitarbeiter ernst nehmen – sei es die Angst vor Arbeitsplatzverlust durch Automatisierung oder konkrete Beschwerden wie „Ich habe das Gefühl, das neue System bewertet mich unfair“. Solche Feedbacks kann der BR sammeln und gebündelt an den Arbeitgeber herantragen. Zudem hat der Betriebsrat nach § 85 BetrVG das Recht, Beschwerden von Arbeitnehmern entgegenzunehmen und, wenn sie berechtigt erscheinen, beim Arbeitgeber auf Abhilfe zu dringen. Beispiel: Mehrere Mitarbeiter beschweren sich, die KI-Schichtplanung missachte ständig ihre Teilzeitwünsche – der BR kann das aufgreifen und Änderungen fordern.
  • Gesundheitsschutz einfordern: Falls KI-Systeme Stress oder Überforderung verursachen (z.B. ständige Leistungserfassung steigert den Druck), kann der Betriebsrat eine Gefährdungsbeurteilung nach ArbSchG anstoßen und ggf. mitbestimmen, welche Schutzmaßnahmen getroffen werden (§ 87 Abs. 1 Nr. 7 BetrVG). Er könnte etwa verlangen, dass die Nutzung eines bestimmten Tools zeitlich begrenzt wird, um Belastungen zu reduzieren, oder dass regelmäßige Pausen vorgesehen werden.
  • Zukunft mitgestalten: Zuletzt sollte der Betriebsrat die strategische Perspektive einnehmen: KI wird vermutlich mehr und mehr Arbeitsprozesse beeinflussen. Es ist Aufgabe des BR, die Interessen der Belegschaftim digitalen Wandel zu vertreten. Er kann vom Arbeitgeber Qualifizierungskonzepte fordern (§ 97 BetrVG), damit kein Mitarbeiter wegen KI den Anschluss verliert. Er kann in der Personalplanung (Information nach § 92 BetrVG) mitwirken, damit rechtzeitig auf Veränderungen reagiert wird – z.B. wenn KI bestimmte Tätigkeiten überflüssig macht, früh Gespräche über Umbildung oder Versetzung führen, statt betroffene Personen vor vollendete Tatsachen zu stellen.

Summa summarum haben Betriebsräte mächtige Hebel, um KI mitzugestalten statt erdulden zu müssen. Ihre Rolle wird in Zukunft eher wachsen, denn je mehr KI Einzug hält, desto mehr wird über arbeitswissenschaftliche Folgen, ethische Grenzen und Regelungsbedarf diskutiert werden müssen – und da ist der Betriebsrat per Gesetz derjenige, der auf eine humane Gestaltung pochen kann. Bisherige Erfahrungen zeigen tatsächlich, dass Mitbestimmung bei technologischen Umwälzungen oft dazu beiträgt, negative Szenarien zu vermeiden und die Technik zum Vorteil aller einzusetzen.

Ausblick: Entwicklung des Arbeitsrechts im digitalen Wandel

Die Arbeitswelt steht mit KI und Digitalisierung vor einem kontinuierlichen Wandel – und das Arbeitsrecht wird sich weiterentwickeln müssen, um Schritt zu halten. Schon in den letzten Jahren gab es Anpassungen (etwa das Betriebsrätemodernisierungsgesetz 2021, das explizit KI erwähnte). Doch was könnte die Zukunft bringen?

  • Spezielle gesetzliche Regelungen für KI: Möglich ist, dass der Gesetzgeber in Deutschland weitere Klarstellungen oder Ergänzungen ins Arbeitsrecht einfügt, sobald die Praxis mehr Erfahrungen liefert. Denkbar wären zum Beispiel Regelungen zur digitalen Mitbestimmung – etwa ein Initiativrecht des Betriebsrats bei Einführung bestimmter KI-Systeme, oder erweiterte Rechte auf Algorithmus-Transparenzgegenüber dem Betriebsrat. Auch könnte ein eigenständiges Beschäftigtendatenschutzgesetz entstehen (in der Diskussion, da § 26 BDSG von manchen als unzureichend angesehen wird), das spezifischer auf algorithmische Datenverarbeitung eingeht.
  • Europäische Impulse: Neben dem AI Act (der ja schon einen großen Rahmen setzt) gibt es auf EU-Ebene z.B. Überlegungen zur KI-Haftung (die KI-Haftungsrichtlinie) und Regelungen für Plattformarbeit. Gerade die Plattformarbeit-Richtlinie wird algorithmische Steuerung von (schein-)selbstständigen Fahrern oder Lieferanten regulieren – etwa Transparenzpflichten für die Funktionsweise von Vermittlungsalgorithmen und das Recht, Entscheidungen anzufechten. Diese Regeln zielen zwar auf Plattformarbeit, könnten aber als Modell für generelle Arbeitnehmerrechte bei algorithmischem Management dienen. So ist vorstellbar, dass alle Arbeitnehmer einen Anspruch auf Erklärung von KI-Entscheidungen gesetzlich verankert bekommen, ähnlich wie Plattformbeschäftigte das bekommen sollen.
  • Kollektivrechtliche Innovationen: Gewerkschaften und Betriebsratsverbände fordern teils neue Mitbestimmungsinstrumente. Eine Idee ist z.B. ein “Algorithmenaudit” als Mitbestimmungsgegenstand: Der Betriebsrat könnte ein Vetorecht bekommen, bis ein unabhängiger Audit die Nichtdiskriminierung eines Systems bestätigt. Auch könnten branchenweite Vereinbarungen getroffen werden, die Standards für KI-Einsatz setzen (Tarifverträge mit Klauseln zu KI-Ethik, ähnlich wie man Arbeitszeit-Tarifverträge hat).
  • Gerichtliche Präzedenzfälle: In den kommenden Jahren werden sicherlich Arbeitsgerichte und Datenschutzbehörden Fälle entscheiden, die uns heute noch hypothetisch erscheinen. Etwa: Ist eine Kündigung, die auf einer KI-Auswertung beruht, wirksam oder wegen Verstoß gegen DSGVO unwirksam? Muss ein Arbeitgeber Algorithmen offenlegen im Prozess (Stichwort Beweislast AGG)? Dürfen Betriebsräte vom Arbeitgeber Code-Einsicht verlangen, um Mitbestimmung auszuüben? Solche Urteile werden das Arbeitsrecht konkretisieren. So hat ja z.B. das ArbG Hamburg 2024 signalisiert, dass die Nutzung von ChatGPT ohne Überwachungsabsicht keine Mitbestimmung auslöst – das sind Orientierungspunkte, die künftige Fälle lenken.
  • KI als Betriebsrat? Ein augenzwinkernder, aber gar nicht so abwegiger Blick: Manche fragen, ob KI selbst irgendwann Träger von Rechten oder Pflichten sein kann. Etwa, könnte eine KI als „Arbeitgeber“ fungieren oder im Betriebsrat mitreden? Aktuell ist das natürlich Science-Fiction – Rechtssubjekt ist nur der Mensch bzw. juristische Personen. Aber falls KI-Systeme eines Tages Entscheidungen komplett autonom treffen, ohne zurechenbare menschliche Lenker, stünde das Recht vor Herausforderungen. Die Debatte um eine elektronische Rechtspersönlichkeit für autonome Systeme wurde in EU-Kreisen schon geführt (Stichwort E-Personhood), aber bisher abgelehnt. Es bleibt jedoch spannend, ob in fernerer Zukunft hier neue Rechtskategorien entstehen müssen.
  • Arbeitsmarkt und Qualifikation: Abseits von Paragrafen hat KI auch makro-arbeitsrechtliche Effekte: Welche Berufe verschwinden, welche entstehen? Das Arbeitsrecht wird sich an neue Berufsbilder und -formen anpassen (man denke an Prompt Engineers oder KI-Trainer, die es vor wenigen Jahren nicht gab). Weiterbildung und lebenslanges Lernen werden noch wichtiger, und eventuell muss das Arbeitsrecht hier Ansprüche auf Fortbildung stärken, damit Beschäftigte im technologischen Wandel mithalten können.
  • Menschzentrierung als Leitbild: Es zeichnet sich ab, dass trotz (oder gerade wegen) aller Technik das Leitbild einer „menschenzentrierten“ Arbeitswelt hochgehalten wird. International spricht man bei KI-Ethik von „Human-in-command“ und „Trustworthy AI“. Übersetzt aufs Arbeitsrecht bedeutet das: Gesetze und Betriebsparteien werden darauf achten, dass KI Werkzeug bleibt, nicht Ersatz für menschliche Verantwortung. Der Betriebsrat wird als Vertreter der „Human Factor“ dafür sorgen, dass der Mensch nicht zum Anhängsel der Maschine wird. Wenn KI eintönige Arbeit abnimmt, könnte das sogar Freiräume für sinnvollere Tätigkeiten und vielleicht kürzere Arbeitszeiten schaffen (im besten Fall).

Abschließend lässt sich sagen: Das Arbeitsrecht hat schon viele technische Revolutionen begleitet – von der Dampfmaschine über das Fließband bis zur Computerisierung. Jede Epoche brachte Anpassungsbedarf, aber die Grundprinzipien (Schutz der Arbeitnehmer, Ausgleich der Interessen, Mitbestimmung, Vertragstreue) blieben erstaunlich robust. Bei der Künstlichen Intelligenz wird es nicht anders sein. Durch kluge Regeln, aktive Betriebsratsarbeit und ein Bewusstsein bei allen Beteiligten können wir KI nutzen, ohne die Werte der Arbeitswelt zu opfern. Im Gegenteil: Wenn monotone oder belastende Arbeit von KI erledigt wird, kann das die Qualität der Arbeit verbessern – unter der Voraussetzung, dass die Einführung von KI sozialverträglich gestaltet wird. Genau dabei hilft ein solides rechtliches Fundament. Das deutsche Arbeitsrecht – im Zusammenspiel mit dem europäischen – ist auf dem Weg, dieses Fundament zu legen: mit aktuellen Anpassungen, neuer Regulierung wie dem EU AI Act und bewährten Mechanismen wie der Betriebsverfassung.

Die kommenden Jahre werden zeigen, wie Theorie und Praxis zusammenfinden. Klar ist aber: Künstliche Intelligenz in der Arbeitswelt ist kein vorübergehender Trend, sondern ein dauerhafter Veränderungsfaktor. Arbeitnehmer, Betriebsräte, Arbeitgeber und Gesetzgeber müssen gemeinsam lernen, damit umzugehen. Mit Wissen, Beteiligung und dem Mut, auch neue Wege zu gehen, kann es gelingen, dass KI im Dienste guter Arbeit steht – effizient und fair, innovativ und menschenwürdig. In diesem Sinne bleibt die Entwicklung des Arbeitsrechts ein spannender Prozess, den alle Interessierten aufmerksam verfolgen sollten. Denn letztlich geht es um nichts weniger als die Frage: In welcher Arbeitswelt wollen wir morgen leben?