Künstliche Intelligenz im HR-Bereich – Risiken und Compliance

Image

Welche rechtlichen Risiken birgt der Einsatz von KI im Personalwesen? Erfahren Sie, was Führungskräfte über Diskriminierung, Datenschutz und Mitbestimmung wissen müssen.

KI im HR-Bereich auf einen Blick:

Der Einsatz von Künstlicher Intelligenz im Personalwesen – von automatisiertem Recruiting über Leistungsbewertung bis zur Personalplanung – birgt erhebliche rechtliche Risiken. Diskriminierungsverbote, Datenschutz, Mitbestimmung und die neue KI-Verordnung der EU setzen enge Grenzen. Führungskräfte tragen Verantwortung für die rechtskonforme Nutzung und haften bei Verstößen. Der Mensch muss die letzte Entscheidung behalten.

Welche rechtlichen Herausforderungen birgt KI im Personalwesen?

Künstliche Intelligenz verändert das Personalwesen grundlegend. Algorithmen sichten Bewerbungen, bewerten Mitarbeiterleistungen, prognostizieren Fluktuation und schlagen Beförderungen vor. Die Versprechen sind verlockend: mehr Effizienz, bessere Entscheidungen, weniger Bias.

Die Realität ist komplexer. KI-Systeme können diskriminieren – oft unbemerkt und unbeabsichtigt. Sie können Datenschutzrechte verletzen. Sie können Mitbestimmungsrechte auslösen. Und sie können Entscheidungen treffen, die niemand mehr nachvollziehen kann.

Für Führungskräfte mit Personalverantwortung ist das Thema brisant. Sie setzen KI-Tools ein oder entscheiden über deren Einsatz. Sie tragen die Verantwortung, wenn etwas schiefgeht. Die Haftung für diskriminierende oder rechtswidrige KI-Entscheidungen liegt beim Menschen, nicht bei der Maschine.

Die rechtlichen Rahmenbedingungen sind komplex. Das Allgemeine Gleichbehandlungsgesetz (AGG), die Datenschutz-Grundverordnung (DSGVO), das Betriebsverfassungsgesetz (BetrVG) und die neue KI-Verordnung der EU (AI Act) setzen Grenzen. Wer sie nicht kennt, riskiert Bußgelder, Schadensersatzansprüche und Reputationsschäden.

Bei Fragen zum rechtmäßigen Einsatz von KI im HR-Bereich unterstützen wir Sie gerne mit unserer arbeitsrechtlichen Expertise.


KI-Anwendungen im Personalwesen

KI wird im HR-Bereich vielfältig eingesetzt: im Recruiting für Bewerberauswahl und Matching, im Personalmanagement für Leistungsbewertung und Potenzialanalyse, in der Personalplanung für Prognosen und Ressourcensteuerung. Jede Anwendung hat spezifische rechtliche Implikationen.

Recruiting und Bewerberauswahl

Im Recruiting ist KI besonders verbreitet. Systeme sichten Lebensläufe, analysieren Bewerbungsschreiben, führen automatisierte Videointerviews und erstellen Rankings der Kandidaten.

Die Versprechen sind attraktiv: schnellere Bearbeitung großer Bewerberzahlen, konsistentere Bewertungen, Erkennung von Talenten, die menschliche Recruiter übersehen würden.

Die Risiken sind erheblich: versteckte Diskriminierung durch verzerrte Trainingsdaten, intransparente Entscheidungskriterien, Verlust der menschlichen Einschätzung, Datenschutzverstöße bei der Analyse persönlicher Merkmale.

Leistungsbewertung und Potenzialanalyse

KI-Systeme können Mitarbeiterleistung bewerten – anhand von Kennzahlen, Verhaltensmustern oder Kommunikationsanalysen. Sie können Potenzial einschätzen und Entwicklungsbedarfe identifizieren.

Die Anwendungen reichen von der Auswertung objektiver Leistungsdaten bis zur Analyse von E-Mail-Kommunikation oder Kalendernutzung. Je tiefer die Analyse, desto größer die rechtlichen Bedenken.

Besonders kritisch sind Systeme, die Verhalten überwachen oder emotionale Zustände erkennen wollen. Sie greifen tief in die Persönlichkeitsrechte ein und sind nach der KI-Verordnung teilweise verboten.

Personalplanung und Prognosen

KI kann Personalbedarfe prognostizieren, Fluktuationsrisiken einschätzen und Ressourcen optimieren. Sie kann vorhersagen, welche Mitarbeiter kündigen werden oder welche Qualifikationen künftig benötigt werden.

Diese Anwendungen sind weniger problematisch, solange sie auf aggregierten Daten beruhen und keine individuellen Entscheidungen auslösen.

Kritisch wird es, wenn individuelle Prognosen zu Personalentscheidungen führen – etwa wenn das System vorhersagt, dass ein Mitarbeiter bald kündigen wird, und daraufhin dessen Beförderung blockiert wird.

Diskriminierungsrisiken beim Einsatz von KI

KI-Systeme können diskriminieren – oft unbeabsichtigt durch verzerrte Trainingsdaten oder problematische Korrelationen. Das AGG verbietet Diskriminierung unabhängig davon, ob ein Mensch oder eine Maschine entscheidet. Der Arbeitgeber haftet für diskriminierende KI-Entscheidungen.

Algorithmische Diskriminierung

Algorithmen sind nicht neutral. Sie lernen aus historischen Daten – und wenn diese Daten Diskriminierung enthalten, reproduziert der Algorithmus sie.

Das berühmteste Beispiel ist das Amazon-Recruiting-Tool, das Frauen systematisch benachteiligte. Es hatte aus historischen Einstellungsentscheidungen gelernt, in denen Männer bevorzugt wurden – und machte diese Bevorzugung zur Regel.

Auch scheinbar neutrale Kriterien können diskriminieren. Ein Algorithmus, der „kulturelle Passung“ bewertet, kann faktisch nach Herkunft selektieren. Ein System, das Lücken im Lebenslauf negativ bewertet, kann Frauen mit Kindererziehungszeiten benachteiligen.

Rechtliche Einordnung nach dem AGG

Das Allgemeine Gleichbehandlungsgesetz verbietet Diskriminierung wegen Rasse, ethnischer Herkunft, Geschlecht, Religion, Behinderung, Alter oder sexueller Identität. Das gilt für alle Personalentscheidungen – auch wenn sie von KI vorbereitet oder getroffen werden.

Entscheidend ist die Wirkung, nicht die Absicht. Auch unbeabsichtigte Diskriminierung ist verboten. Dass der Algorithmus „neutral“ programmiert wurde, hilft nicht, wenn das Ergebnis diskriminierend ist.

Die Beweislast kann sich umkehren. Wenn ein Bewerber Tatsachen vorbringt, die eine Diskriminierung vermuten lassen, muss der Arbeitgeber beweisen, dass keine Diskriminierung vorlag. Bei intransparenten KI-Systemen kann das schwierig werden.

Haftung des Arbeitgebers

Der Arbeitgeber haftet für diskriminierende KI-Entscheidungen. Er kann sich nicht darauf berufen, dass der Algorithmus die Entscheidung getroffen hat. Die Verantwortung liegt beim Menschen.

Schadensersatzansprüche nach dem AGG können erheblich sein. Neben dem materiellen Schaden ist auch eine angemessene Entschädigung für immaterielle Schäden zu zahlen – typischerweise mehrere Monatsgehälter.

Auch Reputationsschäden sind nicht zu unterschätzen. Berichte über diskriminierende KI-Systeme können das Arbeitgeberimage nachhaltig beschädigen.

Datenschutzrechtliche Anforderungen beim Einsatz von Ki im HR

Die DSGVO setzt dem Einsatz von KI im HR-Bereich enge Grenzen. Die Verarbeitung personenbezogener Daten braucht eine Rechtsgrundlage. Automatisierte Einzelentscheidungen sind nur eingeschränkt zulässig. Betroffene haben Auskunfts- und Widerspruchsrechte.

Rechtsgrundlagen der Datenverarbeitung

Jede Verarbeitung personenbezogener Daten braucht eine Rechtsgrundlage. Für die Verarbeitung von Beschäftigtendaten kommt primär § 26 BDSG in Betracht – die Verarbeitung muss für die Durchführung des Beschäftigungsverhältnisses erforderlich sein.

Die Einwilligung der Beschäftigten ist problematisch. Im Arbeitsverhältnis besteht ein Ungleichgewicht, das die Freiwilligkeit der Einwilligung fraglich macht. Sie sollte nicht die einzige Rechtsgrundlage sein.

Je umfangreicher und tiefgreifender die Datenverarbeitung, desto schwieriger ist die Rechtfertigung. Die Analyse von E-Mails, Verhaltensmustern oder biometrischen Daten ist besonders kritisch.

Automatisierte Einzelentscheidungen

Artikel 22 DSGVO beschränkt automatisierte Einzelentscheidungen, die rechtliche Wirkung entfalten oder erheblich beeinträchtigen. Betroffene haben das Recht, nicht einer ausschließlich auf automatisierter Verarbeitung beruhenden Entscheidung unterworfen zu werden.

Das bedeutet: Rein automatisierte Entscheidungen über Einstellung, Beförderung oder Kündigung sind grundsätzlich unzulässig. Ein Mensch muss die Entscheidung treffen – nicht nur formal absegnen.

Ausnahmen bestehen bei Einwilligung oder wenn die Entscheidung für einen Vertrag erforderlich ist. Aber auch dann müssen angemessene Maßnahmen zum Schutz der Rechte getroffen werden – insbesondere das Recht auf menschliche Intervention.

Transparenz und Auskunftsrechte

Betroffene haben ein Recht auf Auskunft über die Verarbeitung ihrer Daten. Bei automatisierten Entscheidungen müssen sie über die involvierte Logik und die Tragweite informiert werden.

Das ist bei komplexen KI-Systemen – insbesondere Deep Learning – eine Herausforderung. Die „involvierte Logik“ ist oft nicht in einfachen Worten erklärbar.

Dennoch müssen Arbeitgeber erklären können, wie das System funktioniert, welche Daten es verwendet und welche Kriterien die Entscheidung beeinflussen. Vollständige Intransparenz ist nicht akzeptabel.

Die KI-Verordnung der EU (AI Act)

Die KI-Verordnung der EU klassifiziert KI-Systeme nach Risiko. HR-Anwendungen gelten als Hochrisiko-Systeme mit strengen Anforderungen. Bestimmte Praktiken – wie Emotionserkennung am Arbeitsplatz – sind verboten. Die Verordnung gilt ab 2025/2026.

Risikobasierter Ansatz

Die KI-Verordnung folgt einem risikobasierten Ansatz. Sie unterscheidet zwischen verbotenen Praktiken, Hochrisiko-Systemen, begrenztem Risiko und minimalem Risiko.

Je höher das Risiko, desto strenger die Anforderungen. Hochrisiko-Systeme unterliegen umfangreichen Pflichten – Risikomanagement, Datenqualität, Dokumentation, Transparenz, menschliche Aufsicht.

Die Klassifizierung ist entscheidend für die rechtlichen Pflichten. Ein System, das als Hochrisiko eingestuft wird, muss erheblich höhere Anforderungen erfüllen als eines mit begrenztem Risiko.

HR-Anwendungen als Hochrisiko

KI-Systeme für Beschäftigung, Personalmanagement und Zugang zur Selbstständigkeit sind ausdrücklich als Hochrisiko klassifiziert. Das umfasst: Systeme für Rekrutierung und Bewerberauswahl, Systeme für Entscheidungen über Beförderung, Kündigung, Aufgabenzuweisung und Leistungsüberwachung.

Für diese Systeme gelten strenge Anforderungen: Risikomanagement über den gesamten Lebenszyklus, hohe Datenqualität und Repräsentativität, umfassende technische Dokumentation, Transparenz gegenüber Nutzern, menschliche Aufsicht und Eingriffsmöglichkeiten, Genauigkeit, Robustheit und Cybersicherheit.

Anbieter und Betreiber haben unterschiedliche Pflichten. Arbeitgeber, die Hochrisiko-KI einsetzen, müssen die Systeme gemäß Gebrauchsanweisung verwenden, menschliche Aufsicht sicherstellen und Vorfälle melden.

Verbotene Praktiken

Bestimmte KI-Praktiken sind ganz verboten. Für den HR-Bereich relevant sind insbesondere: Systeme zur Emotionserkennung am Arbeitsplatz – mit Ausnahme für Sicherheitszwecke, Systeme zur biometrischen Kategorisierung nach sensiblen Merkmalen, Systeme zur sozialen Bewertung von Personen.

Ein KI-System, das die emotionalen Zustände von Mitarbeitern analysiert – etwa aus Gesichtsausdrücken oder Stimme –, ist am Arbeitsplatz grundsätzlich verboten.

Die Verbote gelten ab Februar 2025. Unternehmen müssen prüfen, ob sie solche Systeme einsetzen, und sie gegebenenfalls abschalten.

Mitbestimmung des Betriebsrats

Der Einsatz von KI im HR-Bereich unterliegt umfangreichen Mitbestimmungsrechten des Betriebsrats. Bei technischen Einrichtungen zur Überwachung, bei Auswahlrichtlinien und bei Personalfragebögen ist der Betriebsrat zu beteiligen. Die Nichtbeteiligung kann zur Unwirksamkeit führen.

Technische Überwachungseinrichtungen

Nach § 87 Abs. 1 Nr. 6 BetrVG hat der Betriebsrat ein Mitbestimmungsrecht bei technischen Einrichtungen, die dazu bestimmt sind, das Verhalten oder die Leistung der Arbeitnehmer zu überwachen.

KI-Systeme, die Mitarbeiter bewerten, analysieren oder überwachen, lösen dieses Mitbestimmungsrecht aus. Es kommt nicht darauf an, ob die Überwachung bezweckt ist – die objektive Eignung genügt.

Die Mitbestimmung umfasst das „Ob“ und das „Wie“ des Einsatzes. Der Betriebsrat kann verlangen, dass bestimmte Funktionen deaktiviert werden oder nur unter bestimmten Bedingungen genutzt werden dürfen.

Auswahlrichtlinien

Bei Richtlinien über die personelle Auswahl bei Einstellungen, Versetzungen, Umgruppierungen und Kündigungen hat der Betriebsrat nach § 95 BetrVG mitzubestimmen.

Ein KI-System, das Auswahlkriterien anwendet oder Empfehlungen für Personalentscheidungen gibt, stellt eine Auswahlrichtlinie dar. Der Betriebsrat muss beteiligt werden.

Die Mitbestimmung erstreckt sich auf die Kriterien und ihre Gewichtung. Der Betriebsrat kann prüfen, ob die Kriterien sachgerecht und nicht diskriminierend sind.

Personalfragebögen

Bei Personalfragebögen hat der Betriebsrat nach § 94 BetrVG mitzubestimmen. Das gilt auch für automatisierte Befragungen oder Datenerhebungen.

Wenn ein KI-System Daten von Bewerbern oder Mitarbeitern erhebt – etwa durch Fragebögen, Analysen oder Tests –, ist der Betriebsrat zu beteiligen.

Der Betriebsrat kann unzulässige Fragen streichen lassen. Er kann auch auf Transparenz über die Verwendung der erhobenen Daten drängen.

Haftung und Verantwortung

Die Haftung für KI-Entscheidungen liegt beim Menschen, nicht bei der Maschine. Führungskräfte tragen Verantwortung für die Auswahl, den Einsatz und die Überwachung von KI-Systemen. Bei Verstößen drohen Schadensersatz, Bußgelder und arbeitsrechtliche Konsequenzen.

Grundsatz: Mensch haftet für Maschine

KI-Systeme sind keine Rechtspersönlichkeiten. Sie können nicht haften. Die Verantwortung liegt immer beim Menschen – dem Entwickler, dem Anbieter, dem Betreiber, dem Nutzer.

Im HR-Kontext haftet der Arbeitgeber für Entscheidungen, die mit Hilfe von KI getroffen werden. Er kann sich nicht darauf berufen, dass der Algorithmus die Entscheidung getroffen hat.

Innerhalb des Unternehmens kann die Verantwortung bei Führungskräften liegen – bei der Geschäftsleitung für die Entscheidung über den KI-Einsatz, bei HR-Verantwortlichen für die konkrete Anwendung.

Sorgfaltspflichten bei der KI-Auswahl

Wer KI-Systeme auswählt und einsetzt, muss Sorgfaltspflichten beachten. Das umfasst: Prüfung der Rechtmäßigkeit des Systems, Verständnis der Funktionsweise und Risiken, Einholung notwendiger Zustimmungen (Betriebsrat, Datenschutzbeauftragter), Schulung der Anwender, laufende Überwachung der Ergebnisse.

Die „Black Box“ ist keine Entschuldigung. Wer ein System einsetzt, dessen Funktionsweise er nicht versteht, handelt fahrlässig. Führungskräfte müssen verstehen, wie die von ihnen eingesetzten Tools funktionieren.

Bei der Auswahl sollte auf die Compliance des Anbieters geachtet werden. Zertifizierungen, Dokumentation und vertragliche Zusicherungen können helfen, aber sie ersetzen nicht die eigene Prüfung.

Sanktionen bei Verstößen

Verstöße gegen Datenschutz, Diskriminierungsverbote oder die KI-Verordnung können erhebliche Sanktionen nach sich ziehen.

DSGVO-Verstöße können mit Bußgeldern bis zu 20 Millionen Euro oder 4 Prozent des weltweiten Jahresumsatzes geahndet werden. Diskriminierungsansprüche nach dem AGG umfassen Schadensersatz und Entschädigung.

Die KI-Verordnung sieht Bußgelder bis zu 35 Millionen Euro oder 7 Prozent des weltweiten Jahresumsatzes vor – bei verbotenen Praktiken. Für Verstöße gegen Anforderungen an Hochrisiko-Systeme gelten geringere, aber immer noch erhebliche Bußgeldrahmen.

Praktische Empfehlungen für Führungskräfte

Der rechtskonforme Einsatz von KI im HR-Bereich erfordert ein strukturiertes Vorgehen. Führungskräfte sollten die eingesetzten Systeme verstehen, Risiken analysieren, Compliance sicherstellen und menschliche Kontrolle behalten.

Due Diligence vor dem Einsatz

Vor dem Einsatz eines KI-Systems sollte eine sorgfältige Prüfung erfolgen. Was macht das System genau? Welche Daten verwendet es? Wie trifft es Entscheidungen?

Die rechtliche Zulässigkeit muss geprüft werden: Gibt es eine Rechtsgrundlage für die Datenverarbeitung? Ist das System mit dem AGG vereinbar? Welche Mitbestimmungsrechte bestehen?

Auch die Qualität des Systems sollte bewertet werden: Wie gut sind die Ergebnisse? Gibt es Hinweise auf Bias? Wie transparent ist die Entscheidungsfindung?

Menschliche Kontrolle sicherstellen

Der Mensch muss die letzte Entscheidung behalten. KI kann unterstützen, vorbereiten, vorschlagen – aber nicht allein entscheiden.

Die menschliche Kontrolle muss real sein, nicht nur formal. Wer jeden Vorschlag des Systems blind übernimmt, erfüllt die Anforderung nicht.

Es sollten Prozesse etabliert werden, die sicherstellen, dass KI-Empfehlungen kritisch geprüft werden. Regelmäßige Stichprobenkontrollen und Feedback-Schleifen helfen.

Dokumentation und Monitoring

Der Einsatz von KI-Systemen sollte dokumentiert werden: Welche Systeme werden eingesetzt? Für welche Zwecke? Wie funktionieren sie? Welche Prüfungen wurden durchgeführt?

Die Ergebnisse sollten laufend überwacht werden. Gibt es Anzeichen für Diskriminierung? Sind die Entscheidungen nachvollziehbar? Gibt es Beschwerden?

Regelmäßige Audits – intern oder extern – können helfen, Probleme frühzeitig zu erkennen. Die KI-Verordnung verlangt für Hochrisiko-Systeme ohnehin ein Risikomanagement über den gesamten Lebenszyklus.


Häufig gestellte Fragen zu KI im HR-Bereich

1. Darf ich KI zur Bewerberauswahl einsetzen?

Grundsätzlich ja, aber mit erheblichen Einschränkungen. Das System muss diskriminierungsfrei sein, datenschutzkonform betrieben werden und darf keine rein automatisierten Entscheidungen treffen. Der Betriebsrat ist zu beteiligen. Nach der KI-Verordnung handelt es sich um ein Hochrisiko-System mit strengen Anforderungen. Die Bewerberauswahl unterliegt dem AGG – Diskriminierung ist verboten. Die DSGVO verlangt eine Rechtsgrundlage für die Datenverarbeitung und schränkt automatisierte Entscheidungen ein. Die KI-Verordnung klassifiziert Recruiting-KI als Hochrisiko. Der Betriebsrat hat Mitbestimmungsrechte nach § 94 und § 95 BetrVG.

Fallbeispiel 1: Ein Unternehmen setzt ein KI-System ein, das Lebensläufe sichtet und die besten Kandidaten vorschlägt. Das HR-Team prüft die Vorschläge, führt Gespräche und trifft die finale Entscheidung. Der Betriebsrat wurde beteiligt, das System wurde auf Diskriminierungsfreiheit geprüft. Der Einsatz ist rechtmäßig.

Fallbeispiel 2: Ein Unternehmen nutzt ein KI-System, das Bewerbungen automatisch ablehnt, wenn sie bestimmte Kriterien nicht erfüllen. Ein Bewerber erhält eine automatisierte Absage. Er klagt und macht Diskriminierung geltend. Das Unternehmen kann nicht erklären, welche Kriterien zur Ablehnung führten. Es haftet.

Fazit: KI in der Bewerberauswahl ist zulässig, aber anspruchsvoll. Prüfen Sie das System sorgfältig, behalten Sie die menschliche Entscheidung und dokumentieren Sie alles.


2. Haftet mein Unternehmen, wenn das KI-System diskriminiert?

Ja, uneingeschränkt. Das AGG verbietet Diskriminierung unabhängig davon, ob ein Mensch oder eine Maschine entscheidet. Der Arbeitgeber kann sich nicht darauf berufen, dass der Algorithmus „neutral“ ist oder die Diskriminierung nicht beabsichtigt war. Nach § 15 AGG haftet der Arbeitgeber auf Schadensersatz und Entschädigung bei Verstößen gegen das Diskriminierungsverbot. Die Beweislast kann sich umkehren – der Arbeitgeber muss dann nachweisen, dass keine Diskriminierung vorlag. Bei intransparenten KI-Systemen kann das schwierig bis unmöglich sein.

Fallbeispiel 1: Ein KI-System bewertet Bewerber und bevorzugt systematisch Männer. Eine abgelehnte Bewerberin klagt. Sie legt Statistiken vor, die die Ungleichbehandlung zeigen. Das Unternehmen kann die Entscheidungskriterien nicht erklären. Es wird zu Schadensersatz und Entschädigung verurteilt.

Fallbeispiel 2: Ein Unternehmen hat sein KI-System vor dem Einsatz auf Diskriminierungsfreiheit getestet und regelmäßig auditiert. Als ein Bewerber Diskriminierung behauptet, kann das Unternehmen nachweisen, dass keine systematische Benachteiligung vorliegt. Die Klage wird abgewiesen.

Fazit: Die Haftung ist unvermeidlich – nur die Risikovorsorge ist gestaltbar. Testen Sie KI-Systeme auf Bias, überwachen Sie die Ergebnisse und dokumentieren Sie Ihre Sorgfalt.


3. Muss ich den Betriebsrat beim Einsatz von HR-KI beteiligen?

In der Regel ja. KI-Systeme im HR-Bereich lösen typischerweise Mitbestimmungsrechte aus – nach § 87 Abs. 1 Nr. 6 BetrVG (technische Überwachung), § 94 BetrVG (Personalfragebögen) und § 95 BetrVG (Auswahlrichtlinien). Die Nichtbeteiligung kann zur Unwirksamkeit führen. Das Mitbestimmungsrecht nach § 87 Abs. 1 Nr. 6 BetrVG greift, wenn ein System zur Überwachung von Verhalten oder Leistung geeignet ist – unabhängig von der Absicht. KI-Systeme, die Mitarbeiter analysieren oder bewerten, erfüllen diese Voraussetzung regelmäßig. Die Mitbestimmung umfasst das „Ob“ und das „Wie“.

Fallbeispiel 1: Ein Unternehmen will ein KI-gestütztes Performance-Management einführen. Es informiert den Betriebsrat, verhandelt eine Betriebsvereinbarung über Einsatzzweck, Datenverwendung und Auswertungen. Die Einführung erfolgt rechtmäßig.

Fallbeispiel 2: Ein Unternehmen führt ohne Beteiligung des Betriebsrats ein KI-Recruiting-Tool ein. Der Betriebsrat erfährt davon und verlangt Unterlassung. Das Arbeitsgericht gibt ihm recht. Das System muss abgeschaltet werden, bis eine Einigung erzielt wird.

Fazit: Beteiligen Sie den Betriebsrat frühzeitig. Die Mitbestimmung ist umfassend. Ein Verstoß kann den gesamten KI-Einsatz blockieren.


4. Was ändert sich durch die KI-Verordnung der EU?

Die KI-Verordnung bringt erhebliche Änderungen. HR-Anwendungen werden als Hochrisiko klassifiziert und unterliegen strengen Anforderungen – Risikomanagement, Dokumentation, Transparenz, menschliche Aufsicht. Bestimmte Praktiken wie Emotionserkennung am Arbeitsplatz werden verboten. Die KI-Verordnung ist seit August 2024 in Kraft. Die Verbote gelten ab Februar 2025, die Anforderungen an Hochrisiko-Systeme ab August 2026. Arbeitgeber müssen prüfen, ob ihre KI-Systeme betroffen sind, und die Anforderungen rechtzeitig umsetzen.

Fallbeispiel 1: Ein Unternehmen nutzt ein KI-System, das Bewerbervideos analysiert und dabei Emotionen und Persönlichkeitsmerkmale aus Mimik und Stimme erkennt. Nach Inkrafttreten der Verbote muss das System abgeschaltet werden – Emotionserkennung am Arbeitsplatz ist verboten.

Fallbeispiel 2: Ein Unternehmen setzt ein Hochrisiko-KI-System für die Bewerberauswahl ein. Es muss umfangreiche Dokumentation führen, ein Risikomanagementsystem etablieren, Transparenz gegenüber Bewerbern sicherstellen und menschliche Aufsicht gewährleisten. Die Compliance erfordert erheblichen Aufwand.

Fazit: Die KI-Verordnung verschärft die Anforderungen erheblich. Prüfen Sie Ihre Systeme, planen Sie die Umsetzung und beachten Sie die Fristen.


5. Wie stelle ich sicher, dass mein KI-Einsatz rechtskonform ist?

Rechtskonformität erfordert ein strukturiertes Vorgehen: Bestandsaufnahme der eingesetzten Systeme, rechtliche Prüfung nach AGG, DSGVO und KI-Verordnung, Beteiligung von Betriebsrat und Datenschutzbeauftragtem, Sicherstellung menschlicher Kontrolle, laufende Überwachung und Dokumentation. Die rechtlichen Anforderungen sind vielschichtig – Diskriminierungsrecht, Datenschutz, Mitbestimmung, KI-Regulierung. Alle müssen gleichzeitig erfüllt werden. Ein Verstoß gegen eine Anforderung kann den gesamten KI-Einsatz rechtswidrig machen.

Fallbeispiel 1: Ein Unternehmen führt ein KI-Governance-Programm ein. Alle KI-Systeme werden inventarisiert, rechtlich bewertet und klassifiziert. Für Hochrisiko-Systeme werden zusätzliche Kontrollen etabliert. Der Betriebsrat und der Datenschutzbeauftragte sind eingebunden. Regelmäßige Audits prüfen die Einhaltung.

Fallbeispiel 2: Ein Unternehmen lässt Fachabteilungen selbst über den KI-Einsatz entscheiden. Es gibt keine zentrale Übersicht, keine rechtliche Prüfung, keine Dokumentation. Bei einer Datenschutzprüfung werden mehrere Verstöße festgestellt. Ein hohes Bußgeld wird verhängt.

Fazit: Rechtskonformität erfordert Governance. Etablieren Sie klare Prozesse für die Prüfung und Genehmigung von KI-Systemen. Dokumentieren Sie sorgfältig. Überwachen Sie laufend.


KI im HR – In einem Absatz

Der Einsatz von Künstlicher Intelligenz im HR-Bereich bietet Chancen, aber auch erhebliche rechtliche Risiken. Diskriminierung, Datenschutzverstöße und Mitbestimmungskonflikte können zu Haftung, Bußgeldern und Reputationsschäden führen. Die KI-Verordnung verschärft die Anforderungen weiter.

Führungskräfte tragen die Verantwortung für den rechtmäßigen Einsatz. Sie müssen die Systeme verstehen, Risiken analysieren und Compliance sicherstellen. Der Mensch muss die letzte Entscheidung behalten – das ist nicht nur rechtliche Anforderung, sondern auch ethisches Gebot.

 

Sie benötigen weiteren rechtlichen Rat?

Nutzen Sie unsere Online-Anfrage für einen schnellen Check.

Die Schilderung Ihres Problems und eine kurze Ersteinschätzung sind kostenlos, wenn Sie gekündigt wurden oder einen Aufhebungsvertrag erhalten haben.

Für alle anderen Anliegen können Sie gerne eine kostenpflichtige Erstberatung in Anspruch nehmen.

Jetzt beraten lassen

Kanzleibewertung

Erfahrungen & Bewertungen zu Pöppel Rechtsanwälte