open search
close
Antidiskriminierung Arbeitsrecht 4.0 Datenschutz Einstellung ESG

Recruiting 4.0: Datenschutzrisiko und Diskriminierungsfalle?

Print Friendly, PDF & Email
Recruiting

Eine der schon jetzt greifbarsten Ausprägungen der Arbeitswelt 4.0 ist der Einsatz von softwaregestütztem Recruiting. Die Versprechen der diversen Hersteller am Markt sind verlockend: Bewerberidentifikation ohne lange Suche trotz vielerorts „umkämpfter“ Bewerber. Eine Einstellung ohne lästige Vorselektion und Bewerbungsgespräche, statt dessen ein Algorithmus, der neutral und unvoreingenommen entscheidet. Kann so nicht nur Arbeit gespart werden, sondern gleichzeitig das Risiko diskriminierender Entscheidungen reduziert werden? Grund genug, sich mit den Grenzen des Einsatzes solcher Software nach deutschem Arbeitsrecht zu beschäftigen.

Algorithmenbasiertes Recruiting in den Medien

Das Thema „Recruiting mit Hilfe künstlicher Intelligenz“ ist en vogue wie nie. Die Entwicklung bleibt dabei nicht etwa bei bloßem softwaregestütztem Active Sourcing stehen, das berufliche soziale Netzwerke durchforstet und geeignete Kandidaten identifiziert.

Vielmehr prüfen derzeit etwa diverse an der Wall Street vertretene Großbanken, ihre Recruitingprozesse insgesamt durch künstliche Intelligenz zu verbessern. Zentraler Ansatz hierbei ist, durch Auswertung der vorhandenen Daten die Kosten durch die Einstellung unpassender Arbeitnehmer zu senken und generell ein besseres „Matching“ der Kandidaten auf die Stellen sicherzustellen.

Auch in den deutschen Medien findet das Thema in jüngerer Zeit Beachtung. SAP etwa bewirbt nunmehr eine Software, die ausdrücklich (auch) dazu gedacht ist, Diskriminierungsfälle auszuschließen oder jedenfalls vermeiden zu helfen.

Grenzen des „automatisierten“ Recruitings

Ein „vollautomatisiertes“ Recruiting wäre in Deutschland nicht nur kulturell vollkommen unüblich, sondern auch rechtlich unzulässig. Datenschutzrechtliche Vorgaben verbieten dem Arbeitgeber, sofern er nicht ausdrücklich auf Ausnahmetatbestände zurückgreifen kann, automatisierte Einzelentscheidungen mit rechtlich nachteiligen Folgen, wie etwa die Ablehnung geeigneter, aber letztendlich nicht ausgewählter Kandidaten.

Darüber hinaus birgt der Einsatz von softwarebasiertem Recruiting das Risiko, dass – dem Arbeitgeber unbekannte – Vorurteile und Wertungen des jeweiligen Programmierers in die automatisierte Auswahl Eingang gefunden haben. Die vermeintlich neutrale und objektive Auswahl behandelt dann in Wirklichkeit statistisch nachweisbar ungleich. Auch verhindert softwarebasiertes Recruiting nicht, dass in der „realen“ Welt existierende Fehlbewertungen von Kriterien (z.B. zu hohe Fixierung auf Abschlussnoten o.Ä.) ausgemerzt würden.

Bei aller Euphorie für Digitalisierung und „Arbeitswelt 4.0“ sollte daher in jedem Fall unter der geltenden Rechtslage eine „analoge“ Endkontrolle und Letztentscheidung durch einen Menschen erfolgen, um etwaige Verwerfungen zu vermeiden.


Datenschutz: Verbot automatisierter Einzelentscheidungen

Das BDSG sieht (in seiner jetzigen Fassung) ein Verbot automatisierter Einzelentscheidungen vor (§ 6a Abs. 1 BDSG). Dieses greift unter den folgenden Voraussetzungen:

  • es wird eine Entscheidung getroffen, die für den Betroffenen rechtliche Konsequenzen hat oder ihn sonstwie erheblich beeinträchtigt,
  • die Entscheidung wird rein auf eine automatisierte Verarbeitung gestützt, und
  • die Entscheidung dient der Bewertung einzelner Persönlichkeitsmerkmale.

Was geht, was nicht?

Für ein voll- oder teilautomatisiertes (durch Software unterstütztes) Recruiting bedeutet dies:

Ein Algorithmus darf alleine keine Entscheidung über die Einstellung und Ablehnung eines von mehreren gleich geeigneten Kandidaten treffen. Diese Entscheidung muss immer final bei einem Menschen verbleiben, und zwar unabhängig davon, wie groß der Bewerberkreis tatsächlich ist.

Beispiel: Ein onlinebasiertes Recruitingtool „bepunktet“ Kandidaten automatisch anhand der von ihnen getätigten Eingaben, gewichtet nach einem vordefinierten Schema und lehnt Kandidaten ab, die zwar für die Stelle geeignet sind, am Ende aber nicht zur Einstellung ausgewählt wurden.

Zulässig wird es hingegen sein, wenn eine Software „vorfiltert“ und beispielsweise Kandidaten ablehnt, die (z.B. wegen der Nichterfüllung bestimmter Anforderungen an die Stelle wie fehlendem Führerschein, fehlender universitärer Ausbildung, fehlender Fremdsprachenqualifikation) aus formalen Gründen nicht in Betracht kommen.

Auch die Einteilung des Pools geeigneter Kandidaten in einen Kreis vorrangig interessanter Kandidaten sowie einen „Backup“-Kreis dürfte datenschutzrechtlich noch keinen Bedenken begegnen, solange diese Voraufteilung dem entscheidungsbefugten Personaler nur als Vorschlag unterbreitet wird.

Problematisch dürfte nur sein, wenn dieser aufgrund programmtechnischer Vorgaben die „weniger interessanten“ Kandidaten gar nicht erst zu Gesicht bekommen (kann) – für den Endbenutzer nur schwer durchschaubar.

Häufig werten eingesetzte Algorithmen auch die Angaben in öffentlichen Profilen in sozialen Netzwerken aus, um geeignete Kandidaten zu finden. Das ist an sich möglich; rechtlich diffizil wird es jedoch, wenn der Algorithmus aus diesen Angaben auf Persönlichkeitseigenschaften rückschließt, die dann der automatisierten (Vor-) Auswahl zugrundegelegt werden.

Ausnahmen und Einwilligung

Ausnahmen von § 6a BDSG gelten insbesondere, wenn nach § 6a Abs. 2 Nr. 2 BDSG die Wahrung der berechtigten Interessen des Betroffenen durch geeignete Maßnahmen gewährleistet ist. Weiter muss die verantwortliche Stelle dem Betroffenen die Tatsache „automatisierte Einzelentscheidung“ mitteilen und ihm auf Verlangen die wesentlichen Gründe dieser Entscheidung mitteilen und erläutern. Ein derzeit wenig wahrscheinlicher Fall, läuft dieser doch zumindest derzeit der gelebten (und durch das AGG geprägten) Praxis diametral zuwider, zur Vermeidung rechtlicher Risiken keine detaillierten Auskünfte zu erteilen.

Praktisch betrachtet mag eine Einwilligung des Betroffenen zwar helfen; sie eliminiert aber nicht das rechtliche Risiko des Auskunftsanspruches bzw. der (bei Nichterteilung der Auskunft) unzulässigen Datenverarbeitung.

Nachdem die Anforderungen an eine wirksame Einwilligung eines Arbeitnehmers (Bewerbers) in der kommenden EU-Datenschutzgrundverordnung nicht gerade abgesenkt worden sind, dürfte auch in Zukunft hier weiterer Diskussionsbedarf bestehen. Dies gilt unabhängig davon, ob es dazu noch eine deutsche Umsetzungsgesetzgebung geben wird. Derzeit kann das durchaus angezweifelt werden [zum aktuellen Stand der Gesetzgebung siehe der aktuelle Entwurf via netzpolitik.org].

Algorithmen als Ausweg aus der Diskriminierungsfalle?

Traum eines jeden mit Einstellungsprozessen betrauten Personalers ist es, zu vermeiden, dass während des Einstellungsprozesses Anknüpfungspunkte für eine mögliche Diskriminierung gesetzt werden.

Gleichzeitig kann man von einem Trauma sprechen: Die Anforderungen der Rechtsprechung an die Dokumentation eines solchen Prozesses sind enorm hoch, will man sich gegen „AGG-Hopper“ & Co. wappnen. Das bindet Unmengen an Ressourcen. Algorithmen versprechen demgegenüber, die persönlichen „Vorlieben“ und Vorurteile der handelnden Personen auszublenden und objektiv und neutral zu entscheiden. Eine sichere Burg also?

Auch das ist ein Trugschluss: Empirische Befunde zeigen, dass häufig genug menschliche Bewertungen (und damit auch mögliche Vorurteile) der Programmierer der jeweiligen Algorithmen Eingang in die Auswahlkriterien finden. Einige häufig zitierte Beispiele zeigen etwa, dass bestimmte Stellenanzeigen von Google statistisch häufiger Männern als Frauen angezeigt wurden, weil der Algorithmus dies so vorsah. Anderswo förderte eine Internetsuche nach dem Wort „C.E.O.“ nur zu 11 % Bilder von Frauen zutage, obgleich statistisch 27 % der CEOs in Amerika weiblich waren. (Tatsächlich wurde aber unter Anderem das Bild einer Barbiepuppe angezeigt. Ein Zufall?) Was „in einem Algorithmus steckt“, ist zumeist nicht von vorneherein ersichtlich.

Auch können Algorithmen, die eine bestehende Einstellungspraxis auswerten und zur Grundlage nehmen, bestehende Ungleichgewichte perpetuieren. Wenn etwa statistisch gesehen bestimmte Bewerbergruppen im Unternehmen überrepräsentiert sind, kann eine Software hieraus eine Art Best Practice ableiten und diese Handhabung fortsetzen, wenn dem nicht programmseitig vorgebeugt wird.

Es empfiehlt sich also, bei der Auswahl technischer Hilfsmittel auch im Recruiting großes Augenmerkt darauf zu legen, was die Software eigentlich zu leisten imstande ist.

„Weiche“ Kriterien (auch) als rechtlicher Schutzsschild

Bei aller Entwicklung sind Algorithmen noch nicht in der Lage , Kriterien wie Sozialkompetenz und Teamfähigkeit zu bewerten, sondern diese nur aufgrund mehr oder weniger guter Herleitungen zu prognostizieren.Diese „weichen“ Kriterien aber sind es gerade, die dem Arbeitgeber ermöglichen, auch jenseits von harten Fähigkeiten den/die am besten passenden Kandidaten oder Kandidatin auszuwählen.

Sie ermöglichen – nach geltender Rechtslage – auch einigermaßen rechtssichere Ablehnungsentscheidungen. Und sie sind es auch, die ein „Durchschlagen“ von algorithmenbasierter Diskriminierung verhindern, wenn und weil sich HR von dem Bewerber immer noch einen persönlichen Eindruck verschaffen und so automatisierte Fehlbewertungen korrigieren kann.

Dr. Till Heimann

Rechtsanwalt
Fachanwalt für Arbeitsrecht
Partner
Till Heimann berät Arbeitgeber mit Fokus auf Unter­neh­mens­trans­ak­tio­nen (mit anschlie­ßen­der Integration), Umstruk­tu­rie­run­gen auf Unter­neh­mens- und Betriebsebene und Har­mo­ni­sie­rung von Arbeits­be­din­gun­gen. Besondere Expertise besitzt Till Heimann darüber hinaus hinsichtlich der Beratung zu regulierter Vergütung (Banken/Kapitalanlagegesellschaften u.A. Institute), von Unternehmen der Technologiebranche sowie von Startups. Er besitzt langjährige Erfahrung in der Steuerung inter­na­tio­na­ler Projekte. Er ist Mitglied der Fokusgruppe "ESG".
Abonnieren Sie den kostenfreien KLIEMT-Newsletter.
Jetzt anmelden und informiert bleiben.

 

Die Abmeldung ist jederzeit möglich.

1 Kommentar

Kommentarfunktion ist geschlossen.