Mit objektivem Denken können Sie viel erreichen. Neutralität zu bewahren ist eine gute Möglichkeit, Nachteile auszugleichen. In Bewerbungsverfahren und Auswahlprozessen können diese Mankos leicht entstehen und die Bewerber:innen und Profile in einem falschen Licht zeigen. Neutral zu handeln, neutral zu denken ist also insofern vorteilhaft, weil es eine erstrebenswerte Offenheit verkörpert, die helfen kann, neue innovative Bewegungen in Gang zu setzen. Denn um dem Besten die größtmögliche Chance zu geben, sein Wissen und sein Können unter Beweis zu stellen, hilft es vorurteilsfrei zu agieren und den Raum für individuelle Begabungen zu öffnen. Zum Wohle aller will man vorurteilsfrei oder ohne voreingenommene Haltungen den Bewerber:innen alle Optionen geben, ihr Können unter Beweis zu stellen und sich im richtigen Status zu positionieren. Auch daher sind Bewerbungsprozesse diffizile und komplexe Angelegenheiten und brauchen Know-how und Feingefühl, um der Sache gerecht zu werden und um kluge Entscheidungen zu treffen. Künstliche Intelligenz bietet uns daher mit effizienten hochinnovativen Techniken, etwas von dem alle träumen und die Wirtschaftswelt revolutionieren kann. Nämlich genau diese Optionen mit der höchstmöglichen Effizienz und zeitlichen Ersparnis.
Aber wie neutral ist KI?
Wie steht es um die Neutralität von KI? Die generierenden Auswahlprozesse und ihre Methoden für Rekrutierungsprozesse sind sehr beliebt und ihre Anwendung hat in einem beispiellosen Run HRs und Personaler weltweit überzeugt.
Doch welche negativen Ausläufer hat man zu befürchten? Verbessrungsmaßnahmen sind anscheinend hier akut. Denn besonders für Frauen ist die Auswahl über KI generierende Verfahren problematisch. In einem Bericht zum Gutachten zum Schutz vor Diskriminierung durch algorithmische Entscheidungssysteme der Antidiskriminierungsstelle des Bundes wird die Problematik deutlich. Die Studien zeigen an, dass stereotypische Vorstellungen über Frauen und statusbezogene Vorurteile verstärkt werden und die Diskriminierung, die damit einhergeht, weitergeben und diese durch den Algorithmus ungefragt und unkritisch kontinuierlich wiederholt wird. Diskriminierende Aussagen werden also wiederholt, weiterverwertet und kaum aufgelöst. Warum passiert dies?
Nun zunächst muss man wissen, dass KI mit Prozessen des maschinellen Lernens arbeitet. Das bedeutet, dass KI mit Daten trainiert wird, die schon vorhanden sind und die KI die Auswahl aus den vorhandenen Daten auswählt und Muster daraus erkennen kann. Die KI wird nämlich nicht mit intelligenten Systemen trainiert, um etwas Neues zu erschaffen, sondern der Output sind vorhersagbare statistische Werte, die mit Aussagen aus diesen vorhersehbaren Mustern entwickelt werden.
Abgesehen von der ausgeprägten Fan Boy Culture der Tech Industrie und den Fakt, dass Frauen daher auch im Bereich KI, stark unterrepräsentiert sind, ist es auch so, dass sie in Bewerbungsverfahren nicht so häufig ausgewählt werden wie ihre männlichen Mitbewerber. Die Bedeutung, die dieses Wissen über die Rolle von Frauen und KI preisgibt, ist immens. Zumal Entscheidungsträger in der Tech-Industrie die Welt als Gesamtheit und Gemeinschaft nachhaltig prägen, sie erweitern, vervollkommnen oder durch Entscheidungen auch einschränken. Damit geht ein großes Konvolut an Macht einher. Wenn man einen bedeutenden Teil der Menschheit von dieser Entscheidungsmacht ausschließt, wird dies zu einem Nachteil aller werden.
Was bedeutet KI im Bewerbungsverfahren?
Im Bewerbungsverfahren werden Tools der KI genutzt um optimierter und passgenau auszuwählen. Die Vereinfachung der Prozesse spielt dabei die entscheidende Rolle für die Nutzung von KI- Systemen. Ausschlaggebend sind Verfahren, die Abläufe verkürzen und (vermeintlich) ohne Qualitätsverlust anwendbar werden. Wir sehen, dass die Prozesse beschleunigt und bei gleichbleibender Dynamik gute Ergebnisse liefern. Wenn man jedoch vom Standpunkt der größtmöglichen Innovation oder Zukunftsfähigkeit ausgeht, den KI ja zweifelsohne beansprucht, kann man sicherlich fragen, ob es nicht bessere Optionen gäbe für zukünftige Generationen, – solche, die Fehler der Vergangenheit weder reproduzieren, noch stets vorhandene Diskriminierungsformen verstärken.
Aber wie tritt Diskriminierung durch KI überhaupt in Erscheinung?
Wir erleben, dass durch KI Männer häufiger ausgewählt werden als Frauen, bei gleicher Qualifikation. Auch die Gehaltsvorgaben variieren nach Geschlecht. Und natürlich sind wieder Frauen hier die Benachteiligten. Sie bekommen bei gleichen finanziellen Rahmenbedingungen geringere Kreditkartenrahmen. Und: Bei angewandter Gesichtskennungs-KI werden Gesichter schwarzer Frauen besonders schlecht erfasst. Die Repräsentation von Frauen, insbesondere die Rekrutierung von talentierten und extrem begabten Frauen wird dadurch sehr stark eingeschränkt. Die Präferenzen scheinen sehr klar weiß und männlich zu sein. Das mag kaum verwundern. Da diese Merkmale die maßgeblichen und entscheidenden Eigenschaften der letzten Jahrzehnte und Jahrhunderte in unseren Gesellschaften waren. Dass die KI dies reproduziert, mag kaum erstaunen. Sie weiß es schlicht nicht besser. Diese Form der automatisierten Diskriminierung führte bereits weltweit zu Skandalen, in denen Behörden involviert waren, wie z.B. der „Robo-Debt-Skandal“ in Australien, bei dem ohne korrekte inhaltliche Prüfung vermeintliche Steuerschulden unrechtmäßig ohne Berücksichtigung von Saisonarbeit oder studentischen Jobs in kürzester Zeit eingefordert wurden. Wir erleben solche Vorkommnisse in regelmäßigen Abständen weltweit. Vielleicht haben Sie es selber schon mal erlebt oder beobachtet.
Um zukunftsfähige Technologien auf den Weg zu bringen, müssen diese nachhaltig fehlerhaften Outputs revidiert werden. Dafür braucht es Aufklärung in der Bevölkerung und Sensibilisierung der Macher. Es ist ein aufwendiges Unterfangen. Ich versichere Ihnen, es wird sich lohnen.