19.01.2024
Lesedauer: 7 Min.

KI-Ethik in die Unternehmenskultur bringen 

Camille Delorme
Camille Delorme

Inhalt

  • Verantwortungsvolle KI
  • KI-Werte
  • Ethische Grundprinzipien
  • Autonomie
  • Fairness
  • Schutz
  • Transparenz
  • Fazit
Studie: Guide to an AI-Powered Workplace

Studie: Guide to an AI-Powered Workplace

Download (English)
Alle ArtikelArbeitsmarktKI-Ethik in die Unternehmenskultur bringen 

Die rasante Entwicklung künstlicher Intelligenz (KI) sorgt dafür, dass die Arbeitswelt sich grundlegend verändert. Doch mit den neuen Technologien kommen auch ethische Fragen auf, die sorgfältig betrachtet werden müssen – im Vorfeld als auch während der Nutzung von KI. Denn ebenso wie ein*e Mitarbeiter*in aus Fleisch und Blut muss auch die KI im Unternehmen ethischen Regeln und moralischen Grundsätzen folgen. Ohne KI-Ethik können Diskriminierung, Ungleichheit und die Verletzung grundlegender Unternehmenswerte die Folge sein.

Aber wie bringt man eine KI dazu, dass sie ethisch handelt? Wie definiert man die Ethik der Künstlichen Intelligenz? Wo darf man Entscheidungen der Maschine überlassen und wo muss ein Mensch in den Prozess mit einbezogen werden? Wir werfen einen Blick auf die ethischen Aspekte bei der Nutzung von KI in der Arbeitswelt und untersuchen die Gefahren sowie Chancen, die sich daraus ergeben.

KI im Unternehmen verantwortungsvoll einsetzen

Ethische Aspekte spielen bei der Entscheidung für ein KI-System und bei der Implementierung von KI im Unternehmen eine wichtige Rolle. Denn werden KI-Systeme nicht verantwortungsvoll eingesetzt, kann das weitreichende Folgen haben. Z. B. kann es passieren, dass bestimmte Bewerber*innen aufgrund diskriminierender Algorithmen benachteiligt werden (wie 2018 bei Amazon geschehen, lesen Sie dazu auch unseren Blogbeitrag Wie Vertrauen zu den neuen Technologien entsteht). Oder dass sensible Daten nicht ausreichend geschützt werden – mit umfangreichen rechtlichen Konsequenzen. Doch wie können Arbeitgeber sicherstellen, dass die KI im Sinne des Unternehmens ethisch handelt? „Ein KI-System an sich kann nicht gut oder böse sein“, sagt dazu Carina Stöttner, Mitgründerin des Zukunftsforschungs-Instituts Themis Foresight, im Stepstone Podcast. Der Fokus auf die eigenen Unternehmenswerte gibt hier eine wichtige Orientierung.


„KI hat keinerlei Urteilsvermögen. Deswegen müssen wir die Rahmenbedingungen schaffen, damit KI ethisch funktioniert.“
Carina Stöttner, Mitgründerin des Zukunftsforschungs-Instituts Themis Foresight

Gleiche Werte für alle – auch für die KI

Die meisten größeren Unternehmen verfügen ohnehin über einen ausformulierten Wertekatalog – bei Stepstone sind das z. B. die vier Ethik-Grundwerte Autonomie, Fairness, menschlicher Schutz und Entscheidungs-Transparenz. Diese Werte werden im Unternehmen gelebt und bei allen unternehmerischen Entscheidungen berücksichtigt. Alle Mitarbeitenden sind dazu angehalten, nach diesen Werten zu handeln und zu arbeiten – das gilt genauso für „Kollege KI“. Bei der Planung und Implementierung eines KI-Systems sind die Unternehmenswerte deshalb eine wichtige Orientierungshilfe, um die Risiken von KI zu erkennen und von Anfang an mit wirksamen Maßnahmen gegenzusteuern.

Und für alle Unternehmen, die bislang noch keine Werte formuliert haben: Jetzt ist der richtige Zeitpunkt dafür!

Vier ethische Grundprinzipien von KI im Job

Hier haben wir potenzielle Gefahren von KI in der Arbeitswelt sowie verantwortungsvolle Auswege anhand der 4 Stepstone Ethik-Werte zusammengestellt: 

Stepstone Snackbar – Der Arbeitsmarkt-Podcast

Alle sind sich einig: künstliche Intelligenz (KI) einsetzen, das klingt gut. Aber wie geht das überhaupt? Und wie geht das ethisch? Darüber sprechen wir mit einer Expertin auf dem Gebiet: Carina Stöttner, Mitgründerin und Managing Director des Berliner ThinkTanks Themis Foresight:

Autonomie: menschliche Selbstbestimmung

Autonomie bezeichnet in der Philosophie die menschliche Fähigkeit, eigene Entscheidungen zu treffen und den eigenen Willen selbst zu bestimmen. Bezogen auf die Arbeitswelt bedeutet das, dass Mitarbeitende die Kontrolle über ihre berufliche Entwicklung behalten sollen. Die Nutzung von künstlicher Intelligenz kann dazu führen, dass diese Autonomie eingeschränkt wird. Potenzielle Gefahren sind beispielsweise eine immer stärkere Abhängigkeit von der KI, bedingungsloses Vertrauen in die KI, bewusste Manipulationen und gezielte Falschinformation mittels KI (Fake News und Deepfakes) sowie ein zunehmendes Maß an Überwachung. Sich dieser Gefahren bewusst zu sein und aktiv gegenzusteuern, ist die beste Voraussetzung für die verantwortungsvolle und ethische Nutzung von KI-Tools am Arbeitsplatz. Es ist wichtig sicherzustellen, dass die KI-Systeme nicht die Entscheidungs- und Handlungsfreiheit der Mitarbeitenden einschränken, sondern sie bei der Erreichung ihrer beruflichen Ziele unterstützen. Generell bei dem Einsatz von KI gilt: KI geht nur in Kombination mit dem Menschen. Stellen Sie daher sicher, dass eine menschliche Aufsicht besteht, bsp. in Form von Qualitätskontrolle vor Veröffentlichung von KI-generierten Inhalten. 

Fairness: Frei von Diskriminierung und Stigmatisierung

Fairness ist entscheidend, um sicherzustellen, dass KI-Systeme keine Diskriminierung oder Stigmatisierung fördern. Doch gleichzeitig muss klar sein: Ohne Bias geht es nicht. Jeder Mensch handelt auf Basis eigener Erfahrungen, bringt ein bestimmtes Weltwissen mit. Eine KI hat dieses Weltwissen nicht. Sie nutzt ausschließlich die Informationen, die sie von Menschen bekommt. Und diese Daten sind zwangsläufig Daten aus der Vergangenheit. Hierin liegt die größte Gefahr: Denn wenn in Zukunft ein anderer Weg eingeschlagen, die Vergangenheit also nicht in gleicher Form fortgeschrieben werden soll, müssen die vorhandenen Datensätze entsprechend angepasst werden. Daher müssen Ziel und Zweck der KI-Nutzung von Anfang an klar formuliert werden. Außerdem ist es elementar wichtig, dass die Mitarbeitenden, die die KI trainieren, genau wissen, welche Verhaltensweisen der KI mit den Unternehmenszielen übereinstimmen und welche nicht. Nur so kann sichergestellt werden, dass KI-Algorithmen fair handeln und keine bestehenden Vorurteile oder Stereotypen verstärken.  

Schutz: Schutz der menschlichen Würde sowie mentaler und physischer Unversehrtheit

Der Schutz der menschlichen Würde und die mentale und physische Unversehrtheit sind ein weiterer wichtiger Aspekt der KI-Ethik. Arbeitgeber müssen bei der KI-Implementierung sicherstellen, dass die künstliche Intelligenz die Privatsphäre der Mitarbeitenden respektiertund ihre geistige und körperliche Gesundheit nicht gefährdet. Das könnte z. B. im Rahmen von medizinischer KI der Fall sein: Wenn KI-gesteuerte medizinische Geräte oder Diagnosesysteme fehlerhafte Informationen liefern oder falsche Entscheidungen treffen, steht die Gesundheit der Patient*innen auf dem Spiel. Aber auch u. a. in puncto Datenschutz ist Vorsicht geboten: Wenn Daten, die durch eine KI gesammelt wurden, in die falschen Hände geraten oder missbräuchlich verwendet werden, kann das die Privatsphäre der betroffenen Personen gefährden. Daher sollten Arbeitgeber bei der Nutzung von KI im Arbeitsumfeld stets darauf achten, dass sensible Daten angemessen geschützt werden und dass die Mitarbeitenden jederzeit die Kontrolle über ihre persönlichen Informationen behalten.  

Transparenz: Entscheidungen, die für alle Beteiligten nachvollziehbar sind

Transparenz ist entscheidend, um das Vertrauen der Mitarbeitenden zu gewinnen und zu stärken – auch das Vertrauen in KI-Systeme. Arbeitgeber sollten deshalb sicherstellen, dass KI-Entscheidungen nachvollziehbar sind. Das bedeutet, dass z. B. die Funktionsweise von KI-Algorithmen offengelegt und erklärt werden sollte. So können Mitarbeitende verstehen, wie Entscheidungen zustande kommen und warum sie getroffen wurden. Zusätzlich empfiehlt sich bei wichtigen KI-Entscheidungen stets, die finale Kontrolle einem Menschen zu überlassen. 

Fazit: So implementieren Sie künstliche Intelligenz und Ethik am Arbeitsplatz

KI-Systeme haben das enorme Potenzial, die (Arbeits-)Welt besser und effizienter zu machen. Doch sie bergen auch Risiken, die durch ethische Leitlinien im Unternehmen minimiert werden müssen. Um für eine Ethik der Künstlichen Intelligenz am Arbeitsplatz zu sorgen, sollten Arbeitgeber folgende Maßnahmen ergreifen:

Fünf Maßnahmen für Ethik am Arbeitsplatz:

  1. Zieldefinition: Definieren Sie klare Ziele für die Nutzung von KI-Tools im Unternehmen und trainieren Sie die KI entsprechend.
  2. Schulung: Schulen Sie Mitarbeitende und Führungskräfte in Bezug auf ethische KI-Aspekte, um ein Bewusstsein für potenzielle Gefahren zu schaffen.
  3. Kontrolle: Regelmäßige Überwachung und Audits von KI-Systemen stellen sicher, dass die intelligenten Technologien ethische Standards erfüllen. Vertrauen Sie KI-Entscheidungen niemals blind, sondern bauen Sie menschliche Kontrollinstanzen ein.
  4. Regulierung: Stellen Sie sicher, dass relevante Datenschutzgesetze und -vorschriften eingehalten werden, um die Privatsphäre Ihrer Mitarbeitenden zu schützen.
  5. Feedback: Mitarbeitende sollten die Möglichkeit haben, Bedenken hinsichtlich ethischer Fragen bei der Nutzung von KI zu äußern, beispielsweise über Themen wie Sicherheit, Datenschutz oder Transparenz. Schaffen Sie einen Prozess, um dieses Feedback zu sammeln und zu berücksichtigen.