Digitale Verantwortung von Unternehmen erfordert Reflexion über Werte, Normen und Regeln – auch in der Unternehmenswelt. Unternehmen, die sich heute für die digitale Verantwortung engagieren, können das Vertrauen von Kunden, Kundinnen und Geschäftspartnern von morgen gewinnen.
Die rasante Entwicklung der künstlichen Intelligenz (KI) hat unser Leben in vielerlei Hinsicht verändert. Unternehmen sind heute nicht nur wirtschaftliche Akteure, sondern sie tragen auch eine digitale Verantwortung.
Die digitale Ethik ist ein Konzept, das in den letzten Jahren stark an Bedeutung gewonnen hat. Sie reflektiert die Nutzung von Daten und Technologien unter ethischen Aspekten. Im Zeitalter der KI sind diese Fragen besonders relevant, da KI-Systeme immer komplexer und autonomer werden. Unternehmen stehen vor der Herausforderung, ethische Prinzipien in ihre technologischen Entwicklungen zu integrieren.
Die Nutzung von Big Data und KI wirft eine Vielzahl ethischer Fragen auf. Eine zentrale Frage ist die Achtung der menschlichen Autonomie. Inwiefern sollen KI-Systeme in menschliche Entscheidungsprozesse eingreifen? Ebenso wichtig ist die Vermeidung von Schaden, wenn zum Beispiel Kunden oder Mitarbeitende durch KI falsch oder unangemessen kategorisiert werden. Wie können Unternehmen sicherstellen, dass KI-Systeme keine negativen Auswirkungen auf Menschen haben? Die Frage der Fairness ist eng damit verbunden. Wie kann sichergestellt werden, dass KI-Systeme keine bestehenden Ungleichheiten verstärken?
Im Jahr 2019 veröffentlichte eine Expertengruppe der EU ethische Leitlinien für vertrauenswürdige KI. Im Jahr 2020 folgte das Weissbuch über künstliche Intelligenz und im Juni 2023 stimmte das Europäische Parlament der sogenannten AI Act zu, der weltweit den ersten gesetzlichen Rahmen für die Nutzung der KI definiert. Das Ziel der AI Act ist es, vertrauenswürdige KI zu fördern und gleichzeitig Gesundheit, Sicherheit, Grundrechte, Demokratie und Rechtsstaatlichkeit zu schützen. Der AI Act verfolgt einen risikobasierten Ansatz, bei dem je nach Risikostufe entsprechende Anforderungen an die KI definiert sind. Es fehlen allerdings noch Instrumente, die den Unternehmen bei der Umsetzung einer ethischen KI behilflich sind.
Unternehmen tragen eine besondere Verantwortung, wenn es um KI und Big Data geht. Dies wird als Corporate Digital Responsibility (CDR) bezeichnet. Ein erster Schritt zur digitalen Verantwortung ist die Festlegung gemeinsamer Werte und Normen innerhalb des Unternehmens, die dann bei Entscheidungsprozessen genutzt werden. Zentral sind dabei die Achtung der menschlichen Autonomie, Vermeidung von Schaden, Fairness und Erklärbarkeit.
Die digitale Verantwortung soll Teil einer integrierten Organisationskultur werden. Dies bedeutet, dass ethische Fragen bei Entscheidungsprozessen eine Rolle spielen und von der Führungsebene bis zur Basis verankert sind. Bei der Umsetzung digitaler Verantwortung sollen Unternehmen zudem auf einen CDR-Rahmen zurückgreifen können, der Bereiche wie Daten-Governance, Daten-Strategie, und Daten-Management umfasst.
Bisher informieren nur wenige Unternehmen über ihre digitale Verantwortung in einer transparenten Weise zum Beispiel mit einem kurzen Video, das über die Nutzung von Daten und KI informiert. Meistens bleibt es bei schwer verständlichen Datenverwendungsrichtlinien, die lediglich zur juristischen Absicherung des Unternehmens dienen. Unternehmen, die sich aktiv für digitale Verantwortung einsetzen, können dies heute als Wettbewerbsvorteil nutzen. Kunden und Kundinnen, aber auch Geschäftspartner achten immer stärker auf ethisches Handeln, und Unternehmen, die diesen Ansprüchen gerecht werden, können ihr Image stärken und das Vertrauen der Kunden gewinnen.
Hier geht es zur Literatur: Fallbeispiele zur Corporate Digital Responsibility (CDR)
Dozent für Unternehmensethik und digitale Ethik, Hochschule Luzern – Wirtschaft
Kommentare
0 Kommentare
Danke für Ihren Kommentar, wir prüfen dies gerne.