27.11
Digitale Ethik für KI? Prof. Dr. Petra Grimm fordert werteorientierte Standards
Künstliche Intelligenz wird von den einen als Lösung für all unsere Probleme hochgelobt, die anderen sehen schreckliche Horrorszenarien, die durch die neue Technologie ausgelöst werden können. Doch was bedeutet KI nun wirklich für uns? BLMplus hat bei den Augsburger Mediengesprächen am 11. November Podiumsteilnehmerin Prof. Dr. Petra Grimm, Leiterin des Instituts für Digitale Ethik an der Stuttgarter Hochschule der Medien, gefragt, wie sie die Lage einschätzt.
Blmplus: Was ist künstliche Intelligenz?
Prof. Dr. Petra Grimm: Ich schlage eine Definition vor, die sprachlich verdeutlicht, dass es sich bei Künstlicher Intelligenz um ein digitales System handelt, dass nichts mit menschlicher Intelligenz gemeinsam hat. Demnach ist KI ein Software- und ggf. Hardware-System, das von Menschen entwickelt wurde, um ein komplexes Ziel zu erreichen. KI-Systeme sind in der Lage, sich Situationen anzupassen, indem sie analysieren, wie sich die Umwelt durch ihre früheren Aktionen verändert.
Diese Definition lehnt sich zum Teil an diejenige der High-Level-Expert Group der Europäischen Kommission an, verzichtet aber auf deren menschliche Zuschreibungen, wie „lernen, entscheiden, wahrnehmen, interpretieren und Probleme lösen“. Eine Vermenschlichung künstlicher Intelligenz halte ich für problematisch. Denn sie schürt falsche Erwartungen.
Zudem verfügt KI weder über ein Bewusstsein noch ein „Ich“; sie kann nicht über sich selbst reflektieren, geschweige denn moralische Entscheidungen treffen, denn sie hat kein Gewissen. Und über soziale und emotionale Intelligenz verfügt sie ebenfalls nicht. Auch kann KI nicht wie wir Menschen als Generalist verschiedene Aufgaben erfüllen, sie kann nur Fachspezialist in vorher definierten Bereichen sein.
Ethische Standards verhindern Innovation nicht
Es wird häufig gefordert, dass es Standards für digitale Ethik von KI geben soll. Wenn KI allerdings gar keine größere kognitive Fähigkeit hat, wieso brauchen wir diese dann?
Wir brauchen diese Standards deshalb, weil KI zukünftig immer öfter an Entscheidungsprozessen beteiligt sein wird oder sogar selbst autonom entscheidet. Bei Transaktionssystemen im Finanzbereich ist das schon längst üblich. Auch in vielen alltäglichen Lebenszusammenhängen wie bei der Jobsuche, der Kreditvergabe, der medizinischen Diagnostik und ähnlichen Fällen wird KI immer häufiger eingebunden. Die KI wird also mehr und mehr in unsere Lebenswelt integriert. So kann KI möglicherweise sogar Schicksale prägen und beeinflussen. Und wir brauchen auch ethische Standards, damit unsere Privatsphäre geschützt wird. Wir sollten uns deshalb auch kritisch fragen, ob wir Sprachassistenten wie Alexa & co. überhaupt ins eigene Haus lassen können.
Ethische Standards sind hilfreich, um KI innovativ zu gestalten und ein gutes Leben zu ermöglichen. Sie verhindern nicht Innovation, sondern sie motivieren dazu, innovative Lösungen zu kreieren und Vertrauen in Produkte und Services zu bilden. Hierzu ist es aber auch notwendig, dass KI erkärbar wird. Damit meine ich, dass für unterschiedliche Zielgruppen nachvollziehbar ist, warum die KI zu bestimmten Ergebnissen kommt und auf welcher Grundlage sie Entscheidungen trifft. Und zwar so, dass es auch Nicht-Informatiker verstehen. Hilfreich hierfür sind anschauliche Szenarien und ggf. Narrative. Hierzu bedarf es noch weitreichender Forschung.
Autonomie und Demokratieverträglichkeit als Werte implementieren
Welche Standards wären das dann im Detail?
Entscheidend ist der Prozess, um zu ethischen Standards zu kommen. Diese kann man nicht von außen einfach aufoktroyieren. Vielmehr braucht es einen wertebasierten Ansatz, wir sprechen hier von „Ethics by design“, um zusammen mit Technikern und Ethikern gemeinsam KI-Anwendungen zu entwickeln und zu gestalten. Unternehmen müssen sich hier die ethische Expertise ins Haus holen. Die Herausforderung besteht darin, Werte wie Menschenwürde, Demokratieverträglichkeit, Privatheit, Autonomie, Fairness und Transparenz in die KI zu implementieren. Fünf Imperative sind hier handlungsleitend:
- Füge keinen Schaden zu!
- Prüfe, ob das System fair ist!
- Schütze die Privatheit!
- Ermögliche Handlungs- und Entscheidungsfreiheit!
- Gewährleiste Erklärbarkeit!
Wir sollten auch berücksichtigen, auf welchen Datengrundlagen die KI funktioniert. Ein Beispiel hierfür ist das missglückte Bewerbungsverfahren bei Amazon in den USA. Da die KI vorwiegend mit Daten von bislang eingestellten männlichen Bewerbern gefüttert worden war, warf sie Frauen schon sehr früh aus dem Bewerbungsprozess. Der Teufel steckt wie immer im Detail. Und es ist nicht leicht, versteckte Diskriminierungen sichtbar zu machen.
Künstliche Intelligenz. Dieser Begriff wird entweder als die große Hoffnung gesehen oder als Schreckgespenst, vor dem wir uns alle fürchten müssen. Ist das zu Recht so?
Die vielen Geschichten, die in den Medien über KI kursieren, lassen sich auf zwei Narrative, genau genommen zwei Meta-Narrative, reduzieren: Entweder wird KI als „Heiliger Gral“ und Problemlöser aller Dinge dieser Welt dargestellt oder als „Büchse der Pandora“, die allerlei Übel mit sich bringt. Beide Narrative sind problematisch und lenken von den eigentlichen Herausforderungen ab. Wir bräuchten ein alternatives Narrativ, das sowohl die Chancen als auch die Risiken im Auge hat und eine differenziertere Sichtweise auf KI bietet
Zur Person:
Prof. Dr. Petra Grimm ist seit 1998 Professorin für Medienforschung und Kommunikationswissenschaft an der Hochschule der Medien (Stuttgart). Sie ist Leiterin des Instituts für Digitale Ethik (IDE) und Ethikbeauftragte (Medienethik) der Hochschule der Medien. Ihre Forschungsschwerpunkte sind „Digitalisierung der Gesellschaft“, „Ethics and Privacy by Design“, „Mediennutzung von Kindern und Jugendlichen“ sowie „Medien und Gewalt“.
Kommentar abgeben