Der menschengemachte Klimawandel: Ursachen, Effekte und Lösungswege
Kurs: Der menschengemachte Klimawandel: Ursachen, Effekte und Lösungswege | OnCourse UB
-
-
Ethische Herausforderungen
Was können Sie in dieser Lektion lernen?
Am Ende dieser Lektion…
- kennen Sie die Aspekte, die einen Einfluss auf ethische Fragestellungen im Zusammenhang mit KI haben.
- können Sie Standpunkte bezüglich ethischer Fragestellungen führender Expert:innen wiedergeben.
Die rasante Entwicklung von Künstlicher Intelligenz (KI) eröffnet neue Horizonte, wirft jedoch auch bedeutende ethische Fragen auf. Diese Sektion beleuchtet verschiedene ethische Aspekte, angefangen bei Leitlinien des Ethikrats "Mensch & Maschine" bis hin zu den Herausforderungen, die durch den Einfluss von KI auf den Arbeitsmarkt entstehen und Werte, Rechte und Würde des Menschen betreffen.
-
Vertiefung ethische Aspekte
Leitthese: Der Deutsche Ethikrat "Mensch & Maschine" hat klare Leitlinien für die ethische Gestaltung von KI entwickelt, insbesondere in sensiblen Bereichen wie Gesundheitswesen und Pflege.
Der Deutsche Ethikrat hat im Juni 2020 ein Papier mit dem Titel „Mensch und Maschine – Ethische Herausforderungen im Zeitalter der Künstlichen Intelligenz“ veröffentlicht. Dieses betont die Notwendigkeit ethischer Prinzipien in der KI-Entwicklung, wobei der Schutz der Menschenwürde und der Persönlichkeitsrechte im Fokus steht. „Der Einsatz von KI muss menschliche Entfaltung erweitern und darf sie nicht vermindern. KI darf den Menschen nicht ersetzen. Das sind grundlegende Regeln für die ethische Bewertung“, sagt Alena Buyx, die Vorsitzende des Deutschen Ethikrates (2023, S.1).
In dieser Publikation lautet für den Ethikrat die zentrale Schlüsselfrage, ob die menschliche Autorenschaft und die Bedingungen für verantwortliches Handeln durch den Einsatz von KI erweitert oder vermindert werden. Anhand vier konkreter Anwendungsbereiche (Medizin, schulische Bildung, öffentliche Kommunikation und Meinungsbildung sowie öffentliche Verwaltung) zeigt der Ethikrat auf, dass die Beurteilung und Auswirkung von KI immer kontext- und personen-spezifisch stattfinden muss. Judith Simon, Mitglied des Deutschen Ethikrates und Sprecherin der zuständigen Arbeitsgruppe, meint: „Daher ist es wichtig, genau hinzuschauen, für wen dies mit erweiterten Handlungsspielräumen verbunden ist und wessen Handlungsmöglichkeiten eher vermindert werden.“ Anschließende praxisnahe Empfehlungen für Politik, Wirtschaft und Gesellschaft werden vorgestellt.
Leitthese: Cathy O’Neils Buch „Angriff der Algorithmen“ (2017) warnt vor den potenziell negativen Auswirkungen undurchsichtiger Algorithmen und stellt die Frage nach der ethischen Verantwortung bei der Entwicklung von KI.
O’Neill unterstreicht die Notwendigkeit, KI-Systeme transparenter und fairer zu gestalten, um unerwünschte soziale Auswirkungen zu minimieren. Als ehemalige Hedgefonds-Managerin und heute Big-Data-Whistleblowerin bittet sie um Aufmerksamkeit, um fehlerhafte, voreingenommene, intransparente und unkontrollierbare KI-Systeme zu identifizieren, die Diskriminierung und Ungleichheit in der Gesellschaft verstärken. Sie weist auf die Diskrepanz zwischen objektiven Entscheidungen von Algorithmen in der Theorie und interessens-basierten in der Realität. Denn Algorithmen werden auch von Menschen mit dessen Annahmen und Vorurteile programmiert. Sie spricht davon, wie Algorithmen Einfluss auf die Politik haben, wie zum Beispiel Wahlen beeinflussen und die Demokratie über soziale Netzwerke manipulieren. Doch auch Jobs sind in Gefahr: In Amerika wurde KI eingesetzt, um Lehrer*innen Scores zu vergeben. Als Versuch der Qualitätsverbesserung von schulischer Lehre wurden jedoch etliche Variablen wie Größe der Klassen, Änderungen der Zusammensetzung in soziale Schichten uvm. nicht beachtet, sondern nur Notenvergleiche im Jahresvergleich angeschaut. Durch diese unvollständige Repräsentation wurde fälschlicherweise probiert die Leistungen von Lehrpersonal zu messen, jedoch eigentlich soziale Ungleichheiten unterdrückt.
Leitthese: Vertrauensvolle KI erfordert nicht nur ethische Prinzipien, sondern auch klare und verständliche Kommunikation über die Funktionsweise von KI-Systemen.
Dies ist entscheidend, um das Vertrauen der Nutzer*innen zu gewinnen und ethische Bedenken zu adressieren. In vielen Fällen sind KI-Systeme komplex und schwer zu verstehen. Eine klare Kommunikation über ihre Funktionsweise ermöglicht es den Benutzer*innen, die Entscheidungsprozesse besser nachzuvollziehen, was wiederum das Vertrauen stärkt. Die deutsche Stiftung Mercator, fördert die Zusammenarbeit zwischen den Universitäten Bonn und Cambridge, um einen Beitrag zu menschenzentrierter KI zu leisten. Mit dem interdisziplinären Projekt „Wünschenswerte Digitalisierung (Desirable Digitalisation: Rethinking AI for Just and Sustainable Futures)“ untersuchen Forscher*innen interkulturelle Perspektiven auf KI und unterstreichen die Wichtigkeit von verantwortungsvollem Umgang mit und Einsatz von KI.
Leitthese: Bias und mangelnde Fairness sind kritische ethische Herausforderungen bei der Entwicklung von KI, die systematische Ungerechtigkeiten verursachen können.
Die Beseitigung von Bias ist entscheidend, um Diskriminierung und soziale Ungleichheit zu verhindern. KI-Systeme lernen oft von historischen Daten, die oftmals nicht repräsentativ, unvollständig, verzerrt oder bereits vorhandene Vorurteile und Ungleichheiten enthalten können. Beispielsweise werden Stereotype in Bezug auf Hautfarbe, sexuelle Orientierung oder Geschlecht repliziert. Wenn diese Daten nicht sorgfältig überprüft und bereinigt werden, kann dies zu unfairen Ergebnissen und systematischen Benachteiligung bestimmter Gruppen führen. Außerdem sind die Entscheidungsprozesse von KI-Systemen häufig undurchsichtig und passieren in der „Black Box“. Dies kann dazu führen, dass Diskriminierung unbemerkt bleibt oder schwer nachzuvollziehen ist, was die Verantwortlichkeit der Entwickler:innen und Organisationen erschwert und bestehende soziale Ungerechtigkeiten aufrechterhält.
Leitthese: Datenschutz und Privatsphäre sind grundlegende ethische Prinzipien, die bei der Entwicklung von KI-Systemen strikt eingehalten werden müssen.
Die Wahrung der Privatsphäre ist von zentraler Bedeutung, um das Vertrauen der Nutzer zu bewahren. Die Implementierung von klaren Richtlinien und Mechanismen zur Sicherung von Datenschutz und Privatsphäre sowie Datenschutzmaßnahmen mindern das Risiko des Missbrauchs von persönlichen Informationen und verstärken die Sicherheit Einzelner. In Deutschland sowie vielen anderen Ländern gibt es Datenschutzgesetze, die die Erhebung, Verarbeitung und Speicherung von persönlichen Informationen regeln. Die Einhaltung dieser Gesetze ist nicht nur eine rechtliche Anforderung, sondern auch eine ethische Verpflichtung. Der EU AI Act ist ebenfalls ein Instrument zur Sicherstellung von korrekter und verantwortungsbewusster Nutzung von Daten.
Leitthese: Die Transparenz und Erklärbarkeit von KI-Entscheidungen sind grundlegend für ethischen Einsatz und Vertrauensbildung.
Verständliche KI-Systeme fördern nicht nur das Vertrauen, sondern ermöglichen auch ein tieferes Verständnis ihrer Funktionsweise. Die Gewährleistung der Transparenz und der Erklärbarkeit, die sich auf die Fähigkeit der Menschen bezieht, zu verstehen, wie und warum KI-Systeme funktionieren und welche Auswirkungen sie haben, sowie die Möglichkeit, sie zu überprüfen, zu hinterfragen und zu beeinflussen. Transparenz erleichtert die Nachvollziehbarkeit des Entscheidungsprozesses, trägt zur Vertrauensbildung bei und erleichtert die Identifizierung von Bias und Diskriminierung in den Daten oder Algorithmen.
Leitthese: Die Datenbeschaffung für KI-Anwendungen muss ethischen Grundsätzen folgen, um faire und diskriminierungsfreie Modelle zu gewährleisten.
Die verantwortungsvolle Datenbeschaffung ist entscheidend, um die ethische Integrität von KI-Systemen sicherzustellen. Die Qualität und Repräsentativität der Daten, auf denen KI-Modelle trainiert werden, sowie das Einhalten der Rechte und Interessen der Datenlieferanten und Datenempfänger:innen sind entscheidend.
Leitthese: Die Einführung von KI kann erhebliche Veränderungen am Arbeitsplatz mit sich bringen, und Unternehmen tragen eine ethische Verantwortung, diese sozial verträglich zu gestalten.
Die Einführung von KI kann zu Automatisierung und Veränderungen in bestimmten Arbeitsbereichen führen. Strategien zur Umschulung und Neuqualifizierung sind notwendig, um die negativen Auswirkungen auf Arbeitskräfte zu minimieren. Neue Technologien sollen nicht zu Überlastung, Unsicherheit oder unfairen Arbeitsbedingungen führen; menschliche Kompetenzen, wie Kreativität, Empathie und kritisches Denken, sollen weiterhin geschätzt und gefördert werden.
Fazit
Die ethische Dimension von KI erfordert einen ganzheitlichen Ansatz. Durch die Anwendung klarer ethischer Leitlinien und die proaktive Auseinandersetzung mit Herausforderungen wie Bias, Datenschutz und den Auswirkungen auf den Arbeitsmarkt können wir sicherstellen, dass KI in einer Weise eingesetzt wird, die dem Wohl der Gesellschaft dient.
-
-
Fazit
KI bietet immense Möglichkeiten, den Klimawandel anzugehen, erfordert jedoch klare Regulierungen, um ethische und ökologische Herausforderungen zu bewältigen. Der EU AI Act legt einen wichtigen Grundstein, aber es bedarf weiterer Anstrengungen, um sicherzustellen, dass KI nachhaltig und verantwortungsbewusst eingesetzt wird. Die Brücke zwischen Technologie und Umweltschutz muss sorgfältig gebaut werden, um eine zukünftige, nachhaltige Synergie zu gewährleisten.
-
Literatur und Quellen
- Europäische Kommission. (2021). Proposal for a REGULATION OF THE EUROPEAN PARLIAMENT AND OF THE COUNCIL laying down harmonised rules on artificial intelligence. EU AI Act.
- Ethikrat "Mensch & Maschine." (2017). Automatisierung und Robotik in der Pflege.
- Ethikrat. (2023). Ethikrat: Künstliche Intelligenz darf menschliche Entfaltung nicht vermindern. https://www.ethikrat.org/mitteilungen/mitteilungen/2023/ethikrat-kuenstliche-intelligenz-darf-menschliche-entfaltung-nicht-vermindern/?cookieLevel=not-set
- Fraunhofer-Institut für Zuverlässigkeit und Mikrointegration. (2015). Entwicklung des IKT-bedingten Strombedarfs in Deutschland. Studie im Auftrag des Bundesministeriums für Wirtschaft und Energie. Berlin, p.23-25.
- hib/Emu. (2024, 2. Juni). Regierung wertet Teilnahme am „AI Safety Summit“ als Erfolg. Deutscher Bundestag. https://www.bundestag.de/presse/hib/kurzmeldungen-989114
- Masanet, Eric; Shehabi, Arman; Lei, Nuoa; Smith, Sarah; Koomey, Jonathan (2020) Recalibrating global data center energy-use estimates. Science, 28 February 2020, VOL 367 Issue 6481, pp. 984-986.
- Mazar, G. & Gnändiger, J. (2021). Corporate Sustainability Reporting Directive (CSRD). KPMG. https://kpmg.com/de/de/home/themen/uebersicht/esg/corporate-sustainability-reporting-directive.html
- Levin, B., & Downes, L. (19. Mai 2023). Who is going to regulate AI? Harvard Business Review: https://hbr.org/2023/05/who-is-going-to-regulate-ai abgerufen 06/02/2024.
- OpenAI. (2022). Scaling Energy Use in Large Language Models.
- O'Neill, C. (2016). Angriff der Algorithmen: Wie sie Wahlen manipulieren, Berufsprofile zerstören und unsere Gesundheit gefährden - und was wir dagegen tun können. C. Bertelsmann Verlag.
- Statista. (2024, 2. Januar). Künstliche Intelligenz - Investitionen | Statista. https://de.statista.com/statistik/daten/studie/1321707/umfrage/private-investitionen-in-ki-in-ausgewaehlten-laendern
- Strubell, E. (2019, 5. Juni). Energy and Policy Considerations for Deep Learning in NLP. arXiv.org. https://arxiv.org/abs/1906.02243
- UNITAR United Nations Institute for Training and Research. E-Waste
- Monitor. (2023). The Global E-Waste monitor. https://ewastemonitor.info/
- Wiedemann, S. (2023). Warum KI-Compliance zu jeder Due-Diligence-Prüfung gehört - KPMG-Law. KPMG-Law. https://kpmg-law.de/warum-ki-compliance-zu-jeder-due-diligence-pruefung-gehoert/
- Züger, T.; Faßbender, J.; Kuper, F.; Nenno, S.; Katzy-Reinshagen, A.; Kühnlein, I. (n.a.). Exkurs I Nachhaltigkeit von KI. Civic Coding – Grundlagen und empirische Einblicke zur Unterstützung gemeinwohlorientierter KI. Civic Coding.
- EU Kommission (2024): AI Act. https://digital-strategy.ec.europa.eu/de/policies/regulatory-framework-ai [abgerufen am 27.03.2024]
-