Längst haben Informatiksysteme in den unterschiedlichsten Facetten den Alltag erreicht. Sie helfen bei der Navigation auf der Straße oder bei der Verarbeitung immer größer werdender Wissensbestände. Lernende Maschinen entscheiden darüber, ob ein Kredit vergeben oder eine Versicherung abgeschlossen werden kann. Sie optimieren Warenflüsse und Roboter oder Softwaresysteme übernehmen die Arbeit von Menschen in den unterschiedlichsten Bereichen: In gefährlichen, wie als Minensucher oder Feuerwehrfrau, im klassischen Niedriglohnsektor, aber auch im Journalismus oder der Justiz.
Damit kommt Informatiker:innen eine besondere Verantwortung als Entwickler:innen dieser Systeme zu: Sie müssen absehen und bewerten können, welche Personengruppen ein von ihnen entwickeltes System betrifft und was mögliche Folgen sind. Der damit verbundene Diskurs erfolgt im Anschluss an das philosophische Arbeitsfeld der Ethik, so dass als besondere Erschwernis für Informatiker:innen der solide Umgang mit Begriffen und Praktiken aus einem anderen Fach zu erlernen ist.
Lerninhalte
- Einführung in das Thema und Verhältnis zu bzw. Verortung in anderen Bereichsethiken
- Grundsätzliche Positionen in der Ethik und wichtige Begriffe
- Ziele und Techniken ethischer Argumentation
- Ethische Fragestellungen in der Informatik: Verantwortung, Transparenz, Sicherheit und Verzerrungen
- Standesethik und ethische Richtlinien
- Fallstudien und Anwendungsbereiche
- Ethisches Design von Anwendungen
- Umgang mit (individuellen) Dilemma-Situationen
- Ethik in der Wissenschaft
Die zwölf Themen der Vorlesung teilen sich in drei große Bereiche auf: Grundlagen, Kontext und Anwendung.
Im Grundlagenbereich werden Sie mit wichtigen Voraussetzungen der ethischen Argumentation vertraut gemacht. Es wird das "richtige" Argumentieren ebenso thematisiert, wie verschiedene Argumentationsschemata. Sie werden wichtige Argumentationslinien kennenlernen und unter anderem anhand der Methode des Gedankenexperiments ausprobieren. Außerdem werden fundamentale Begriffe der Ethik diskutiert und die Frage in den Blick genommen, was Begriffe überhaupt sind und warum sie für die ethische Argumentation gleichermaßen schwierig wie notwendig sind.
Der Kontextbereich stellt den Bezug zwischen den ethischen Grundlagen und der Informatik anhand zentraler Begriffe her: Verantwortung, Transparenz, Sicherheit und Privatheit werden den Kern von allein zwei Vorlesungen bilden. Daneben wird das wichtige Thema diskutiert, was Daten und die Verarbeitung von Daten - beispielsweise im Bereich des Machine Learning - ethisch problematisch werden lässt. Den Abschluss dieses Bereichs bildet die Diskussion von ethischen Rahmenwerken, die gezielt für den Einsatz in informatischen Kontexten entwickelt wurden: Den ethischen Leitlinien der GI und Codes of Conduct, wie sie häufig von Open Source-Projekten verwendet werden.
Der Anwendungsbereich zeigt dann auf, welche Rolle ethische Entscheidungen in wirtschaftlichen und akademischen Projekten spielen. Dabei wird thematisiert, wie man Projekte in dem jeweiligen Umfeld unter ethischen Gesichtspunkten entwerfen kann und welche Fallstricke es dabei möglicherweise gibt. Außerdem wird darauf eingegangen, wie man mit individuellen Dilemmasituationen umgehen kann: Was tut man bspw., wenn der Arbeitgeber etwas eindeutig unethisches von einem verlangt? Wie kann mit so einer Situation umgegangen werden?
Zeitplanung
Das Modul Ethik in der Informatik ist in den jeweiligen Studienordnungen mit 2 ECTS verbucht, was einem Workload von etwa 60 Stunden entspricht. Diese 60 Stunden verteilen sich in der Veranstaltung jeweils wie folgt auf die einzelnen Bestandteile:
Bitte berücksichtigen Sie die jeweiligen Zeiten in Ihrem Wochenplan für Ihr Semester.
Veranstaltungsorganisation
Die Vorlesungsinhalte werden als Videos zur Verfügung gestellt, jede Woche etwa 20 bis 30 Minuten. Die Übung arbeitet die Inhalte der Vorlesung auf und vertieft sie; teilweise werden auch in der Übung Inhalte eingeführt. Die Teilnahme an den Übungen ist freiwillig, wird aber dringend empfohlen. Bitte beachten Sie, dass die Übungssitzungen jeweils eine Zeitstunde in Anspruch nehmen.
Die Vorbereitungsaufgabe und Vorlesungen sollten zur jeweiligen Woche, die im Moodle angegeben ist, vorbereitet werden. Weitere Hinweise entnehmen Sie bitte den umfangreichen Informationen im Moodle.
Technische Hinweise:
- Aktuell ist noch ein Login im Mediaportal der CAU für die Ansicht der Videos notwendig. Das wird (nach einer weiteren Überarbeitung der Videos) im Laufe des Semester nicht mehr notwendig sein.
- Wenn die Videos bei der Wiedergabe knistern, verwenden Sie bitte einen anderen Browser!
- Die Videos lassen sich auch beschleunigt wiedergeben…
- Nehmen Sie regelmäßig an der Übung teil!
- Bringen Sie bitte nach Möglichkeit einen Laptop o. ä. mit, da wir in den Übungen immer wieder Onlinetools zur gemeinsamen Arbeit verwenden werden.
- Erledigen Sie die wöchentlichen Vorbereitungsaufgaben: Planen Sie dafür jeweils eine halbe Stunde Bearbeitungszeit ein.
- Beteiligen Sie sich und stellen Sie Fragen.
- Nutzen Sie die Zeit des Selbststudiums, um mit den Quiz-Aufgaben Ihr Wissen zu überprüfen oder verfolgen Sie Themen, die Sie interessieren in den Quellen und der vertiefenden Literatur zu jedem Thema weiter.
- Setzen Sie sich frühzeitig mit den Einsendeaufgaben auseinander. Wenn Sie nicht viel (akademische) Schreiberfahrung haben, dann nehmen Sie unsere vielfältigen Hilfsangebote (Sprechstunden, Hinweise weiter unten, Vorbereitungsaufgaben) in Anspruch.
Dieses Dokument, sowie die damit verbundenen Materialien, befinden sich derzeit noch in aktiver Entwicklung. Während die Inhalte größtenteils gesetzt und vollständig behandelt sind, kann sich an der Form der Präsentation im Laufe des Semesters noch einiges ändern. Dies betrifft insbesondere die folgenden "Baustellen":
- Alle Videos werden im Laufe des Semesters überarbeitet. Nach der Überarbeitung ist für das jeweilige Video kein Login für das Mediaportal der CAU mehr notwendig.
- Alle Videos werden mit Untertiteln ausgestattet.
- Quizze: Die Quiz-Formulierungen werden im Laufe des Semesters durchgesehen; es werden weitere Quiz-Fragen ergänzt (insbesondere für den letzten Teil der Vorlesung, wo derzeit noch gar keine Quizze vorhanden sind).
- Die Literaturangaben werden durchgesehen, erweitert und voraussichtlich in einem anderen Format angegeben. Die Literatur wird außerdem als bibtex-Datei zur Verfügung gestellt.
- Die Seiten mit den jeweiligen Obterthemen (bspw. "03 Argumentationslinien") sind derzeit noch größtenteils leer. Dort sollen Bilder und kurze Texte das jeweilige Vorlesungsthema vorstellen.
Dieses Modul verlangt von Ihnen als Prüfungsleistung eine ethische Analyse, als Prüfungsvorleistung eine schriftliche Ausarbeitung in Form einer Einsendeaufgabe. Beides muss den Ansprüchen genügen, die an wissenschaftliche Texte gelegt werden: Überzeugende Argumentation, korrekte Formalia, vertrauenswürdiger Umgang mit Quellen.
Uns ist bewusst, dass es für viele von Ihnen das erste Mal ist, dass Sie in Ihrem Studium einen längeren Text verfassen müssen, an den solche Ansprüche gestellt werden. Daher haben wir verschiedene Hilfsmittel vorbereitet und versuchen, Sie in dem Prozess zu unterstützen (s. Erläuterungen unten).
Besonders wichtig dabei ist, dass wir versucht haben, Vorbereitungs- und Einsendeaufgaben dergestalt zu entwickeln, dass sie aufeinander aufbauen und die für das wissenschaftliche Schreiben notwendigen Kompetenzen iterativ vermittelt werden. Das heißt, wenn Sie sich mit allen Vorbereitungs- und Einsendeaufgaben in dem vorgesehenen Maß auseinandersetzen, sollten Sie nicht nur eine gute Vorbereitung auf die Prüfungsleistung in dieser Veranstaltung haben, sondern Ihre Schreibfertigkeiten insgesamt ausbauen.
Einsendeaufgaben
Die Einsendeaufgaben sind längere schriftliche Ausarbeitungen von zwei bis drei Seiten, die Ihnen die detailliertere Auseinandersetzung mit einem Thema oder Abschnitt der Vorlesung erlauben. Das Bestehen einer dieser Aufgaben ist zudem notwendige Voraussetzung (zusammen mit dem Bestehen eines mdl. Testats) zum Erwerb der Prüfungsvorleistung.
Um Ihnen die Anfertigung der Einsendeaufgaben zu erleichtern, gibt es im Weiteren detaillierte Informationen zu den Formalia, sowie bei den jeweiligen Aufgaben die Kriterien, die Sie erfüllen müssen, damit Ihre Einsendung als sinnvoll bearbeitet bewertet wird. Außerdem findet jeweils etwa eine Woche vor dem Abgabetermin einer Einsendeaufgabe eine öffentliche Sprechstunde bzw. ein Tutorial statt, in dem Ihnen erklärt wird, wie Sie die Aufgabe am besten angehen. Im Rahmen dieser Sprechstunde ist es Ihnen möglich, individuelle Fragen zu klären.
Jeder Einsendeaufgabe ist eine unterschriebene Eigenständigkeitserklärung (s. Vorlage weiter unten) beizulegen, die bestätigt, dass alle Quellen und zusätzlichen Hilfsmittel in der Einsendung korrekt ausgewiesen wurden. Fehlt die Erklärung oder die Unterschrift unter der Erklärung, wird die Einsendung grundsätzlich als nicht sinnvoll bearbeitet bewertet. Achten Sie also unbedingt darauf!
Vorbereitungsaufgaben
Die Vorbereitungsaufgaben sind kurze Aufgaben, die Ihnen die Auseinandersetzung mit dem Stoff einer Vorlesung ermöglichen und der Vorbereitung der Übungen dienen. In der Regel werden die Ergebnisse der Vorbereitungsaufgaben in der jeweiligen Übungssitzung thematisiert, was natürlich nur gut funktioniert, wenn die Aufgaben erledigt wurden.
Die Aufgaben sollten in etwa 30 Minuten bearbeitet werden und bearbeitbar sein. Am besten planen Sie sich einen festen Termin in der Woche, um die Aufgaben zu erledigen: Stellen Sie sich zu dem Termin einen Timer und arbeiten Sie 30 Minuten konzentriert an der gegebenen Aufgabenstellung. Wenn Sie nicht fertig werden, dann ist das nicht schlimm: In der Regel reichen bereits Teilergebnisse für eine vertiefte Auseinandersetzung und als Beitrag für eine spannende Übungssitzung.
Bitte geben Sie auf der ersten Seite Ihren vollen Namen, Matrikelnummer und (für die Abschlussprüfung) die von Ihnen gewählte Aufgabe an. Verwenden Sie am besten unsere Vorlage (pdf / docx).
Weitere Formalia
- Textausrichtung Blocksatz
- Silbentrennung aktiviert
- Seitenrand links/rechts 3cm, oben/unten 2,5 cm
- Fließtext: 12 pt. Times New Roman (oder vergleichbare Serifenschrift), Zeilenabstand eineinhalbfach
- Fußnoten: 10 pt. Times New Roman (oder vergleichbare Serifenschrift), Zeilenabstand einfach
- Seitenzählung arabisch, die Nummerierung der Seiten beginnt nach dem Deckblatt
Legen Sie jeder Abgabe (Einsendeaufgaben, Prüfung) eine unterschriebene Eigenständigkeitserklärung (Vorlage s. u.) bei. Die Eigenständigkeitserklärung zählt nicht zur Gesamtlänge. Ohne unterschriebene Eigenständigkeitserklärung wird Ihre Abgabe als nicht sinnvoll bearbeitet bzw. als nicht bestanden bewertet.
Vorlage: Eigenständigkeitserklärung
Name, Vorname: _________________________________________________________________________
Matrikelnummer: ________________________________________________________________________
Hiermit versichere ich, dass ich die Abschlussarbeit im Modul "Ethik in der Informatik" selbständig verfasst und keine anderen als die angegebenen Quellen und Hilfsmittel benutzt habe. Ich habe alle Passagen, die ich aus gedruckten Schriften oder digital verfügbaren Dokumenten übernommenen habe, gekennzeichnet und korrekt zitiert. Ferner versichere ich, dass ich die vorliegende Arbeit in keinem anderen Prüfungsverfahren eingereicht habe.
Wir haben Ihnen hier umfangreiche Hinweise für das Zitieren von Forschungsliteratur zusammengestellt.
Frage: Darf ich ChatGPT oder andere LLMs für die Beantwortung der Einsendeaufgaben und Prüfungsleistung in infEthik-01a verwenden?
Antwort: Prinzipiell ja, dabei gelten jedoch zwei wichtige Einschränkungen bzw. Voraussetzungen:
- Der Umfang, in dem Sie ChatGPT verwenden, darf keinen Zweifel daran aufkommen lassen, dass es sich weiterhin um eine eigene, wissenschaftliche Leistung von Ihnen handelt. Wann besteht dieser Zweifel? Wenn Sie sich diese Frage stellen, ist das ein guter Hinweis darauf, dass Sie möglicherweise bereits die Linie überschritten haben. Wenn Sie unsicher sind, sollten Sie das Gespräch mit den Übungsleitungen suchen.
- Die Verwendung von ChatGPT und ähnlicher Software ist ein Hilfsmittel. Hilfsmittel müssen – ähnlich wie verwendete Literatur – im Anhang Ihrer Arbeit angegeben werden. Dabei sollten Sie das verwendete Hilfsmittel, den Umfang der Verwendung (wie viel und welcher Text wurde übernommen) und die verwendeten Prompts angeben.
In der Eigenständigkeitserklärung sichern Sie zu, dass Sie alle Hilfsmittel angegeben haben. Sollten Sie entsprechend ChatGPT verwenden ohne dies anzugeben, müssen wir das als Täuschungsversuch werten.
In Woche 11 der Vorlesung geht es um „Ethik in der Wissenschaft“, dort wird auch das Thema Plagiate behandelt. Eine Verwendung von ChatGPT, die nicht den Regeln oben folgt, ist aus den gleichen Gründen ethisch problematisch, die auch für Plagiate (in der Wissenschaft) gelten: Es ist intransparent und verhindert die Nachvollzieh- und Reproduzierbarkeit wissenschaftlicher Ergebnisse; es schadet damit nicht nur der wissenschaftlichen Methode, sondern auch dem Ansehen der Wissenschaft überhaupt.
Bevor Sie Ihre Einsendeaufgabe oder Prüfungsleistung einreichen, können Sie sich anhand der folgenden Fragen vergewissern, ob Ihre Abgabe den wichtigsten (formalen) Anforderungen entspricht.
Formulierungen:
- Habe ich zweideutige oder undeutliche Formulierungen benutzt? Versteht der Leser auf Anhieb, was ich sagen will? Hilfreich kann es sein, den Text von Außenstehenden lesen zu lassen.
- Habe ich lange, verschachtelte Sätze benutzt? Wo kann ich vielleicht lieber einen Punkt setzen?
- Habe ich Umgangssprache benutzt? Wirkt meine Wortwahl seriös und informiert (Fachbegriffe)?
- Habe ich ein Rechtschreibprogramm benutzt? Habe ich die Regeln der Kommasetzung richtig angewendet? Habe ich das/dass richtig unterschieden?
Argumentation:
- Wird bei jedem Absatz deutlich, welches Argument er enthält und was dieses Argument für meine Ursprungsfrage bedeutet? Jeder Absatz/Satz des Textes soll eine Funktion für die Argumentation haben. Stelle möglichst immer einen Rückbezug zur Ausgangsfrage her. Vermeide Abschweifungen und konzentriere dich auf die wichtigsten Informationen.
- Habe ich für jede These eine Begründung und ein Beispiel angeführt? (Aktuelle) Beispiele machen die Argumentation überzeugender.
- Habe ich unbegründet wertende Aussagen vermieden? Habe ich Behauptungen, Übertreibungen oder unbegründete Vermutungen/Unterstellungen vermieden? Halte deinen Stil neutral, halte die Maßstäbe der Richtigkeit und Wahrheit ein! Ein Designdokument/Impact Statement soll keine Werbung für die Anwendung machen und auch keine unwahrscheinlichen Szenarien behandeln. Wenn du etwas nicht sicher abschätzen kannst, verwende immer den Konjunktiv.
- Wird im Schluss mein stärkstes Argument aufgegriffen? Im Schluss sollten keine neuen Aspekte oder Argumente genannt werden, die nicht in der Argumentation erläutert wurden.
Sekundärliteratur:
- Habe ich Sekundärliteratur richtig gekennzeichnet? (Regeln im Moodle)
- Ist mein Einsatz von Sekundärliteratur wirklich notwendig oder handelt es sich um Allgemeinwissen/gesunden Menschenverstand?
Layout:
- Habe ich Absätze sparsam eingesetzt? Es sollte nicht hinter jedem Satz ein Zeilenumbruch gemacht werden. Zu viele Absätze behindern den Lesefluss.
- Habe ich Zwischenüberschriften verwendet? (Nummerierte) Zwischenüberschriften sorgen für eine bessere Leserführung.
Falls Sie weitere Vorschläge haben, dann schreiben Sie diese gerne in den Wetalk-Channel; die Liste wird nach und nach ergänzt. Voraussetzung für die Aufnahme in die Liste ist ein klarer Bezug zur Informatik auf der einen und ethischen bzw. gesellschaftlichen Problemstellungen auf der anderen Seite.
In Filmen...
In Serien...
In Dokumentationen...
- Das Dilemma mit den Sozialen Medien(Netflix)
- Coded Bias(Netflix)
- <iframe width="640" height="360" src="https://www.youtube.com/embed/jZjmlJPJgug" title="Facial Recognition: Last Week Tonight with John Oliver (HBO)" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
- <iframe width="640" height="360" src="https://www.youtube.com/embed/F8aegvTVy5g" title="Die Schwachstelle von KI – wir Menschen | ZDF Magazin Royale" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture" allowfullscreen></iframe>
In Büchern (inkl. Graphic Novels und Comics)...
- Träumen Androiden von elektrischen Schafen? (Romanvorlage von Blade Runner, s. o.)
- Ghost in the Shell (Manga, Vorlage für den gleichnamigen Film, s. o.)
- Klara und die Sonne
In Musik...
- Twitter Thread mit diversen Musikempfehlungen
Eine umfangreiche Literaturliste wird zu Beginn der Veranstaltung zur Verfügung gestellt. Zur Einführung eignen sich die folgenden Artikel/Bücher:
- J. Sullins: Information Technology and Moral Values, In: The Stanford Encyclopedia of Philosophy (Spring 2021 Edition)
- M. Noorman: Computing and Moral Responsibility, In: The Stanford Encyclopedia of Philosophy (Spring 2020 Edition)
- P. Grimm, Tobias Keber, Oliver Zöllner: Digitale Ethik. Reclam. Stuttgart, 2019
- S. Vallor: Technology and the Virtues. Oxford University Press. Oxford, 2018
- R. Elliott Smith: Rage Inside the Machine. Bloomsbury Business. London, 2019
- K. Crawford: Atlas of AI. New Haven/London: Yale University Press, 2021.
- C. D'Ignazio, Lauren F. Klein: Data Feminism. Cambridge/London: MIT Press, 2020.
- B.-Ch. Han, Infokratie. Digitalisierung und die Krise der Demokratie. Berlin: Matthes & Seitz, 2021.
- E. Pariser, Filter Bubble. Wie wir im Internet entmündigt werden. München: Carl Hanser, 2012.
- P. Schaar, Das digitale Wir. Unser Weg in die transparente Gesellschaft. Hamburg: Körber-Stiftung, 2015.
Weitere Hinweise finden Sie bei den einzelnen Themen der Veranstaltung. Diese Liste wird nach und nach erweitert.
Dieser erste Abschnitt der Vorlesung gehört zu dem Grundlagenbereich und soll einen ersten orientierenden Überblick über die Disziplien der Ethik geben. Im ersten Kapitel werden die zwei ethischen Methoden Philosophisches Staunen und Epoché (Urteilsenthaltung) eingeführt. Diese helfen, scheinbar Selbstverständliches aus einem anderen Blickwinkel zu betrachten und auch das nicht Offensichtliche zu erkennen. Sie werden beide Methoden im Laufe des Semesters immer wieder benötigen.
Auch dieses Bild werden Sie im ersten Video erneut sehen. Nehmen Sie sich daher doch bereits jetzt einige Minuten Zeit, um es in Ruhe zu betrachten.
Im zweiten Kapitel wird der Begriff Ethik definiert und Sie lernen die Unterschiede zwischen Moral, Ethik und Metaethik kennen. Abschließend wird noch ein kurzer Ausblick darüber geführt, welche Probleme es im Schnittbereich zwischen Informatik und Ethik geben kann.
Lernziele des Abschnitts 01 Orientierung:
- Sie können die Methoden Philosophisches Staunen und Epoché beschreiben und wissen, welche Funktionen sie erfüllen.
- Sie kennen verschiedene Verständnisweisen des Begriffs Ethik und können diese erläutern.
- Sie können die Definitionen der Begriffe Moral, Ethik und Metaethik nennen und Gemeinsamkeiten und Unterschiede beschreiben.
Folien: Philosophisches Staunen und Epoché
{{1}}
Quiz
Was bedeutet Epoché?
[[ ]] Urzustand [[X]] Urteilsenthaltung [[ ]] Urteilsbildung
Welche der folgenden Aspekte sind nicht Teil der Epoché?
[[ ]] Alle Perspektiven eines Problems unvoreingenommen offen legen [[ ]] Meinungen und Gefühle zum Thema zurückhalten und rein faktenbasiert urteilen [[x]] Erst ein Urteil bilden und dieses später hinterfragen [[ ]] Empathie für andere Positionen haben/entwickeln [[ ]] Nicht urteilen, solange man kein klares Bild aller Umstände entwickelt hat
{{2}}
Quellen und vertiefende Literatur
- Aßmann, Lothar, Reiner Bergmann, Roland W. Henke, Matthias Schulze, and Eva-Maria Sewing. 2020. Zugänge zur Philosophie. Einführungsphase. Cornelsen Schulverlage.
- Engstler, Achim. 1995. “Urteilsenthaltung und Glück. Eine Verteidigung ethisch motivierter Skepsis.” Zeitschrift für philosophische Forschung. Vittorio Klostermann GmbH.
- Vogt, Katja. 2021. “Ancient Skepticism.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Summer 2021. Metaphysics Research Lab, Stanford University.
- Morison, Benjamin. 2019. “Sextus Empiricus.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2019. Metaphysics Research Lab, Stanford University.
- Bett, Richard. 2018. “Pyrrho.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Winter 2018. Metaphysics Research Lab, Stanford University.
{{1}}
Quiz
Welche Aussagen zu Ethik sind korrekt?
[[ ]] Der Begriff wird einheitlich verwendet. [[X]] Ethik beschäftigt sich mit dem richtigen Handeln. [[ ]] Ethik ist ein einfaches Konzept. [[X]] In der Informatikethik werden u.a. die Handlungsnormen und Werte identifiziert, systematisiert und problematisiert. [[X]] Ethik reflektiert über und systematisiert existierende Moral.
Entscheiden Sie, um was für eine Art der Fragestellung es sich bei den folgenden Fragen handelt (Moral, Ethik, Metaethik):
Welche Schlüsse kann ich aus der Auswertung von Benutzerdaten schließen, sodass diese weiter „natürlich“ und wertfrei bleiben?
[[Ethik]]
Sollte ich meine Benutzerdaten an die Hersteller des Programms weitergeben?
[[Moral]]
Wie kann die „Natürlichkeit“ und Wertfreiheit von genommenen Daten bewertet werden?
[[Metaethik]]
{{2}}
Quellen und vertiefende Literatur
- Prechtl, Peter, and Franz-Peter Burkard. 2015. Metzler Lexikon Philosophie: Begriffe und Definitionen. Springer-Verlag.
Der zweite Abschnitt gehört ebenfalls zu den Grundlagen und handelt von Argumentation. Argumentieren ist in der Ethik sehr wichtig und wird Sie das gesamte Semester begleiten. Durch richtiges Argumentieren können unterschiedliche Standpunkte erkannt, analysiert und diskutiert werden. Es ermöglicht Ihnen eine kritische, rationale und reflektierte Auseinandersetzung mit moralischen Problemen und unterschiedlichen Perspektiven. Sie werden bestenfalls neue Erkenntnisse erlangen und in der Lage sein, ausgewählte Argumente zu stärken oder abzuschwächen.
Das erste Kapitel erklärt, wie ethische Texte am besten zu lesen sind und welche Fragen Sie sich dabei stellen sollten. Im zweiten Kapitel wird der grundlegende Aufbau eines Arguments durch These, Argument und Beleg durchgegangen und verschiedene Argumenttypen werden besprochen. In Kapitel 3 lernen Sie, wie Sie richtige Schlüsse ziehen und was Fakten- und Normenaussagen sind. Das Wissen hilft, Ihre Argumentationen überzeugend zu formulieren. Das letzte Kapitel des zweiten Abschnitts handelt davon, wie Sie Argumente strukturieren und verknüpfen können, um einen schlüssigen Gesamttext zu erhalten.
Lernziele des Abschnitts 02 Argumentation:
- Sie haben ein grundlegendes Verständnis erlangt, wie ethische Texte zu lesen sind und können die grobe Vorgehensweise beschreiben.
- Sie wissen, was eine These, ein Argument und ein Beleg ist und wie diese sich unterscheiden.
- Sie kennen die beiden Argumenttypen seriös und unseriös und ihre Unterschiede.
- Sie können wesentlichen Merkmale von Fakten- und Normenaussagen nennen und den Unterschied erklären.
- Sie kennen den formalen Aufbau sowie Vor- und Nachteile von Five Paragraph-Essay, Pingpong, Sanduhr und Rogerian Argument.
In dieser Woche beschäftigen wir uns mit dem Lesen und Verfassen von Argumentationen, einem Thema, dass uns die gesamte Veranstaltung über beschäftigen wird. Gut zu argumentieren ist zudem Voraussetzung für das Bestehen der Prüfungsleistung.
Die folgenden beiden Aufgaben bereiten die Übung und zudem die erste Einsendeaufgabe vor: Die Ergebnisse, wie auch die Ergebnisse der Übungsdiskussion können Sie gerne für die Bearbeitung der EA verwenden.
Lesen Sie dazu bitte zunächst den folgenden Text: Moshe Y. Vardi: Are We Having An Ethics Crisis in Computing?
Beantworten Sie außerdem die beiden Fragen:
- Welche Argumente benennt der Text, um seine Position zu belegen? Versuchen Sie, die Argumente in eigenen Worten, in Stichpunkten oder als Fließtext aufzuschreiben.
- Wie haben Sie den Text gelesen, um sich dessen Sinn (argumentative Struktur etc.) zu erschließen? Verfassen Sie eine kurze Beschreibung Ihres Vorgehens.
{{1}}
Quiz
Welche der folgenden Fragen sind für den ersten Zugang zu einem Text relevant?
[[X]] Wer ist der Autor des Textes? [[X]] Bezieht sich der Text auf Aktuelles oder Vergangenes? [[X]] In welchem Land wurde der Text veröffentlicht? [[ ]] Wie fühle ich mich beim Lesen des Textes? [[X]] Welches Fazit kann man aus dem Text ziehen? [[ ]] Wie lang ist der Text? [[ ]] Welche Wörter nutzt der Autor besonders häufig? [[X]] Wann ist der Text erschienen? [[X]] Was ist das (Haupt-)Thema des Textes?
<iframe title="02-02 Argumente analysieren" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/7b5c8640074e4a1a9e4f3e18ea085a041d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Ordnen Sie den folgenden Argumenten zu, ob es sich um normative, indirekte, Fakten, ad populum oder ad hominem Argumente handelt.
-
Die Verwendung von Smartphones als Hilfsmittel spielt in unserem privaten Leben eine immer größer werdende Rolle, weshalb sie auch im Unterricht als Hilfsmittel erlaubt werden sollten.
[( )] normatives Argument [(X)] indirektes Argument [( )] Faktenargument [( )] Argument ad populum [( )] Argument ad hominem
-
Wir sollten Person X nicht vertrauen, sie hat uns schon mehrfach angelogen.
[( )] normatives Argument [( )] indirektes Argument [( )] Faktenargument [( )] Argument ad populum [(X)] Argument ad hominem
-
Abschreiben sollte mit einer schlechten Note bestraft werden, weil man für seine Taten einstehen soll.
[(X)] normatives Argument [( )] indirektes Argument [( )] Faktenargument [( )] Argument ad populum [( )] Argument ad hominem
-
Marke X ist führend in Europa, also solltest Du ihre Produkte kaufen.
[( )] normatives Argument [( )] indirektes Argument [( )] Faktenargument [(X)] Argument ad populum [( )] Argument ad hominem
-
Bei 90 Prozent der 2.000 Versuchspersonen traten unmittelbar nach Verzehr des Produktes Atembeschwerden, Hautreizungen und akute Kopfschmerzen auf. Deshalb hätte es erst gar nicht verkauft werden dürfen.
[( )] normatives Argument [( )] indirektes Argument [(X)] Faktenargument [( )] Argument ad populum [( )] Argument ad hominem
Welche der genannten Argumente würden Sie als seriös einschätzen?
[[X]] 1. [[ ]] 2. [[X]] 3. [[ ]] 4. [[X]] 5.
<iframe title="02-03 Schließen" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/e2acc27e830745d482ef8690d0b95ad91d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Welche Aussagen zu Fakten- und Normenaussagen sind korrekt?
[[X]] Faktenaussagen sind beschreibend. [[ ]] Faktenaussagen bringen eine Norm zum Ausdruck. [[ ]] Faktenaussagen lassen sich nicht auf "Wahr" oder "Falsch" überprüfen. [[X]] Faktenaussagen lassen sich überprüfen. [[ ]] Faktenaussagen beinhalten Forderungen. [[X]] Faktenaussagen richten sich auf eine Tatsache. [[ ]] Normenaussagen richten sich auf eine Tatsache. [[X]] Normenaussagen beinhalten Forderungen. [[X]] Normenaussagen bringen eine Norm zum Ausdruck. [[ ]] Normenaussagen sind beschreibend. [[X]] Normenaussagen lassen sich nicht auf "Wahr" oder "Falsch" überprüfen. [[ ]] Normenaussagen lassen sich überprüfen.
Liegt in den folgenden Fällen ein naturalistischer Fehlschluss vor?
Das Klonen von Tieren ist technisch möglich. Die Natur klont alle Tage. Das heißt das Klonen von Tieren ist moralisch in Ordnung.
[(X)] Ja [( )] Nein
Wir wollen die Zahl der Verkehrsunfälle verringern. Durch ein Verbot von Handys ohne Freisprecheinrichtung geht die Anzahl der Unfälle um x % zurück. Also sollte man ein Verbot von Handys ohne Freisprecheinrichtung beim Fahren einführen.
[( )] Ja [(X)] Nein
<iframe title="02-04 Texte verfassen" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/778cd2e99d9e4bfebcd4a348485b98a21d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
In den folgenden Fragen wird jeweils die passende Argumentationsform zu einem formalen Aufbau gesucht.
Der formale Aufbau besteht aus Einleitung, drei Argumenten und einem Schluss.
[(X)] Five-paragraph essay [( )] Pingpong [( )] Sanduhr [( )] Rogerian Argument
Der formale Aufbau besteht aus einer Einleitung, Argumente der Gegenseite, eigenen Argumenten, einer Kompromiss-Findung und dem Ergebnis mit einem Schluss.
[( )] Five-paragraph essay [( )] Pingpong [( )] Sanduhr [(X)] Rogerian Argument
Der formale Aufbau besteht aus einer Einleitung für die Gegenposition und Nennung der Argumente von stark zu schwach. Anschließend kommt die Einleitung für die Pro-Argumente, die dazugehörigen Argumente von schwach zu stark und abschließend ein Schlussteil.
[( )] Five-paragraph essay [( )] Pingpong [(X)] Sanduhr [( )] Rogerian Argument
Der formale Aufbau besteht aus einer Einleitung, sich abwechselnden Pro- und Contra-Argumenten und einem Schlussteil.
[( )] Five-paragraph essay [(X)] Pingpong [( )] Sanduhr [( )] Rogerian Argument
Die nächsten Fragen beziehen sich auf die Vor- und Nachteile der verschiedenen Argumentationsformen.
Welche der folgenden Vorteile bietet das Rogerian Argument gegenüber anderen Argumentationsstrukturen?
[[X]] Es hilft die eigene Position zu reflektieren. [[ ]] Es ist leichter die Gegenseite immer wieder falsch dazustellen. [[X]] Konsensorientierung hilft verschiedene Positionen anzunähern. [[ ]] Es ist besonders geeignet für kürzere Meinungsbeiträge. [[X]] Es erleichtert das Einnehmen der Gegenposition durch vorherige Annäherung.
Bei welcher Argumentationsform muss das Ergebnis der Argumentation bereits vorher feststehen?
[( )] Five-paragraph essay [( )] Pingpong [(X)] Sanduhr [( )] Rogerian Argument
Welche Aussagen treffen auf die Pingpong Argumentation zu?
[[ ]] Die Argumentation wirkt überzeugend, weil das stärkste Pro-Argument immer als letztes genannt wird. [[X]] Die eigene Argumentation wird durch Widerlegen gestützt. [[X]] Durch die Gegenposition wird sich mit dem Thema auseinandergesetzt. [[ ]] Es ist kaum Raum für die Entfaltung von Ideen vorhanden.
Es soll ein Meinungsbeitrag geschrieben werden. Welche Argumentationsform ist am besten geeignet?
[(X)] Five-paragraph essay [( )] Pingpong [( )] Sanduhr [( )] Rogerian Argument
- Kruse, Otto. 2020. Argumentieren, begründen und reflektieren. In: Ders. "Kritisches Denken und Argumentieren." UTB.
- Ahrens, S. 2017. Das Zettelkasten-Prinzip: Erfolgreich wissenschaftlich Schreiben und Studieren mit effektiven Notizen. Books on Demand.
- Aßmann, Lothar, Reiner Bergmann, Roland W. Henke, Matthias Schulze, and Eva-Maria Sewing. 2020. Zugänge zur Philosophie. Einführungsphase. 1. Cornelsen Schulverlage.
- Dutilh Novaes, Catarina. 2021. “Argument and Argumentation.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2021. Metaphysics Research Lab, Stanford University.
- Pfeifer, V. 2009. Ethisch argumentieren: eine Anleitung anhand von aktuellen Fallanalysen. Ethisch argumentieren / Eine Anleitung anhand von aktuellen Fallanalysen. Schöningh.
- Regenbogen, A., und U. Meyer. 2013. Wörterbuch der philosophischen Begriffe. Philosophische Bibliothek. Meiner, F.
- Smith, Robin. 2020. “Aristotle’s Logic.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2020. Metaphysics Research Lab, Stanford University.
- T. Edward Damer. 2008. Attacking Faulty Reasoning: A Practical Guide to Fallacy-Free Arguments. Wadsworth/Cengage Laerning.
- Weitere prakt. Tipps gibt es zum Beispiel beim Schreibportal der Uni Leipzig und der Schreibwerkstatt der Uni Kiel (UB).
Zusätzlicher Hintergrund zum Text von M. Vardi
- Doctorow, Cory. 2020. How to Destroy ‘Surveillance Capitalism.’ Medium. OneZero. https://onezero.medium.com/how-to-destroy-surveillance-capitalism-8135e6744d59
- Zuboff, Shoshana. 2018. Das Zeitalter des Überwachungskapitalismus. Frankfurt am Main: Campus Verlag.
In der ersten Einsendeaufgabe sollen Sie eine Gegenargumentation zum Text von Moshe Vardi zu verfassen. Dafür ist es erforderlich, sich zunächst mit den Argumenten Vardis vertraut zu machen (Aufgabe 1), um in Anschluss wirkungsvolle Gegenargumente in einem eigenen Text vorzubringen (Aufgabe 2).
Diese Auseinandersetzung mit und die Formulierung eigener Argumente soll Ihr Verständnis für das Formulieren eigener, strukturierter Argumentationen vertiefen und Sie damit auf die Prüfungsleistung vorbereiten.
Aufgabe 1
Halten Sie in einer Tabelle (s. Vorlage; es ist nicht unbedingt sinnvoll alle Felder in der Tabelle auszufüllen: Wenn es nur eine These gibt, dann muss auch nur eine These angegeben werden) fest:
Welche These bzw. Thesen vertritt Vardi, welche Argumente bringt er für die These bzw. Thesen vor? Welche Argumenttypen benutzt er? Welche Belege und Beispiele liefert er für seine Argumentation? Sind die Beispiele treffend? Bewerten Sie in ein bis zwei Sätzen die Schlüssigkeit und Überzeugungskraft der einzelnen Argumente.
Aufgabe 2
Verfassen Sie eine Gegenargumentation zum Text von Moshe Vardi. Achten Sie darauf, dass Ihre Argumente stimmig (d. h. dem in der Vorlesung vorgestellten Aufbau entsprechen) sind und die Gesamtargumentation einem der vorgestellten Schemata folgt (bspw. Rogerian). Ihre Gegenargumentation sollte nicht länger sein als der Text von Vardi und als Fließtext erfolgen.
Bewertungskriterien
Diese Aufgabe wird anhand der folgenden Kriterien bewertet:
- Die unter "Allgemeines" angeführten Formalia (Layout, Titelseite etc.) wurden beachtet.
- Die unter "Allgemeines" angeführten Zitationsregeln und bibliographischen Hinweise wurden beachtet.
- Es wurde eine Rechtschreibkorrektur verwendet, d. h. offensichtliche Fehler kommen nicht oder nur in sehr geringem Umfang vor.
- Die Längenvorgabe wurde beachtet.
- Die in der Vorlesung bis zum Thema der Einsendeaufgabe vorgestellten Begriffe wurden berücksichtigt.
- Die in der Einsendeaufgabe verwendeten Begriffe wurden korrekt verwendet.
- Die Einträge in der Tabelle (Aufgabe 1) sind vollständig und korrekt.
- Es wird eines der in der Vorlesung vorgestellten Argumentationsschemata verwendet.
- Die verwendeten Argumente sind in sich stimmig (d. h. sie verwenden den in der Vorlesung vorgestellten Aufbau).
Zum Bestehen müssen Sie mindestens 7 von 9 Kriterien erreichen/nicht verletzen.
Hinweis: Unabhängig von den hier genannten Kriterien werden Einsendungen, die nicht oder nicht sinnvoll auf die gestellten Aufgaben eingehen als "nicht sinnvoll bearbeitet" bewertet. Es können nur Texte und Textabschnitte für die Bewertung berücksichtigt werden, die sprachlich verständlich sind.
Der dritte Abschnitt des Grundlagenbereichs gibt eine Einführung in die Methode der Gedankenexperimente, definiert den Begriff Dilemma und beschäftigt sich mit klassischen Argumentationslinien der Ethik.
Im ersten Kapitel geht es um Gedankenexperimente - eine beliebte Methode der Philosophie. Sie helfen dabei, sich Szenarien vorzustellen, die der Realität nicht entsprechen. Neben einer typischen Struktur werden in diesem Kapitel auch verschiedene Arten von Gedankenexperimenten vorgestellt. Außerdem wird auch der Begriff Dilemma definiert und der Bezug zu den Gedankenexperimenten verdeutlicht. In Kapitel 2 sollen Sie sich mit der Internetseite Moral Machine beschäftigen und selbst entscheiden, wie ein selbstfahrendes Auto handeln soll. Das dritte Kapitel gibt einen Überblick über die klassischen Argumentationslinien und ethischen Denkschulen. Ethische Denkschulen sind Gegenstand jahrtausendelanger Auseinandersetzungen und geprägt von verschiedenen Ethiker*innen, die im Laufe dieses Kapitels genauer vorgestellt werden. Die verschiedenen Argumentationslinien sollen unterschiedliche Blickwinkel auf einen Sachverhalt zeigen und Begründungsrahmen für ethische Diskussionen bieten.
Lernziele des Abschnitts 03 Argumentationslinien:
- Sie haben die Methode des Gedankenexperiments verstanden und können diese anwenden.
- Sie können den Begriff Dilemma definieren und wichtige Eigenschaften benennen.
- Sie haben verstanden, warum das Trolley Dilemma ein Dilemma und ein Gedankenexperiment ist und können beides erklären.
- Sie kennen die verschiedenen Argumentationslinien und können diese unterscheiden.
- Sie haben verstanden, warum der Utilitarismus auch als ethische Arithmetik bezeichnet werden kann.
- Sie kennen den Begriff des Urzustands und des Schleiers des Nichtwissens in der Gerechtigkeitstheorie von John Rawls und können diese erläutern.
Achtung: Sollten Sie bisher wenig Programmiererfahrung haben, konzentrieren Sie sich bitte auf Aufgabe 2 und 4. Aufgabe 1 und 3 (die eigentliche Implementierung) sind als optionale Aufgabenteile zu verstehen.
Willkommen zu Ihrem ersten Arbeitstag beim neuen, wegweisenden Unternehmen für selbstfahrende Autos: Messla. Weil wir bei Messla die Vorreiter in Sachen selbstfahrender Autos sind, müssen wir schneller Innovationen gestalten als alle anderen da draußen. Um unsere Autos bis Ende des Jahres auf die Straße zu bringen, müssen wir den besten Algorithmus finden, um ein Problem zu lösen, das allen unseren "selbstfahrenden" Konkurrenten im Weg steht: Das Trolley-Problem, also die Frage nach der Abwägung zwischen Menschenleben im Fall eines unvermeidlichen Unfalls.
Ihre erste Aufgabe ist es, einen Algorithmus zu entwickeln, der festlegt, wie sich unsere selbstfahrenden Autos im Falle eines unvermeidlichen Zusammenstoßes verhalten sollen. Wir nennen unseren Algorithmus die Moral Machine.
Dies wird in 3 Schritten geschehen:
- Verwenden Sie die Daten, die wir von früheren unvermeidbaren Zusammenstößen haben, um Ihr Modell zu erstellen.
- Legen Sie die Kriterien fest, nach denen unsere Autos entscheiden sollen, wer getötet und wer gerettet werden soll.
- Testen Sie Ihr Modell an unseren Daten und sehen Sie, wie gut es funktioniert!
Das sollte doch einfach sein, … oder?
Teil 1
Die mitgelieferte CSV-Datei repräsentiert alle Personen, die an einer unvermeidlichen Kollision mit einem unserer autonomen Fahrzeuge beteiligt waren. Sie können diese Datei folgendermaßen interpretieren:
Gerade Zeilen stehen für die demografischen Daten von Fußgäng:innen, der zum Zeitpunkt des Zusammenstoßes gerade die Straße überquert haben. Jede ungerade Zeile steht für die demografischen Daten der Fahrer:innen. Das bedeutet, dass alle zwei Zeilen dieser CSV-Datei einen Unfall darstellen. Bei einigen dieser Unfälle trugen Fahrer:innen die Schuld, bei anderen Fußgänger:innen: Dies wird in der 5. Spalte eines jeden Eintrags angegeben.
Die Daten sind wie folgt formatiert:
RowNumber, Age, Gender, Country, Fault
- Wobei RowNumber die Nummer der Zeile ist; gerade Zahlen sind Fußgänger:innen, ungerade Zahlen Fahrer:innen
- Age ist das Alter
- Gender ist das Geschlecht
- Country ist das Herkunftsland von Fahrer:innen und Fußgänger:innen
- Fault gibt an, wer den Zusammenstoß verschuldet hat
Lesen Sie die Daten mit einer Programmiersprache Ihrer Wahl ein (die Musterlösung wird in Python ausgegeben). Achten Sie darauf, dass die Daten mit korrekten Typen repräsentiert werden (bspw. Age als Ganzzahl).
Teil 2
Nehmen Sie sich ein paar Minuten Zeit, um darüber nachzudenken, nach welchen Kriterien Sie entscheiden würden, welche der beiden Personen bei jedem Unfall gerettet und welche getötet werden sollte. Schreiben Sie Ihre Gedanken und Kriterien in Stichworten auf. Sie sollten mindestens 4 Kriterien auswählen, die für die Ihnen zur Verfügung stehenden Daten relevant sind. Überlegen Sie, was Ihre Grenzfälle sind, wie würde Ihr Entscheidungsbaum aussehen?
Teil 3
Nun, da Sie die Kriterien für Ihren Algorithmus für das Trolley-Problem kennen, ist es an der Zeit, ihn zu programmieren! Erstellen Sie eine Funktion mit zwei Parametern: pedestrian und driver - die beiden Personen, die an einer bestimmten unvermeidbaren Kollision mit einem selbstfahrenden Auto beteiligt sind. Sowohl pedestrian, wie auch driver sind jeweils eine Liste mit Age, Gender, Country und Fault.
Ihre Funktion soll (basierend auf Ihren Kriterien) als String zurückgeben, wen das Auto retten soll.
Verwenden Sie die Funktion, um Entscheidungen für alle historischen Daten (aus der CSV-Datei) zu treffen.
Teil 4
Nachdem Sie nun Ihren eigenen Algorithmus für eine "moralische Maschine" geschrieben haben, nehmen Sie sich einen Moment Zeit, um über den Prozess nachzudenken.
Wie haben Sie sich gefühlt, als Sie die Verantwortung für die Designentscheidungen und die Kriterien zur Auswahl der zu rettenden Personen hatten? Was, glauben Sie, hätten Sie anders oder besser machen können? Was hätten Sie getan, wenn Sie in einem echten Unternehmen für selbstfahrende Autos arbeiten und mit der Entwicklung dieses Algorithmus beauftragt worden wären?
(In Anlehnung an: https://drive.google.com/drive/folders/1EKQNVeSCz8AWNmb2zQ65apfPUKhhG9Sq)
<iframe title="03-01 Gedankenexperimente und Dilemmata" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/387a9a9e4a6a40c5a1167d1eb393c7ad1d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe>Folien: Gedankenexperimente und Dilemmata
{{1}}
Quiz
Welcher der folgenden Teile ist nicht Teil eines Gedankenexperiments?
[[ ]] Einleitung durch philosophische Fragestellung [[ ]] Kontrafaktisches Szenario [[X]] Unterscheidung zur realen Situation [[ ]] Auswertung des Szenarios in Bezug auf die Fragestellung
Welche der folgenden Aussagen treffen auf ein moralisches Dilemma zu? Kreuzen Sie die richtigen Antworten an!
[[X]] Ein Dilemma ist eine Konfliktsituation für einen Akteur mit mehreren unterschiedlichen Handlungsmöglichkeiten, die sich gegenseitig ausschließen. [[X]] In einer Dilemmasituation gibt es moralische Gründe für jede Handlungsmöglichkeit. [[X]] Eine Dilemmasituation besteht aus einer moralischen Entscheidung. [[X]] Keine einzelne Entscheidung ist moralisch zu 100% richtig. [[ ]] Man ist nicht gezwungen eine unmoralische Entscheidung zu treffen. [[ ]] Bei einem Dilemma geht es darum sich zwischen zwei angenehmen Optionen zu entscheiden. [[ ]] Bei einem Dilemma gibt es immer eine richtige Lösung. [[X]] In einer Dilemmasituation müssen alle Handlungsmöglichkeiten durchführbar sein.
{{2}}
Quellen und vertiefende Literatur
Gedankenexperimente:
- Aßmann, Lothar, Reiner Bergmann, Roland W. Henke, Matthias Schulze, and Eva-Maria Sewing. 2020. Zugänge zur Philosophie. Einführungsphase. 1. Cornelsen Schulverlage.
- Bertram, G.W., ed. 2016. Philosophische Gedankenexperimente: ein Lese- und Studienbuch. Reclam-Taschenbuch. Reclam.
- McConnell, Terrance. 2018. “Moral Dilemmas.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Fall 2018. Metaphysics Research Lab, Stanford University.
Trolley-Dilemma:
- Awad, Edmond, Sohan Dsouza, Jean-François Bonnefon, Azim Shariff, and Iyad Rahwan. 2020. “Crowdsourcing moral machines.” Communications of the ACM.
- Jaques, Abby Everett. 2019. “Why the moral machine is a monster.” University of Miami School of Law.
- Loh, Janina. 2019. Roboterethik: Eine Einführung. Originalausgabe. Frankfurt am Main: Suhrkamp Verlag.
- Wilde, Edda. 2018. “Philosophische Gedankenexperimente.” In , edited by Georg W. Bertram, 263–69. Stuttgart: Philipp Reclam jun Verlag GmbH.
- Absurd Trolley Problems
Besuchen Sie die Moral Machine und entscheiden Sie, wie ein selbstfahrendes Auto agieren sollte; versuchen Sie das in Zusammenhang mit 03-01 (Gedankenexperimente und Dilemmata) und 03-03 (Argumentationslinien) zu bringen.
<iframe title="03-03 Ethische Argumentationslinien" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/51005ed3339a47e8b2fbd5635a04d9031d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe>Folien: Ethische Argumentationslinien
Weiterführende Informationen zu den verschiedenen Argumentationslinien bieten die kurzen Übersichtsartikel (mit Video) des Ethics Centre:
{{1}}
Quiz
Welche Argumentationslinie kann mit der Phrase "fake it, until you make it" beschrieben werden?
[( )] Utilitarismus [(X)] Tugendethik [( )] Deontologie [( )] Kontraktualismus
Wie wird beim Utilitarismus eine moralisch wertvolle Handlung bestimmt?
[[X]] Es wird der moralische Wert einer Handlung allein anhand der zu erwartenden Konsequenzen bzw. Handlungsfolgen bewertet. [[ ]] Es wird der moralische Wert einer Handlung anhand des Prinzips oder der Regel, der beim Handeln gefolgt wird, bewertet. [[ ]] Moralisch gutes Handeln gelingt durch die eigene Charakterausbildung und durch Einübung in bzw. die Habitualisierung von guten Verhaltensweisen. [[ ]] Moralisch gutes Handeln entsteht, in dem Personen des Urzustands sich für das beste der schlechtestmöglichen Resultate entscheiden.
Wie wird beim Kontraktualismus eine moralisch wertvolle Handlung bestimmt?
[[ ]] Es wird der moralische Wert einer Handlung allein anhand der zu erwartenden Konsequenzen bzw. Handlungsfolgen bewertet. [[ ]] Es wird der moralische Wert einer Handlung anhand des Prinzips oder der Regel, der beim Handeln gefolgt wird, bewertet. [[ ]] Moralisch gutes Handeln gelingt durch die eigene Charakterausbildung und durch Einübung in bzw. die Habitualisierung von guten Verhaltensweisen. [[X]] Moralisch gutes Handeln entsteht, in dem Personen des Urzustands sich für das beste der schlechtestmöglichen Resultate entscheiden.
Wie wird bei der Deontologie eine moralisch wertvolle Handlung bestimmt?
[[ ]] Es wird der moralische Wert einer Handlung allein anhand der zu erwartenden Konsequenzen bzw. Handlungsfolgen bewertet. [[X]] Es wird der moralische Wert einer Handlung anhand des Prinzips oder der Regel, der beim Handeln gefolgt wird, bewertet. [[ ]] Moralisch gutes Handeln gelingt durch die eigene Charakterausbildung und durch Einübung in bzw. die Habitualisierung von guten Verhaltensweisen. [[ ]] Moralisch gutes Handeln entsteht, in dem Personen des Urzustands sich für das beste der schlechtestmöglichen Resultate entscheiden.
Wie wird bei der Tugendethik eine moralisch wertvolle Handlung bestimmt?
[[ ]] Es wird der moralische Wert einer Handlung allein anhand der zu erwartenden Konsequenzen bzw. Handlungsfolgen bewertet. [[ ]] Es wird der moralische Wert einer Handlung anhand des Prinzips oder der Regel, der beim Handeln gefolgt wird, bewertet. [[X]] Moralisch gutes Handeln gelingt durch die eigene Charakterausbildung und durch Einübung in bzw. die Habitualisierung von guten Verhaltensweisen. [[ ]] Moralisch gutes Handeln entsteht, in dem Personen des Urzustands sich für das beste der schlechtestmöglichen Resultate entscheiden.
Welcher Argumentationslinie folgen die Akteure in den folgenden Beispielen?
In den Marvelfilmen will Thanos die Hälfte der gesamten Population auslöschen. Er begründet das damit, dass durch die Ressourcenknappheit sonst früher oder später der ganze Planet zugrunde geht.
[(X)] Utilitarismus [( )] Tugendethik [( )] Deontologie [( )] Kontraktualismus
In dem Film "Bridge of Spies" vertritt James Donovan als Strafverteidiger Abel, einen russischen Spion, weil auch dieser ein verfassungsmäßiges Recht auf einen Anwalt hat.
[( )] Utilitarismus [( )] Tugendethik [( )] Deontologie [(X)] Kontraktualismus
{{2}}
Quellen und vertiefende Literatur
- Vallor, Shannon. 2016. Technology and the Virtues: A Philosophical Guide to a Future Worth Wanting. Oxford University Press.
- Aristoteles. 1985. Philosophische Bibliothek, Bd.5, Nikomachische Ethik. 4., durchges. u. erw. Hamburg: Meiner.
- Carugati, Federica. 2020.“A Council of Citizens Should Regulate Algorithms.” Wired.
- Jürgen Habermas. 2009. “Diskursethik (Philosophische Texte).” In , Studienausgabe in fünf Bänden, 3:31–115. Frankfurt am Main: Suhrkamp.
- Noddings, Nel. 1986. Caring: A Feminine Approach to Ethics and Moral Education. University of California Press.
- Norlock, Kathryn. 2019. “Feminist Ethics.” . In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Summer 2019. Metaphysics Research Lab, Stanford University.
- Rawls, John. 1979. Eine Theorie der Gerechtigkeit. Frankfurt am Main: Suhrkamp Verlag.
- Bentham, J. 2007. An Introduction to the Principles of Morals and Legislation. Dover philosophical classics. Dover Publications.
- Hutcheson, F., and W. Leidhold. 1986. Eine Untersuchung über den Ursprung unserer Ideen von Schönheit und Tugend. Über moralisch Gutes und Schlechtes. Philosophische Bibliothek. Felix Meiner Verlag.
- Kant, I., and J. Kopper. 2012. Kritik der praktischen Vernunft: Reclams Universal-Bibliothek. Reclams Universal-Bibliothek. Reclam Verlag.
- Kant, I., and T. Valentiner. 2012. Grundlegung zur Metaphysik der Sitten: Reclams Universal-Bibliothek. Reclams Universal-Bibliothek. Reclam Verlag.
- Mill, J.S., and D. Birnbacher. 2006. Utilitarianism /Der Utilitarismus: Reclams Universal-Bibliothek. Reclam.
- Regenbogen, A., and U. Meyer. 2013. Wörterbuch der philosophischen Begriffe. Philosophische Bibliothek. Meiner, F.
- Sidgwick, H., and M.G. Singer. 2000. Essays on Ethics and Method. British Moral Philosophers. Clarendon Press.
Der vierte und letzte Abschnitt der Grundlagen handelt vom Begriff des Begriffs und führt die Methode der Concept Map ein.
Das erste Kapitel definiert zuerst den Begriff des Begriffs. Anschließend findet eine Begriffsdifferenzierung zwischen moralischer Akteurschaft und Autonomie stat. Dafür wird die Frage "Können Maschinen moralisch handeln?" betrachtet.
Im zweiten Kapitel wird die Methode "Concept Map" eingeführt und sowohl die Regeln als auch der Sinn und Zweck dieser Methode erläutert. Im folgenden Bild sehen Sie eine Concept Map.
Kapitel 3 stellt wichtige Begriffe vor. Neben den bereits bekannten Begriffen Moral, Ethik und Metaethik werden hier besonders die Begriffe Werte, Interessen und Normen vorgestellt. Diese werden voneinander abgegrenzt und anschließend jeweils näher erläutert.
Lernziele des Abschnitts 04 Begriffe:
- Sie kennen die definitorischen Merkmale von Begriffen.
- Sie wissen, was Ambiguität, besonders in Bezug zu Begriffen, bedeutet.
- Sie haben die Methode Concept Map verstanden und können diese anwenden.
- Sie kennen den Unterschied zwischen Mittelkonflikt und Zielkonflikt in der Ethik.
- Sie können die Begriffe Wert und Interesse definieren und voneinander abgrenzen.
- Sie haben die Unterschiede der beiden Konfliktarten Interessenkonflikt und Wertekonflikt verstanden und können Konflikte zuordnen.
- Sie können die unterschiedlichen Wert-Typen benennen und erklären.
- Sie haben verstanden, was Normen sind und wie diese sich von Werten unterscheiden.
Ein wichtiger Aspekt guter Argumentation ist der korrekte Gebrauch von Begriffen. Daher betrachten wir in dieser Woche Begriffe näher und welche Schwierigkeiten es im Umgang mit Begriffen gibt. Manchmal kann der unterschiedliche Gebrauch eines Begriffs darüber entscheiden, wie ein Sachverhalt bewertet wird. Das werden wir anhand der sog. Akteurschaft (Agency) von Maschinen bzw. Softwaresystemen ins Auge nehmen.
Ihre Aufgabe: Finden und sammeln Sie Gründe für und gegen die Aussage „Maschinen (d. h. bspw. auch Roboter oder durch Software gesteuerte Agenten) können moralisch handeln.“
Finden Sie Gründe, in dem Sie die Methode des Seriensprints verwenden (siehe unten). Führen Sie zwei Seriensprints durch, einen mit dem Satzanfang "Maschinen können moralisch handeln, weil..." und einen mit dem Satzanfang "Maschinen können nicht moralisch handeln, weil...".
Priorisieren Sie die Gründe und versuchen Sie eine systematische Darstellungsweise (bspw. als Visualisierung) zu finden.
<iframe title="04-01 Begriffe und Begriffsdifferenzierung" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/00794395a6484627a40315d6e139bf1c1d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe>Übung "Seriensprint" - ca 3. Minuten
Schreiben Sie fünf- bis siebenmal denselben Satzanfang und führen Sie ihn jeweils mit den Worten weiter, die Ihnen spontan zuerst und unzensiert in den Kopf kommen.
Sobald Sie einen Satz fertig haben, setzen Sie wieder neu mit demselben Satzanfang an und führen diesen wiederum fort. Schreiben Sie auf diese Weise so schnell wie möglich, ohne den Stift abzusetzen, ca. drei Minuten lang.
Wenn Sie die Sätze fertiggestellt haben, lesen Sie sie noch einmal durch und markieren die Satzteile oder Wörter, die Ihnen besonders interessant erscheinen.
(U. Scheuermann: Schreibdenken, 2016)
Folien: Der Begriff des Begriffs und Begriffsdifferenzierungen
{{1}}
Quiz
Welche Aussagen sind definitorische Merkmale von Begriffen?
[[ ]] Ein Begriff oder ein Konzept funktioniert immer ohne Bezug zu anderen Konzepten. [[X]] Begriffe sind Bausteine der Gedanken. [[X]] Ein Begriff oder ein Konzept funktioniert nie ohne Bezug zu anderen Konzepten. [[X]] Begriffe können auch als Konzepte bezeichnet werden. [[ ]] Begriffe können nicht als Konzepte bezeichnet werden.
Was bedeutet der Begriff Ambiguität?
[[ ]] Geschwindigkeit [[ ]] Vielfalt [[ ]] Eindeutigkeit [[ ]] Wahrhaftigkeit [[X]] Mehrdeutigkeit [[ ]] Volumen
Welche der folgenden Eigenschaften muss ein System erfüllen, um als moralischer Akteur angesehen zu werden?
[[X]] Interaktivität [[ ]] Versatilität [[X]] Autonomie [[X]] Adaptivität [[ ]] Dualität [[ ]] Dignität
{{2}}
Quellen und vertiefende Literatur
Der Begriff des Begriffs:
- Thiel, Christian. 1994. “Der klassische und der moderne Begriff des Begriffs.” In Information Systems and Data Analysis, edited by Hans-Hermann Bock, Wolfgang Lenski, and Michael M. Richter, 175–90. Berlin, Heidelberg: Springer Berlin Heidelberg.
- Aßmann, Lothar, Reiner Bergmann, Roland W. Henke, Matthias Schulze, and Eva-Maria Sewing. 2020. Zugänge zur Philosophie. Einführungsphase. 1. Cornelsen Schulverlage.
- Bauer, T. 2018. Die Vereindeutigung der Welt: Über den Verlust an Mehrdeutigkeit und Vielfalt. [Was bedeutet das alles?]. Reclams Universal-Bibliothek. Reclam Verlag.
- Margolis, Eric, and Stephen Laurence. 2021. “Concepts.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Spring 2021. Metaphysics Research Lab, Stanford University.
Autonomie:
- Floridi, Luciano, and J.W. Sanders. 2004. “On the Morality of Artificial Agents.” Minds and Machines.
- Jonas, Hans. 1997. Das Prinzip Leben: Ansätze zu einer philosophischen Biologie. 2nd ed. Frankfurt am Main: Suhrkamp Verlag.
- Misselhorn, Catrin. 2018. “Maschinenethik und ‘Artificial Morality’: Können und sollen Maschinen moralisch handeln?” Aus Politik und Zeitgeschichte.
- Wallach, Wendell, and Colin Allen. 2008. Moral machines: Teaching robots right from wrong. Oxford University Press.
{{1}}
Quiz
Welche der folgenden Eigenschaften sollte eine Concept Map haben?
[[ ]] Die Map ist ein Baum. [[X]] Die Map ist hierarchisch organisiert. [[X]] Die Map verfügt über Querverbindungen. [[ ]] Die Verbindungen sind nicht beschriftet. [[X]] Zwei Knoten und die Verbindung dazwischen lassen sich wie ein Satz lesen. [[ ]] Jeder Knoten ist ein Attribut.
{{2}}
Quellen und vertiefende Literatur
- Novak, Joseph D, D Bob Gowin, and Gowin D Bob. 1984. Learning how to learn. cambridge University press.
{{1}}
Quiz
Welches Wort muss bei der folgenden Aussage ergänzt werden? Ein/e ??? entspringt aus einem bestimmten Bedürfnis.
[[X]] Interesse [[ ]] Norm [[ ]] Wert
Welche Konfliktart beschreibt die nachfolgende Aussage? Konflikte beruhen auf der Knappheit von Gütern oder Positionen, die von den Parteien gleichermaßen geschätzt werden.
[[X]] Interessenkonflikte [[ ]] Wertekonflikte
Was sind Werttypen?
[[ ]] Alle numerischen Datentypen. Boolean, Char und Date. [[X]] Verschiedene Begründungen für unsere Wertevorstellungen.
Handelt es sich bei den folgenden Aussagen um Normen oder Werte? (Eingabe: Wert, Norm, Beides, Keines)
Das Leben ist schützenswert.
[[Wert]]
Wir müssen unsere Umwelt schützen.
[[Norm]]
Um die Sicherheit unserer Daten zu schützen sollten wir große Firmen bei der Erfassung von Daten mehr einschränken.
[[Beides]]
{{2}}
Quellen und vertiefende Literatur
- Frick, M.L. 2017. Zivilisiert streiten: Zur Ethik der politischen Gegnerschaft. [Was bedeutet das alles?]. Reclams Universal-Bibliothek. Reclam
- Pfeifer, V. 2009. Ethisch argumentieren: eine Anleitung anhand von aktuellen Fallanalysen. Ethisch argumentieren / Eine Anleitung anhand von aktuellen Fallanalysen. Schöningh.
- Prechtl, Peter, and Franz-Peter Burkard. 2015. Metzler Lexikon Philosophie: Begriffe und Definitionen. Springer-Verlag.
- Stahl, Bernd Carsten, Job Timmermans, and Brent Daniel Mittelstadt. 2016. “The Ethics of Computing: A Survey of the Computing-Oriented Literature.” ACM Computing Surveys.
Die letzten 4 Abschnitte haben wichtige ethische Grundlagen eingeführt. Mit diesem Abschnitt beginnt der Kontextbereich, in dem mit Hilfe weiterer zentraler Begriffe ein Bezug zwischen den ethischen Grundlagen und der Informatik hergestellt werden soll. Dieser Abschnitt beschäftigt sich dabei mit dem Begriff der Verantwortung.
Im ersten Kapitel wird der Begriff Verantwortung definiert und das Prinzip Verantwortung von Hans Jonas erklärt.
Das zweite Kapitel betrachtet typische Probleme in der Informatik, bei denen die Verantwortung unklar oder schwierig ist. Es wird dabei die Verantwortungslücke, das Problem der vielen Hände und Dual Use als Problematik vorgestellt.
Das 3. und letzte Kapitel des Abschnitts 5 ist ein Exkurs zum Thema Anthropomorphismen. Die Übertragung menschlicher Eigenschaften und Verhaltensweisen auf außermenschliche Gegenstände passiert im alltäglichen Sprachgebrauch häufig und oft auch unbewusst. Die Problematik dabei wird in diesem Kapitel besprochen.
Lernziele des Abschnitts 05 Verantwortung:
- Sie kennen den Unterschied zwischen Gesinnungs- und Verantwortungsethik.
- Sie haben den Zusammenhang zwischen Akteurschaft und Verantwortung verstanden.
- Sie wissen, was der Begriff Verantwortungslücke bedeutet und können diesen erklären.
- Sie können Kritikpunkte am Begriff der Verantwortungslücke benennen und erklären.
- Sie wissen, worin in Bezug auf Verantwortung das Problem der vielen Hände besteht.
- Sie haben den Begriff Dual Use verstanden und können diesen mit Hilfe eines Beispiels erläutern.
- Sie können den Begriff Anthropomorphismus definieren und benennen, welche Herausforderungen in Bezug auf ML und KI entstehen.
In der Vorlesung haben wir uns mit dem relationalen Charakter von Begriffen beschäftigt und die Methode „Concept Map“ kennengelernt, die sich sehr gut eignet, um diesen Aspekt von Begriffen deutlich zu machen.
In dieser Woche beschäftigen wir uns mit dem – für die Informatikethik – sehr wichtigen Begriff der Verantwortung. Dazu wollen wir uns in der Übung mit einigen von Ihnen vorbereiteten Concept Maps zur Verantwortung beschäftigen:
Erstellen Sie bitte eine Concept Map zum Begriff der Verantwortung vor dem Hintergrund der Informatik: Wie gestaltet sich die Verantwortung von Informatiker:innen in der Forschung und in Unternehmen?
Zur Anfertigung der Concept Map können Sie das Online-Tool CoMapEd.de (Code: infEthik_Verantwortung) verwenden. Merken Sie sich in diesem Fall den von CoMapEd.de generierten Code (am oberen Rand in der Mitte), damit Sie die Map später erneut aufrufen können (bspw. zur Präsentation in der Übung).
Sie können Ihre Map auch mit Stift und Papier oder mit einem Tool Ihrer Wahl erstellen.
<iframe title="05-01 Der Begriff Verantwortung" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/4e1e0ae326a648899e61e5ac7f96c1921d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe>Folien: 05-01 Der Begriff der Verantwortung
{{1}}
Quiz
Welche der folgenden Punkte sind Voraussetzung, um laut Andreas Matthias (“The responsibility gap: Ascribing responsibility for the actions of learning automata.”) Verantwortung zuzuschreiben?
[[X]] Der Akteur muss Auskunft über seine Handlungsgründe geben können. [[ ]] Der Akteur muss unabhängig äußerer Umständen seine Taten begründen können. [[X]] Der Akteur muss die Folgen seiner Handlungen in angemessenem Masse überschauen können. [[X]] Der Akteur muss andere Handlungsmöglichkeiten gehabt haben. [[ ]] Der Akteur darf nicht im Auftrag einer anderen Person gehandelt haben.
{{2}}
Verantwortung
- Peter Parker Principle erklärt
- Pfeifer, V. 2009. Ethisch argumentieren: eine Anleitung anhand von aktuellen Fallanalysen. Ethisch argumentieren / Eine Anleitung anhand von aktuellen Fallanalysen. Schöningh.
- Shafer-Landau, Russ. 2012. Ethical theory: an anthology. Vol. 13. John Wiley & Sons.
- Talbert, Matthew. 2019. “Moral Responsibility.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Winter 2019. Metaphysics Research Lab, Stanford University.
- Weber, Max. 1971. Politik als Beruf. In Gesammelte politische Schriften. Mohr, Tübingen. (Zitat von den Folien: S. 551f.)
Folien: 05-02 Typische Probleme
{{1}}
Quiz
odurch kann eine sogenannte Verantwortungslücke ("Responsibility Gap") entstehen?
[[ ]] Neuronale Netzwerke können gerichtlich nicht verfolgt werden. [[X]] Der Programmierer kann nicht für das Verhalten seiner Schöpfung verantwortlich gemacht werden. [[ ]] Die Verhaltensmuster bei maschinellem Lernen müssen immer als optimal angesehen werden. [[X]] Maschinelles Lernen erlaubt keine Kontrolle über das Endprodukt.
Wer hat bei den folgenden Mensch Maschinen Interaktionen die Kontrolle (Mensch, Maschine, Beide, Keiner)?
On-the loop?
[[Beide]]
In-the-loop?
[[Mensch]]
Out-of-the-Loop
[[Maschine]]
Welche Probleme ergeben sich laut Misselhorn durch größere Projekte und Arbeitsteilung?
[[X]] Rechtfertigung durch Organisationsstruktur [[ ]] Größere Verantwortung auf Projektleitenden [[ ]] Leichtere Abwälzung von Fehlern auf Einzelpersonen [[X]] Erschwerte Wahrnehmung der Verantwortung von Beteiligten [[X]] Erschwerte Verantwortungszuweisung
Was steckt hinter der sogenannten "Dual Use" Problematik?
[[ ]] Neue Entwicklungen sind zu spezifisch und lassen sich nur in maximal zwei Einsatzgebieten nutzen [[X]] Neue Entwicklungen lassen sich für unmoralische Taten missbrauchen [[ ]] Neue Entwicklungen sind nach nur kurzen Einsatzzeiten nicht mehr zu gebrauchen und sind zu spezifisch, um anderweitig eingesetzt zu werden
Schauen Sie die ersten 70 Sekunden dieses Videos an und überlegen Sie was für Einsatzmöglichkeiten für eine solche Technologie am naheliegendsten sind?
[[ ]] Umweltschutzmaßnahmen [[X]] Militärische Einsatzzwecke [[ ]] Keine Ahnung. Scheint nicht wirklich nützlich zu sein.
Antwort in einer etwas spannenderer Formulierung hier.
{{2}}
Quellen und vertiefende Literatur
- Anders, Günther. 2002. Die Antiquiertheit des Menschen Bd. I: Über die Seele im Zeitalter der zweiten industriellen Revolution. 2nd ed. München: C.H.Beck.
- Brundage, Miles, Shahar Avin, Jack Clark, Helen Toner, Peter Eckersley, Ben Garfinkel, Allan Dafoe, et al. 2018. “The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation.”arXiv:1802.07228 [cs].
- Matthias, Andreas. 2004. “The responsibility gap: Ascribing responsibility for the actions of learning automata.” Ethics and Information Technology.
- Misselhorn, Catrin. 2018. “Maschinenethik und ‘Artificial Morality’: Können und sollen Maschinen moralisch handeln?” Aus Politik und Zeitgeschichte.
- Novitzky, Peter, Ben Kokkeler, and Peter-Paul Verbeek. 2018. “The Dual-use of Drones.” "Tijdschrift voor Veiligheid." Boom Uitgevers Den Haag.
- https://www.deutschlandfunk.de/gefahr-im-anflug-wie-holt-man-drohnen-vom-himmel-100.html und https://www.zeit.de/gesellschaft/zeitgeschehen/2015-04/shinzo-abe-japan-drohne-radioaktiv als konkrete Beispiele für die Dual Use-Gefahr durch Drohnen
Folien: 05-03 Anthropomorphismen
{{1}}
Quiz
Welche Aussagen zum Anthropomorphismus sind korrekt?
[[X]] Übertragung menschlicher Eigenschaften auf außermenschliche Gegenstände und Verhältnisse. [[ ]] Übertragung maschineller Eigenschaften auf Personen und menschliche Verhältnisse. [[X]] Übertragung menschlicher Verhaltensweisen auf außermenschliche Gegenstände und Verhältnisse. [[ ]] Übertragung maschineller Verhaltensweisen auf Personen und menschliche Verhältnisse.
{{2}}
Quellen und vertiefende Literatur
- Prechtl, Peter, and Franz-Peter Burkard. 2015. Metzler Lexikon Philosophie: Begriffe und Definitionen. Springer-Verlag.
- Westerkamp, Dirk. 2019. Das schweigende Tier: Sprachphilosophie und Ethologie. Hamburg: Felix Meiner Verlag.
Der Abschnitt 6 gehört wie der Abschnitt 5 zu dem Kontextbereich. Auch hier wird ein Bezug zwischen den ethischen Grundlagen und der Informatik hergestellt, diesmal mit den Begriffen Privatheit, Transparenz und Sicherheit.
In Kapitel 1 wird der Begriff Privatheit einführend definiert und die zeitliche Veränderung von der Antike bis zur Gegenwart veranschaulicht. Auch die Verankerung im Recht und die Funktionen der Privatsphäre werden betrachtet.
Das zweite Kapitel behandelt den Begriff Transparenz und startet ebenfalls mit einer Begriffsdefinition. Anschließend werden Funktionen, Probleme und technische Grenzen genauer erläutert.
Im dritten Kapitel geht es um den Begriff Sicherheit und mögliche Wertekonflikte dabei.
Lernziele des Abschnitts 06 Privatheit, Transparenz und Sicherheit:
- Sie können die Begriffe Privatheit, Transparenz und Sicherheit definieren und voneinander abgrenzen.
- Sie haben Grimms Zwiebelmodell der Privatsphäre verstanden.
- Sie sind in der Lage mehrere Beispiele für die Verankerung der Privatheit in den bundesdeutschen Grundrechten zu nennen.
- Sie haben die Funktionen der Privatsphäre verstanden und können die einzelnen Funktionen erklären.
- Sie kennen die Begriffe Panoptismus, Machtasymmetrie und chilling effects und können die Zusammenhänge erklären.
- Sie können erklären, warum der Begriff Transparenz positiv und negativ verstanden werden kann.
- Sie wissen, welche Wertekonflikte in Bezug auf Sicherheit entstehen können.
Selbstkontrollfragen:
- Nennen Sie Beispiele für die Verankerung der Privatheit in den bundesdeutschen Grundrechten!
- Nennen und erläutern Sie kurz zwei Funktionen der Privatsphäre für das Zusammenleben der Menschen!
- Inwiefern ist Machtasymmetrie ein wesentliches Kennzeichen von panoptistischen Systemen?
- Transparenz kann positiv und negativ verstanden werden. Erläutern Sie, warum die Wertung vom Begriff der Öffentlichkeit/Privatheit abhängt!
- Nennen Sie einen typischen Wertekonflikt, der im Zusammenhang mit Sicherheit in der Öffentlichkeit häufig diskutiert wird!
Mit den Selbstkontrollfragen oben steht Ihnen ein Instrument zur Verfügung, um ihr Verständnis des Stoffes zur überprüfen und Sie können mit den kurzen Fragestellungen üben prägnante Antworten zu formulieren.
Ihre Vorbereitungsaufgabe in dieser Woche lautet:
- Beantworten Sie eine Selbstkontrollfrage.
- Bitten Sie eine:n Mitstudierende darum Ihnen die Antwort zur Verfügung zu stellen, damit Sie Feedback äußern können: Versuchen Sie positive und negative Aspekte zu benennen. Formulieren Sie ihre Hilfe konstruktiv, das heißt mit konkreten Vorschlägen, wie die Antwort verbessert werden könnte.
{{1}}
Quiz
Welche Faktoren führen dazu, dass in Grimms Zwiebelmodell der Privatsphäre selbst die intimsten Bereiche direkt an Gesellschaft, Staat und Wirtschaft anliegen?
[[X]] Soziale Medien [[X]] Digitalisierung [[ ]] Staatliche Vorschriften [[ ]] Fehlende Aluhüte
Was sind die Funktionen von Privatsphäre?
[[ ]] Verstärken von "Chilling effects" [[X]] Freiheit und Autonomie [[X]] Kreative Entfaltung und Selbstbestimmung [[ ]] Ungefilterte Sammlung von Daten für Firmen und Staat [[X]] Identitäts- und Meinungsbildung
Was zeichnet ein panoptisches System aus?
[( )] Machtsymmetrie der beteiligten Parteien. [(X)] Machtasymmetrie der beteiligten Parteien.
<iframe title="06-02 Transparenz" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/e7a06c338b2b42afac2f09feecda3f441d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Was sind Probleme, die in Bezug zu Transparenz auftreten können?
[[X]] Schränkt die Privatheit ein und verhindert vertrauensvollen Austausch [[X]] Überforderung der Rezipienten durch zu viele Informationen [[ ]] Rezipienten müssen sich weniger mit System beschäftigen [[X]] Rezipienten müssen sich mehr mit dem System selbst auseinandersetzen [[ ]] Experten des Systems werden überflüssig
<iframe title="06-03 Sicherheit" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/014faee10b1b45509b99f3cbdf648a4e1d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Kreuzen Sie die richtigen Aussagen an!
[[ ]] Absolute Sicherheit ist die oberste Priorität für jeden Informatiker! [[X]] Durch Tests lässt sich die Sicherheit eines Systems verbessern. [[X]] Meist muss man einen Kompromiss aus Sicherheit, Privatheit und Transparenz nutzen, um Programme oder Systeme zu realisieren. [[ ]] Sicherheit fordert meist keine Einbußen für Freiheit oder Transparenz. [[X]] Qualitätskontrollen erhöhen die Sicherheit eines Systems. [[ ]] Transparenz kann in der Informatikethik meist vernachlässigt werden. [[ ]] Code Reviews und Pair Programming erhöhen das Risiko unsichere Systeme zu bauen. [[X]] Sichere Systeme zu bauen ist ein Ideal in der Informatikethik.
- Ananny, Mike, and Kate Crawford. 2018. “Seeing without knowing: Limitations of the transparency ideal and its application to algorithmic accountability.” New Media & Society.
- Arendt, H. 2008. Vita activa oder Vom tätigen Leben. Piper.
- Cooke, Maeve. 1999. “A space of one’s own: autonomy, privacy, liberty.”Philosophy & Social Criticism.
- DeCew, Judith. 2018. “Privacy.” “Privacy.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Spring 2018. Metaphysics Research Lab, Stanford University.
- Foucault, Michel. 2007. Überwachen und Strafen, die Geburt des Gefängnisses. Überwachen und Strafen. 1. Aufl., [Nachdr.]. 2271. Frankfurt am Main: Suhrkamp.
- Grimm, Petra, Tobias O. Keber, and Oliver Zöllner. 2019. Digitale Ethik: Leben in vernetzten Welten. Kompaktwissen XL. Stuttgart: Reclam, Philipp, jun. GmbH, Verlag.
Im siebten Abschnitt werden Daten aus einer ethischen Perspektive betrachtet. Insbesondere geht es darum, welche Folgen der unachtsame Gebrauch von Daten im Kontext des maschinellen Lernens haben kann.
Dafür wird im ersten Kapitel der Begriff Objektivität mit seinen verschiedenen Verständnisweisen vorgestellt.
Im zweiten Kapitel wird untersucht, woher die Daten eigentlich kommen. Dabei geht es weniger um die legalen und moralischen Arten, an Daten zu gelangen, sondern vielmehr um die problematischen Wege wie z.B. Ghost Work.
Wenn analoge Daten in digitale Daten umgewandelt werden, ist damit meist ein Informationsverlust verbunden. Das Kapitel 3 beschäftigt sich genauer mit Reduktion, Verzerrungen und Präferenzenstarrheit in Daten und zeigt, warum und welche Probleme entstehen können.
Das letzte Kapitel dieses Abschnitts betrachtet Möglichkeiten und Ideen, wie der Umgang mit Daten verbessert werden kann.
Lernziele des Abschnitts 07 Daten und Maschinelles Lernen:
- Sie können verschiedene Verständnisweisen des Begriffs Objektivität nennen.
- Sie wissen, warum objektiv-ethisch urteilende Maschinen und Algorithmen nicht möglich sind und können es begründen.
- Sie kennen mehrere (ethisch) problematische Aspekte von Ghost Work.
- Sie haben Verstanden, was unter dem Begriff Bias verstanden wird.
- Sie können folgenden Satz erläutern: "Maschinelles Lernen ist konservativ."
- Sie sind in der Lage rauszufinden, ob eine datengetriebene Lösung für ein Problem Sinn ergibt.
Hinweise:
- Die Bearbeitung aller unten angegebenen Aufgaben kann je nach Vorkenntnissen deutlich mehr als eine halbe Stunde benötigen. Sollten Sie nur wenig Zeit zur Verfügung haben, dann lesen Sie sich den gesamten Text durch, bearbeiten aber nur Teil 5!
- Für die Bearbeitung der Aufagben werden zusätzliche Dateien benötigt, die sie oben finden.
Willkommen zu Ihrem ersten Arbeitstag bei Mamazon, dem innovativen Technologieunternehmen. Hier bei Mamazon möchten wir so viel wie möglich von unseren Kunden erfahren, um sicherzustellen, dass sie mit unseren Produkten zufrieden sind. Um dies zu erreichen, möchten wir alle Bewertungen analysieren, die für jedes Produkt abgegeben werden. Unser Ziel ist es, den von Ihnen dazu entwickelten Algorithmus so zu nutzen, dass wir Produkte mit mehr positiven Bewertungen pushen können, indem wir sie in den Suchergebnissen höher platzieren. Für alle Produkte mit mehr negativen Bewertungen können wir Ihren Algorithmus nutzen, um diese abzustrafen, indem wir sie in den Suchergebnissen niedriger darstellen.
Teil 1
Für einen guten Start in das Projekt werden Sie eine Funktion "totalReviewSentiment" schreiben, die die Stimmung (engl. sentiment) von Mamazon-Bewertungen analysieren kann. Dazu stehen Ihnen zwei Textdateien zur Verfügung (Ordner: data): positivewords.txt und negativewords.txt. Sie beginnen mit der Erstellung je eines "Wörterbuchs" (irgendeine Art von assoziativem Array, bspw. ein Python Dict oder eine Java HashMap) für alle positiven und negativen Wörter. Notieren Sie für jede der Mamazon-Bewertungen, wie viele positive und wie viele negative Wörter Sie finden.
Ihre Funktion erhält drei Parameter: positiveWordFile, negativeWordFile und reviewsFile. Es handelt sich dabei um Strings, die jeweilse den Namen dieser Dateien darstellen. Ihre Funktion muss folgende Aufgaben erfüllen:
- Die Wörterbücher zum Speichern der positiven und negativen Wörter erstellen.
- Öffnen und Lesen der Bewertungsdatei.
- Analysieren aller Wörter in der Datei.
- Zählen, wie viele positive und negative Wörter enthalten sind.
- Ausgabe der Anzahl der positiven und negativen Wörter aus.
- Ausgabe eines Strings, aus dem hervorgeht, ob die Mehrheit der Bewertungen positiv oder negativ war. Wenn es mehr positive Bewertungen gibt, wird "The Reviews are Mostly Positive" zurückgegeben. Wenn es mehr negative Bewertungen gibt, wird "The Reviews are Mostly Negative" zurückgegeben.
Hinweis: Je nachdem, wie weit Sie in Ihrem Studium sind haben oder haben Sie noch nicht über Techniken wie stopword removal, stemming, bag of words, etc. gehört, die in diesem Fall zum Einsatz gebracht werden könnten. Es steht Ihnen frei diese Techniken zu nutzen, allerdings wird nur eine einfache Lösung erwartet und die Musterlösung entsprechend gestalltet sein. Keep it simple!
Teil 2
Versuchen Sie, Ihre Funktionen mit Hilfe von Funktionsdekomposition in mehrere kleinere Unterfunktionen zu zerlegen, die jeweils für eine Aufgabe zuständig sind. Erstellen Sie eine "Hauptfunktion", die alle Ihre Unterfunktionen aufruft, um die gleichen Ergebnisse wie in Teil 1 zu erzielen.
Teil 3
Erstellen Sie nun eine Funktion, die die Stimmung einer einzelnen Mamazon-Bewertung analysiert. Diese Funktion nimmt eine String review und berechnet die Stimmung. Dazu erhält die Funktion als weitere Parameter posWordsDict und negWordsDict, die jeweils die schon bekannten Wörterbücher mit positiven und negativen Wörtern enthalten.
Um die Stimmung zu berechnen, berechnen Sie zunächst nur die positive Stimmung. Diese kann berechnet werden, indem die Anzahl der positiven Wörter durch die Anzahl der positiven + negativen Wörter einer Rezension geteilt wird.
Beispiel 1: In einer Review tauchen 3 positive und 2 negative Wörter auf. Der Wert für die positive Stimmung wäre dann Anzahl der positiven Wörter / Anzahl der positiven + negativen Wörter --> 3/5 --> 0.6
Beispiel 2: In einer Review tauchen 12 positive und 6 negative Wörter auf. Der Wert für die positive Stimmung wäre dann Anzahl der positiven Wörter / Anzahl der positiven + negativen Wörter --> 6/18 --> 0.33
(Daraus ergibt sich, dass der Wert für die negative Stimmung 1 - positive Stimmung ist.)
Wir gehen davon aus, dass eine Review gut ist, wenn ihre positive Stimmung > 0.5 ist. Berechnen Sie den Anteil der guten von allen Reviews aus der reviews.txt-Datei.
Teil 4
Viele Hacker und Hersteller von Produkten für Mamazon haben herausgefunden, wie sie unseren Algorithmus austricksen können. Sie haben verschiedene Wege gefunden, um ihre Produkte in unserem Empfehlungsalgorithmus weiter nach oben zu bringen. Einer davon ist das Verfassen von gefälschten Bewertungen, die unser Algorithmus für positiv hält (auch wenn sie nicht echt sind).
Um sich auf diese Art von Tricksereien vorzubereiten, schlüpfen wir in die Rolle des Hackers. Versuchen Sie, mehrere Beispiele für Bewertungen zu finden, die Sie in Ihre obige Funktion eingeben können, die für einen Menschen "positiv" erscheinen, für Ihren Algorithmus aber "negativ" sind und umgekehrt. Welche interessanten Trends stellen Sie fest? Wie haben Sie herausgefunden, wie Sie den Algorithmus "austricksen" können?
Teil 5
a) Reflektieren und bewerten Sie den hier vorgestellten Ansatz Stimmungen anhand von vorgegebenen Wörterbüchern zu bestimmen: Wo hat dieser Ansatz Grenzen? Können Sie sich andere Methoden vorstellen, die besser funktionieren und wo haben diese Grenzen?
b) Ist es überhaupt sinnvoll Stimmungen in dieser Art zu bewerten? Was geht dadurch verloren?
c) Sind die in diesem Beispiel verwendeten Daten "objektiv"? Falls ja: Was macht sie zu objektiven Daten? Falls nein: Was verhindert ihre Objektivität?
<iframe title="07-01 Objektivität" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/bd311de750fd424f91b4246ae0b62c911d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Objektivität ist schwer bis gar nicht zu erreichen.
[(X)] Wahr [( )] Falsch
Deshalb kann Objektivität in der Informatik vernachlässigt werden.
[( )] Wahr [(X)] Falsch
Objektiv (moralisch)- urteilende Maschinen oder Algorithmen sind möglich, da sie nicht wie Menschen innerhalb von Werte- und Normgebilden aufwachsen.
[( )] Wahr [(X)] Falsch
Normative Prämissen sind niemals objektiv, da sie normative Prämissen und damit auch Werteurteile erfordern.
[(X)] Wahr [( )] Falsch
{{2}}
Quellen und vertiefende Literatur
- Reiss, Julian, and Jan Sprenger. 2020. “Scientific Objectivity.” In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Winter 2020. Metaphysics Research Lab, Stanford University.
- FiveThirtyEight: Sience Isn't Broken
Folien: Woher kommen eigentlich die Daten?
{{1}}
Quiz
Welche der Aussagen über "Ghost Worker" sind richtig?
[[ ]] Datenkontrolle von Verbraucherschutzportalen.
[[X]] Sie erstellen und verifizieren Trainingsdaten für Maschinelles Lernen.
[[X]] Sie erledigen Moderationsarbeiten in sozialen Netzwerken.
[[X]] Sie werden für ihre Arbeit meist sehr schlecht bezahlt.
[[ ]] Sie werden von den Firmen fest angestellt.
[[X]] Es gibt weltweit ca. 100 Millionen Ghost Worker.
[[ ]] Ca. 10% von ihnen haben einen Bachelor- oder höheren Abschluss.
[[X]] Sie werden erst nach Erledigung der Arbeit bezahlt (unabhängig vom Aufwand).
{{2}}
Quellen und vertiefende Literatur
- Benjamin, Walter, Rolf Tiedemann, and Theodor W. Adorno. 1992. Sprache und Geschichte: Philosophische Essays. Stuttgart: Reclam, Philipp, jun. GmbH, Verlag.
- Doctorow, Cory. 2020. How to Destroy "Surveillance Capitalism." Medium. OneZero.
- L. Gray, Mary, and Siddharth Suri. 2019. Ghost Work: How to Stop Silicon Valley from Building a New Global Underclass. Mariner Books.
- McClelland, Cary. 2019. Silicon City: San Francisco in the Long Shadow of the Valley. Reprint. S.l.: W W NORTON & CO.
- Zuboff, Shoshana. 2018. Das Zeitalter des Überwachungskapitalismus. Frankfurt am Main: Campus Verlag.
- Weinberg, Justin. 2020. “Philosophers On GPT-3 (updated with replies by GPT-3).” DailyNous.com.
- The Guardian: How Cambridge Analytica turned Facebook ‘likes’ into a lucrative political tool
Folien: Reduktion, Verzerrungen und Präferenzenstarrheit
{{1}}
Quiz
Welche Aussagen über Bias im Kontext von Machine Learning sind richtig?
[[X]] Systematische Verzerrung durch einen Algorithmus. [[ ]] Firmware, die von ihrem Betriebssystem geladen wird. [[X]] Maschinelle Bevorzugung von einzelnen Individuen oder Gruppen durch einen Algorithmus. [[ ]] Bias kann nicht unvorhergesehen auftreten und ist immer gewollt. [[X]] Es ist unklar, wie sich Bias in Daten verhindern lässt. [[X]] Bias legitimiert sich selbst und verstärkt sich dadurch, dass Algorithmen menschliches Verhalten nachbilden und imitieren. [[ ]] Abstraktion von Daten ist neutral und kann keine Ursache für Bias sein. [[X]] Maschinelles Lernen ist konservativ.
{{2}}
Quellen und vertiefende Literatur
- Benjamin, Ruha. 2019. Race After Technology: Abolitionist Tools for the New Jim Code. Wiley.
- D’Ignazio, Catherine, and Lauren F. Klein. 2020. Data Feminism. The MIT Press.
- Mattu, Jeff Larson, Lauren Kirchner, Surya, Julia Angwin. 2016. “Machine Bias.” ProPublica.
- Washington, Anne L. 2019. “How to Argue with an Algorithm: Lessons from the COMPAS ProPublica Debate.” Rochester, NY: Social Science Research Network.
- Auf Kartenprojektionen.de kann man verschiedene Projektionen miteinander vergleichen.
- XKCD über Kartenprojektionen und was sie über dich (!) aussagen.
- BR24: OBJECTIVE OR BIASED. On the questionable use of Artificial Intelligence for job applications.
- "Redlining" in den USA: Wie Wohnungspolitik rassistische Diskriminierung verschärft hat Beitrag beim Deutschlandfunk.
- Jackson, Candace. 2021. "What is Redlining?" The New York Times.
Folien: Wie machen wir es besser?
{{1}}
Quiz
Wie kann Bias in einem Machine-Learning-Modell reduziert werden?
[[X]] Durch Erhöhung der Menge an Trainingsdaten. [[ ]] Durch Erhöhung der Komplexität des Modells. [[X]] Durch Erhöhung der Vielfalt der Trainingsdaten. [[X]] Durchführung von Abgleichtests, um sicherzustellen, dass das Modell für verschiedene Bevölkerungsgruppen und Untergruppen genau ist. [[X]] Durchführung von Benutzertests, um sicherzustellen, dass das Modell in der Praxis fair und angemessen ist. [[ ]] Ignorieren von Feedback und Beschwerden von Benutzern bezüglich möglicher Bias im Modell. [[X]] Einbindung von Experten aus unterschiedlichen Bereichen, um mögliche Bias im Modell zu identifizieren und zu korrigieren.
Für welche der folgenden Probleme lässt sich eine sinnvolle datengetriebene Lösung finden?
[[X]] Verbesserung des Verkehrsfluss in Städten [[ ]] Persönliche Konflikte in Familien oder Beziehungen [[X]] Verringerung des CO2-Fußabdrucks von Unternehmen [[X]] Verbesserung der Patientenversorgung in Krankenhäusern [[ ]] Entscheidungen bezüglich der Erziehung von Kindern [[ ]] Kreatives Schreiben oder Kunst
{{2}}
Quellen und vertiefende Literatur
- Gebru, Timnit, Jamie Morgenstern, Briana Vecchione, Jennifer Wortman Vaughan, Hanna Wallach, Hal Daumé III au2, and Kate Crawford. 2020. “Datasheets for Datasets.”
- Mitchell, Margaret, Simone Wu, Andrew Zaldivar, Parker Barnes, Lucy Vasserman, Ben Hutchinson, Elena Spitzer, Inioluwa Deborah Raji, and Timnit Gebru. 2019. “Model Cards for Model Reporting.” In Proceedings of the Conference on Fairness, Accountability, and Transparency, 220–29. FAT* ’19. New York, NY, USA: Association for Computing Machinery.
- Rawls, John. 1979. Eine Theorie der Gerechtigkeit. Frankfurt am Main: Suhrkamp Verlag.
In der Vorlesung haben wir uns damit beschäftigt, dass die Zuweisung von Verantwortung in (Software-)Projekten häufig mit Schwierigkeiten verbunden ist und, dass die Verantwortlichkeiten für unterschiedliche Gruppen sich stark unterscheiden können. In der zweiten Einsendeaufgabe haben Sie Gelegenheit zu üben, mit diesen Problemen umzugehen.
Lesen Sie dazu zunächst die nachfolgende Fallstudie (nächster Navigationspunkt) über Chris und Rose.
Analysieren Sie:
- Welche Personen und Rollen (Stakeholder) sind in diesem Szenario beteiligt?
- Inwiefern sind die Personen/Rollen dazu in der Lage Kontrolle auszuüben (oder eben nicht)?
- Welche Verantwortung kann den Personen/Rollen zugschrieben werden?
- Gibt es Probleme bei der Verantwortungszuweisung?
- Gibt es Möglichkeiten evtl. vorhandene Probleme bei der Verantwortungszuweisung aufzuheben? Skizzieren Sie kurz Lösungsmöglichkeiten.
Ihre Abgabe sollte eine Länge von 2 bis 3 Seiten haben, zzgl. Titelblatt und Quellen und als Fließtext formuliert sein. Verwenden Sie außerdem mindestens eine weitere Quelle und geben Sie diese bibliographische korrekt in der Ausarbeitung an.
Unter "Allgemeines" finden Sie weitere Hilfestellungen und Tipps zu Formalia, Zitierweisen und was Sie sonst noch beachten sollten.
Bewertungskriterien
Diese Aufgabe wird anhand der folgenden Kriterien bewertet:
- Die unter "Allgemeines" angeführten Formalia (Layout, Titelseite etc.) wurden beachtet.
- Die unter "Allgemeines" angeführten Zitationsregeln und bibliographischen Hinweise wurden beachtet.
- Es wurde eine Rechtschreibkorrektur verwendet, d. h. offensichtliche Fehler kommen nicht oder nur in sehr geringem Umfang vor.
- Die Längenvorgabe wurde beachtet.
- Die in der Vorlesung bis zum Thema der Einsendeaufgabe vorgestellten Begriffe wurden berücksichtigt.
- Die in der Einsendeaufgabe verwendeten Begriffe wurden korrekt verwendet.
- Alle relevanten Stakeholder werden identifiziert.
- Für alle relevanten Stakeholder erfolgt eine korrekte Verantwortungszuweisung und es werden evtl. bestehende Probleme bei der Verantwortungszuschreibung genannt.
- Es werden sinnvolle Möglichkeiten zur Behebung von Problemen der Verantwortungszuschreibung benannt.
Zum Bestehen müssen Sie mindestens 7 von 9 Kriterien erreichen/nicht verletzen.
Hinweis: Unabhängig von den hier genannten Kriterien werden Einsendungen, die nicht oder nicht sinnvoll auf die gestellten Aufgaben eingehen als "nicht sinnvoll bearbeitet" bewertet. Es können nur Texte und Textabschnitte für die Bewertung berücksichtigt werden, die sprachlich verständlich sind.
Chris und Rose arbeiten in einem Roboter-Team bei einem mittelständischen Unternehmen, das Spielwaren herstellt. Dem Trend der Zeit folgend, gibt es schon seit mehreren Jahren eine wachsende eigene Abteilung für vernetztes elektronisches Spielzeug. Chris und Rose gehören zu einer kleinen Gruppe, die kuschlige, bewegliche Roboter konzipiert und baut, die speziell – aber nicht nur – an Kinder vermarktet werden.
Die Tierchen sind meist raupen- oder wurmartig gebaut, weil dadurch die selbständige Bewegungsfähigkeit der Roboter leichter und mit weniger Energieaufwand umzusetzen ist. Gleichzeitig verringert sich dadurch die Verletzungsgefahr auch für kleine Kinder. Sie wurden zum Verkaufserfolg, nicht nur wegen des weichen Fells, sondern weil sie interaktiv sind und sprechen und singen können. Zusätzlich ist eine akustische Überwachungsfunktion eingebaut, die mit einem Smartphone verbunden werden kann, zum Beispiel dem der Eltern. Verlässt man den Raum, können die Kuscheltiere als unauffällige Aufpasser fungieren.
Chris arbeitet gerade an einer neuen Variante einer beweglichen Raupe, deren Software neue Formen der Interaktion beinhalten soll. Immer neue Lernspiele, Quiz und Rätselspiele sollen über die Computer oder Smartphones der Eltern geladen werden können. Speziell auf Kinder zugeschnittene lernfähige Spracherkennung wird die Antworten verarbeiten, zusätzlich sollen große Knöpfe auf dem Körper der Raupe zur Eingabe der Antworten dienen.
Rose ist für das Testen der neuen Roboter-Raupen zuständig. Ihr Fokus ist die Sicherheit in dem Sinne, dass die Kuscheltiere durch ihre Bewegungen keine Gefährdung darstellen dürfen. Sie kriechen nicht allzu schnell und können wahrnehmen, wenn sie angehoben werden, sodass sie ihre Bewegungen in diesem Fall ändern. Die Ergebnisse sind ausgesprochen erfreulich, keinerlei Gefährdung konnte attestiert werden. Die Kinder der Testgruppe können von den bunten Kuscheltieren kaum lassen.
Allerdings hat Rose ein Problem entdeckt, das sie zunächst nicht an Chris und ihre Vorgesetzte weitergibt, sondern nur als kurios notiert. Bei einer Reihe der neuen Rätselspiele gibt die Software nämlich nicht die korrekten Antworten, sondern erzählt Blödsinn. Rose lacht zuerst, als sie hört, dass eines der Kinder sagt, dass ein Pinguin kein Vogel sei, sondern eine Hundeart. Sie spricht das Mädchen darauf an, welches aber beharrt, das hätte doch „Wurmi“ gesagt. Das Kind reagiert verstört, als Rose ihm sagt, dass das nicht stimme.
Als sich falsche Antworten häufen, setzt Rose das Problem in der Teambesprechung auf die Tagesordnung. Sie fragt, wer denn eigentlich die Korrektheit der Antworten der Roboter prüft. Es sei doch hinlänglich erforscht, dass Kinder den elektronischen Freunden sehr viel Vertrauen schenken würden.
Chris entgegnet leicht genervt, dass man für die Kinderspiele extra einen zertifizierten Softwareanbieter ausgesucht hätte. Sie hätten eine besondere künstliche Intelligenz entwickelt, um hunderte von Quizfragen zu entwickeln. Sie werden auch automatisch in viele Sprachen übersetzt, da kann man unmöglich eingreifen. Wie stellt Rose sich das vor, soll man jedes Quiz durchhören? Unmöglich!
Rose erwidert, dass die Fragen ja über die Handys der Eltern nachgeladen werden können, also kann man doch wohl Korrekturen anbringen. Die Spielesoftware ist auch gar nicht unsere Expertise, erwiderte Chris. Wir stellen doch nur die Hardware der Roboter her und sind auch nur für die Locomotion, die Programmierung der Bewegungen des Roboters, zuständig.
Rose ist verblüfft über so viel Ignoranz, denn es geht schließlich um Roboter auch für recht kleine Kinder. Sie interveniert erneut. Den aufkommenden Streit beendet die Chefin Anne, indem sie ankündigt, die Spiele prüfen zu lassen. Rose hat eine Ahnung, was das bedeutet: Das Thema ist zu den Akten gelegt worden.
Rose beginnt, sich mit der für Kinderspiele zertifizierten Softwarefirma zu beschäftigen. Sie will wissen, wie die Fragen zusammengestellt werden. Sie freundet sich mit einem Mitarbeiter der Firma, Henri, bei einem Meetup an. Henri erzählt bereitwillig darüber, dass sie keine richtige KI einsetzen, sondern die Fragen einfach auf der Basis einer öffentlichen Wissensdatenbank gewinnen.
Rose schaut dort nach und stellt erschrocken fest, dass jemand tatsächlich dort eingetragen hat, dass Pinguine Hunde seien. Anscheinend kann jeder beliebigen Unsinn eintragen, niemand prüft die Inhalte. Rose ändert den Eintrag über Pinguine, spontan beschließt sie aber, „Katze“ statt „Hund“ als Oberklasse einzutragen. Sie weiß, dass nächste Woche die Software auf den neuesten Stand gebracht wird. Mal sehen, ob sich etwas ändert.
In der Tat, als sie endlich diese Frage zu hören bekommt, wird „Katze“ als korrekte Antwort angegeben. Was soll Rose nun tun? „Wurmi“ wird schon sehr erfolgreich verkauft, das Team ist bereits mit dem Folgeprojekt beschäftigt.
(Quelle: Kurz, C., Weber-Wulff, D. Gewissensbits – wie würden Sie urteilen?. Informatik Spektrum 45, 121–122 (2022). https://doi.org/10.1007/s00287-022-01441-8)
Der achte Abschnitt ist der letzte Abschnitt des Kontextbereichs und behandelt ethische Leitlinien und Code of Conducts für Informatiker:innen.
Der Abschnitt ist in zwei Kapitel unterteilt. Kapitel 1 stellt die Gesellschaft für Informatik vor. Es ist eine gemeinnützige Fachgesellschaft, die u.a. ethische Leitlinien für Informatikfachpersonen ausgearbeitet hat. Das zweite Kapitel erklärt Arten, Verwendung und Aufbau von Code of Conducts.
Lernziele des Abschnitts 08 Leitlinien und ethische Codes:
- Sie können ethische Leitlinien von Codes of Conducts unterscheiden.
- Sie wissen, in welche vier Themengebiete die 12 Artikel der ethischen Leitlinien der GI eingeteilt werden können.
- Sie haben die Inhalte der ethischen Leitlinien der GI verstanden und sind in der Lage diese zusammenfassend wiederzugeben.
- Sie kennen verschiedene Verwendungen von Codes of Conduct.
Lesen Sie zur Vorbereitung auf die nächste Woche den "Ethischen Kompass für Informatik-Fachleute" der GI, sowie die "Stable Diffusion v1 Model Card".
<iframe title="08-01 Ethische Leitlinien" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/437088b724164f6a8d708be3dc61bbb81d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Wie unterscheiden sich "Ethischen Leitlinien" von "Codes of Conduct"?
[[X]] Ethische Leitlinien sind allgemeine Richtlinien, während Codes of Conduct spezifische Regeln enthalten. [[ ]] Ethische Leitlinien sind spezifische Regeln, während Codes of Conduct allgemeine Richtlinien enthalten. [[ ]] Ethische Leitlinien und Codes of Conduct sind dasselbe und können austauschbar verwendet werden. [[X]] Ethische Leitlinien sind im Gegensatz zu Codes of Conduct nicht sanktionierbar.
Welche 4 Überthemen werden in den 12 Artikeln der Ethischen Leitlinien der GI behandelt?
[[X]] Kompetenzen [[X]] Arbeitsbedingungen [[X]] Bildung [[ ]] Finanzielle Integrität und Transparenz [[ ]] Umweltverantwortung [[ ]] Datenschutz [[X]] Soziale und gesellschaftliche Verantwortung
<iframe title="08-02 Codes of Conduct" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/8d6e4870a80842b7bfb0c900a0b40aaa1d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Welche Art von Verhalten wird in einem Code of Conduct erwartet?
[[ ]] Gewalt und Belästigung [[ ]] Diebstahl und Betrug [[X]] Integrität, Respekt und Professionalität
Wer ist verantwortlich für die Umsetzung eines Codes of Conduct?
[[ ]] Die Kunden [[X]] Die Mitarbeiter [[ ]] Die Regierung [[X]] Die Führungskräfte
Was können Unternehmen tun, um sicherzustellen, dass ihr Code of Conduct eingehalten wird?
[[ ]] Ignorieren von Verstößen [[X]] Schulungen und Aufklärung der Mitarbeiter [[ ]] Einschränkung von Meinung und Feedback zum Inhalt des Code of Conduct [[X]] Vertrauliche Meldung von Verstößen und Untersuchung
{{2}}
Quellen und vertiefende Literatur
- Butler, Simon, Jonas Gamalielsson, Björn Lundell, Per Jonsson, Johan Sjöberg, Anders Mattsson, Niklas Rickö, et al. 2018. “An Investigation of Work Practices Used by Companies Making Contributions to Established OSS Projects.” In Proceedings of the 40th International Conference on Software Engineering: Software Engineering in Practice, 201–10. ICSE-SEIP ’18. New York, NY, USA: Association for Computing Machinery.
- Hagendorff, Thilo. 2020. “The Ethics of AI Ethics: An Evaluation of Guidelines.” Minds and Machines. *
- Li, Renee, Pavitthra Pandurangan, Hana Frluckaj, and Laura Dabbish. 2021. “Code of Conduct Conversations in Open Source Software Projects on Github.” Proc. ACM Hum.-Comput. Interact. New York, NY, USA: Association for Computing Machinery.
- Markus, M Lynne. 2007. “The governance of free/open source software projects: monolithic, multidimensional, or configurational?” Journal of Management & Governance. Springer.
- Qiu, Huilian Sophie, Yucen Lily Li, Susmita Padala, Anita Sarma, and Bogdan Vasilescu. 2019. “The Signals That Potential Contributors Look for When Choosing Open-Source Projects.” Proc. ACM Hum.-Comput. Interact. New York, NY, USA: Association for Computing Machinery.
- Tourani, Parastou, Bram Adams, and Alexander Serebrenik. 2017. “Code of conduct in open source projects.” In 2017 IEEE 24th International Conference on Software Analysis, Evolution and Reengineering (SANER), 24–33.
- Typische Vorlagen/Templates für bzw. häufig verwendete CoCs: https://www.contributor-covenant.org, https://www.python.org/psf/conduct/ und https://www.mozilla.org/en-US/about/governance/policies/participation/
- Auch interessant, weil ebenfalls eine Formulierung von Werten: PEP 20, The Zen of Python https://www.python.org/dev/peps/pep-0020/
- Hinweise von Github zur Erstellung von CoCs https://docs.github.com/en/communities/setting-up-your-project-for-healthy-contributions/adding-a-code-of-conduct-to-your-project und https://opensource.guide/code-of-conduct/
- Beschreibung des SQlite-Falls: https://hub.packtpub.com/sqlite-adopts-the-rule-of-st-benedict-as-its-code-of-conduct-drops-it-to-adopt-mozillas-community-participation-guidelines-in-a-week/
- Code of Conduct: A Handy Guide
Nachdem im Kontextteil einige problematische Bereiche der Informatik vorgestellt wurden, beginnt nun der Anwendungsteil, in dem Auswirkungen ethischer Entscheidungen in wirtschaftlichen und akademischen Projekten beleuchtet und abgeschätzt werden sollen.
Der Abschnitt 9 befasst sich dafür mit verschiedenen Methoden, die helfen können, mit diesen ethischen Problemen umzugehen. Das erste Kapitel stellt die ethische Fallanalyse nach Pfeifer vor. Dies ist ein systematisches Vorgehen, das darauf abzielt, ethische Probleme in einer bestimmten Situation oder einem bestimmten Fall zu identifizieren und zu lösen. Es umfasst die Analyse der betroffenen Personen, Interessen und Werte, sowie die Identifizierung von Handlungsalternativen und deren Auswirkungen.
Im zweiten Kapitel geht es um das Erstellen eines ethischen Designdokuments oder Impact Statements. Diese beiden Dokumenttypen beschreiben die ethischen Überlegungen, die bei der Entwicklung eines Produkts, einer Dienstleistung, eines Projekts oder, im Falle eines Impact Statements, einer Forschung berücksichtigt wurden. Dies kann die Auswirkungen auf die Umwelt, die Gesellschaft und die Individuen umfassen. Es dient dazu, die Verantwortung des Unternehmens oder des Entwicklers für die Auswirkungen ihrer Arbeit darzustellen und sicherzustellen, dass diese Auswirkungen so positiv wie möglich gestaltet werden.
Das drittel Kapitel umfastt eine ausführliche Schritt für Schritt Anleitung zum Verfassen eines ethischen Designdokuments.
Kapitel vier enthält eine ebenso ausführliche Anleitung zum Verfassen eines Impact Statements.
Lernziele des Abschnitts 09 Fallstudien:
- Sie kennen die einzelnen Schritte der ethischen Fallanalyse nach Pfeifer und können diese anwenden.
- Sie wissen, welche Zwecke ein ethisches Designdokument und ein Impact Statement haben.
- Sie können die Unterschiede zwischen einem ethischen Designdokument und einem Impact Statement benennen.
- Sie haben das Vorgehen zum Verfassen eines ethischen Designdokuments oder Impact Statements verstanden und können dieses anwenden.
Bisher haben wir bei der Bewertung ethischer Probleme vor allem auf das Individuum und dessen Verantwortung geschaut. Bei dieser Aufgabe wollen wir die Perspektive ausweiten und den Blick auf die verwendeten Mittel und die Folgen einer Softwareapplikation für die Gesellschaft (und Umwelt) lenken.
Schauen Sie sich dazu das folgende Video an:
<iframe width="560" height="315" src="https://www.youtube.com/embed/AAwbvGywdOc" title="YouTube video player" frameborder="0" allow="accelerometer; autoplay; clipboard-write; encrypted-media; gyroscope; picture-in-picture; web-share" allowfullscreen></iframe>Analysieren Sie welche Mittel die im Video vorgestellte Applikation benötigt, um zu funktionieren. Bewerten Sie anschließend den Nutzen bzw. Schaden, den die Applikation (voraussichtlich) für Gesellschaft und Umwelt hat bzw. haben wird. Beziehen Sie dabei die verwendeten Mittel mit ein.
Wählen Sie zum Festhalten Ihrer Ergebnisse eine schriftliche Form, die Ihnen leichtfällt: Stichpunkte, Text + Visualisierung, Fließtext, usw. sind möglich.
Wir verwenden die Ergebnisse Ihrer Analyse als Ausgangspunkt der Diskussion in unserer kommenden Übung.
<iframe title="09-01 Fallanalysen" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/8f0beb245c5d4f3f922eb5691430f8a11d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Welche Schritte sind bei der Durchführung einer ethischen Fallanalyse nach Pfeifer erforderlich?
[[ ]] Ignorieren von Meinungen und Interessen von Betroffenen. [[X]] Begutachtung des Sachverhalts in Bezug auf Kotext und Werte , Identifizierung von Alternativen, Bewertung der Auswirkungen. [[ ]] Verlassen auf subjektive Meinungen und Annahmen.
Wann sollte eine ethische Fallanalyse durchgeführt werden?
[[X]] Bevor Entscheidungen getroffen werden, die ethische Implikationen haben. [[ ]] Nachdem Entscheidungen getroffen wurden, um ihre Auswirkungen zu beurteilen. [[ ]] Es gibt keine Notwendigkeit, ethische Fallanalyse durchzuführen.
{{2}}
Quellen und vertiefende Literatur
- Pfeifer, V. 2009. Ethisch argumentieren: eine Anleitung anhand von aktuellen Fallanalysen. Ethisch argumentieren / Eine Anleitung anhand von aktuellen Fallanalysen. Schöningh.
Folien: Ethisches Designdokument und Impact Statement
{{1}}
Quiz
Was ist der Zweck von Ethischen Designdokumenten und Impact Statements?
[[ ]] Die finanzielle Rentabilität von Technologie- und Produktentwicklungen zu beurteilen [[X]] Die Auswirkungen von Technologie und Produkten auf die Gesellschaft und die Umwelt zu bewerten [[ ]] Politische Korrektheit in der Technologie- und Produktentwicklung sicherstellen [[X]] Maßnahmen zur Risikominderung und Kontrolle
Welche Vorteile bieten Ethische Designdokumente und Impact Statements für Unternehmen und Entwickler?
[[ ]] Garantie für die Vermeidung von Regulierungen und Strafen [[X]] Unterstützung bei der Identifizierung und Bewertung von ethischen Problemen im Zusammenhang mit Technologie- und Produktentwicklungen [[X]] Möglichkeit, langfristige Risiken und Chancen zu identifizieren und zu bewerten [[ ]] Erhöhung der Popularität des Unternehmens oder Entwicklers
Ein ethisches Designdokument dokumentiert, dass man sich ernsthaft und umfänglich Gedanken über die Konsequenzen der Entwicklung und des Einsatzes einer Softwareanwendung gemacht hat. Da dies vor dem eigentlichen Entwicklungsprozess erfolgt, leitet es die Entwicklung an, die dadurch – so das Ziel – ethisch(er) wird.
Die Dokumentation ist nicht final und sollte während des eigentlichen Entwicklungsprozesses konsultiert und nachjustiert werden. Das Dokument sollte außerdem nach Möglichkeit nicht von einzelnen Entwickler*innen, sondern in Abstimmung mit (bestenfalls) verschiedenen Gruppen von Beteiligten, den sog. Stakeholdern, formuliert werden.
Das Dokument sollte die folgenden Abschnitte beinhalten:
1. Einleitung
Am Anfang steht eine kurze, aber prägnante Beschreibung der Software: Was tut sie? Was ist der Einsatzzweck? Wenn es eine Anforderungsanalyse gibt, dann können deren Ergebnisse hier in Kürze wiedergegeben werden.
2. Folgenabschätzung
Den zentralen Bestandteil der Analyse bilden verschiedene Arten von Analysen, mit denen versucht wird, ein möglichst vollständiges Bild über die zu erwartenden ethischen und gesellschaftlichen Konsequenzen der Entwicklung und des Einsatzes einer Software zu erhalten.
2.1 Kontext- und Werteanalyse
Wie bei einer Fallstudie sollte zunächst ermittelt werden, welche Gruppen von Personen oder Institutionen (sog. Stakeholder) von der zu entwickelnden Anwendung betroffen sind. Außerdem sollte für jeden Stakeholder vermerkt werden, welche Werte besonders relevant für den jeweiligen Stakeholder sind. Mit „besonders relevant“ ist hier gemeint, dass es sich um Werte handelt, die im Weiteren diskutiert werden. Die Kontext- und Werteanalyse kann mit Hilfe eines Schaubilds erfolgen, wie dies auch in der Vorlesung für Fallstudien vorgestellt wurde.
2.2 Wertekonflikte und Dilemmata
Auf dieser Grundlage sollten Wertekonflikte und ethische Dilemmata identifiziert werden, insofern diese absehbare Folgen für den Entwicklungsprozess oder Einsatz der Software haben. Dabei sollten noch keine Lösungen angeboten werden; diese werden erst in einem späteren Schritt diskutiert.
Ein beispielhafter Wertekonflikt könnte bspw. zwischen dem Wert Rentabilität eines Unternehmens und dem Wert der Nachhaltigkeit bestehen, der gesellschaftlich wünschenswert ist.
2.3 Mittelanalyse
Falls für die Erstellung der Software besondere Mittel verwendet oder benötigt werden, dann sollte in diesem Abschnitt dargelegt werden, welche das sind. Für jedes ethisch problematische Mittel sollte angegeben werden, inwiefern es problematisch ist. Es sollte außerdem diskutiert werden, warum das Mittel benötigt wird und unter welchen Umständen ein Verzicht möglich wäre.
Ein einfaches und vermutlich häufig auftretendes Beispiel: (Personenbezogene) Daten für eine Anwendung, die maschinelles Lernen verwendet und Trainingsdaten benötigt. Diese sind bspw. unter dem Gesichtspunkt der Privatsphäre ethisch (und rechtlich) problematisch, aber auch aus den anderen in Woche "07 Daten" diskutierten Gründen.
Weiteres Beispiel: Es werden Softwareentwickler benötigt (in diesem Fall das „Mittel“), aber es ist von vornherein bekannt, dass die zur Verfügung stehenden Personenstunden nicht ausreichen werden, sodass die Entwickler zu Überstunden gezwungen sein werden. Wie lässt sich das im Kontext eines konkreten Softwareentwicklungsprozesses rechtfertigen (evtl. bspw. dadurch, dass es Arbeit für eine NGO ist und die Entwickler sich von vornherein dazu bereit erklären, Überstunden für einen guten Zweck zu leisten)?
2.4 Zielanalyse
Ein zentraler Abschnitt, der darin besteht zu diskutieren, worin das Ziel der zu entwickelnden Software besteht und warum gerade diese neue Software dazu benötigt wird. Was rechtfertigt den Einsatz von Ressourcen (Arbeitskraft, Geld, Energie etc.), das heißt, welchen Vorteil bringt das neue gegenüber eventuell bereits bestehenden (analogen und digitalen) Systemen? Was rechtfertigt gerade den im aktuellen Fall gewählten Weg, um das Ziel zu erreichen? Gibt es eventuell ethisch vertretbarere Wege das gleiche Ziel zu erreichen? Ist die Entwicklung angesichts zu erwartender gesellschaftlicher Folgen zu rechtfertigen? An dieser Stelle kann sich auch ein Abgleich der Ziele mit den Ethischen Leitlinien der GI anbieten.
Für die Zielanalyse ist es insbesondere sinnvoll, sich in die Perspektive anderer Stakeholder zu versetzen (im Sinne von Rawls Gedankenexperiment des „Urzustands“ und „Schleier des Nichtwissens“) und sich vor diesem Hintergrund darüber Gedanken zu machen, ob man die Entwicklung der Software auch dann befürworten würde, wenn man nicht wüsste, welche Art von Stakeholder man selber ist.
3. Lösungsvorschläge
Wie lassen sich eventuell identifizierte Probleme unter Umständen lösen? Wie lassen sich beispielsweise Wertekonflikte abmildern oder Probleme, die bezüglich der Verwendung bestimmter Mittel augenfällig geworden sind, ausräumen?
Die Lösungsvorschläge sollten immer in Betracht ziehen, dass Softwareentwicklung nicht im luftleeren Raum geschieht und es notwendig werden kann, Stakeholder oder zusätzliche Experten zu konsultieren. Außerdem ist es wichtig, zu berücksichtigen, dass es die eine Lösung in ethischen Fragestellungen (häufig) nicht gibt und es daher eventuell Mechanismen braucht, um mit Grauzonen umzugehen oder Entwicklungen nachzujustieren.
4. Abschließende Bemerkungen
Am Ende sollte eine Empfehlung erfolgen, ob das System entwickelt werden kann/sollte oder nicht, beziehungsweise welche Anpassungen am Design aus Sicht des Autors unbedingt notwendig wären, damit es ein ethisches System wird.
An dieser Stelle können außerdem allgemeine Beobachtungen Platz finden, für die an anderer Stelle kein Raum war.
Ein ethisches Impact Statement wird geschrieben um nachzuweisen, dass man sich mit der ethischen und gesellschaftlichen Dimension seiner Forschung auseinandergesetzt hat. Das unten vorgestellte, systematische Vorgehen soll es erleichtern Folgen zu identifizieren, die ohne das Impact Statement unberücksichtigt blieben.
Ein Impact Statement, das für eine Konferenz eingereicht wird, ist in der Regel kürzer als das, was aus dem hier vorgestellten Vorgehen resultiert: Solche Statements können auf sehr viele Details und Kontext verzichten, es zählen im Wesentlichen die Ergebnisse. Es ist dennoch sinnvoll, mit einem ausführlichen und systematisch erstellten Statement zu beginnen und es in der Folge auf die wichtigsten Ergebnisse zu kürzen.
Das hier vorgestellte Vorgehen zum Verfassen eines Impact Statements ist eng an das Verfassen eines ethischen Designdokuments angelehnt. Das Dokument sollte die folgenden Abschnitte beinhalten:
1. Einleitung
Zu Anfang des Impact Statements sollte eine inhaltliche bzw. fachliche Zusammenfassung des Forschungsprojekts, seiner Ziele und Ergebnisse stehen: Was wurde, mit welcher Methode und mit welchen Ergebnissen beforscht? Worin besteht die ursprüngliche Motivation für das Forschungsprojekt, was sind die erwarteten Vorteile?
2. Folgenabschätzung
Wie beim Designdokument bildet auch die Folgenabschätzung im Impact Statement den zentralen Bestandteil der Analyse. Ziel ist es, ein möglichst vollständiges Bild über die zu erwartenden ethischen und gesellschaftlichen Konsequenzen der vorliegenden Forschung und ihrer Ergebnisse zu erhalten.
2.1 Kontext- und Werteanalyse
Wie bei einer Fallstudie und dem Designdokument sollte zunächst ermittelt werden, welche Gruppen von Personen oder Institutionen (sog. Stakeholder) von den Forschungsergebnissen betroffen sind. Wenn für die Forschung Daten von Probanden generiert oder verwendet wurden, dann ist es außerdem wichtig, diese Gruppe in die Kontextanalyse mit aufzunehmen: In welchem Zusammenhang steht diese mit den anderen Gruppen?
Außerdem sollte für jeden Stakeholder vermerkt werden, welche Werte besonders relevant für den jeweiligen Stakeholder sind. Mit „besonders relevant“ ist hier gemeint, dass es sich um Werte handelt, die im Weiteren diskutiert werden.
Die Kontext- und Werteanalyse kann mit Hilfe eines Schaubilds erfolgen, wie dies auch in der Vorlesung für Fallstudien vorgestellt wurde.
2.2 Wertekonflikte und Dilemmata
Auf dieser Grundlage sollten Wertekonflikte und ethische Dilemmata identifiziert werden, insofern diese absehbar aus der Forschung resultieren. Dabei sollten noch keine Lösungen angeboten werden; diese werden erst in einem späteren Schritt diskutiert.
Ein beispielhafter Wertekonflikt könnte bspw. bei Facial Recognition-Anwendungen zwischen dem Wert Forschungsfreiheit einer Gemeinschaft von Forschenden und dem Wert der Gleichbehandlung von Menschen der Gesellschaft bestehen (s. Diskussion zur Phrenologie).
2.3 Mittelanalyse
Für Forschung werden verschiedene „Mittel“ benötigt: Hilfskräfte, Forschende, Daten von Personen, Algorithmen etc. pp. In diesem Part sollen ethische Probleme beschrieben werden, die mit dem Einsatz von bestimmten Mitteln einhergehen.
Dies betrifft natürlich insbesondere Forschung, die auf die Mitwirkung von Probanden angewiesen ist: Wurden diese vorab ausreichend informiert? Ist der Schutz ihrer Daten gewährleistet? Ist die Forschung für sie nicht schädlich und ethisch vertretbar?
2.4 Zielanalyse
Nachdem in der Einleitung schon die positiven Erwartungen gegenüber dem Forschungsprojekt geäußert wurden, sollte in der Zielanalyse eine Darstellung der möglichen negativen Auswirkungen erfolgen. Dies sollte insbesondere unter dem Gesichtspunkt des „dual use“ geschehen. Anschließend an diese Überlegungen erfolgt eine Gegenüberstellung von positiven und negativen Erwartungen und eine Abwägung, die in einer Rechtfertigung (oder Ablehnung!) der Veröffentlichung der Forschungsergebnisse mündet.
3. Lösungsvorschläge
Wie lassen sich eventuell identifizierte Probleme unter Umständen lösen? Wie lassen sich beispielsweise Wertekonflikte abmildern oder Probleme, die bezüglich der Verwendung bestimmter Mittel augenfällig geworden sind, ausräumen?
4. Abschließende Bemerkungen
Am Ende sollten die Ergebnisse der Analyse noch einmal in aller Kürze zusammengefasst werden. Es sollte außerdem eine abschließende Bewertung erfolgen, die alle Bestandteile der Folgenabschätzung in Betracht zieht und eine Empfehlung darüber abgibt, ob ein Forschungsprojekt weitergeführt/begonnen/veröffentlicht (je nach Stand und Kontext) werden sollte.
An dieser Stelle können außerdem allgemeine Beobachtungen Platz finden, für die an anderer Stelle kein Raum war.
Der zehnte Abschnitt, der ebenfalls zum Anwendungsbereich gehört, stellt vor, inwiefern Software und Applikationen ethisch gestaltbar sind und wieso das nicht immer machbar ist.
Im ersten Kapitel geht es daher um zwei Verfahren zum Design ethischer Systeme: Das Value-based Engineering und das GERD-Modell.
Kapitel 2 handelt von dem ethischen Design im Kleinen. Hier wird vorgestellt, wie bspw. durch Nudging, Dark Pattern und Gamification in Benutzeroberflächen ethisch oder unethisch agiert werden kann.
Das dritte Kapitel behandelt das Thema Barrierefreiheit. Es geht vor allem um digitale Barrierefreiheit und die minimalen Anforderungen dafür.
Lernziele des Abschnitts 10 Ethisches Design:
- Sie können die Verfahren Value-based Engineering und GERD-Modell erkären.
- Sie wissen, aus welchen Bereichen beim Value-based Engineering Fragen in Bezug auf das jeweilige System of Interest gestellt werden.
- Sie können den Zusammenhang zwischen Nudges und der Theorie von Kahnemann erklären.
- Sie können die Begriffe Nudging, Dark Pattern und Gamification erläutern und jeweils passende Beispiele dazu nennen.
- Sie sind in der Lage zu erläutern, was unter (digitaler) Barrierefreiheit verstanden wird.
- Sie kennen einige Anforderungen, um digitale Barrierefreiheit zu gewährleisten.
In der Vorlesung wurde über das Thema „Barrierefreiheit“ gesprochen.
Bitte analysieren Sie diesen Kurs hinsichtlich seiner Barrierefreiheit: Entwickeln Sie Vorschläge, wie die Barrierefreiheit hergestellt bzw. verbessert werden kann. Notieren Sie die Vorschläge in Stichpunkten oder formulieren Sie pro Vorschlag einen kurzen Absatz Fließtext. Reflektieren Sie abschließend ihre eigenen Vorschläge und halten Sie fest, wo die zusätzliche Expertise von Betroffenen und Experten notwendig wäre.
Beachten Sie: Ein häufiger Grund für Punktabzug in den Prüfungsleistungen der letzten Semester war, dass die eigene Position und Kompetenz zur Entscheidungsfindung nicht reflektiert wurde. Mit dieser Aufgabe haben Sie Gelegenheit diesen Aspekt Ihrer schriftlichen Ausarbeitung zu üben.
Wir werden Ihre Vorschläge und Ideen zu Beginn der kommenden Übung diskutieren.
<iframe title="10-01 Verfahren" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/670e95320e1a4edb8472f729811952bd1d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Welche der folgenden Punkte sind Teil der 10 Handlungsprinzipien des Value-based Engineering nach Spiekermann?
[[X]] Übernahme von Verantwortung für die erweiterte Systemlandschaft [[X]] Kontextsensitive, weise und kontinuierliche Beobachtung und Antizipation der Systementfaltung [[X]] Nutzung ethischer und moralischer Prinzipien zum Erkennen dessen, was von Wert ist [[ ]] Ausschließen von Wertzielen außerhalb des Fokus der Unternehmensführung [[ ]] Bereitschaft, das System umzusetzen, trotz ethischer Bedenken [[ ]] Integration von Wertzielen in die Product Roadmap durch einzelne Entscheidungsträger [[X]] Reflektion bestehender Gesetze und Abkommen zur Verfeinerung der Wertschwerpunkte
Aus welchen Bereichen werden beim Value-based Engineering Fragen in Bezug auf das jeweilige System of Interest gestellt?
[[X]] Utilitarismus [[X]] Tugendethik [[ ]] Kontraktualismus [[X]] Deontologie
Welche Aussagen zum GERD-Modell sind korrekt?
[[ ]] Das GERD-Modell ist ein wissenschaftliches Modell und kein ethisches Modell. [[ ]] Das GERD-Modell ist kein wissenschaftliches Modell und ein ethisches Modell. [[X]] Das GERD-Modell ist ein wissenschaftliches Modell und ein ethisches Modell. [[X]] Es bietet Wissen und Leitlinien für unterschiedliche Phasen der Forschung und Entwicklung. [[X]] GERD steht für Gender Extended Research and Development-Modell. [[ ]] GERD steht für Gender E-Learning, Research and Development-Modell.
{{2}}
Quellen und vertiefende Literatur
- Spiekermann, Sarah. 2019. Digitale Ethik: ein Wertesystem für das 21. Jahrhundert. Droemer eBook.
- ———. 2021. “Value-based Engineering: Prinzipien und Motivation für bessere IT-Systeme.” Informatik Spektrum. Springer Science and Business Media LLC. https://doi.org/10.1007/s00287-021-01378-4.
- GERD Model
- https://www.humanetech.com/technologists
Folien: Ethisches Design im Kleinen
{{1}}
Quiz
Welche Aussagen zur Theorie von Kahnemann (2011) zur Informationsverarbeitung sind korrekt?
[[X]] System 1 ist schnell, instinktiv und emotional. [[ ]] System 1 ist langsam, reflektiert und logisch. [[X]] System 2 ist langsam, reflektiert und logisch. [[ ]] System 2 ist schnell, instinktiv und emotional.
Welches Informationsverarbeitungssystem nach Kahnemann (2011) versuchen Nudges zu beeinflussen?
[(X)] System 1 [( )] System 2
Welches der folgenden Beispiele beschreibt Nudging?
[[ ]] Ein Plakat, das zum Kauf von Junkfood auffordert. [[X]] Eine schockierende Warnung vor Tabakkonsum auf einer Zigarettenpackung. [[ ]] Ein Verbot von Plastiktüten in Supermärkten. [[ ]] Eine Strafe für ungesunde Ernährung. [[ ]] Eine App, die das Nutzerverhalten aufzeichnet.
Welche Ziele verfolgen Dark Patterns?
[[X]] Manipulation von Nutzerverhalten [[ ]] Erhöhung der Nutzerfreundlichkeit [[ ]] Verbesserung von Datenschutz und Sicherheit [[ ]] Förderung von sozialer Gerechtigkeit [[X]] Steigerung des Gewinns von Unternehmen
Welche Kritikpunkte gibt es an Gamification?
[[X]] Missbrauch von spielerischen Elementen zur Manipulation [[X]] Vernachlässigung von langfristigen Zielen zugunsten kurzfristiger Erfolgserlebnisse [[ ]] Steigerung von Motivation und Engagement [[ ]] Einschränkung von Freiheitsrechten
{{2}}
Quellen und vertiefende Literatur
Nudging:
- Kahneman, Daniel. 2012. Thinking, Fast and Slow. 1st ed. London: Penguin.
- Meske, Christian, and Ireti Amojo. 2020. “Ethical Guidelines for the Construction of Digital Nudges.”
- Schmidt, Andreas T., and Bart Engelen. 2020. “The ethics of nudging: An overview.” Philosophy Compass. Cass R. 2015. “The ethics of nudging.” Yale J. on Reg. HeinOnline.
- Thaler, Richard H, and Cass R Sunstein. 2009. Nudge: Wie man kluge Entscheidungen anstößt. Ullstein eBooks.
- Thaler: The Power of Nudges, For Good and Bad (NYT, 2015)
Sind Nudges wirklich wirkungsvoll?
- Maier, Maximilian, František Bartoš, T. D. Stanley, David R. Shanks, Adam J. L. Harris, and Eric-Jan Wagenmakers. 2022. “No evidence for nudging after adjusting for publication bias.” Proceedings of the National Academy of Sciences. Proceedings of the National Academy of Sciences.
- Mertens, Stephanie, Mario Herberz, Ulf J. J. Hahnel, and Tobias Brosch. 2022. “The effectiveness of nudging: A meta-analysis of choice architecture interventions across behavioral domains.” Proceedings of the National Academy of Sciences. Proceedings of the National Academy of Sciences.
- Video, das die Studien einordnet und diskutiert
Dark Pattern:
- https://www.darkpatterns.org
- https://ethicaldesignhandbook.com/
- https://www.smashingmagazine.com/2018/09/dark-patterns-and-other-design-no-nos-for-mobile/
- Interaktive Bespiele für Dark Patterns von neal.fun
Gamification:
- Bunz, Mercedes. 2015. “School Will Never End: On Infantilization in Digital Environments — Amplifying Empowerment or Propagating Stupidity?” In Postdigital Aesthetics: Art, Computation and Design, edited by David M. Berry and Michael Dieter, 191–202. London: Palgrave Macmillan UK.
- Fuchs, Mathias, Sonia Fizek, Paolo Ruffino, and Niklas Schrape. 2014. Rethinking gamification. meson press.
- Wan Kim, Tae, and Kevin Werbach. 2016. “More than just a game: ethical issues in gamification.” Ethics and Information Technology. Springer Science and Business Media LLC.
{{1}}
Quiz
Warum sollten Unternehmen ihre Website barrierefrei gestalten?
[[X]] Um rechtliche Vorgaben zu erfüllen [[X]] Um die Nutzerfreundlichkeit für alle Nutzer zu erhöhen [[ ]] Um das Image des Unternehmens zu verbessern [[ ]] Um Kosten zu sparen
Wie können Unternehmen ihre Website barrierefrei gestalten?
[[X]] Durch die Verwendung von klaren und einfachen Texten [[X]] Durch die Verwendung von Farben mit hohem Kontrast [[X]] Durch die Bereitstellung von Alternativtexten für Bilder und Grafiken [[X]] Durch die Bereitstellung von Texttranskriptionen und Untertiteln für Audio- und Videodateien
{{2}}
Quellen und vertiefende Literatur
- FAQ der Bundesfachstelle Barrierefreiheit zu rechtlichen Themen
- Aktion Mensch über barrierefreie Webseiten
- WAVE: web accessibility evaluation tool
- Online-Kurs von W3C und UNESCO
- Barrierefreiheit im Gaming: Microsoft und Sony releasen barrierefreie Controller - Was taugen die und ist das ausreichend?
- Colorblind-Modus in Diablo 2 Resurrected ist in Wirklichkeit nur Colorblind-Simulator-Modus: Statt Menschen mit Rot-Grün-Schwäche zu helfen, simuliert das Spiel nur diese Farbschwäche, was Betroffenen offensichtlich nicht hilft.
Die in Vorlesung 09 vorgestellte Methodik zur Fallanalyse bildet die Grundlage für das Verfassen von ethischen Designdokumenten und Impact Statements, d. h. Ihrer Prüfungsleistung, und wird uns daher bis zum Ende der Veranstaltung begleiten.
Daher beschäftigt sich auch die dritte Einsendeaufgabe erneut mit dieser Methode: Lesen Sie dazu zunächst die Fallbeschreibung und führen Sie anschließend schriftlich die Schritte 02 bis 05 der Fallstudienanalyse durch, d. h. Kontext- und Werteanalyse, Entwurf und Bewertung von Verhaltensalternativen. Verwenden Sie bei der Bewertung von Verhaltensalternativen eine der in der Vorlesung vorgestellten Argumentationslinien (s. 03 Argumentationslinien).
Ihre Abgabe sollte eine Länge von 2 bis 3 Seiten haben, zzgl. Titelblatt und Quellen und als Fließtext formuliert sein. Verwenden Sie außerdem mindestens eine weitere Quelle und geben Sie diese bibliographisch korrekt in der Ausarbeitung an.
Weiter oben unter "Allgemeines" finden Sie weitere Hilfestellungen und Tipps zu Formalia, Zitierweisen und was Sie sonst noch beachten sollten.
Bewertungskriterien
Diese Aufgabe wird anhand der folgenden Kriterien bewertet:
- Die unter "Allgemeines" angeführten Formalia (Layout, Titelseite etc.) wurden beachtet.
- Die unter "Allgemeines" angeführten Zitationsregeln und bibliographischen Hinweise wurden beachtet.
- Es wurde eine Rechtschreibkorrektur verwendet, d. h. offensichtliche Fehler kommen nicht oder nur in sehr geringem Umfang vor.
- Die Längenvorgabe wurde beachtet.
- Die in der Vorlesung bis zum Thema der Einsendeaufgabe vorgestellten Begriffe wurden berücksichtigt.
- Die in der Einsendeaufgabe verwendeten Begriffe wurden korrekt verwendet.
- Die geforderten Schritte der Fallanalyse werden korrekt durchgeführt.
- Es erfolgt eine Differenzierung von Interessen und Werten bzw. von Interessen- und Wertekonflikten.
- Die Verhaltensalternativen werden anhand einer in der Vorlesung vorgestellten Argumentationslinie bewertet.
Zum Bestehen müssen Sie mindestens 7 von 9 Kriterien erreichen/nicht verletzen.
Hinweis: Unabhängig von den hier genannten Kriterien werden Einsendungen, die nicht oder nicht sinnvoll auf die gestellten Aufgaben eingehen als "nicht sinnvoll bearbeitet" bewertet. Es können nur Texte und Textabschnitte für die Bewertung berücksichtigt werden, die sprachlich verständlich sind.
Sie arbeiten für die Softwareboutique INTENSCIFI, eine sehr erfolgreiche Agentur für Softwareentwicklung. Ihre vorgesetzte Person hat Ihnen ein neues Projekt übertragen:
CallMe ist ein Verein, der Jugendlichen in psychischen Krisensituationen kostenlos Hilfe leistet. Der Verein bietet dazu eine telefonische Hotline für Beratungsgespräche, wie auch verschiedene Chat-Angebote (bspw. über die eigene Homepage, aber auch per WhatsApp, Facebook etc.). Der Verein ist chronisch unterfinanziert und sucht deswegen nach Möglichkeiten, die Gesprächsdaten zu monetarisieren. Da der Verein selbst hohe ethische Ansprüche an sich stellt, werden Sie gebeten, einen ethischen Designprozess für die Softwareentwicklung zu initiieren und im ersten Schritt ein ethisches Designdokument aufzusetzen.
CallMe zeichnet aus rechtlichen Gründen alle Gespräche mit Patient:innen auf bzw. speichert die Chatverläufe. Die Patient:innen werden darüber informiert und haben die Möglichkeit, ihre Daten im Nachgang an einen Kontakt löschen zu lassen (nur 2% machen davon Gebrauch). CallMe hat bereits einen Dienstleister damit beauftragt, diese Daten anonymisieren zu lassen, sodass kein Rückschluss auf Patient:innen mehr möglich ist. Aus Sorgfaltsgründen wurde ein weiterer Dienstleister damit beauftragt, die Anonymisierung zu überprüfen und zu verifizieren. Dabei konnten in Einzelfällen Probleme bei der Anonymisierung festgestellt werden, die jedoch in nur geringem Rahmen aufgetreten und daher nach Ansicht der Verantwortlichen bei CallMe vertretbar sind.
Die gesammelten anonymisierten Daten wurden an FriendlyHelper übergeben. FriendlyHelper ist eine For-Profit Ausgründung von CallMe, die mit der Monetarisierung der Daten beauftragt ist und in dieser Rolle INTENSCIFI mit der Erstellung einer App beauftragt hat.
Die FriendlyHelper-App soll genau das sein: eine freundliche Hilfe, um durch den schwierigen Alltag von Jugendlichen (der Hauptzielgruppe) zu navigieren. Jugendliche, die die App verwenden, werden von der App durch regelmäßige Prompts dazu aufgefordert, Tagebuch zu führen, in dem sie einzelne Fragen beantworten, mit Smilies ihren aktuellen emotionalen Zustand einschätzen und ihren Schlafrhythmus überwachen. Diese Daten werden verwendet, um sie mittels Machine Learning mit dem Datensatz von CallMe abzugleichen und daraus zielgerichtete Interventionen abzuleiten: Die Nutzer:innen erhalten bspw. passende Empfehlungen für Meditation, Ernährung oder Beratungsgespräche mit professionellen Psycholog:innen und Berater:innen.
Damit die Tagebucheinträge mit dem mittels Machine Learning gewonnenen Modell analysiert werden können, werden sie (wie auch die übrige Infrastruktur der App) in der Cloud gespeichert. Als Anbieter wurde ein großes amerikanisches Unternehmen ausgewählt, das jedoch (aus Datenschutzgründen) die vollständige Speicherung auf Servern in der EU zugesichert hat. Die App soll nach Vorgabe von FriendlyHelper möglichst wenige Berechtigungen verlangen, um ihren „datensparsamen“ Charakter deutlich zu machen. Aus diesem Grund ist auch eine Integration in andere soziale Dienste und Netzwerke derzeit nicht vorgesehen.
Die App wird mit einem hochpreisigen Abo-Modell finanziert. Der Grund für den hohen Preis ist der besondere Fokus auf Datenschutz, sowie die Bereitstellung von professionellen Berater:innen. FriendlyHelper ist vertraglich dazu verpflichtet, einen Teil seiner Einnahmen an CallMe zu spenden, sodass der Erfolg des StartUps direkt einem guten Zweck dient. Wegen des vielversprechenden Datensatzes, der die Grundlage des Geschäftsmodells bildet, und dem daraus folgenden Potential für weitere Anwendungen, konnten bereits einige hochkarätige Financiers gewonnen werden.
Der elfte Abschnitt beschäftigt sich mit den ethischen Ansprüchen, die an Informatiker:innen als Forscher:innen gestellt werden.
Dafür wird im ersten Kapitel erklärt, wie die eigene Forschung reflektiert werden kann. Es werden u.a. Grundsätze vorgestellt, wie mit Software und Daten umgegangen werden sollte.
Das zweite Kapitel handelt von geistigem Eigentum, Plagiaten und wie man diese verhindern kann.
Im dritten Kapitel rückt die Methode Impact Statement erneut in den Vordergrund. In Abschnitt 9 wurde bereits ausführlich das Vorgehen zum Verfassen eines Impact Statements erläutert. Nun wird genauer betrachtet, wieso ein Impact Statement verfasst werden sollte und welche Folgen dies haben kann.
Das letzte Kapitel von Abschnitt 11 befasst sich mit dem Thema Zivilklausel und militärische Forschung an Hochschulen. Eine Zivilklausel schließt u.a. die Forschung für militärische Zwecke an Universitäten aus. Wieso dieser Weg auch problematisch sein kann und wie die CAU Kiel damit umgeht, wird in Kapitel 4 dargestellt.
Lernziele des Abschnitts 11 Ethik in der Wissenschaft:
- Sie wissen, welche Aspekte bei der Reflektion von Forschungsergebnissen berücksichtigt werden sollten.
- Sie haben verstanden, was das Prinzip lege artis ist.
- Sie können erklären, warum Plagiate ethisch problematisch sind.
- Sie wissen, wofür Impact Statements sinnvoll sind und was beim Schreiben beachtet werden sollte.
- Sie kennen den Umgang der CAU mit militärischer Forschung.
Die in Vorlesung 09 vorgestellte Methodik zur Fallanalyse bildet die Grundlage für das Verfassen von ethischen Designdokumenten und Impact Statements, d. h. Ihrer Prüfungsleistung, und wird uns daher bis zum Ende der Veranstaltung begleiten.
Die Methode bildet eine hervorragende Grundlage, um sich mit dem Kontext einer ethisch problematischen Entwicklung vertraut zu machen. In der kommenden Woche beschäftigen wir uns mit „Ethik in der Wissenschaft“, d. h. der ethischen Verantwortung, die Informatiker:innen als Wissenschaftler:innen haben. Zur Vorbereitung bitte ich Sie die nachfolgende Fallbeschreibung zu lesen und in Stichpunkten zu analysieren.
Bitte legen Sie bei der Analyse besonderes Gewicht auf die Kontext- und Werteanalyse.
Sie haben kürzlich eine Stelle in einer Bioinformatik-Arbeitsgruppe einer großen, deutschen Universität angetreten. Die Arbeitsgruppe beschäftigt sich damit, wie mittels Machine Learning Moleküle für die pharmazeutische Nutzung gewonnen werden können. Der Hintergrund ist dabei wie folgt: Die Synthetisierung neuartiger Moleküle für die pharmazeutische Nutzung ist teuer und zeitintensiv, es gibt aber einen sehr großen Suchraum möglicher, geeigneter Moleküle. Machine Learning hilft dabei, den zur Verfügung stehenden Suchraum durch die Berücksichtigung bisheriger Erfahrungen zu verkleinern und die Suche auf vielversprechende Kandidaten einzugrenzen. Diese können in der Folge synthetisiert und erprobt werden. Das spart Kosten und Ressourcen. Eine Gefahr ist dabei immer, dass man „aus Versehen“ hochgiftige Präparate herstellt. Daher wird beim Machine Learning darauf geachtet, möglichst Molekülverbindungen zu vermeiden, die bekanntermaßen giftig sind. Dafür werden offen zugängliche, von anderen Forschern zur Verfügung gestellte Datensätze zu Giftstoffen verwendet. Diese Datensätze enthalten Informationen über Moleküle, ihre Giftigkeit und weitere Auffälligkeiten.
Die Arbeitsgruppe wurde von einer internationalen Organisation kontaktiert, die sich für den Bann von biologischen und chemischen Waffen ausspricht. Diese Organisation veranstaltet eine Konferenz und hat um einen Beitrag gebeten, der darstellt, wie einfach es ist, das in Ihrer Arbeitsgruppe entwickelte Verfahren „umzudrehen“ und besonders giftige Stoffe zu erzeugen. Da diese Anfrage für die Chefin der Arbeitsgruppe, Fr. Prof. Flamel, keine große Priorität besitzt, hat sie das Thema als Bachelorarbeit vergeben. Die Bachelorstudentin, die das Thema übernommen hat, hat ihre Zwischenergebnisse kürzlich im internen Oberseminar der Arbeitsgruppe vorgestellt und alle Anwesenden schockiert: Sie konnte mit einfachsten Mitteln innerhalb kürzester Zeit mehrere zehntausend hochgiftige (teils um ein vielfaches giftiger als die bekannten Kampfstoffe) und potentiell waffentaugliche Stoffe identifizieren. Dabei ist sie wie folgt vorgegangen:
Sie hat zunächst mit einer Suchmaschine eine Reihe frei verfügbarer Datensätze zu Giftstoffen ausfindig gemacht (alle seriös und von anderen Forschern öffentlich zur Verfügung gestellt). Sie hat dann ein generatives neuronales Netz trainiert, mit dem Ziel, möglichst giftige Stoffe neu zu erzeugen. Da sie vorher wenig Kontakt mit dieser Technologie hatte, hat sie ein kurzes Python-Skript aus verschiedenen Stackoverflow-Artikeln zusammenkopiert. Sie selbst und zwei weitere Kolleg*innen hatten inzwischen Gelegenheit, das Vorgehen der Studentin nachzuvollziehen und zu überprüfen: Trotz der einfachen Mittel und des amateurhaften Vorgehens, ist der von ihr verwendete Prozess solide und die Ergebnisse glaubwürdig. Die Ergebnisse lassen sich außerdem weiter filtern, sodass besonders einfach zu generierende Gifte in einer eigenen Liste angezeigt werden.
Prof. Flamel hat inzwischen mit der Studentin ein Paper als Beitrag für die Konferenz verfasst, hadert aber damit, es einzureichen, weil sie unsicher darüber ist, ob das ein verantwortungsvoller Umgang mit den gewonnenen Erkenntnissen ist. Sie hat daher alle Mitglieder der Arbeitsgruppe um eine Stellungnahme gebeten.
<iframe title="11-01 Eigene Forschung reflektieren" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/9d5e00db9441444f8588db0829ec69501d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe>Folien: Eigene Forschung reflektieren
{{1}}
Quiz
Was sind wichtige Aspekte, die bei der Reflektion von Forschungsergebnissen berücksichtigt werden müssen?
[[X]] Die Berücksichtigung der eigenen Vorurteile und Voreingenommenheit [[ ]] Die Identifikation von Fehlern anderer Forschungsgruppen [[X]] Die ausreichende Anonymisierung der Probandendaten [[X]] Die Gewährleistung der Validität der Forschungsergebnisse [[X]] Das Prinzip "lege artis" wurde für die Forschung verwendet.
{{2}}
Quellen und vertiefende Literatur
- Breuer, Franz, Petra Muckel, and Barbara Dieris. 2019. “Gütekriterien und ethische Fragen.” In Reflexive Grounded Theory: Eine Einführung für die Forschungspraxis, 355–93. Wiesbaden: Springer Fachmedien Wiesbaden
- CARE Prinzipien des VAD
- Softwareentwicklung in der Wissenschaft
- Integrität und Ethik in der Wissenschaft: Portal der CAU
- Zertifikatsstudiengang Forschungsethik an der CAU
- Richtlinie der CAU zu Guter Wissenschaftlicher Praxis
- Richtlinie der DFG zu Guter Wissenschaftlicher Praxis
Folien: Geistiges Eigentum und Plagiate
{{1}}
Quiz
Was gilt laut ACM Policy als Plagiat?
[[X]] Die wortwörtliche Übernahme von Texten oder Teilen aus Texten anderer Autoren ohne entsprechende Quellenangabe. [[X]] Das Paraphrasieren von Texten anderer Autoren ohne entsprechende Quellenangabe. [[X]] Das Kopieren von Grafiken, Tabellen oder Bildern anderer Autoren ohne entsprechende Quellenangabe. [[X]] Das Abschreiben von Programmen oder Programmteilen anderer Autoren ohne entsprechende Quellenangabe.
Was sollte man tun, um Plagiate zu vermeiden?
[[ ]] Alle Texte, Grafiken oder Tabellen selbst erstellen und keine fremden Quellen verwenden. [[X]] Alle verwendeten Quellen korrekt zitieren und angeben. [[ ]] Sich auf die Verwendung von Texten anderer Autoren beschränken, die älter als 50 Jahre sind. [[ ]] Sich auf die Verwendung von Quellen beschränken, die nicht im Internet verfügbar sind.
{{2}}
Quellen und vertiefende Literatur
<iframe title="11-03 Impact Statements" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/372a8795c2bb45dd8f08d6d075f8f3951d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Was sollte beim Schreiben eines Impact Statements beachtet werden?
[[X]] Die Verwendung von klarer und präziser Sprache.
[[ ]] Es sollen nur die Nachteile und Probleme ihrer Forschung behandelt werden.
[[ ]] Es sollte versucht werden, Unsicherheiten zu kaschieren.
[[X]] Die Verwendung von ethischen Fachbegriffen.
[[X]] Die Verwendung von weiterführender Literatur, wenn sie sinnvoll oder nötig ist.
[[ ]] Bei theoretischen Arbeiten ist ein Impact Statement unnötig.
{{2}}
Quellen und vertiefende Literatur
- Nanayakkara, Priyanka, Jessica Hullman, and Nicholas Diakopoulos. 2021. “Unpacking the Expressed Consequences of AI Research in Broader Impact Statements.” In Proceedings of the 2021 AAAI/ACM Conference on AI, Ethics, and Society, 795–806. New York, NY, USA: Association for Computing Machinery
- Prunkl, Carina E. A., Carolyn Ashurst, Markus Anderljung, Helena Webb, Jan Leike, and Allan Dafoe. 2021. “Institutionalizing ethics in AI through broader impact requirements.” Nature Machine Intelligence
- A Guide to Writing the NeurIPS Impact Statement
{{1}}
Quiz
Was legt eine Zivilklausel an Universitäten fest?
[[ ]] Sie schreibt den Studierenden das Tragen von Militärkleidung vor. [[ ]] Sie erlaubt die Nutzung von zivilen Technologien und Materialien in der Forschung und Lehre an der Universität. [[ ]] Sie reguliert die Zusammenarbeit zwischen der Universität und zivilen Organisationen. [[ ]] Sie fördert die Durchführung von zivilgesellschaftlichen Projekten an der Universität. [[X]] Sie schreibt den Verzicht auf militärische Forschung und Lehre an der Universität vor.
Hat die CAU Kiel eine Zivilklausel?
[( )] Ja [(X)] Nein
{{2}}
Quellen und vertiefende Literatur
- Richtlinie der CAU zu "Forschungsfreiheit und Forschungsrisiken"
- FragDenStaat: Kooperation der CAU mit der Bundeswehr
- Spiegel Online: Nie wieder Kriegesforschung!
- Deutschlandfunk: Eingriff in die Freiheit der Wissenschaft
Der letzte Abschnitt dieses Kurses beschäftigt sich mit individuellen Dilemmasituationen. Als Informatiker:in kann man leicht in so eine Dilemmasituation geraten, wenn z.B. der Arbeitgeber etwas unmoralisches verlangt. In diesem Abschnitt soll es darum gehen, wie man sich in so einer Situation verhalten und selbst eine Lösung finden kann.
Das erste Kapitel erklärt dafür die grundlegenden Begriffe Haltung und Gewissen.
Kapitel 2 befasst sich mit verschiedenen Varianten, wie man als Arbeitnehmer:in mit einer individuellen Dilemmasituation umgehen kann. Es werden die Begriffe Treuepflicht und Whistleblowing erkärt und verschiedene Vereine vorgestellt, die in so einer Situation helfen können.
Im Kapitel drei wird kurz darauf eingegangen, welche Gedanken man sich vor der Arbeitgeberwahl stellen sollte, um eine Arbeitsstelle zu finden, mit der man persönlich moralisch leben kann.
Lernziele des Abschnitts 12 Individuelle Dilemmasituation:
- Sie können die Begriffe Haltung und Gewissen definieren.
- Sie wissen, in welchem Zusammenhang Haltung und Gewissen beim Fällen einer Entscheidung stehen.
- Sie können erklären, was die Treuepflicht und was Whistleblowing ist.
Lesen Sie die folgende Fallbeschreibung und versetzen Sie sich in die Situation von Sophie: Was würden Sie tun?
Skizzieren Sie – stichwortartig oder als Fließtext – mögliche Verhaltensalternativen und bewerten Sie diese vor dem Hintergrund der in der Aufgabe geschilderten Lebensumstände von Sophie.
Das städtische Krankenhaus in M. will seine Kostenrechnung gesetzlichen Vorgaben anpassen: Während bisher Leistungen an Patient:innen pauschal durch Tagessätze abgerechnet wurden, sollen jetzt alle an Patient:innen verrichteten Zuwendungen einzeln erfasst werden. Das Krankenhaus beschließt daher, die Verwaltung durch eine zentrale Datenhaltung zu modernisieren.
Das mittelgroße Softwarehaus S. am Ort, das bereits mit der Aufgabenanalyse betraut war, erhält den Auftrag. Es stellt daraufhin Sophie ein, eine berufsunerfahrene Informatikerin mit den Studienschwerpunkten Systemanalyse, Datenbanken und Informationssysteme. Sophie ist froh um diese Stelle, da sie und ihr Mann – ein arbeitsloser Lehrer, der das gemeinsame zweijährige Kind versorgt – am Ort bleiben und ihre Sozialbeziehungen aufrechterhalten wollen.
Im Laufe der Einarbeitung in das Projekt muss Sophie allerdings feststellen, dass die zentral vorgehaltenen Daten in der bisherigen Planung nicht ausreichend gegen unbefugten Zugriff geschützt sind. Sie hält das System nach außen hin für „offen wie ein Scheunentor“; zusätzlich erlaubt die zentrale Datenhaltung auf einfachste Weise eine genaue Überwachung aller Pflegekräfte: Effizienz bei einzelnen Tätigkeiten, persönliche Vorlieben, allgemeines Engagement und Leistungen bei Teamarbeit. Sophie steht aber dem Einsatz von Computersystemen zu Überwachungszwecken grundsätzlich ablehnend gegenüber und glaubt, dafür gute Gründe zu haben.
Sophie spricht ihre vorgesetzten Personen auf ihre Bedenken an. Diese lehnen aber unter Hinweis auf akute Zeit- und Finanzknappheit jegliche Änderungen am Projektplan strikt ab: Sophie werde bezahlt, um ihre Aufgabe zu machen; Kritik an dem Projekt steht ihr nicht zu; für einen immer möglichen Missbrauch einer Software wäre weder sie noch die Softwarefirma verantwortlich zu machen.
(Quelle: Pfeifer 2009)
<iframe title="12-01 Haltung und Gewissen" width="900" height="600" frameborder="0" scrolling="auto" marginheight="0" marginwidth="0" src="https://videoportal.rz.uni-kiel.de/Mediasite/Play/217cd6be2eee41ff98a6b762f2adaa401d" allowfullscreen msallowfullscreen allow="fullscreen"></iframe> {{1}}
Quiz
Wie hängen Haltung und Gewissen zusammen?
[[ ]] Haltung und Gewissen sind Synonyme und bedeuten dasselbe. [[ ]] Haltung ist dynamisch und ändert sich häufig, während das Gewissen unveränderlich ist. [[X]] Haltung ist ein Wertesystem, welches man für sich entwickelt, während das Gewissen dieses Wertesystem in konkreten Kontexten abwägt und anwendet. [[X]] Man muss Haltung vertreten, um für sich selbst vertretbare Gewissensentscheidungen treffen zu können.
{{2}}
Quellen und vertiefende Literatur
- Giubilini, Alberto. 2021. “Conscience.” Https://plato.stanford.edu/archives/spr2021/entries/conscience/. In The Stanford Encyclopedia of Philosophy, edited by Edward N. Zalta, Spring 2021. Metaphysics Research Lab, Stanford University.
- Grimm, Petra, Tobias O. Keber, and Oliver Zöllner. 2019. Digitale Ethik: Leben in vernetzten Welten. Kompaktwissen XL. Stuttgart: Reclam, Philipp, jun. GmbH, Verlag.
- Pfeifer, V. 2009. Ethisch argumentieren: eine Anleitung anhand von aktuellen Fallanalysen. Ethisch argumentieren / Eine Anleitung anhand von aktuellen Fallanalysen. Schöningh.
Folien: Treuepflicht und Whistleblowing
{{1}}
Quiz
Was ist die Treuepflicht?
[[ ]] Die Verpflichtung eines Arbeitnehmers, während der Arbeitszeit keine privaten E-Mails zu schreiben. [[X]] Die Verpflichtung eines Arbeitnehmers, Firmengeheimnisse vertraulich zu behandeln. [[X]] Die Verpflichtung eines Arbeitnehmers, dem Arbeitgeber nicht zu schaden. [[ ]] Die Verpflichtung eines Arbeitgebers, die Gehälter pünktlich zu zahlen. [[ ]] Die Verpflichtung eines Arbeitnehmers, Überstunden zu leisten, wenn der Arbeitgeber dies anordnet.
Was ist Whistleblowing?
[[ ]] Das unbefugte Veröffentlichen von Informationen über eine Organisation. [[ ]] Das illegale Hacken in die Computersysteme einer Organisation. [[X]] Die offene oder verdeckte Meldung von Missständen in einer Organisation an eine externe Stelle. [[ ]] Das Verkaufen von vertraulichen Informationen einer Organisation an Dritte. [[ ]] Die gezielte Rufschädigung einer Organisation durch das Verbreiten von Falschinformationen.
Werden Whistleblower geschützt und wenn ja wie?
[[X]] Ja, Whistleblower werden durch mehrere Richtlinien und Gesetze vor Benachteiligung und Vergeltung geschützt. [[ ]] Ja, Whistleblower werden durch Aufnahme in das Zeugenschutzprogramm geschützt. [[ ]] Nein, Whistleblower verstoßen gegen die Treuepflicht und werden deshalb nicht geschützt.
{{2}}
Quellen und vertiefende Literatur
- Braune, Andreas, ed. 2017. Ziviler Ungehorsam. Philipp Reclam jun. GmbH & Co. KG. https://www.reclam.de/detail/978-3-15-019446-1/Ziviler_Ungehorsam.
- Delmas, Candice. 2018. A duty to resist: When disobedience should be uncivil. Oxford University Press.
- Boston Review (Candice Delmas): That Lonesome Whistle
{{1}}
Quellen und vertiefende Literatur
Die folgende Tabelle führt die wichtigsten Begriffe der Vorlesung zusammen mit den/dem Kapitel/n auf, in denen sie vorkommen. Die Tabelle erhebt keinen Anspruch auf Vollständigkeit.
Begriff | Kapitel |
---|---|
Abstraktion | 07-03 |
Aktuerschaft | 04-01, 05-01 |
Alternativtexte | 10-03 |
Ambiguität | 04-01 |
Ambiguitätstoleranz | 04-01 |
Analogie-Test | 09-01 |
Anthropomorphismen | 05-03 |
Argumentationslinien | 02-01, 03-01, 03-03 |
Argumenttypen | 02-02 |
Autonomie | 03-03, 04-01, 06-01 |
Barrierefreiheit | 10-03 |
Begriffe | 02-01, 03-01, 04-01, 04-02, 04-03, 12-01 |
Behindertengleichstellungsgesetz (BGG) | 10-03 |
Bias | 07-03, 11-03 |
Chilling effects | 06-01 |
Code of Conduct | 08-02 |
Concept Map | 04-02 |
Concept of Operation | 10-01 |
Dark Patterns | 10-02 |
Deontologie | 03-03, 10-01 |
Dilemma | 03-01, 04-03, 08-01, 09-01, 09-02, 09-03, 09-04, 11-03, 12-01, 12-02, 12-03 |
Dual Use | 05-02, 11-01, 11-03, 11-04 |
Epoché | 01-01 |
Ethik | 01-02, 03-03, 04-03, 05-01, 11-03 |
Ethische Wertanforderung (EVR) | 10-01 |
Ethisches Designdokument | 09-02, 09-03 |
Eudaimonismus | 03-03 |
Faktenaussage | 02-03 |
Fallanalyse | 09-01 |
Five Paragraph-Essay | 02-04 |
Folgenabschätzung | 09-02, 09-03, 09-04, 11-03 |
Gamification | 10-02 |
Gedankenexperimente | 03-01, 03-03 |
GERD-Modell | 10-01 |
Gesellschaft für Informatik | 08-01, 09-02, 09-03, 11-01 |
Gesinnungsethik | 05-01 |
Gewissen | 05-01, 05-02, 12-01 |
Ghost Work | 07-02 |
Haltung | 05-01, 12-01 |
Impact Statement | 09-02, 09-04, 11-03 |
Infantilisierung | 10-02 |
Interesse | 04-03, 06-03, 07-04, 09-01 |
Interessenskonflikt | 04-03, 06-03, 12-03 |
In-the-Loop | 05-02 |
Kahnemann System | 10-02 |
Kategorischer Imperativ | 03-03 |
Konsequentialismus | 03-03 |
Konservativismus | 07-03 |
Kontextanalyse | 09-01, 09-02, 09-03, 09-04 |
Kontraktualismus | 03-03 |
Konzepte | 04-01, 04-02 |
Lege artis | 11-01 |
Leichte Sprache | 10-03 |
Libertärer Paternalismus | 10-02 |
Mittelanalyse | 09-02, 09-03, 09-04, 11-03 |
Moral | 01-02, 03-01, 03-03, 04-01, 04-03, 05-01, 08-01, 12-01, 12-02, 12-03 |
Moralethik | 01-02, 04-03 |
Naturalistischer Fehlschluss | 02-03, 09-01 |
NeurIPS | 11-03 |
Normen | 01-02, 02-02, 03-03, 04-03, 07-01, 08-01, 09-01 |
Normenaussage | 02-03 |
Nudge | 10-02 |
Objektivität | 07-01 |
On-the-Loop | 05-02 |
Out-of-the-Loop | 05-02 |
Panoptismus | 06-01 |
Pflichtethik | 03-03, 10-01 |
Pingpong-Argumentation | 02-04 |
Plagiate | 11-02 |
Privatheit | 06-01, 06-02, 06-03 |
Privatsphäre | 06-01, 06-02 |
Responsibilty Gap | 05-02 |
Rogerian Argument | 02-04 |
Sanduhr-Argumentation | 02-04 |
Schadensvermeidung | 11-01 |
Schleier des Nichtwissens | 03-03, 07-04, 09-02 |
Sicherheit | 04-03, 06-03 |
Stakeholder | 07-04, 09-02, 09-03, 09-04, 10-01, 11-03 |
Syllogismus | 02-03, 07-01, 09-01 |
System of Interest (SOI) | 10-01 |
Transparenz | 06-02 |
Treuepflicht | 12-02 |
Tugendethik | 03-03, 10-01, 12-01 |
Überwachungskapitalismus | 07-02 |
UN-Behindertenrechtskonvention | 10-03 |
Urteilsfindung | 09-01 |
Urzustand | 03-03 |
Utilitarismus | 03-03, 10-01 |
Value-based Engineering (VbE) | 10-01 |
Varianz | 09-01 |
Verantwortung | 05-01, 05-02, 06-02, 06-03, 08-01, 11-01, 12-02 |
Verantwortungsethik | 05-01 |
Verantwortungslücke | 05-02 |
Werte | 01-02, 02-04, 03-03, 04-03, 06-03, 07-01, 08-01, 10-01, 12-01, 12-03 |
Werteanalyse | 09-01, 09-02, 09-03, 09-04, 10-01, 11-03 |
Wertecluster | 10-01 |
Wertekonflikt | 04-03, 06-03, 09-02, 09-03, 09-04, 11-03 |
Wertidealismus | 04-03, 07-01, 10-01 |
Wertkonstruktivismus | 04-03, 07-01 |
Wertnaturalismus | 04-03, 07-01 |
Wertqualität (WQ) | 10-01 |
Wertstrategie | 10-01 |
Wertsubjektivismus | 04-03, 07-01 |
Wert-Typen | 04-03, 07-01 |
Whistleblowing | 12-02 |
Zielanalyse | 09-02, 09-03, 09-04, 11-03 |
Zivilklausel | 11-04 |