Authors:
Orsolya Friedrich
Search for other papers by Orsolya Friedrich in
Current site
Google Scholar
PubMed
Close
,
Johanna Seifert
Search for other papers by Johanna Seifert in
Current site
Google Scholar
PubMed
Close
, and
Sebastian Schleidgen
Search for other papers by Sebastian Schleidgen in
Current site
Google Scholar
PubMed
Close
Free access

Ausgehend von den Entwicklungen der künstlichen Intelligenz, des maschinellen Lernens, des Neuro- und Self-Trackings und der sozialen Robotik werden zunehmend neue Formen der Mensch-Maschine-Interaktion und damit verbundene Implikationen und Konsequenzen für die Technikentwicklung, Wissenschaft, Ethik, Politik und Gesellschaft diskutiert. Zwar gibt es in der Informatik und den Ingenieur- und Naturwissenschaften eine lange Tradition der Auseinandersetzung mit den notwendigen Bedingungen gelungener Mensch-Maschine-Interaktionen. Allerdings beschäftigten sich diese Disziplinen v.a. mit der Konstruktion geeigneter Benutzerschnittstellen, d. h. mit Möglichkeiten, Daten und Informationen zwischen Menschen und (zumeist rechnergestützten) Maschinen erfolgreich auszutauschen. Das Hauptaugenmerk lag demnach auf der Entwicklung angemessener Eingabe- und Ausgabegeräte für die effektive und effiziente Nutzung von Computern.

Im Gefolge der ersten Brain-Computer Interfaces, Augmented- und Virtual Reality-Anwendungen und Ansätzen des sogenannten Ubiquitous Computing zeigt sich seit den 1980er Jahren indes eine Tendenz hin zu einem differenzierteren Verständnis von Mensch-Maschine-Interaktionen, das zunehmend auch dialogische und kommunikative Aspekte miteinbezieht. Dies führte schließlich zu den immer noch andauernden Bemühungen, wesentliche Merkmale und Bedingungen menschlicher Kommunikation in Maschinen zu simulieren. Auch wenn weiterhin umstritten ist, worin diese im Einzelnen bestehen (etwa Bewusstsein, Intelligenz oder Verkörperung) und wie sie effektiv simuliert bzw. realisiert werden können, wurden für die Entwicklung von und Auseinandersetzung mit interaktiven Maschinen zunehmend philosophische, soziologische, psychologische, kognitionswissenschaftliche und (medien-)anthropologische Perspektiven relevant.

Dies wurde noch durch den Umstand verstärkt, dass viele neuartige Formen der Mensch-Maschine-Interaktion vielfältige und in ihrem Umfang bislang nur schwer zu bestimmende Auswirkungen für Mensch und Gesellschaft haben können. Im Kontext von Machine Learning (ML)-basierten künstlichen Intelligenzen wird so beispielsweise ihre epistemische Opazität herausgestellt, der Umstand also, dass Nutzer*innen häufig nicht wissen können, wie ein algorithmisch generiertes Ergebnis zustande kommt oder wie verlässlich es ist. Damit verbunden sind Fragen der Kontrolle solcher künstlichen Intelligenzen sowie der Verantwortungszuschreibung für Entscheidungen und Handlungen, die auf ihren Ergebnissen basieren.

Der absehbar zunehmende Einsatz sozialer Roboter, insbesondere im Gesundheitswesen und in Pflegekontexten, wirft hingegen die Frage auf, wie Beziehungen zwischen Menschen und Robotern konzeptualisiert werden können und welche anthropologischen sowie ethischen Implikationen die in diesem Kontext zu beobachtenden neuen Beziehungen und Interaktionsformen haben können.

Technologien des Self-Trackings und die Nutzung von Neurotechnologien werfen indes Fragen nach veränderten Formen des Selbstseins, neuen Formen der Objektivierung und möglichen Implikationen für Prozesse der Subjektivierung auf. Zudem wird debattiert, welche Auswirkungen die zunehmende Verfügbarkeit und Nutzung von Techniken der Selbstvermessung auf die Handlungsfähigkeit, Entscheidungsfähigkeit, Autonomie oder Privatsphäre von Individuen haben und welche Implikationen sich hieraus für soziale Normierungen ergeben. In übergreifender Perspektive werden darüber hinaus die Auswirkungen von interaktiven Technologien auf Gesellschaft und Kultur diskutiert.

Diesen und weiteren Fragen sind die Beiträge des Bandes gewidmet, die in drei thematische Blöcke gegliedert sind: (1) Technische und begriffliche Grundlagen, (2) Soziale, kulturelle und philosophische Perspektiven und (3) Ethische Implikationen. Durch diese Aufteilung soll ein umfassender Überblick über die gegenwärtige Diskussion im Bereich der Mensch-Maschine-Interaktion gegeben werden, der verschiedene Perspektiven miteinander verbindet und so der neu gewonnenen Interdisziplinarität der Debatte Rechnung trägt.

Block 1: Technische und begriffliche Grundlagen

Um neuartige MMI aus verschiedenen disziplinären Perspektiven angemessen beschreiben und analysieren zu können, werden im ersten thematischen Block ihre wesentlichen technischen und begrifflichen Grundlagen in den Blick genommen.

Am Anfang steht der Beitrag „Was sind KI und Machine Learning? Grundlagen und Zukunftsperspektiven“ von Klaus Mainzer, in dem der Autor anhand ausgewählter Beispiele drei zentrale KI-Ansätze in ihrer historischen Entwicklung skizziert: (1) den symbolischen, logikbasierten KI-Ansatz; (2) den subsymbolischen KI-Ansatz, der sensorielle Daten statistisch verarbeitet; und 3) das Paradigma einer hybriden KI, das die beiden erstgenannten Ansätze zusammenzuführen versucht.

Hieran anschließend gibt Ramón Reichert in seinem Beitrag „Künstliche Intelligenz und maschinenbasiertes Lernen im Bereich der Informations- und Kommunikationstechnologien“ einen Überblick über KI-Anwendungen im Kontext gegenwärtiger Informations- und Kommunikationstechnologien (IKT). Ein Fokus liegt dabei auf der Implementierung von KI-Anwendungen im Bereich der Industrie und Ökonomie und deren kulturellen und sozialen Effekten.

Unter dem Titel „Ethik und Praxis von algorithmisch unterstützten medizinischen Entscheidungen“ untersucht Ulrich Mansmann sodann den Einsatz algorithmischer Verfahren in der medizinischen Praxis. Dabei greift er verschiedene Beispiele – wie die Leitlinienentwicklung, das molekulare Tumorboard (MTB) oder Prognose-Algorithmen im Bereich der Multiplen Sklerose – auf und fragt, wie sich Entscheidungsfindungen verändern, wenn verschiedene Entscheidungsträger gemeinsam an einer Entscheidung beteiligt sind.

In ihrem Beitrag „Entscheidungsassistenzsysteme in der Wirtschaft – Stand der Forschung“ umreißen Marlene Eisenträger und Marieke Rohde die Entwicklung und den aktuellen Forschungsstand von digitalen Entscheidungsassistenzsystemen in der Wirtschaft. Dabei beleuchten sie verschiedene Wirtschaftsbereiche (Medizin, Agrarwirtschaft, Logistik u. a.) und reflektieren deren Entwicklungen im Kontext der Industrie 4.0.

Die verschiedenen Entwicklungsstränge im Bereich der Sozialen Robotik sind Gegenstand des Beitrags von Manfred Hild und Simon Untergasser. Dabei beobachten sie zwei zentrale Momente der Entwicklung: (1) die Verbesserung der sozialen und kommunikativen Fähigkeiten von sozialen Robotern und (2) die Konstruktion von „companionship robots“. Um dies zu ermöglichen, müssen – so die Autoren – Nutzererwartungen an soziale Roboter untersucht und spezifische Anwendungen (wie etwa für das Gesundheitswesen) betrachtet werden.

Daniel Buhr, Jesse Berr, Stewart Gold und Thomas Heine stellen in ihrem Beitrag „Ambient Assisted Living (AAL)“ die Einsatzgebiete von AAL dar, die ähnlich divers sind wie die Bedürfnisse von Menschen, die zuhause auf technische Unterstützung angewiesen sind. Dabei geben die Autoren einen Einblick in die aktuellen und zukünftigen Forschungen im Bereich der AAL.

In „Self-Tracking Revisited. Entstehung, Entwicklung und Zukunft des Phänomens“ skizziert Thorben Mämecke mit körperbezogenen, kalendarischen und routinebezogenen Praktiken der Selbstvermessung drei fundamentale Kategorien des Self-Tracking und gibt einen Überblick über ihren (möglichen) Einsatz zum Zweck eines betrieblichen Gesundheitsmanagements bzw. adaptiver Versicherungstarifierung.

Abschließend gibt Philipp Kellmeyer eine detaillierte Übersicht über „Neurotechnologien: Stand der Technik und neue Entwicklungen“. Dabei diskutiert er sowohl die Grundlagen und Prinzipien neurotechnologischer Interaktion mit dem Nervensystem als auch den Stand der technischen Entwicklungen und geht auf die Potenziale und Herausforderungen bei der Entwicklung und Anwendung von Neurotechnologien ein. Im Fokus stehen dabei Anwendungen zur Behandlung von neurologischen und psychiatrischen Erkrankungen sowie Neurotechnologien im „Consumer“-Bereich und in weiteren Kontexten (Militär, Arbeitsplatz).

Block 2: Soziale, kulturelle und philosophische Perspektiven

Ausgehend von den Beiträgen aus Block 1 wenden sich die Beiträge aus Block 2 den sozialen, kulturellen und philosophischen Perspektiven neuartiger Mensch-Maschine-Interaktionen zu. Ausgangspunkt sind dabei zumeist die neuartigen Phänomene und Anwendungspraktiken KI-basierter Technologien, die aus verschiedenen disziplinären Perspektiven und Kontexten behandelt werden. Zur Diskussion stehen dabei so unterschiedliche Phänomene und Aspekte wie der Zusammenhang von Digitalität und Interobjektivität, Überlegungen zum Lernbegriff, Reflexionen auf die epistemologischen Grundlagen der „Künstlichen Intelligenz“ oder eine Analyse der leibkörperlichen Effekte von Selbstvermessungstechnologien.

In ihrem Beitrag „Probably Approximately Correct? Epistemologische Grundlagen der Künstlichen Intelligenz“ untersucht Jutta Weber die epistemologischen Grundlagen der Künstlichen Intelligenz, wobei sie zwei dominante Wissenschaftsparadigmen identifiziert. Sie vertritt die These, dass der in der Geschichte der KI lange Zeit dominante rational-kognitive Ansatz zunehmend durch ein verhaltens- und „erfahrungs“basiertes Wissensparadigma verdrängt wird, das auf der Basis von Bottom-Up-Strategien und Verfahren der Korrelation und Induktion/Abduktion beruht. Hiermit verbunden sei eine Verschiebung von der Kausalität und Theoriegeleitetheit klassischer Wissensregime hin zum „Theorielosen“, Ungeordneten und Unvorhersehbaren probabilistischer Lernverfahren.

Im Anschluss hieran diskutiert Jörg Noller in seinem Beitrag „Interobjektivität. Über künstliche Intelligenz und Digitalität“ das Phänomen der Künstlichen Intelligenz (KI) ausgehend von den Begriffen der Interobjektivität, Digitalität und virtuellen Realität. Dabei begreift er KI weniger als eine „Technik der Digitalisierung“ denn als „Moment einer interobjektiven Lebenswelt“, wodurch nicht mehr die Interaktion von Mensch und KI im Vordergrund steht, sondern ihre lebensweltliche Vernetzung. Erst vor diesem Hintergrund, so Noller, sei eine Ethik der KI möglich, die der Herausforderung begegnet, KI so in unsere Lebenswelt „zu integrieren, dass sie mit uns im lebensweltlichen Kontext interferiert und neue Formen von Realität ermöglicht“.

In seinem Beitrag „Erweiterte Unsichtbarkeit kognitiver Werkzeuge“ untersucht Jan-Hendrik Heinrichs das Phänomen, dass Mensch-Maschine-Interfaces immer weniger wahrnehmbar und transparent als Werkzeuge erfasst werden. Dabei misst er dem Wahrnehmbarkeits- und Transparenzverlust von Maschinen eine ambivalente Rolle zu: Zum einen ermöglicht dieser eine leichtere und bessere Integrierbarkeit der technischen Werkzeuge in unsere alltäglichen Abläufe, zum anderen wird hierdurch menschliches Denken und Handeln beeinflusst und erweitert. Transparenz als Gestaltungsprinzip für Mensch-Maschine-Interfaces sieht Heinrichs somit ambivalent, da sie je nach Kompetenz der Nutzer*innen sowohl negative als auch positive Effekte haben kann.

Ausgehend von den aktuellen Debatten zum Verhältnis von Lernen und Technik rekonstruiert Kevin Liggieri in seinem Beitrag „Erfahrung und Information. Geschichte und Philosophie des humanistischen und funktionalistischen Lernbegriffs“ die Konzepte des humanistischen und funktionalistischen Lernens und beleuchtet deren wechselseitige Verschränkung im Verlauf des 20. Jahrhunderts. Damit wendet er sich gegen die immer noch weit verbreitete Gegenüberstellung von Lernen als „Information“ und „Erfahrung“ und argumentiert gegen die teils bis heute anhaltende Trennung von Humanismus und Technologie. Humanismus und Funktionalismus bzw. Lernen und Technik schließen sich nach Liggieri demnach keineswegs aus, sondern sind in der modernen technischen Gesellschaft vielmehr immer schon aufs engste miteinander verbunden.

Christian Leineweber reflektiert in seinem Artikel „Lernende Maschinen – eine bildungswissenschaftliche Reflexion“ die Vorstellung und Redeweise von „lernenden Maschinen“ aus einer bildungswissenschaftlichen Perspektive. Dies sei erforderlich, da Maschinen zunehmend Welt- und Selbstverständnisse und menschliches Wissen mitgestalteten und Menschen und Maschinen bei der Genese von Wissen immer stärker in einem ko-konstitutiven Verhältnis zu stehen scheinen. Die Vorstellung von lernenden Maschinen erfordert für Leineweber somit eine erkenntnistheoretische Reflexion darüber, was ein zunehmend maschinell beeinflusstes Wissen von Lernenden bedeuten kann. Dabei rekurriert er auf den Unterschied zwischen endlichem und unendlichem Wissen, mit dem er die Beziehung zwischen Mensch und Maschine veranschaulicht.

Uwe Vormbusch unterzieht in seinem Beitrag „Die Oberfläche der Daten zerstören“ Mensch-Maschine-Interaktionen, wie sie etwa in der medizinischen Diagnostik, im Self-Tracking, in der rechtlichen Beurteilung von Straftaten, im predictive policing oder im Rahmen KI-basierter, zielgruppenfokussierter Werbung anzutreffen sind, einer prozessorientierten und herrschaftssoziologischen Analyse. Besondere Relevanz haben für den Autor dabei die Fragen, (1) unter welchen Bedingungen und in welchen Kontexten Menschen im Rahmen solcher Interaktionen was und wie entscheiden, (2) welche Entscheidungen an Maschinen delegiert werden, und (3) wie hybride Situationen zu charakterisieren sind, in denen Menschen und Maschinen gemeinschaftlich Entscheidungen treffen. Mit Blick auf ihre Beantwortung sind für Vormbusch Kontexte der quantifizierten Selbstvermessung paradigmatisch: Sie belegten einerseits die expansive Tendenz quantifizierender Vollzüge durch ihre Ausbreitung in Alltagskultur und Intimsphäre. Andererseits offenbarten sie, wie Daten und Algorithmen als epistemische Werkzeuge zunehmend ihren menschlichen Trägern entzogen würden. Damit einher geht nach Vormbusch ein grundlegender Bedeutungswandel von Selbstvermessung als einer Form der Auseinandersetzung mit sozialer Unsicherheit hin zu einem Programm heteronom bestimmter Ziele bei zugleich eingeschränkter Partizipation, wie dies etwa die Entstehung der massenindustriellen Vermarktung von Selbstvermessungs-Technologien zeige.

In Ihrem Beitrag „Mensch-Maschine-Interaktionen verstehen: Interdisziplinäre Auslegungspraxis und prognostische Hermeneutik“ nehmen Oliver Müller und Philipp Kellmeyer eine anthropologisch-hermeneutische Perspektive ein und zeigen, wie eine anthropologisch orientierte Hermeneutik zum Verständnis aktueller Mensch-Maschine-Interaktionen beitragen kann. Dabei entwerfen sie das Modell einer „interdisziplinären Auslegungspraxis“, die sich auf polyperspektivische Weise neuen technologischen Verhältnissen nähert und diese zu begreifen versucht. Erweitert wird diese Sicht durch den Hinweis auf eine „prognostische Hermeneutik“, die darauf aufmerksam macht, dass mit unseren Technologien immer auch Zukunftsentwürfe verbunden sind, die unsere Selbsterkenntnis maßgeblich beeinflussen und daher in eine „interdisziplinäre Auslegungspraxis“ integriert werden müssen.

Diese Perspektive wird in Stefan Riegers Beitrag „Gliedermangel und Synapsenäquivalent. Modellierungsszenarien für nicht nicht-menschliche Agenten“ um einen medienanthropologischen Ansatz erweitert: Hier betrachtet der Autor das Verhältnis von Mensch und Technik von der Mängelwesenthese bis hin zum Design multisensorischer und diskreter Interfaces und konstatiert eine „grundlegende mediale Modelliertheit des Menschen“. Dabei zeigt sich, dass nicht nur „das, was Menschsein ausmacht“, sondern auch die Technik einem ständigen Wandel unterworfen ist. Unter den Vorzeichen der Digitalisierung und Vernetzung wird sie multisensoriell, dezent und „anthropophil“ und bietet so neuartige „Modellierungsszenarien“ für menschliche Selbstbeschreibungen.

Die mittlerweile weit verbreitete Praxis der digitalen Selbstvermessung ist Gegenstand von Selin Gerleks Beitrag „Temporale Konflikte und unintendierte leibkörperliche Effekte des Self-Tracking“. Diverse Apps und Programme finden mittels digitaler Endgeräte in unserem Alltag Anwendung und prägen so unsere leiblichen Erfahrungen. Gerlek wirft in diesem Zusammenhang einen phänomenologischen Blick auf die temporale und leibkörperliche Erfahrbarkeit des digital verobjektivierten Selbst und arbeitet einige hier zu beobachtende Charakteristika heraus. Sie zeigt, dass die digitale Erfassung eigener „Körperdaten“ zu temporalen Konflikten und leibkörperlich unintendierten Effekten der Lebenspraxis führen kann. Dabei nutzt sie Maurice Merleau-Pontys Arbeiten sowie aktuelle zeitphänomenologische Forschungen für die Darstellung einer leiblichen Zeitstruktur.

Block 3: Ethische Implikationen

Block 3 widmet sich der normativen Dimension von Mensch-Maschinen-Interaktionen und den vielfältigen ethischen Herausforderungen, die sich im Umgang mit neuen Technologien stellen. Denn im Kontext von Neurotechnologien, sozialen Robotern und digitalen Assistenten scheint es nicht mehr selbstverständlich, wie mit den Resultaten der Techniknutzung umzugehen ist. Technische Systeme beeinflussen menschliches Handeln und Verhalten auf so grundlegende Weise, dass wir uns fragen müssen, welche Interaktionsformen mit Maschinen wir als wünschenswert, problematisch oder sogar vermeidenswert erachten müssen. Hinzu kommen die diversen ethischen Implikationen und Herausforderungen, die v.a. mit „intelligenten“ technischen Systemen in konkreten Anwendungsbereichen einhergehen.

Jan-Christoph Heilinger, Hendrik Kempt und Saskia K. Nagel liefern in ihrem Beitrag „Ethische Dimensionen von Künstlicher Intelligenz in der Medizin. Klinische Entscheidungsunterstützungssysteme in der medizinischen Praxis“ ausgehend vom fiktiven Beispiel eines Anamnese-Chatbots eine Übersicht über KI-basierte Anwendungen im medizinischen Kontext mit einem Fokus auf klinische Entscheidungsunterstützungssysteme. Im Zentrum des Beitrags steht die Identifikation ethischer Herausforderungen, die sich aus dem Zusammenspiel von Menschen (in diesem Fall Patient*innen und dem medizinischen Personal) und Maschinen ergeben. Diese Herausforderungen stellen sich nach Auffassung der Autor*innen insbesondere mit Blick auf Fragen der Erklärbarkeit, der Beziehungsgestaltung und der Verantwortungszuschreibung. Der Beitrag schließt mit dem Plädoyer, die ethische Debatte um eine politische bzw. gerechtigkeitstheoretische Dimension zu ergänzen, ohne die sich die normativ relevanten Aspekte von KI-Anwendungen im medizinischen Kontext nur unvollständig erfassen ließen.

Galia Assadi und Arne Manzeschke unterziehen in ihrem Artikel „Jenseits des technologischen Solutionismus. Ethische Reflexionen zur Komplexität von Mensch-Technik-Interaktionen im Bereich der Pflege“ das vielfach vorgetragene Postulat einer zunehmenden Digitalisierung der Pflege als geeigneter Lösungsstrategie für den Pflegemangel einer ethischen Evaluation. Die Autor*innen argumentieren in diesem Zusammenhang erstens, dass nicht die technische Überwindung des Pflegemangels im Fokus der Überlegungen stehen sollte, sondern seine Entstehung und strukturellen Gründe. Zweitens plädieren Assadi und Manzeschke für eine angemessene Berücksichtigung der vielfältigen und komplexen Ursachen des Pflegeproblems, dem eine einfache Forderung nach verstärkter Digitalisierung nicht zwingend gerecht werde. Drittens müsse nach Auffassung der Autor*innen diskutiert werden, welche Implikationen der Einsatz digitaler Systeme in pflegerischen Carekonstellationen (im Sinne von Kontexten der bedürfnisorientierten Beziehungsgestaltung zwischen Pflegenden und Patient*innen) mit sich bringe. Dafür seien, so die Schlussfolgerung, v.a. Möglichkeiten einer guten Beziehung notwendig, mit Blick auf die die Rolle und Funktion digitaler Systeme kritisch zu prüfen sei.

In seinem Beitrag gibt Oliver Bendel einen Überblick über „Möglichkeiten und Herausforderungen des Robot Enhancement“. Dabei diskutiert er die Grundlagen des Robot Enhancement und gibt einen Einblick in verschiedene Formen und Möglichkeiten einer „robotischen Optimierung“. Im Vordergrund steht dabei die Frage, ob es sich bei den diversen Fällen eines „Robot Enhancement“ tatsächlich um eine Verbesserung oder lediglich um eine Erweiterung oder Veränderung handelt. Abschließend thematisiert Bendel einige ethische, ästhetische und theoretische Implikationen von potenziellen robotischen Optimierungen.

Eike Buhr und Mark Schweda veranschaulichen in ihrem Beitrag „Technische Assistenzsysteme für Menschen mit Demenz: Zur ethischen Bedeutung von Beziehungen“, wie technische Assistenzsysteme das Grundgefüge von Sorgebeziehungen beeinflussen. Dabei reagieren sie auf den Umstand, dass durch die Digitalisierung von Pflegebereichen zwischenmenschliche Zuwendung und Interaktion sowohl zunehmen als auch abnehmen können. Gegenstand des Beitrags ist der Einsatz von technischen Assistenzsystemen bei Menschen mit Demenz, der einer ethischen Bewertung im Hinblick auf Sorgebeziehungen unterzogen wird. Dabei betonen die Autor*innen die Bedeutung von Beziehungen für das Leben und die Pflege von Menschen mit Demenz. Als Referenzrahmen dient ihnen dabei das „Senses-Framework“, mit dem der Einfluss technischer Assistenzsysteme auf eine wertschätzende und anerkennende Beziehungsgestaltung bei der Versorgung von Menschen mit Demenz untersucht wird.

Alina Schmitz-Hübsch und Sven Fuchs wenden sich dem Thema der Mensch-Maschine-Interaktion aus einer sicherheitstheoretischen Perspektive zu und skizzieren in ihrem Beitrag einige „Herausforderungen bei der Realisierung affekt-adaptiver Systeme in sicherheitskritischen Umgebungen“. Dabei behandeln sie Mensch-Maschine-Systeme, deren Ausfall eine erhebliche Bedrohung für Mensch, Umwelt oder Wirtschaft darstellt und die auf emotionale Nutzerzustände zurückgreifen, um kritische Zustandsausprägungen durch geeignete Gegenmaßnahmen zu adressieren und so eine bestmögliche Performanz sicherzustellen. Die Autor*innen benennen dabei technische Hürden (wie die Erfassung und Interpretation – interindividuell unterschiedlicher – emotionaler Nutzer*innenzustände), formulieren Bestimmungen von Zielsetzungen und Weisen der maschinellen Adaption von Nutzer*innenzuständen und kommen auf ethisch relevante Fragestellungen zu sprechen, etwa hinsichtlich des Missbrauchspotentials affekt-adaptiver Systeme oder der Wahrung der Privatsphäre von Nutzer*innen.

Demgegenüber untersucht Andreas Wolkenstein in seinem Artikel „Müssen Algorithmus-basierte Entscheidungen erklärbar sein? Über black box-Algorithmen und die Ethik von Überzeugungen in der Mensch-Maschine-Interaktion“ Algorithmus-basierte Entscheidungsfindungen in medizinisch-prognostischen Kontexten und argumentiert, dass diese – entgegen häufig vorgebrachter Forderungen – nicht erklärbar sein müssen, damit Patient*innen diesen vertrauen können. Vielmehr sei es legitim, black box-Algorithmen in solchen Kontexten epistemisch zu vertrauen. Dies ergebe sich primär aus dem Umstand, dass Ärzt*innen black box-Algorithmen nicht so sehr im Sinne von Instrumenten verwendeten, sondern vielmehr als Experten konsultierten. Black box-Algorithmen, wie sie zu Zwecken der medizinischen Prognose eingesetzt werden können, stellten entsprechend Expertenmeinungen dar, denen gegenüber Patient*innen und Ärzt*innen eine ähnliche Position einnähmen. Vertrauen in Experten sei aber, so der Autor, abhängig von verschiedenen Kriterien, insbesondere der Zustimmung durch andere Expert*innen sowie der Meinung von Meta-Expert*innen über die fragliche Expert*in. Da diese Kriterien mit Blick auf black box-Algorithmen erfüllbar seien, könnten Ärzt*innen wie Patient*innen ihnen vertrauen, auch wenn die durch sie generierten Ergebnisse nicht erklärbar seien.

Den Abschluss des Bandes macht der Artikel „Verantwortung als Herausforderung – Entwicklungs- und Nutzungsbeteiligte bei Decision Support Systemen“ von Wenke Liedtke. Die Autorin arbeitet eine Reihe von Herausforderungen heraus, die sich im Zusammenhang mit der Verantwortungszuschreibung an Entwicklungs- und Nutzungsbeteiligte bei klinischen Decision Support Systemen ergeben. Die Autorin benennt dabei einerseits bekannte Verantwortungsherausforderungen, wie etwa die Herausforderung von Anwender*innen, ihren Patient*innen Decision Support Prozesse im Rahmen einer informierten Aufklärung zu erläutern. Andererseits betont sie, dass mit der Einführung von ML-basierten Decision Support Systemen neuartige Herausforderungen hinzukommen, wie etwa der Umgang mit (fehlender) Explainability oder Bias-Konflikte. Ferner konstatiert Liedtke eine übergeordnete Herausforderung, die sich aus der Dynamik von Entwicklungs- und Nutzungsprozessen von Decision Support Systemen ergebe, und welche eine Zuordnung von Verantwortlichkeiten erschwere. Vor diesem Hintergrund kommt die Autorin zu dem Schluss, dass eine auf die Anwender*innen fokussierte Verantwortungszuschreibung zu kurzgefasst sei.

Wir danken allen Autorinnen und Autoren sowie Stephan Kopsieker und dem Mentis Verlag für die vertrauensvolle Zusammenarbeit. Elena Meidert und Armin Gruber danken wir für ihre editorische Assistenz. Die Arbeit für dieses Buch wurde von der Deutschen Forschungsgemeinschaft (DFG) finanziert (Projektnummer: 418201802).

Orsolya Friedrich, Johanna Seifert und Sebastian Schleidgen

Hagen, im Juni 2022

  • Collapse
  • Expand

Mensch-Maschine-Interaktion

Konzeptionelle, soziale und ethische Implikationen neuer Mensch-Technik-Verhältnisse

Metrics

All Time Past 365 days Past 30 Days
Abstract Views 0 0 0
Full Text Views 276 63 1
PDF Views & Downloads 0 0 0