Top-Fragen
Zeitleiste
Chat
Kontext
Sonderforschungsbereich Transregio 318 „Constructing Explainability“
interdisziplinäres Forschungsprojekt der Universität Paderborn und der Universität Bielefeld Aus Wikipedia, der freien Enzyklopädie
Remove ads
Der Sonderforschungsbereich/Transregio 318 „Constructing Explainability“ (TRR 318) ist ein interdisziplinäres Forschungsprojekt der Universität Paderborn und der Universität Bielefeld. Seit 2021 wird es von der Deutschen Forschungsgemeinschaft (DFG) gefördert[1]. Die Förderung lief zunächst bis Ende 2025 und wurde für eine zweite Phase bis einschließlich Juni 2029 verlängert.[2] Im Mittelpunkt steht die Untersuchung von Erklärprozessen in unterschiedlichen Kontexten. Die gewonnenen Erkenntnisse werden genutzt, um die Erklärbarkeit von maschinengelernten Systemen mit Künstlicher Intelligenz (KI) weiterzuentwickeln. Dies entspricht den Zielen der sogenannten Explainable Artificial Intelligence (Erklärbare Künstliche Intelligenz), setzt aber auf einen nicht allein technischen Ansatz.
Remove ads
Ziele und Forschungsansatz
Zusammenfassung
Kontext
Die Wissenschaftler und Wissenschaftlerinnen des TRR 318 verfolgen das Ziel, verständliche und erklärbare KI-Systeme zu entwickeln, die Bürger und Bürgerinnen dazu befähigen, mit solchen Systemen kompetent und kritisch umzugehen und aktiv an einer digitalen Gesellschaft teilzuhaben. Dabei wird ein menschenzentrierter Ansatz verfolgt, der Nutzer und Nutzerinnen in alle Phasen der Forschung einbezieht[3].
Ein zentrales Konzept ist die Ko-Konstruktion.[4] Dies bedeutet, dass Erklärungen nicht vorgegeben sind, sondern von Menschen untereinander oder Menschen und Maschinen in einem interaktiven, schrittweisen Prozess entwickelt werden. Die Adressaten und Adressatinnen einer Erklärung gestalten den Erklärprozess aktiv mit, indem sie etwa Ziele und Inhalte mitbestimmen. Im TRR 318 wurde hierzu der Begriff „Social Explainable AI“ eingeführt – eine Form sozialer erklärbarer KI, die ihre Erklärungen kontextsensitiv und individuell anpasst[5]. Das Konzept Social Explainable AI war 2023 Thema eines internationalen Shonan-Meetings in Japan[6], aus dem ein mit Forschenden anderer Institutionen erarbeiteter Sammelband entstand.[7] Die Idee der Ko-Konstruktion wird in öffentlichen Workshops zum Beispiel auf der Re:publica vermittelt und diskutiert.[8]
Remove ads
Forschungsstruktur
Das interdisziplinäre Forschungsteam setzt sich aus 22 Projektleitungen und rund 40 wissenschaftlichen Mitarbeitenden zusammen, die in 20 Projekten forschen. Beteiligt sind die Fachrichtungen Informatik, Linguistik, Medienwissenschaft, Philosophie, Psychologie, Soziologie und Wirtschaftswissenschaft[9].
Die wissenschaftliche Leitung liegt bei Katharina J. Rohlfing (Sprecherin) und Philipp Cimiano (stellvertretender Sprecher)[10].
Die Projekte sind drei Hauptbereichen[9] zugeordnet:
- A: Explaining/Erklärprozess
- B: Social practice/Soziale Praktik
- C: Representing and computing explanations/Darstellung und Berechnung von Erklärungen
Darüber hinaus existieren vier übergreifende Projekte:
- INF-Projekt: Weiterentwicklung der Forschungsstruktur und Unterstützung beim Datenaustausch
- Ö-Projekt: Wissenschaftskommunikation und Öffentlichkeitsarbeit
- RTG-Projekt: Qualifizierung von Nachwuchswissenschaftlern und Nachwuchswissenschaftlerinnen
- Z-Projekt: Koordination und Verwaltung
Remove ads
Projekte in der ersten Förderphase
Forschungsbereich A – Erklärprozess
Forschungsbereich B – Soziale Praktik
Forschungsbereich C – Darstellung und Berechnung von Erklärungen
Übergreifende Projekte
Remove ads
Publikationen (Auswahl)
- K. J. Rohlfing et al., „Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems,“ in IEEE Transactions on Cognitive and Developmental Systems, vol. 13, no. 3, pp. 717–728, Sept. 2021, doi: 10.1109/TCDS.2020.3044366.
- Meisam Booshehri, Hendrik Buschmeier, Philipp Cimiano, Stefan Kopp, Jaroslaw Kornowicz, Olesja Lammert, Marco Matarese, Dimitry Mindlin, Amelie Sophie Robrecht, Anna-Lisa Vollmer, Petra Wagner, and Britta Wrede, „Towards a Computational Architecture for Co-Constructive Explainable Systems,“ in Proceedings of the 2024 Workshop on Explainability Engineering (ExEn '24). Association for Computing Machinery, New York, NY, USA, 20–25, 2024. doi:10.1145/3648505.3648509
- Buschmeier, Hendrik, Heike M. Buhl, Friederike Kern, Angela Grimminger, Helen Beierling, Josephine Fisher, André Groß et al. “Forms of Understanding for Xai-Explanations.” arXiv.org, May 29, 2025. https://arxiv.org/abs/2311.08760.
Remove ads
Weblinks
Einzelnachweise
Wikiwand - on
Seamless Wikipedia browsing. On steroids.
Remove ads