Top-Fragen
Zeitleiste
Chat
Kontext

Sonderforschungsbereich Transregio 318 „Constructing Explainability“

interdisziplinäres Forschungsprojekt der Universität Paderborn und der Universität Bielefeld Aus Wikipedia, der freien Enzyklopädie

Remove ads

Der Sonderforschungsbereich/Transregio 318 „Constructing Explainability“ (TRR 318) ist ein interdisziplinäres Forschungsprojekt der Universität Paderborn und der Universität Bielefeld. Seit 2021 wird es von der Deutschen Forschungsgemeinschaft (DFG) gefördert[1]. Die Förderung lief zunächst bis Ende 2025 und wurde für eine zweite Phase bis einschließlich Juni 2029 verlängert.[2] Im Mittelpunkt steht die Untersuchung von Erklärprozessen in unterschiedlichen Kontexten. Die gewonnenen Erkenntnisse werden genutzt, um die Erklärbarkeit von maschinengelernten Systemen mit Künstlicher Intelligenz (KI) weiterzuentwickeln. Dies entspricht den Zielen der sogenannten Explainable Artificial Intelligence (Erklärbare Künstliche Intelligenz), setzt aber auf einen nicht allein technischen Ansatz.

Schnelle Fakten Sonderforschungsbereich/Transregio 318 „Constructing Explainability“ (TRR 318), Gründung ...
Remove ads

Ziele und Forschungsansatz

Zusammenfassung
Kontext

Die Wissenschaftler und Wissenschaftlerinnen des TRR 318 verfolgen das Ziel, verständliche und erklärbare KI-Systeme zu entwickeln, die Bürger und Bürgerinnen dazu befähigen, mit solchen Systemen kompetent und kritisch umzugehen und aktiv an einer digitalen Gesellschaft teilzuhaben. Dabei wird ein menschenzentrierter Ansatz verfolgt, der Nutzer und Nutzerinnen in alle Phasen der Forschung einbezieht[3].

Ein zentrales Konzept ist die Ko-Konstruktion.[4] Dies bedeutet, dass Erklärungen nicht vorgegeben sind, sondern von Menschen untereinander oder Menschen und Maschinen in einem interaktiven, schrittweisen Prozess entwickelt werden. Die Adressaten und Adressatinnen einer Erklärung gestalten den Erklärprozess aktiv mit, indem sie etwa Ziele und Inhalte mitbestimmen. Im TRR 318 wurde hierzu der Begriff „Social Explainable AI“ eingeführt – eine Form sozialer erklärbarer KI, die ihre Erklärungen kontextsensitiv und individuell anpasst[5]. Das Konzept Social Explainable AI war 2023 Thema eines internationalen Shonan-Meetings in Japan[6], aus dem ein mit Forschenden anderer Institutionen erarbeiteter Sammelband entstand.[7] Die Idee der Ko-Konstruktion wird in öffentlichen Workshops zum Beispiel auf der Re:publica vermittelt und diskutiert.[8]

Remove ads

Forschungsstruktur

Das interdisziplinäre Forschungsteam setzt sich aus 22 Projektleitungen und rund 40 wissenschaftlichen Mitarbeitenden zusammen, die in 20 Projekten forschen. Beteiligt sind die Fachrichtungen Informatik, Linguistik, Medienwissenschaft, Philosophie, Psychologie, Soziologie und Wirtschaftswissenschaft[9].

Die wissenschaftliche Leitung liegt bei Katharina J. Rohlfing (Sprecherin) und Philipp Cimiano (stellvertretender Sprecher)[10].

Die Projekte sind drei Hauptbereichen[9] zugeordnet:

  • A: Explaining/Erklärprozess
  • B: Social practice/Soziale Praktik
  • C: Representing and computing explanations/Darstellung und Berechnung von Erklärungen

Darüber hinaus existieren vier übergreifende Projekte:

  • INF-Projekt: Weiterentwicklung der Forschungsstruktur und Unterstützung beim Datenaustausch
  • Ö-Projekt: Wissenschaftskommunikation und Öffentlichkeitsarbeit
  • RTG-Projekt: Qualifizierung von Nachwuchswissenschaftlern und Nachwuchswissenschaftlerinnen
  • Z-Projekt: Koordination und Verwaltung
Remove ads

Projekte in der ersten Förderphase

Forschungsbereich A – Erklärprozess

Weitere Informationen Name, Kürzel ...

Forschungsbereich B – Soziale Praktik

Weitere Informationen Name, Kürzel ...

Forschungsbereich C – Darstellung und Berechnung von Erklärungen

Weitere Informationen Name, Kürzel ...

Übergreifende Projekte

Weitere Informationen Name, Kürzel ...
Remove ads

Publikationen (Auswahl)

  • K. J. Rohlfing et al., „Explanation as a Social Practice: Toward a Conceptual Framework for the Social Design of AI Systems,“ in IEEE Transactions on Cognitive and Developmental Systems, vol. 13, no. 3, pp. 717–728, Sept. 2021, doi: 10.1109/TCDS.2020.3044366.
  • Meisam Booshehri, Hendrik Buschmeier, Philipp Cimiano, Stefan Kopp, Jaroslaw Kornowicz, Olesja Lammert, Marco Matarese, Dimitry Mindlin, Amelie Sophie Robrecht, Anna-Lisa Vollmer, Petra Wagner, and Britta Wrede, „Towards a Computational Architecture for Co-Constructive Explainable Systems,“ in Proceedings of the 2024 Workshop on Explainability Engineering (ExEn '24). Association for Computing Machinery, New York, NY, USA, 20–25, 2024. doi:10.1145/3648505.3648509
  • Buschmeier, Hendrik, Heike M. Buhl, Friederike Kern, Angela Grimminger, Helen Beierling, Josephine Fisher, André Groß et al. “Forms of Understanding for Xai-Explanations.” arXiv.org, May 29, 2025. https://arxiv.org/abs/2311.08760.
Remove ads

Einzelnachweise

Loading related searches...

Wikiwand - on

Seamless Wikipedia browsing. On steroids.

Remove ads