5. Umgang mit KI

5.1 Verantwortung

Präambel

Die sieben Thesen formulieren kein technisches Modell und keine Ethik im klassischen Sinn. Sie reagieren auf die Verschiebung von Entscheidungsbedingungen in algorithmisch präfigurierten Kontexten. Im Zentrum steht nicht die Frage, wie Entscheidungen getroffen werden sollen, sondern wo Verantwortung unter veränderten Bedingungen sinnvoll zurechenbar wird.

Ausgangspunkt ist die Annahme, dass Entscheidungen heute nicht isoliert entstehen, sondern in vorstrukturierten Informations- und Wahrnehmungsräumen. Daraus folgt eine Verschiebung des Verantwortungsbegriffs: weg vom punktuellen Entscheidungsakt, hin zur Rekonstruktion und zum Umgang mit Ergebnissen.

Die Thesen verstehen sich als begriffliches Angebot für rechtliche, organisationale und pädagogische Kontexte, in denen Verantwortung nicht vereinfacht, sondern präzisiert werden muss.


These 1 – Präfiguration vor Entscheidung

Entscheidungen entstehen heute nicht ausschließlich im Moment des Entschlusses, sondern in dynamisch präfigurierten Räumen, die durch algorithmische Systeme situativ strukturiert werden. Wer nur auf den Entscheidungsakt blickt, verfehlt den Ort, an dem ihre Bedingungen entstehen.

Eine Klarstellung. Präfiguration ist kein Schicksal, sondern eine Form der stillen Vorauswahl: Rahmung, Gewichtung, Sequenzierung, Sichtbarkeit.


These 2 – Verantwortung ist zeitlich gestaffelt

Verantwortung lässt sich nicht sinnvoll oder allein vor der algorithmischen Verarbeitung fixieren. Sie wird erst dort zurechenbar, wo sichtbar wird, welcher Sinn tatsächlich entstanden ist – in der Rekonstruktion des Entscheidungsprozesses.

Kurz: Verantwortung beginnt nicht dort, wo entschieden wird. Sie beginnt dort, wo wir uns erklären müssen.


These 3 – KI erzeugt kein Wissen, aber Zugänglichkeit

KI präfiguriert Entscheidungsräume, ohne Entscheidungen zu treffen.

Algorithmische Systeme erzeugen kein Wissen im ontologischen Sinn. Sie treffen keine Entscheidungen im normativen Sinne. Sie verändern jedoch radikal, was für wen, wann und in welcher Form zugänglich wird – und damit die praktische Reichweite von Urteilen. Sie strukturieren Wahrnehmung, Optionen und Relevanzen so, dass Entscheidungen in bereits vorgeformten Räumen stattfinden.

Zur Klarstellung. KI ist kein epistemisches Subjekt, hat aber massive epistemische Effekte.

Menschen entscheiden unter Bedingungen, die sie nicht vollständig kontrollieren. Das ist keine Entlastung. Das ist eine realistischere Zumutung.


These 4 – Autorschaft ist relational, nicht delegierbar

Wer mit KI arbeitet, delegiert keine Autorschaft, sondern verändert ihre Struktur. Autorschaft zeigt sich nicht im Ursprung eines Textes, sondern darin, wofür jemand einzustehen bereit ist, nachdem Sinn entstanden ist.

In KI-gestützten Entscheidungsprozessen wird Verantwortung nicht aufgelöst, sondern auf mehrere Ebenen verteilt – technisch, organisatorisch, rechtlich. Verteilung bedeutet Präzisierung, nicht Entlastung.

Die Wahl ist nicht:
einfache Verantwortung oder komplexe Systeme

Sondern:
komplexe Systeme mit oder ohne angemessene Begriffe


These 5 – Rekonstruktion ist kein Rückzug, sondern ein Akt

Die nachträgliche Rekonstruktion von Entscheidungsprozessen ist keine Schwächung von Verantwortung, sondern ihr entscheidender Vollzug. Verantwortung ist nur dort sinnvoll zurechenbar, wo Entscheidungsprozesse im Nachhinein nachvollziehbar rekonstruiert werden können. Ohne Rekonstruktion bleibt Verantwortung abstrakt; mit ihr wird sie adressierbar. Ohne Rekonstruktion bleibt Verantwortung symbolisch.

Nicht:
„Warum genau kam dieses Ergebnis?“

Sondern:
„Wie wurde hier mit Ergebnissen umgegangen?“

Dies ist die zentrale Frage. Dies ist der methodische Hebel.

Der Perspektivwechsel

Klassisch fragt Verantwortung:
„Was hast du getan?“

Das hier vorgestellte Modell fragt:
„Wie bist du mit dem umgegangen, was dir gezeigt wurde?“

Das ist ein radikaler, aber realistischer Wechsel.


These 6 – Trennung schützt nicht vor Präfiguration

Die klare Trennung zwischen „rechnender KI“ und „entscheidendem Menschen“ schützt nicht vor Verantwortungslücken. Sie verdeckt vielmehr, wie Entscheidungen bereits vorstrukturiert werden – und verschiebt Verantwortung an einen Punkt, an dem sie kaum noch wirksam ist.

In KI-geprägten Entscheidungszusammenhängen ist die Fähigkeit, Ungewissheit auszuhalten, Widersprüche stehen zu lassen und vorschnelle Schließungen zu vermeiden, keine Schwäche, sondern eine zentrale Verantwortungskompetenz.


These 7 – Zweifel ist kein Defizit, sondern ein Sensor

Der Zweifel an der eigenen Autorenschaft im Zusammenspiel mit KI ist kein moralisches Versagen. Er ist ein epistemischer Sensor, der anzeigt, dass sich die Bedingungen von Sinnproduktion verschoben haben.

Zweifel nicht als Gefühl (psychologisch), sondern als eingebautes Innehalten (institutionell oder organisatorisch).


Was diese Thesen leisten

1. Sie operationalisieren

Sie sind nicht nur Theorie, sondern Handlungsanweisungen:

These 1: Präfiguration anerkennen
These 2: Nachträglich rekonstruieren
These 3: Ebenen unterscheiden
These 4: Verteilte Verantwortung präzisieren
These 5: Rekonstruktion praktizieren
These 6: Ungewissheit aushalten
These 7: Zweifel als Signal nutzen

2. Sie verbinden Ebenen

Ontologisch: Ko-Emergenz

Phänomenologisch: Zugänglichkeit

Juridisch: Rekonstruktion/Zuschreibung

Praktisch: Umgang statt Kontrolle

3. Sie kritisieren präzise

Sie zeigen, wo Dichotomien Schaden anrichten

Nicht:
„Du irrst“

Sondern:
„Die Trennung verdeckt Präfiguration und macht Verantwortung unwirksam“

4. Sie sind anschlussfähig

Sie können juridisch (für Gerichte), organisational (für Unternehmen), pädagogisch (für Bildung) genutzt werden.

„So endet alles – nicht im Dunkel, sondern im Leuchten des Ungesagten.“ (XXVII. Nachklang, NdB, Timo Weil, 2025)

Die sieben Thesen enden nicht – sie öffnen auf eine Praxis, die noch zu entwickeln ist.


Version: 1.0 (Januar 2026)

Lizenz: Dieses Dokument ist frei verwendbar für akademische, pädagogische und künstlerische Zwecke. Attribution erwünscht.

Impressum © Timo Weil