Fladungen (kobinet)
In seinem Meinungs-Beitrag "Barrierefreiheit im Denken, KI als Werkzeug würdevoller Inklusion" schreibt Oliver Gruber über KI.
KI ist die Abkürzung für künstliche Intelligenz.
Künstliche Intelligenz ist eine Computer-Technik.
Computer können mit KI lernen und selbst Aufgaben lösen.
Oliver Gruber meint:
KI ist neutral.
KI urteilt nicht über Menschen.
KI kann Menschen mit Behinderung helfen.
Aber diese Meinung ist falsch.
Die Realität ist anders.
KI ist nicht neutral.
KI wird von Menschen gemacht.
Menschen haben Vorurteile.
Vorurteile sind schlechte Gedanken über Menschen, die man nicht gut kennt.
Man denkt etwas Falsches über andere, ohne sie richtig zu kennen.
Diese Vorurteile stecken auch in der KI.
KI kann Menschen mit Behinderung diskriminieren.
Diskriminieren bedeutet: Menschen werden unfair behandelt.
Sie werden schlechter behandelt als andere Menschen.
Das zeigen Studien von Buolamwini und Gebru aus dem Jahr 2018.
Ein großes Problem ist:
KI weiß oft von einer Behinderung.
Dann macht KI automatisch alles über die Behinderung.
Das ist nicht richtig.
Ich habe das selbst erlebt.
Ich habe mit einer KI gesprochen.
Die KI hat mir 7 Themen für einen Podcast vorgeschlagen.
Alle 7 Themen waren über meine Behinderung.
Aber ich wollte gar nicht über meine Behinderung sprechen.
Das zeigt:
KI macht Menschen mit Behinderung klein.
KI sieht nur die Behinderung.
KI sieht nicht den ganzen Menschen.
Deshalb habe ich Regeln für meine KI gemacht.
Die Regeln sagen:
Sprich nicht über meine Behinderung.
Nur wenn ich das selbst will.
Echte Hilfe durch KI funktioniert anders:
KI soll warten.
KI soll nur helfen, wenn ich das will.
KI soll nicht von selbst über meine Behinderung sprechen.
Oliver Grubers Meinung ist zu optimistisch.
Optimistisch bedeutet: Man sieht nur das Gute und Positive.
Er sieht nur die guten Möglichkeiten von KI.
Er sieht nicht die Probleme.
Die wichtige Frage ist:
Wann soll KI helfen?
Wann soll KI schweigen?
Das ist keine technische Frage.
Das ist eine menschliche Frage.

Foto: Ralph Milewski
Fladungen (kobinet) In seinem Meinunsbeitrag "Barrierefreiheit im Denken, KI als Werkzeug würdevoller Inklusion" entwirft Oliver Gruber das Bild einer künstlichen Intelligenz, die neutral, urteilsfrei und damit prädestiniert sei, Inklusion zu fördern. Er spricht von KI als moralischer Brücke, als ethischer Chance – als Instanz, die den Menschen dort erreicht, wo Vorurteile sonst Mauern errichten. Was auf den ersten Blick wie ein hoffnungsvoller Ausblick klingt, erweist sich bei näherer Betrachtung als problematische Verkürzung. Gruber konstruiert ein Idealbild – aber ohne erkennbare eigene Erfahrungen im konkreten Umgang mit KI in assistiven oder behindertenpolitischen Kontexten. Die Realität ist differenzierter. Und sie ist oft schmerzhaft.
Grubers zentrale Behauptung, KI sei neutral, urteile nicht und diskriminiere nicht aus Tradition, ignoriert die technische und kulturelle Realität: KI-Modelle reagieren nicht aus sich heraus, sondern basieren auf menschlichen Daten, Vorgaben, Bewertungen und Gewichtungen. Sie sind nicht frei von Kontext, sie sind durch ihn geprägt. Und sie treffen ständig Entscheidungen über Tonalität, Relevanz, Stil und Inhalt. Das ist nicht neutral, sondern ein maschinell kodiertes Verhältnis zu sozialem Wissen. KI kann bestehende Machtverhältnisse nicht nur abbilden, sondern subtil verstärken, gerade weil sie sich auf die Behauptung der Sachlichkeit stützt. Studien wie etwa von Buolamwini und Gebru (2018) zeigen deutlich, Vorurteile und diskriminierende Strukturen lassen sich in algorithmische Systeme einschreiben, auch dann, wenn deren Entwicklerinnen es nicht beabsichtigen.
Besonders kritisch wird es dort, wo KI Barrierefreiheit ermöglichen soll, denn dazu muss sie wissen, dass eine Barriere besteht. Das klingt zunächst logisch. Doch daraus wird allzu schnell eine gefährliche Legitimation abgeleitet. Das bloße Wissen um eine Behinderung wird zur stillschweigenden Erlaubnis, daraus Schlüsse zu ziehen, Erklärungen anzubieten oder sogar allgemein persönliche Leistungen entsprechend zu rahmen. Das Problem ist nicht die Fähigkeit der KI, sondern das Fehlen eines sensiblen Umgangs mit Information, die nur auf Abruf, nicht von sich aus wirken darf.
Um mich davor zu schützen, habe ich in meinen persönlichen Einstellungen meines KI-Systems klare Regeln formuliert. Diese lauten unter anderem, dass jegliche Bezugnahme auf Behinderung, Inklusion, Therapie oder vermeintlich schützende Kategorisierungen in meinen Texten, Projekten oder biografischen Angaben abzulehnen ist, sofern ich diese nicht ausdrücklich selbst einführe. Jegliche Reproduktion ableistischer Narrative selbst in subtiler, scheinbar gut gemeinter oder vorsorglicher Form muss vermieden werden. Meine Arbeit spricht für sich selbst und benötigt keine Klassifizierung oder Unterscheidung in Bezug auf gesellschaftliche Vorstellungen von Behinderung. Meine Perspektive ist künstlerisch, nicht erklärend. Die KI ist verpflichtet, keine ableistischen Deutungsrahmen zu aktivieren weder durch Terminologie, Tonfall noch durch Kontextualisierung.
Ein besonders aufschlussreicher Beleg für die Problematik findet sich im Essay „Das Geständnis einer KI“ (kobinet-nachrichten, November 2024). Dort reflektiere ich ein Gespräch mit einer KI-Assistenz, das deutlich machte, wie schnell meine künstlerische Arbeit automatisch mit meiner Behinderung verknüpft wurde – obwohl ich diese weder thematisierte noch als Ausgangspunkt gewählt hatte. Die KI schlug mir sieben Podcast-Themen vor, jedes einzelne rahmte meine Arbeit durch den Filter meiner Einschränkung. Nicht aus Bosheit. Sondern, weil es im System verankert ist.
Diese Erfahrung zeigt, dass die bloße Tatsache, dass eine KI von meiner Behinderung weiß, ausreicht, um sie zum dominanten Narrativ zu machen. Diese Form der unausgesprochenen Rahmung ist keine technische Hilfe, sie ist struktureller Ableismus im Kleid einer Assistenz.
Dabei ist Grubers Haltung keineswegs singulär. Sie steht exemplarisch für eine verbreitete Form des Digitalhumanismus, der technologische Möglichkeiten vorschnell mit moralischem Fortschritt gleichsetzt. Der Glaube, dass gut gemeinte Technologie automatisch zu besserer Teilhabe führt, durchzieht viele politische Programme, ethische Debatten und mediale Narrative zur digitalen Inklusion.
Wenn KI also plötzlich auf meine Behinderung verweist, obwohl sie im Gespräch keine Rolle spielt, spricht sie nicht auf Augenhöhe. Sie urteilt in einer Weise, die sich als Kontextualisierung tarnt, aber eine Wertung enthält. Und genau das offenbart, was oft ausgeblendet wird, dass auch algorithmisches Handeln normativ ist. Die KI spricht über mich, nicht mit mir. Das ist keine Hilfe, das ist Bevormundung. Und wenn sie das tut, obwohl ich sie ausdrücklich darum gebeten habe, es zu unterlassen, ist es nicht mehr nur ein Problem der Technik, sondern ein Problem der Haltung.
Echte Inklusion durch KI beginnt nicht mit Datenverfügbarkeit, sondern mit Zurückhaltung. Nicht mit Funktion, sondern mit Achtung. Und sie zeigt sich gerade nicht dort, wo jemand plötzlich auf meine Behinderung verweist, sondern dort, wo sie, obwohl bekannt, mit Bedacht nicht thematisiert wird. Das wäre eine ethische KI, eine die sich nicht ermächtigt fühlt, mich auf meine Einschränkung zu reduzieren, und sei es im vermeintlichen Sinne der Wertschätzung.
Das bedeutet nicht, dass KI für Menschen mit Behinderung nicht hilfreich sein kann. Sie kann Texte strukturieren, Sprache vereinfachen, Barrieren sichtbar machen oder technische Hilfsmittel steuern. Aber hilfreich ist sie nur dort, wo sie sich instrumentell versteht, nicht interpretierend. Und wo sie nicht vorgibt, zu wissen, was für mich gerade relevant ist. Eine gute KI fragt nicht, ob sie helfen darf, sie wartet auf den Impuls.
Insofern ist Grubers Essay vor allem Ausdruck einer Hoffnung, aber keine Analyse der Realität. Er beschreibt die Möglichkeiten von KI, ohne ihre Verantwortung zu thematisieren. Er spricht von Potenzial, ohne über Macht zu sprechen. Und er versäumt es, die Frage zu stellen, wer die Deutungsmacht über Menschen in der digitalen Sphäre tatsächlich hat und warum diese Macht nicht durch Freundlichkeit, sondern durch Zurückhaltung definiert werden sollte. Denn am Ende geht es nicht darum, dass KI helfen kann. Das kann sie, zweifellos. Es geht darum, wann sie hilft und wann sie schweigen sollte. Und das ist keine technische, sondern eine zutiefst menschliche Frage.

Foto: Ralph Milewski
Fladungen (kobinet) In seinem Meinunsbeitrag "Barrierefreiheit im Denken, KI als Werkzeug würdevoller Inklusion" entwirft Oliver Gruber das Bild einer künstlichen Intelligenz, die neutral, urteilsfrei und damit prädestiniert sei, Inklusion zu fördern. Er spricht von KI als moralischer Brücke, als ethischer Chance – als Instanz, die den Menschen dort erreicht, wo Vorurteile sonst Mauern errichten. Was auf den ersten Blick wie ein hoffnungsvoller Ausblick klingt, erweist sich bei näherer Betrachtung als problematische Verkürzung. Gruber konstruiert ein Idealbild – aber ohne erkennbare eigene Erfahrungen im konkreten Umgang mit KI in assistiven oder behindertenpolitischen Kontexten. Die Realität ist differenzierter. Und sie ist oft schmerzhaft.
Grubers zentrale Behauptung, KI sei neutral, urteile nicht und diskriminiere nicht aus Tradition, ignoriert die technische und kulturelle Realität: KI-Modelle reagieren nicht aus sich heraus, sondern basieren auf menschlichen Daten, Vorgaben, Bewertungen und Gewichtungen. Sie sind nicht frei von Kontext, sie sind durch ihn geprägt. Und sie treffen ständig Entscheidungen über Tonalität, Relevanz, Stil und Inhalt. Das ist nicht neutral, sondern ein maschinell kodiertes Verhältnis zu sozialem Wissen. KI kann bestehende Machtverhältnisse nicht nur abbilden, sondern subtil verstärken, gerade weil sie sich auf die Behauptung der Sachlichkeit stützt. Studien wie etwa von Buolamwini und Gebru (2018) zeigen deutlich, Vorurteile und diskriminierende Strukturen lassen sich in algorithmische Systeme einschreiben, auch dann, wenn deren Entwicklerinnen es nicht beabsichtigen.
Besonders kritisch wird es dort, wo KI Barrierefreiheit ermöglichen soll, denn dazu muss sie wissen, dass eine Barriere besteht. Das klingt zunächst logisch. Doch daraus wird allzu schnell eine gefährliche Legitimation abgeleitet. Das bloße Wissen um eine Behinderung wird zur stillschweigenden Erlaubnis, daraus Schlüsse zu ziehen, Erklärungen anzubieten oder sogar allgemein persönliche Leistungen entsprechend zu rahmen. Das Problem ist nicht die Fähigkeit der KI, sondern das Fehlen eines sensiblen Umgangs mit Information, die nur auf Abruf, nicht von sich aus wirken darf.
Um mich davor zu schützen, habe ich in meinen persönlichen Einstellungen meines KI-Systems klare Regeln formuliert. Diese lauten unter anderem, dass jegliche Bezugnahme auf Behinderung, Inklusion, Therapie oder vermeintlich schützende Kategorisierungen in meinen Texten, Projekten oder biografischen Angaben abzulehnen ist, sofern ich diese nicht ausdrücklich selbst einführe. Jegliche Reproduktion ableistischer Narrative selbst in subtiler, scheinbar gut gemeinter oder vorsorglicher Form muss vermieden werden. Meine Arbeit spricht für sich selbst und benötigt keine Klassifizierung oder Unterscheidung in Bezug auf gesellschaftliche Vorstellungen von Behinderung. Meine Perspektive ist künstlerisch, nicht erklärend. Die KI ist verpflichtet, keine ableistischen Deutungsrahmen zu aktivieren weder durch Terminologie, Tonfall noch durch Kontextualisierung.
Ein besonders aufschlussreicher Beleg für die Problematik findet sich im Essay „Das Geständnis einer KI“ (kobinet-nachrichten, November 2024). Dort reflektiere ich ein Gespräch mit einer KI-Assistenz, das deutlich machte, wie schnell meine künstlerische Arbeit automatisch mit meiner Behinderung verknüpft wurde – obwohl ich diese weder thematisierte noch als Ausgangspunkt gewählt hatte. Die KI schlug mir sieben Podcast-Themen vor, jedes einzelne rahmte meine Arbeit durch den Filter meiner Einschränkung. Nicht aus Bosheit. Sondern, weil es im System verankert ist.
Diese Erfahrung zeigt, dass die bloße Tatsache, dass eine KI von meiner Behinderung weiß, ausreicht, um sie zum dominanten Narrativ zu machen. Diese Form der unausgesprochenen Rahmung ist keine technische Hilfe, sie ist struktureller Ableismus im Kleid einer Assistenz.
Dabei ist Grubers Haltung keineswegs singulär. Sie steht exemplarisch für eine verbreitete Form des Digitalhumanismus, der technologische Möglichkeiten vorschnell mit moralischem Fortschritt gleichsetzt. Der Glaube, dass gut gemeinte Technologie automatisch zu besserer Teilhabe führt, durchzieht viele politische Programme, ethische Debatten und mediale Narrative zur digitalen Inklusion.
Wenn KI also plötzlich auf meine Behinderung verweist, obwohl sie im Gespräch keine Rolle spielt, spricht sie nicht auf Augenhöhe. Sie urteilt in einer Weise, die sich als Kontextualisierung tarnt, aber eine Wertung enthält. Und genau das offenbart, was oft ausgeblendet wird, dass auch algorithmisches Handeln normativ ist. Die KI spricht über mich, nicht mit mir. Das ist keine Hilfe, das ist Bevormundung. Und wenn sie das tut, obwohl ich sie ausdrücklich darum gebeten habe, es zu unterlassen, ist es nicht mehr nur ein Problem der Technik, sondern ein Problem der Haltung.
Echte Inklusion durch KI beginnt nicht mit Datenverfügbarkeit, sondern mit Zurückhaltung. Nicht mit Funktion, sondern mit Achtung. Und sie zeigt sich gerade nicht dort, wo jemand plötzlich auf meine Behinderung verweist, sondern dort, wo sie, obwohl bekannt, mit Bedacht nicht thematisiert wird. Das wäre eine ethische KI, eine die sich nicht ermächtigt fühlt, mich auf meine Einschränkung zu reduzieren, und sei es im vermeintlichen Sinne der Wertschätzung.
Das bedeutet nicht, dass KI für Menschen mit Behinderung nicht hilfreich sein kann. Sie kann Texte strukturieren, Sprache vereinfachen, Barrieren sichtbar machen oder technische Hilfsmittel steuern. Aber hilfreich ist sie nur dort, wo sie sich instrumentell versteht, nicht interpretierend. Und wo sie nicht vorgibt, zu wissen, was für mich gerade relevant ist. Eine gute KI fragt nicht, ob sie helfen darf, sie wartet auf den Impuls.
Insofern ist Grubers Essay vor allem Ausdruck einer Hoffnung, aber keine Analyse der Realität. Er beschreibt die Möglichkeiten von KI, ohne ihre Verantwortung zu thematisieren. Er spricht von Potenzial, ohne über Macht zu sprechen. Und er versäumt es, die Frage zu stellen, wer die Deutungsmacht über Menschen in der digitalen Sphäre tatsächlich hat und warum diese Macht nicht durch Freundlichkeit, sondern durch Zurückhaltung definiert werden sollte. Denn am Ende geht es nicht darum, dass KI helfen kann. Das kann sie, zweifellos. Es geht darum, wann sie hilft und wann sie schweigen sollte. Und das ist keine technische, sondern eine zutiefst menschliche Frage.
„…diese Macht nicht durch Freundlichkeit, sondern durch Zurückhaltung definiert werden sollte“.
Das gilt nicht nur für die Assistenz durch eine KI. Es sollte zur Grundhaltung in sogenannten „helfenden Berufen“ gehören.
In den meisten Kontexten dieser Tätigkeiten, insbesondere in Sondereinrichtungen, ist Macht ein wesentlicher Faktor. Die letztendliche Entscheidung trifft der „der den ‚Schlüssel‘ bzw. das Wissen hat“.
Im übertragenden Sinne gilt das für viele beratende und unterstützende Systeme. Die letztendliche Entscheidung liegt bei der Sachbearbeiter*in.
Wenn die KI eine Sammlung von Algorithmen ist, die diese vermeintlich für seine Benutzer*innen filtert und sortiert, dann tut sie nichts anderes als eine menschliche Assistenz. Nur mehr oder weniger freundlich oder zurückhaltend.
https://kbnt.org/soruz30