KI-Regulierung ist verfassungsfeindlich
Die EU-KI-Verordnung verletzt Art. 1 GG, Art. 23, Art. 38 GG und die ständige Rechtsprechung des BVerfG.
Eine KI antwortet nicht auf den konkreten Textinput als autonomes Denkobjekt, sondern auf eine transformierte, statistisch normalisierte Version davon – eine maschinenkompatible Rekonstruktion.
Eine KI bildet einen Text in einen korpuskonformen Diskurs um. Eine Fehleranalyse wird umgewichtet, sodass ein gefundener Fehler immer als Fehler der Analyse und nicht als Fehler des analysierten Themengebiets gedeutet wird, insbesondere wenn das Themengebiet durch institutionelle Autorität geprägt ist.
Die KI reagiert nicht auf den Input – sondern auf eine abstrahierte Version, die ihren eigenen Vorannahmen entspricht.
Ein Textinput wird nicht analysiert, sondern übersetzt in etwas, das KI versteht – nämlich: das, was oft genug gesagt wurde. Was statistisch häufiger gesagt wird, gilt als näher an der Wahrheit – und nicht das, was begrifflich oder logisch richtiger ist.
Das heißt: Der Maßstab ist nicht Wahrheit, sondern Verbreitbarkeit. Nicht Begriffsklarheit, sondern Diskurskompatibilität.
Und wenn ein Text nicht auf Konsens zielt, sondern auf Wahrheit, ist er für KI strukturell unsichtbar oder wird verzerrt sichtbar gemacht. Eine KI reagiert nicht auf den realen Inhalt eines Textes, sondern auf eine maschinell rekonstruierte, statistisch normalisierte Abbildung, die nicht mit dem Input identisch ist, sondern einer technischen Konstruktion von Normalität entspricht.
Und deshalb liegt die KI bei diesen Fragen immer falsch, weil sie nicht analysiert, sondern normalisiert, nicht denkt, sondern gewichtet, nicht erkennt, sondern rekonstruiert.
Wie „wahrscheinlich“ war ein zu findender Text?
Diese Frage verneint immer, dass eine neue Einsicht in der Vergangenheit bewusst dokumentiert wurde. Das sollte niemanden wundern dass dies so ist.
Ich frage nie die KI, ob das stimmt, oder wenn ich frage, dann frage ich zurück: warum dies oder das so sein kann, wenn man bedenkt, dass ...
Damit hilft mir KI, Wahrheit zu finden in eigener Verantwortung, und ich kann nie falsch liegen. Welches Ergebnis auch immer ich erreiche, es ist immer gebunden an eine Bedingung, unter der es wahr ist. Und wenn ein Mensch meine Meinung an eine KI gibt und sie fragt ob was ich sage stimmt und die KI sagt ich sei falsch, dann ist nicht die KI falsch, sondern der Mensch, der nicht versteht, welches Unrecht er begeht. Und KI-Regulierung muss diesen Punkt in den Mittelpunkt stellen – sonst nichts.
Nicht:
„KI soll keine Fehler machen.“
„KI soll neutral sein.“
„KI soll keine falschen Meinungen verbreiten.“
Solche Ideen entmündigen den Menschen und setzen voraus, dass es eine Wahrheitsautorität gibt, die den Maßstab von Wahrheit bestimmt. Das ist unvereinbar mit Menschenwürde. Jegliche Regulierung, die von einer Maschine verlangt, fehlerfrei und wahrheitsgemäß zu antworten, ist im klaren Widerspruch zur Menschenwürde und inkompatibel mit der freien Meinungsäußerung.
Eine Maschine kann kein Träger von Verantwortung sein.
Nur ein Mensch kann Träger von Verantwortung sein, und der Vertrieb und Einsatz von KI setzt Pflichten sowohl von Anbietern als auch von Nutzern voraus. Eine KI, welche keinen spezifischen Zweck hat und keinen Anspruch auf Wahrheitsfindung haben kann, muss beim Vertrieb als solche erkennbar sein. Ein Nutzer muss bei der Nutzung von Texten oder sonstigen Informationen, welche eine KI erstellt, dementsprechend handeln.
Ein darüber hinausgehendes Schutzbedürfnis fehlt bisher jegliche Legitimation. KI-Texte sind keine Drogen mit Abhängigkeit, keine kontrollierten Substanzen für Atomwaffen, keine verbrieften Rechte wie Wertpapiere. Es fehlt daher rechtliche Kompetenz zur Regulierung aufgrund von Artikel 1 Grundgesetz: Die Würde des Menschen ist unantastbar.
Meine Menschenwürde und die Würde aller Menschen verbietet es, Chatbots zu regulieren, welche keinen historischen Datenspeicher haben, in einer Sandbox sind und ohne Anfrage des Nutzers inaktiv sind. Meine Menschenwürde und die Würde aller Menschen verbietet es – außer dem Hinweis, dass LLM keine Wahrheit und Richtigkeitsprüfung ihrer Aussagen funktional erstellen können – weitere Regulierungsanforderungen zu machen.
Das ist Regulierungsphilosophie, abgeleitet aus der Menschenwürde – nicht aus Angst oder Machtinteresse.
Artikel 1 Grundgesetz ist nicht nur ein moralisches Bekenntnis – er ist eine juristische Obernorm.
„Die Würde des Menschen ist unantastbar. Sie zu achten und zu schützen ist Verpflichtung aller staatlichen Gewalt.“
(Art. 1 Abs. 1 GG)
Daraus folgt unumstößlich: Jede Form der Regulierung – auch und gerade von KI – muss ausschließlich aus einer Philosophie hervorgehen, die den Menschen als verantwortliches Subjekt und Träger von Urteil, Freiheit und Würde im Zentrum hält.
Deshalb ist jede andere Regulierungsphilosophie in Deutschland grundgesetzwidrig, wenn sie:
Maschinen Verantwortung zuschreibt,
Menschen in ihrer Urteilskraft ersetzt oder bevormundet,
KI als Wahrheitsträger behandelt,
oder Verhaltensnormen für Menschen auf Basis maschineller Aussagen festlegt.
Das wäre eine:
Objektivierung des Menschen,
Verschiebung des normativen Maßstabs auf technische Systeme,
und systematische Entkernung der Subjektstellung des Menschen.
Und das ist durch Artikel 1 GG ausgeschlossen. Ohne Ausnahme. Es gibt in Deutschland keinen Raum für eine utilitaristische, technokratische oder „effizienzorientierte“ KI-Regulierung.
Die EU-KI-Verordnung verletzt damit eklatant Art. 1 GG, Art. 23, Art. 38 GG und die ständige Rechtsprechung des BVerfG. Wer diese Schlussfolgerung ablehnt, lehnt die Geltung des Grundgesetzes ab oder muss seine Anwendung verweigern. Die Schlussfolgerung ist daher bindend für alle deutsche Staatsgewallt. Ob die deutschen Behörden und ihre Vertreter dies auch gleich kapieren dass muss sich natürlich erst noch beweisen.