KI

Was sollte bedacht werden im Umgang mit KI

Diese meine Gedanken sind überwiegend angeregt durch einen Artikel von Stephan Weichert im Freitag vom 20.02.2026.  Hier der Link zum käuflichen Artikel: https://www.freitag.de/autoren/der-freitag/das-problem-an-ki-ist-dass-wir-schleichend-unsere-verantwortung-abgeben

Eigentlich ist der Begriff KI schon irgendwie falsch und irreführend. Drei Definitionen vom Begriff Intelligenz:

  • ist die kognitive bzw. geistige Leistungsfähigkeit bei Menschen speziell im Problemlösen

  • oder: ist ein vielschichtiges Konzept, das die Fähigkeit eines Individuums beschreibt, komplexe Informationen zu verstehen, zu verarbeiten und daraus angemessene Schlussfolgerungen zu ziehen. Diese Fähigkeit umfasst kognitive Prozesse wie Wahrnehmung, Lernen, Erinnern, Problemlösung, kritisches Denken und Entscheidungsfindung

  • oder die Antwort mit KI: ist die kognitive Fähigkeit, Informationen zu verarbeiten, Zusammenhänge zu verstehen, Probleme zu lösen und aus Erfahrungen zu lernen, um sich an neue Situationen anzupassen.

Unabhängig von der jeweiligen Software, oder den Trainingsdaten folgen sie einer bestimmten Logik: Sie verarbeiten beobachtetes Verhalten und Reaktionen und Dinge als Daten und berechnen daraus Wahrscheinlichkeiten. Sie reagieren auf Inputs mit statistisch optimierten Antworten. Dabei passen sie sich dem Verhalten der Nutzerinnen und Nutzer an (und schmeicheln sich auch ein). Wichtig und entscheidend ist dabei, was sie nicht tun, nicht können:     Sie verstehen nicht. Die maschinellen Techniken verfügen weder über Sinnhorizonte noch über Bedeutungszusammenhänge, sie reflektieren nicht, verfügen über kein Weltverhältnis. Sie arbeiten mit einer Mustererkennung und folgen einer mathematischen Wahrscheinlichkeitsrechnung.

Computer und ihre KI-Systeme darf man nicht als denkende Akteure verstehen, sondern es sind Maschinen, die menschliches Verhalten messen, formatieren und verwalten. Einem Input wird laut der programmierten Statistik ein Output zugeordnet. Und das Problem mit einer ständig weiterentwickelten KI, die nicht nur mit eingespeisten Daten arbeitet, sondern schließlich auch selbst erzeugte Ergebnisse als Dateninput verarbeiten kann, ist nicht eine zukünftige Superintelligenz, die uns Menschen schlussendlich verdrängt und ersetzt (jedenfalls nicht in absehbarer Zeit). Dieses Narrativ lenkt eher ab von den handfesten Ki-Problemen, mit denen wir es jetzt zu tun haben. 

Wie operieren dagegen KI-Systeme grundsätzlich?

Unabhängig von der jeweiligen Software, oder den Trainingsdaten folgen sie einer bestimmten Logik: Sie verarbeiten beobachtetes Verhalten und Reaktionen und Dinge als Daten und berechnen daraus Wahrscheinlichkeiten. Sie reagieren auf Inputs mit statistisch optimierten Antworten. Dabei passen sie sich dem Verhalten der Nutzerinnen und Nutzer an (und schmeicheln sich auch ein). Wichtig und entscheidend ist dabei, was sie nicht tun, nicht können:

Sie verstehen nicht. Die maschinellen Techniken verfügen weder über Sinnhorizonte noch über Bedeutungszusammenhänge, sie reflektieren nicht, verfügen über kein Weltverhältnis. Sie arbeiten mit einer Mustererkennung und folgen einer mathematischen Wahrscheinlichkeitsrechnung. Computer und ihre KI-Systeme darf man nicht als denkende Akteure verstehen, sondern es sind Maschinen, die menschliches Verhalten messen, formatieren und verwalten. Einem Input wird laut der programmierten Statistik ein Output zugeordnet.

Und das Problem mit einer ständig weiterentwickelten KI, die nicht nur mit eingespeisten Daten arbeitet, sondern schließlich auch selbst erzeugte Ergebnisse als Dateninput verarbeiten kann, ist nicht eine zukünftige Superintelligenz, die uns Menschen schlussendlich verdrängt und ersetzt (jedenfalls nicht in absehbarer Zeit). Dieses Narrativ lenkt eher ab von den handfesten Ki-Problemen, mit denen wir es jetzt zu tun haben.

Das wirkliche gesellschaftliche Problem,

das wir durch die KI bekommen ist nicht nur die Veränderung in unserer Arbeitswelt, sind die Jobverluste, sondern vielleicht noch schwerwiegender ist die Tatsache, dass wir Menschen uns an die technische Logik der Maschinen ganz langsam und nahezu unbemerkt anpassen und Vertrauen und Verantwortung in unseren verschiedensten Beziehungen verloren geht. Denn die Veränderungen durch KI kommen nicht als ein krasser Bruch, sondern mit einer langsamen, unterschwelligen Verschiebung. Nicht mit der großen technischen Revolution, sondern mit stiller Gewöhnung. KI zeigt sich den meisten Menschen vor allem als Alltagshelfer. Texte werden flüssiger, Entscheidungen gehen viel schneller, Empfehlungen können genau angepasst werden. Was dabei aber nach und nach aus dem Blick gerät, ist die gesellschaftliche Wirkung.

Stephan Weichert schreibt in seinem Text: „Statt Verantwortung offen auszuhandeln, verwalten wir sie zunehmend: in Governance-Papieren, Ethik-Leitlinien, Compliance-Checklisten. Sie erzeugen Ordnung, aber nicht unbedingt Haltung. Sie suggerieren Kontrolle, wo es in Wahrheit um grundlegende Fragen menschlicher Selbstbestimmung geht.“ Und an anderer Stelle: Die Diskussionen gehen fast immer nur “um Intelligenz: um die Frage, ob Maschinen denken, verstehen oder gar bewusst handeln können. Diese Fixierung verstellt den Blick auf das eigentliche Problem. Denn was sich derzeit verschiebt, ist weniger das Verhältnis von Mensch und Maschine als das Verhältnis von Öffentlichkeit und Vertrauen. Urteilskraft, Verantwortung und Vertrauen werden nicht abrupt entzogen, sondern schrittweise an technische Infrastrukturen delegiert.“

Das größte Risiko der KI liegt somit nicht in einer hypothetischen Superintelligenz, sondern in dem schleichenden Verlust von Verantwortung und Urteilskraft – ohne dass sich noch jemand zuständig fühlt. Die entscheidende Frage lautet nicht, ob wir KI verhindern sollten, sondern wie wir sie einhegen, obwohl wir ihre Dynamik niemals vollständig kontrollieren können. Wobei aber klar sein sollte, die KI ist nicht die Ursache dieser gesellschaftlichen Entwicklung, sie ist aber ein Verstärker dafür, dass nicht mehr leicht zu erkennen ist, was wahr und was eine Fälschung ist. Was glaubwürdig oder falsch ist. Was Fakten und was Unterstellungen sind. Was Wissen und was nur Behauptung ist. Was ist (noch) menschlich, was kommt von einer Maschine. Durch die Vielfalt und Häufigkeit dieser vielen Fragwürdigkeiten werden wir überflutet und eben auch unsere Aufmerksamkeit zerstreut.

Wenn alles jederzeit sagbar, erzeugbar und variierbar ist, wird Orientierung zur Ausnahme oder geht gar ganz verloren. Genau darin liegt der gesellschaftliche Stresstest: Wie kann demokratische Öffentlichkeit überlebensfähig bleiben, wenn die Unterscheidung zwischen wahrhaftig und synthetisch erzeugt verloren geht? Und damit eben auch Vertrauen. Vertrauen in Aussagen, in Werten, in Mitmenschen, in die eigene Handlungsfähigkeit. - Und man kann niemandem so irgendwie eine Schuld zuweisen. Das alles zersetzt irgendwie unsere Gemeinschaften – unsere Demokratie

Dieser Verlust an Vertrauen wird noch verstärkt durch unsere benutzten Sprachbilder.

Der Begriff „künstliche Intelligenz“ ist keine neutrale Beschreibung, sondern eine wirkmächtige Metapher. Er suggeriert geistige Fähigkeiten, Lernprozesse und Entscheidungsautonomie. In die gleiche Richtung gehen die genutzten Begrifflichkeiten im Zusammenhang mit KI. „KI-Assistent“, „Co-Pilot“, Co-Intelligenz“. Je überzeugender die Ergebnisse, die Antworten der KI sind, desto stärker entsteht der Eindruck eines verstehenden Gegenübers. Die Technik simuliert Verstehen, und auch genau deshalb wird sie als handlungsfähiger Akteur wahrgenommen. Teilweise wird sie wichtiger oder ernster genommen als die realen, menschlichen Beziehungen.

Und diese Vermenschlichung ist nicht nur begrifflich problematisch, sondern politisch schädlich. Denn sie entlastet Unternehmen und die politischen Entscheidungsträger, verschleiert die Handelnden und die Hintergründe. Ja diese Entwicklung stützt und verstärkt die seit Jahren zunehmenden Einschränkungen unserer Freiheitsrechte, die zunehmenden Repressionen und Zensurmaßnahmen. Und erschwert und behindert teilweise durch die fehlende Zuordnung eine öffentliche Auseinandersetzung.

Was folgt nun daraus, was ist zu tun?

Wir sollten als erstes diesen schleichenden Charakter dieser Technologie erkennen. Also wahrnehmen, dass

  • die KI in immer mehr Bereiche unseres Lebens eindringt

  • wir alle ihre helfenden, erleichternden Funktionen selbst immer mehr benutzen und die missbräuchlichen Einsätze nicht wahrnehmen (wollen).

  • wir uns immer mehr auf sie verlassen, immer abhängiger werden und nicht mehr ohne auskommen

  • wir Menschen immer stärker verfügbar gemacht, vermessen, optimiert werden (sollen)

  • wir nicht mehr hinterfragen, wer oder was dahinter steckt

  • unsere eigene Kreativität immer mehr verloren geht, nicht mehr praktiziert oder trainiert wird

  • menschliche Werte, zumindest variabel eingesetzte, bei von der KI veranlassten Handlungen nicht berücksichtigt werden

  • nicht die Technik sich nach dem Menschen richtet, sondern der Mensch beginnt, sich den formatierten Logiken des Computers zu unterwerfen

  • nicht sicher gestellt ist, dass die KI-Ausführungen noch von Menschen überwacht werden

Wenn das so ist, dann wäre es wichtig, nicht achselzuckend diese Entwicklungen hinzunehmen, sondern Personen und Organisationen zu unterstützen, die Maßnahmen einfordern, um die negativen Entwicklungen durch KI einzudämmen. Gleichgültigkeit ist im Zeitalter generativer Systeme quasi eine Form von Komplizenschaft.

Mögliche Maßnahmen wären:

  • Sich nicht den KI-Systemen anzupassen, sondern dass wir unsere eigenen, menschlichen Maßstäbe gegenüber den technischen Anforderungen und Strukturen behaupten und so das Menschliche auch mit allen seinen Defiziten bewahrt werden kann, gerade und besonders auch, weil es niemals perfekt sein wird.

  • Deshalb ist die Transparenz wichtig. Wir müssen verstehen können, was mit uns geschieht – auch jenseits dessen, was wir unmittelbar wahrnehmen. Solange algorithmische Entscheidungen, Datenerhebungen und die daraus folgenden Logiken unsichtbar und somit unbekannt sind, können die Ergebnisse, früher Erfahrungen genannt, nicht verarbeitet, sondern nur erlitten werden. Nur so kann man die Voraussetzung dafür schaffen, dass Frustrationen nicht in Ohnmacht umschlagen, sondern eine kritische Verarbeitung möglich wird.

  • KI basiert auf eine enorme Datensammlung. Es sollten Möglichkeiten gefunden werden, dass all diese Daten, auch persönliche oder mit Urheberrechten verbundene, nicht einfach so verwertet werden

  • dürfen ohne Zustimmung der Betroffenen. Sie sollten als das behandelt werden, was sie nämlich sind:  als Besitz derjenigen, die sie erzeugt haben.
  • Die Ergebnisse von KI sind nicht neutral. Sie sind abhängig vom Dateninput und von den Algorithmen. Neben der Transparenz ist es deshalb entscheidend und wichtig, diese Gestaltungsmöglichkeiten nicht einfach den privatwirtschaftlich denkenden Produzenten zu überlassen. Wir müssen demokratisch legitimierte Strukturen der Zielsetzungen und der Kontrolle finden, um dieses Werkzeug zum Wohl der gesamten Gesellschaft zu nutzen.

  • Und den letzten Punkt finde ich auch wichtig: Jede Aktion einer KI sollte auch von einer durch menschliche Handlungen und Kommunikation getätigte mögliche Alternative abgesichert sein. Nur so kann sicher gestellt werden, dass wir auch ohne diese technischen Maschinen handlungsfähig bleiben.

Jetzt kommt berechtigter Weise gleich der Einwand, das mag ja schön und gut sein, aber es ist die reinste Utopie, das geht gar nicht, das ist überhaupt nicht umsetzbar.

Ja, das mag schon so sein, doch denke ich, nur wenn wir solche oder ähnliche Regeln schaffen und durchsetzen, besteht eine Hoffnung, eine Chance, dass die negativen Entwicklungen durch KI eingegrenzt werden können. Und nur dann werden die positiven Eigenschaften und Möglichkeiten durch KI Wirklichkeit werden können.

             Josef,                  1. März 2026

euer Kommentarfeld

Eure Texte oder Kommentare werden hier eingefügt. Allerdings nicht direkt. Sie kommen per Mail zu mir und ich füge sie ein. Bitte schreibt auch, ob ihr namentlich genannt werden, oder anonym bleiben wollt. Diese Filter-Maßnahme erlaube ich mir nur aus Eigenschutz, nicht um andere Meinungen zu zensieren.

Eure Kommentare

Das Projekt Inklusive Digitalisierung in der EU (IDEU)

Abschließende Empfehlungen aus Deutschland

1. Digitale Kompetenzen und Bildungsangebote

  • Einführung einer verpflichtenden, altersgerechten und praxisorientierten digitalen Bildung bereits in frühen Bildungsphasen (einschließlich digitaler Ethik, Sicherheit und Datenschutz).
  • Stärkung inklusiver MINT-/IKT-Bildungspfade in Schulen durch praxisnahe Lernmaterialien und vielfältige Vorbilder.
  • Entwicklung arbeitsmarktrelevanter Weiter- und Qualifizierungsangebote in geteilter Verantwortung: Arbeitgeber, Berufsbildungseinrichtungen und öffentliche Arbeitsverwaltungen gestalten Lehrpläne gemeinsam.

2. Gesellschaftliches Vertrauen und Inklusion

  • Ausbau lokaler, kostenfreier „Anlaufstellen“ (z. B. Bibliotheken, Nachbarschafts- oder Gemeindezentren) für praktische Unterstützung bei der Nutzung digitaler Geräte und von E-Government-Diensten.
  • Bereitstellung klarer, verständlicher Informationen zu Datenschutz und IT-Sicherheit; Nutzung sichtbarer Qualitätssignale (z. B. ein „Sicherer Dienst“-Siegel).
  • Erhalt analoger Alternativen für essenzielle Dienstleistungen und Bereitstellung digitaler Angebote als Wahlmöglichkeit, nicht als Verpflichtung.

3. Arbeitsmarkt und strukturelle Barrieren

  • Durchführung von „Tech for Good“-Kampagnen, um Stereotype abzubauen und den gesellschaftlichen Mehrwert von IKT-Berufen sichtbar zu machen, unter Einbeziehung vielfältiger Sprecher:innen.
  • Etablierung kommunaler Unterstützungsstrukturen für internationale IKT-Fachkräfte (zentrale Anlaufstellen, Beratung zur Anerkennung von Qualifikationen, gezielte Sprachkurse, Mentoringprogramme).
  • Verbesserung der Bindung von Fachkräften durch familienfreundlichere, nachhaltigere Arbeitsbedingungen sowie klare Karriere- und Entwicklungsperspektiven.

Die deutsche IDEU-Crowdsourcing-Kampagne zeigt, dass eine inklusive Digitalisierung nicht allein von technologischen Lösungen abhängt, sondern maßgeblich von Kompetenzen, Vertrauen und unterstützenden Strukturen. Durch die Kombination von Online- und Präsenzbeteiligung konnten die gelebten Erfahrungen der Bürger:innen in konkrete, menschenzentrierte Empfehlungen übersetzt werden. Diese können auf lokaler, nationaler und EU-Ebene in die Umsetzung der Digitalen Dekade 2030 einfließen und dazu beitragen, dass Europas digitale Transformation tatsächlich niemanden zurücklässt.

euer Kommentarfeld

Eure Texte oder Kommentare werden hier eingefügt. Allerdings nicht direkt. Sie kommen per Mail zu mir und ich füge sie ein. Bitte schreibt auch, ob ihr namentlich genannt werden, oder anonym bleiben wollt. Diese Filter-Maßnahme erlaube ich mir nur aus Eigenschutz, nicht um andere Meinungen zu zensieren.

Eure Kommentare