ChatGPT – das perfekte Versprechen? Chancen, Risiken und gesellschaftliche Auswirkungen von KI

Zwischen Hype und Realität: Was KI wirklich verändert

Jürgen Schulze stellte in seinem Vortrag die zentrale Frage, ob Systeme wie ChatGPT tatsächlich das „perfekte Versprechen“ einlösen – oder ob sie vielmehr neue Risiken erzeugen, die bisher unterschätzt werden. Ausgangspunkt war dabei weniger die Technik selbst, sondern deren gesellschaftliche Wirkung.

Ein zentraler Befund: Die Entwicklung von KI trifft auf eine Gesellschaft, deren Fähigkeit, mit steigender Komplexität umzugehen, nicht im gleichen Maß wächst. Schulze verwies dabei auf den sogenannten Reverse-Flynn-Effekt – also die stagnierende bzw. teilweise rückläufige Entwicklung kognitiver Fähigkeiten in Teilen der Bevölkerung seit den 1990er-Jahren. Gleichzeitig steigen die Anforderungen durch Digitalisierung und Vernetzung exponentiell. Diese Schere zwischen Anforderungen und Befähigung erzeugt ein strukturelles Risiko.

Damit verschiebt sich auch die Perspektive auf KI: Sie ist nicht nur ein Werkzeug zur Effizienzsteigerung, sondern ein Verstärker bestehender Schwächen. Wo Bewusstsein, Kompetenz und kritisches Denken fehlen, entstehen neue Angriffsflächen – insbesondere im Bereich der Cybersicherheit und der Informationsverarbeitung.

Risiken entstehen im Zusammenspiel, nicht isoliert

Ein zentrales Argument Schulzes war, dass KI-Risiken häufig zu eindimensional betrachtet werden. Einzelne Gefahren werden analysiert, ohne ihre Wechselwirkungen zu berücksichtigen. Tatsächlich entstehen die größten Risiken jedoch durch Kombinationseffekte.

Er veranschaulichte dies mit einem einfachen Prinzip: Im Risikomanagement ist „1 + 1“ selten gleich „2“. Durch Wechselwirkungen können Risiken sich potenzieren und unvorhersehbare Effekte erzeugen. Besonders relevant wird das, wenn KI-Systeme mit anderen Faktoren wie fehlerhaften Daten, menschlichem Fehlverhalten oder organisatorischen Schwächen zusammenwirken.

Hinzu kommt die zeitliche Dimension. Während unmittelbare Effekte oft sichtbar und medial präsent sind, bleiben mittelbare Wirkungen häufig unbeachtet. KI beeinflusst nicht nur einzelne Prozesse, sondern langfristig auch Meinungsbildung, soziale Interaktionen, wirtschaftliche Entscheidungen und politische Dynamiken. Diese indirekten Effekte sind komplexer, aber oft deutlich folgenreicher.

Ein weiterer kritischer Punkt ist die Qualität der Datenbasis. KI-Systeme werden mit großen Mengen unkuratierter Daten trainiert, die bestehende Verzerrungen reproduzieren. Wer die Daten kontrolliert, beeinflusst damit auch die Ergebnisse. Das führt zu strukturellen Bias-Effekten, die sich nicht nur technisch, sondern auch gesellschaftlich auswirken.

 

Jürgen Schulze
Jürgen Schulze

Verhaltensänderung als unterschätzter Faktor

Besonders deutlich wurde in Schulzes Vortrag, dass KI bereits heute das Verhalten von Menschen verändert. Die Systeme liefern schnelle, scheinbar klare Antworten, sind jederzeit verfügbar und widersprechen selten. Das schafft Bequemlichkeit – aber auch Abhängigkeit.

Ein Beispiel: Der zunehmende Einsatz von KI in kreativen oder analytischen Prozessen kann dazu führen, dass eigene Fähigkeiten weniger genutzt werden. Wenn Texte, Analysen oder Entscheidungen zunehmend ausgelagert werden, verändert sich auch das Verhältnis zur eigenen Leistung. Schulze beschreibt dies als Verlust von Erfahrungs- und Lernprozessen, die für nachhaltige Kompetenzentwicklung notwendig wären.

Auch im Alltag zeigt sich diese Verschiebung. Kommunikation wird direkter, Erwartungen an Geschwindigkeit steigen, und die Bereitschaft, komplexe Zusammenhänge selbst zu durchdringen, nimmt ab. Gleichzeitig entstehen neue Herausforderungen, etwa im Umgang mit Täuschung, Desinformation oder automatisierten Angriffen.

Ein prägnantes Beispiel ist die Entwicklung im Bereich Cybercrime: Betrugsversuche, die früher leicht erkennbar waren, sind heute deutlich professioneller. Sprachqualität, Struktur und Glaubwürdigkeit haben sich massiv verbessert – ein direktes Resultat der Nutzung von KI.

Zwischen Nutzen und Verantwortung

Trotz aller Kritik betonte Schulze, dass KI nicht pauschal negativ zu bewerten ist. Entscheidend ist der bewusste Umgang mit der Technologie. Weder unreflektierte Euphorie noch pauschale Ablehnung führen zu sinnvollen Ergebnissen.

Sein Ansatz lässt sich als differenzierte Nutzung beschreiben: Die Vorteile von KI sollen genutzt werden, während gleichzeitig ein klares Verständnis für Risiken aufgebaut wird. Dieses Verständnis ist jedoch keine Selbstverständlichkeit, sondern muss aktiv entwickelt werden – durch Bildung, Training und kontinuierliche Auseinandersetzung.

Dabei spielt auch Regulierung eine Rolle, darf aber nicht als alleinige Lösung betrachtet werden. Regeln können Orientierung geben und Risiken begrenzen, ersetzen aber nicht die individuelle und organisationale Kompetenz im Umgang mit KI.

Ein weiterer wichtiger Aspekt ist die Frage der Verantwortung. Nutzerinnen und Nutzer müssen sich bewusst machen, welche Informationen sie in Systeme eingeben und wer potenziell Zugriff darauf hat. KI ist kein neutraler Raum, sondern Teil wirtschaftlicher und politischer Strukturen.

Fazit: Die eigentliche Herausforderung liegt beim Menschen

Schulzes Vortrag machte deutlich, dass die zentrale Herausforderung nicht in der Technologie selbst liegt, sondern im Zusammenspiel von Mensch, System und Kontext. KI verstärkt bestehende Muster – sowohl positive als auch negative.

Resilienz im Umgang mit KI bedeutet daher vor allem, eigene Fähigkeiten zu stärken, kritisches Denken zu fördern und technologische Entwicklungen in ihren Auswirkungen zu verstehen. Nur so kann verhindert werden, dass aus einem „perfekten Versprechen“ ein strukturelles Risiko wird.

Oder in Schulzes pragmatischer Kurzformel: bewusst nutzen, Risiken verstehen und Entscheidungen nicht an Systeme delegieren, die selbst keine Verantwortung tragen.