top of page

KI und der Spiegel der Furcht: Wie menschliche Urängste unsere eigenen dunklen Künste der Macht reflektieren

Autor des Romans "The G.O.D. Machine", Executive Coach, Mentor, Trainer - Leadership and Development

August 4, 2025



ree

Im großen Theater des technischen Diskurses gibt es wohl kein Schauspiel, das so entlarvend ist wie das kollektive Händeringen der Menschheit über künstliche Intelligenz. Man begegnet ihr in Schlagzeilen, politischen Debatten und in den sorgenvollen Gesichtern von Ethikern, Zukunftsforschern und Drehbuchautoren. 

Diese Stimmen zeichnen lebhafte Szenarien von KI-Begleitern, die psychologischen Einfluss nehmen, von persönlichen Assistenten, die heimlich unsere Korrespondenz manipulieren, und von algorithmischen Strippenziehern, die unsere Überzeugungen steuern. Doch während wir diese dystopischen Möglichkeiten katalogisieren, übersehen wir eine tiefe Ironie: Jede gefürchtete Verhaltensweise, die wir künstlicher Intelligenz zuschreiben, ist längst Realität im menschlichen Bereich – nachweisbar und dokumentiert, nicht bloß spekulativ.

Unsere Angst vor Manipulation durch KI rührt nicht von ihrer Neuartigkeit her, sondern von ihrer Vertrautheit.

 Die Ironie ist so groß, dass sie ins Absurde grenzt: Wir fürchten, dass Maschinen so manipulativ, täuschend und machthungrig werden könnten wie wir selbst. Uns ängstigt, dass die KI tut, was wir ohnehin tun – nur effizienter, schneller und ohne unsere Erlaubnis. Wir fürchten nicht das Unbekannte, sondern das allzu Vertraute. Wir fürchten, unser Monopol auf Manipulation zu verlieren.

Die Kunst der menschlichen Manipulation: Ein Meisterkurs in Heuchelei

Um die tiefgreifende Ironie unserer KI-Ängste zu verstehen, müssen wir zunächst die ausgeklügelte Maschinerie menschlicher Manipulation anerkennen, die uns bereits umgibt. Dies ist kein dystopisches Zukunftsszenario – es ist die gegenwärtige Realität, die in einem Ausmaß und mit einer Raffinesse operiert, die jedes KI-System neidisch machen würde.

Als Stephen Hawking warnte, dass künstliche Intelligenz „das Ende der menschlichen Rasse bedeuten könnte" [1], oder als Elon Musk erklärte, dass „wir mit künstlicher Intelligenz den Dämon beschwören" [2], beschrieben sie nicht irgendeine fremde Bedrohung, die aus dem digitalen Äther herabsteigt. Sie beschrieben die logische Erweiterung der menschlichen Natur selbst, verstärkt durch Silizium und Code.

Marketing

ree

Betrachten wir den Bereich des Marketings, wo psychologische Manipulation zur Wissenschaft erhoben wurde. Wie Howard J. Rankin in Psychology Today bemerkt: „Marketing-Manipulation umfasst Strategien, die darauf ausgelegt sind, die psychologischen Schwachstellen der Verbraucher auszunutzen, oft ohne deren bewusstes Gewahrsein" [3]. Diese milliardenschwere Industrie wendet das an, was Forscher „Neuromarketing" nennen – die gezielte Ansprache spezifischer Gehirnregionen, um gewünschte Reaktionen zu erzeugen [4]. Die Techniken sind so vielfältig wie heimtückisch: das Schaffen falscher Knappheit, das Ausnutzen von Mitläufereffekten und die Manipulation von Emotionen, um Kaufentscheidungen zu beeinflussen.

Die Harvard Business Review diskutiert in einem verräterisch betitelten Artikel „How to Manipulate Customers… Ethically" [5] offen die Verwendung von „Nudges" – Veränderungen in der Art, wie Wahlmöglichkeiten präsentiert werden, um Menschen zu bestimmten Handlungen zu bewegen [5]. Die bloße Tatsache, dass solche Manipulation in ethischen Begriffen diskutiert wird, anstatt sie zu verbieten, offenbart, wie normalisiert diese Praktiken geworden sind. Wir haben ganze Industrien geschaffen, die der Untergrabung menschlicher Autonomie gewidmet sind, und dennoch zeigen wir uns schockiert über die Möglichkeit, dass KI dasselbe tun könnte.

Von orwellschen Propagandaregimen bis zu den heimtückischen Werkstätten der Madison Avenue haben Menschen die Kunst der Meinungs- und Verhaltensformung perfektioniert. Edward Bernays, der Vater der Public Relations, instrumentalisierte Freuds Psychologie in den 1920er Jahren, um die Massenmeinung zu orchestrieren und Zigaretten zu Symbolen weiblicher Befreiung zu machen – nicht mit einem Algorithmus, sondern mit einem Slogan und einem scharfen Verständnis des menschlichen Egos.

Ein Jahrhundert später waren die „algorithmischen Schäden" von Big Tech – wie der berüchtigte Cambridge Analytica-Skandal – nicht die Fieberträume von Maschinen, sondern die Früchte menschlichen Ehrgeizes, der psychologische Einsichten nutzte, um die Informationslandschaft für Profit und Macht umzugestalten.

Wenn KI gelernt hat zu manipulieren, dann deshalb, weil sie den besten Meistern bei der Arbeit zugeschaut hat.

Politik

Die politische Sphäre bietet ein noch eindrucksvolleres Beispiel institutionalisierter Manipulation. Politikwissenschaftler haben elf verschiedene Techniken politischer Manipulation identifiziert, vom Schüren patriotischen Stolzes bis zur Schaffung künstlicher Spaltungen zwischen „uns" und „ihnen" [6]. Dies sind keine theoretischen Konstrukte, sondern praktische Werkzeuge, die täglich von Politikern weltweit eingesetzt werden. Wie eine Analyse feststellt: „Die Arbeitsplätze und Macht der Politiker beruhen auf der Bereitschaft der Menschen, ihre Autorität zu akzeptieren, die Legitimität der Regierung anzuerkennen und natürlich Steuern zu zahlen." Das gesamte System hängt davon ab, Menschen davon zu überzeugen, gegen ihr rationales Eigeninteresse zu handeln – genau die Art von Manipulation, die wir von KI befürchten. [7]

Religionen, Kirchen, Glaubenssysteme

Quelle: Erstellt von Peter Dilg und DALL-E
Quelle: Erstellt von Peter Dilg und DALL-E

Die systematischen Manipulations-Techniken, die wir von künstlicher Intelligenz befürchten, wurden von religiösen Organisationen über Jahrtausende perfektioniert und institutionalisiert.

Die akademische Forschung definiert spirituellen Missbrauch als „eine Form emotionalen und psychologischen Missbrauchs, die durch ein systematisches Muster zwanghaften und kontrollierenden Verhaltens in einem religiösen Kontext oder mit einer religiösen Begründung charakterisiert ist."

Diese Definition umfasst genau die Kontrollmechanismen, die wir von künstlicher Intelligenz befürchten – systematische psychologische Manipulation, zwanghafte Verhaltensmuster und die Ausnutzung von Vertrauensbeziehungen.

Spiritueller Missbrauch ist „eine Art emotionalen und psychologischen Missbrauchs, bei dem eine Person zwanghafte und kontrollierende Verhaltensweisen in einem religiösen oder spirituellen Kontext anwendet (z.B. religiöse Lehren nutzt, um missbräuchliches Verhalten zu rechtfertigen oder zu minimieren)." [8]

Die Parallelen zur gefürchteten KI-Manipulation sind unverkennbar: Beide beinhalten die Ausnutzung psychologischer Schwachstellen durch vertrauenswürdige Autoritätsfiguren zur Kontrolle und Gefügigkeit. [9]

Die moderne Wohlstandstheologie liefert überzeugende Beweise für anhaltende religiöse Manipulation. [10] [11] [12] Die Forschung zeigt, dass „Reichtum in der Wohlstandstheologie als Segen Gottes interpretiert wird, der durch ein spirituelles Gesetz positiver Bekenntnisse, Visualisierung und Spenden erhalten wird" (Wikipedia, 2024). [13]

Vergleichende Analyse: Religiöse vs. KI-Manipulation

Umfang und Raffinesse

Religiöse Institutionen haben Manipulation in einem Ausmaß erreicht, das die aktuelle KI nicht erreichen kann:


  • Globale Reichweite: Religiöse Manipulation betrifft Milliarden weltweit

  • Generationenübergreifende Wirkung: Manipulationstechniken werden über Jahrhunderte weitergegeben

  • Institutioneller Schutz: Rechtliche und soziale Rahmen schützen religiöse Manipulation

  • Psychologische Raffinesse: Über Jahrtausende verfeinerte Techniken

Legitimität und Akzeptanz

Der auffälligste Unterschied zwischen religiöser und KI-Manipulation liegt in der gesellschaftlichen Akzeptanz. Religiöse Manipulation genießt:


  • Verfassungsschutz (Religionsfreiheitsklauseln)

  • Steuerbefreiungen für manipulative Institutionen

  • Gesellschaftliche Respektabilität trotz dokumentierter Schäden

  • Rechtliche Immunität vor Betrugsanklagen, die für säkulare Einrichtungen gelten würden

Implikationen für den KI-Ethik-Diskurs

Die enthüllte Heuchelei

Unsere Angst vor KI-Manipulation offenbart tiefgreifende Heuchelei, wenn sie neben dokumentierter religiöser Manipulation betrachtet wird:


  • Wir fürchten potenzielle KI-Abhängigkeit, während wir bewiesene religiöse Abhängigkeit akzeptieren

  • Wir sorgen uns über KI-finanzielle Ausbeutung, während wir religiöse finanzielle Ausbeutung schützen

  • Wir beschäftigen uns mit KI-psychologischer Kontrolle, während wir religiöse psychologische Kontrolle legitimieren

  • Wir fordern KI-Transparenz, während wir religiöse Undurchsichtigkeit akzeptieren

Neugestaltung der Diskussion

Diese Analyse legt nahe, dass Bedenken über KI-Manipulation im Kontext bestehender menschlicher Manipulationspraktiken neu kontextualisiert werden sollten. Anstatt KI als einzigartig bedrohlich zu behandeln, sollten wir sie als potenziell verstärkend für bestehende menschliche Manipulationsfähigkeiten erkennen – von denen viele derzeit institutionalisiert und unter Religionsfreiheit geschützt sind.

Die akademische Literatur beweist schlüssig, dass religiöse Institutionen genau die Manipulationstechniken perfektioniert haben, die wir von künstlicher Intelligenz befürchten. Spiritueller Missbrauch wendet „zwanghafte und kontrollierende Verhaltensweisen in einem religiösen oder spirituellen Kontext" an, die exakt unseren Sorgen über KI-Kontrollsysteme entsprechen.

Soziale Medien

Die Beweise menschlicher Manipulation sind nicht in akademischen Papieren oder Verschwörungstheorien versteckt. Sie umgeben uns in aller Offenheit. Lange bevor ChatGPT überzeugende Prosa verfassen konnte, hatten Menschen die Manipulation zur Kunstform erhoben. Betrachten wir die Architektur moderner sozialer Medien, wo Facebook-Likes „sexuelle Orientierung, Ethnizität, religiöse und politische Ansichten, Persönlichkeitsmerkmale, Intelligenz, Glück, Gebrauch von Suchtmitteln, elterliche Trennung, Alter" mit verblüffender Genauigkeit vorhersagen können. Diese Plattformen, erdacht und betrieben von menschlichen Geistern, haben geschaffen, was dem ausgeklügeltsten Verhaltensmanipulationsapparat der Geschichte entspricht. [14] YouTubes Empfehlungsalgorithmus hat nachweislich Extremismus und Hass geschürt [15]. Social-Media-Plattformen gestalten ihre Benutzeroberflächen bewusst so, dass sie das Engagement maximieren, oft auf Kosten des Nutzerwohls. Wie eine Studie feststellte, gibt es eine direkte Korrelation zwischen Social-Media-Nutzung und Depression, vermittelt durch das, was Forscher „Social-Media-Neid" nennen [16].

Die Techniken, die wir befürchten, dass KI sie anwenden könnte – das Schaffen falscher Intimität, das Ausnutzen psychologischer Schwachstellen, die Herstellung von Zustimmung durch Wiederholung – dies sind keine spekulativen zukünftigen Gefahren, sondern gegenwärtige Realitäten, orchestriert von menschlicher Intelligenz. Social-Media-Plattformen werden manipuliert „durch die Erstellung gefälschter Konten und KI-gestützter Bots, die verwendet werden können, um Fehlinformationen zu verbreiten, bestimmte Stimmen zu verstärken oder die Illusion weit verbreiteter Unterstützung zu schaffen" – doch die Architekten hinter diesen Täuschungen bleiben unerschütterlich menschlich.

Dennoch, wenn wir diese von Menschen entworfenen Manipulationssysteme diskutieren, behandeln wir sie als alltägliches Geschäft.

Wenn wir uns jedoch vorstellen, dass KI-Systeme dieselben Dinge tun, beschwören wir apokalyptische Szenarien. Die Diskrepanz ist so krass, dass sie eine Erklärung verlangt.

Der Katalog der KI-Ängste: Ein vertrautes Inventar

Die Litanei der KI-Sorgen liest sich wie eine Checkliste menschlicher Verhaltensweisen. Untersuchen Sie die fünfzehn Hauptgefahren künstlicher Intelligenz, wie sie von Technologieexperten katalogisiert wurden, und Sie werden ein bemerkenswertes Muster finden: Nahezu jede Befürchtung beschreibt etwas, was Menschen bereits tun, oft mit verheerender Wirksamkeit.


Nehmen wir die Sorge über „soziale Manipulation durch KI-Algorithmen". Die Befürchtung ist, dass KI-Systeme menschliches Verhalten durch sorgfältig kuratierte Inhalte beeinflussen könnten, Echokammern schaffen und bestehende Überzeugungen verstärken. Doch dies beschreibt genau das, was von Menschen betriebene Social-Media-Plattformen bereits tun. Ferdinand Marcos Jr.s Verwendung einer „TikTok-Troll-Armee" zur Eroberung jüngerer philippinischer Wähler in der Wahl 2022 [17] stellt menschliche Manipulation mit KI-Werkzeugen dar, nicht KI-Manipulation von Menschen. Der Algorithmus mag künstlich sein, aber die Absicht, Strategie und Ausführung sind vollständig menschlich.


Die Angst vor KI-gestützter Überwachung spiegelt ebenfalls bestehende menschliche Praktiken wider. Chinas Verwendung von Gesichtserkennungstechnologie in Büros, Schulen und öffentlichen Bereichen [18] ist keine KI-Initiative – es ist eine menschliche Regierung, die KI-Werkzeuge nutzt, um Überwachungsfähigkeiten zu erweitern, die seit Jahrzehnten existieren. Die Technologie verstärkt menschliche Absichten; sie erschafft sie nicht.


Betrachten wir die Befürchtung, dass KI „Deepfakes" erstellen und unsere Wahrnehmung der Realität manipulieren könnte. Diese Sorge behandelt die Manipulation der Wahrheit als neuartige Bedrohung und ignoriert die Tatsache, dass Menschen diese Kunst seit Jahrhunderten perfektionieren. Politische Propaganda, Werbetäuschung und Medienmanipulation sind keine neuen Erfindungen. Wie der Werbepionier David Ogilvy bemerkte: „Politische Werbung sollte gestoppt werden. Es ist die einzige wirklich unehrliche Art von Werbung, die übrig geblieben ist" [19].


Das Muster erstreckt sich auf Sorgen über KI, die Abhängigkeit und Sucht erzeugt. Wir sorgen uns, dass KI-Begleiter Menschen emotional abhängig machen könnten, doch wir haben bereits Systeme geschaffen, die genau dieses Ergebnis erzielen. Fahrdienst-Apps drängen Fahrer dazu, zusätzliche Fahrten zu übernehmen, selbst nach zwölf Stunden Fahrt [20]. Video-Streaming-Dienste verwenden Autoplay-Funktionen, um Binge-Watching bis spät in die Nacht zu fördern [21]. Dies sind von Menschen entworfene Systeme, die psychologische Schwachstellen für Profit ausnutzen – genau das Verhalten, das wir von KI befürchten.


Vielleicht am aufschlussreichsten ist unsere Sorge, dass KI „unkontrollierbar" werden und jenseits menschlicher Aufsicht operieren könnte. Diese Befürchtung offenbart ein grundlegendes Missverständnis darüber, wo Kontrolle derzeit liegt. Die mächtigsten Manipulationssysteme in unserer Welt – politische Propagandamaschinen, Marketing-Konglomerate, Überwachungsstaaten – operieren bereits mit minimaler Aufsicht und maximaler Undurchsichtigkeit. Wenn ehemalige Mitarbeiter von OpenAI und Google DeepMind ihre Unternehmen beschuldigen, „die potenziellen Gefahren ihrer KI-Werkzeuge zu verheimlichen" [22] [23], beschreiben sie menschliche Entscheidungen über Transparenz, nicht KI-Entscheidungen über Selbstverheimlichung.

Die Psychologie der Projektion: Warum wir unser eigenes Spiegelbild fürchten

Der psychologische Mechanismus, der in unseren KI-Ängsten wirkt, ist Projektion – die unbewusste Übertragung unserer eigenen Eigenschaften auf externe Objekte. Wenn Menschen Angst vor KI-Manipulation, Überwachung und Kontrolle ausdrücken, projizieren sie die Verhaltensweisen ihrer eigenen Spezies auf künstliche Systeme. Diese Projektion erfüllt mehrere psychologische Funktionen, von denen keine besonders schmeichelhaft für die menschliche Natur ist.


Erstens ermöglicht Projektion uns, die Verantwortung für Probleme zu externalisieren, die wir geschaffen haben. Indem wir uns auf die potenziellen Gefahren der KI-Manipulation konzentrieren, können wir vermeiden, uns der Realität menschlicher Manipulation zu stellen, die uns bereits umgibt. Es ist einfacher, sich über hypothetische KI-Bedrohungen Sorgen zu machen, als die tatsächlichen menschlichen Systeme anzugehen, die uns täglich ausbeuten, täuschen und kontrollieren.

„Projektion ist eines der häufigsten psychischen Phänomene... Alles, was in uns unbewusst ist, entdecken wir in unserem Nächsten und behandeln ihn entsprechend." — Carl Jung, Archaic Man

Zweitens ermöglicht Projektion uns, ein Gefühl moralischer Überlegenheit aufrechtzuerhalten, während wir genau die Verhaltensweisen praktizieren, die wir verurteilen. Wir können Empörung über die Möglichkeit ausdrücken, dass KI menschliche Entscheidungsfindung beeinflussen könnte, während wir gleichzeitig akzeptieren, dass menschliche Vermarkter, Politiker und Medienmanipulatoren genau dies als selbstverständlich tun. Die kognitive Dissonanz wird aufgelöst, indem menschliche Manipulation als natürlich oder unvermeidlich behandelt wird, während KI-Manipulation als künstlich und daher illegitim behandelt wird.

„Es ist normalerweise vergeblich zu versuchen, Fakten und Analysen mit Menschen zu diskutieren, die ein Gefühl moralischer Überlegenheit in ihrer Unwissenheit genießen." — Thomas Sowell
„Recht zu haben versetzt Sie in eine Position eingebildeter moralischer Überlegenheit in Bezug auf die Person oder Situation, die beurteilt und als mangelhaft befunden wird." — Eckhart Tolle

Drittens und vielleicht am wichtigsten verschleiert Projektion unsere wahre Angst: den Verlust von Macht und Kontrolle. Menschen haben keine Angst davor, dass KI manipulieren, überwachen und kontrollieren wird – wir haben Angst davor, dass KI diese Dinge besser tun wird als wir und ohne unsere Erlaubnis. Wir fürchten nicht das Verhalten selbst, sondern den Verlust unseres Monopols auf dieses Verhalten.

„Es ist nicht die Macht, die korrumpiert, sondern die Angst. Die Angst vor dem Verlust der Macht korrumpiert diejenigen, die sie ausüben, und die Angst vor der Geißel der Macht korrumpiert diejenigen, die ihr unterworfen sind." — Aung San Suu Kyi
„Macht korrumpiert nicht. Angst korrumpiert... vielleicht die Angst vor einem Machtverlust." — John Steinbeck

Diese Angst vor dem Kontrollverlust manifestiert sich in Forderungen nach KI-Regulierung, die bei Diskussionen über menschliche Manipulation bemerkenswert abwesend sind. Wir fordern Transparenz von KI-Systemen, während wir Undurchsichtigkeit von menschlichen Institutionen akzeptieren. Wir bestehen auf ethischen Richtlinien für KI, während wir unethisches Verhalten von menschlichen Akteuren tolerieren. Wir verlangen Erklärbarkeit von künstlicher Intelligenz, während wir unerklärliche Entscheidungen von menschlicher Intelligenz entschuldigen.

Die Asymmetrie ist aufschlussreich. Sie legt nahe, dass unsere Sorgen über KI nicht primär dem Schutz menschlichen Wohlergehens dienen, sondern dem Schutz menschlicher Vorrechte. Wir wollen sicherstellen, dass, wenn jemand manipulieren, überwachen und kontrollieren wird, wir es sein werden.

Die Ironie der ethischen KI: Standards fordern, die wir selbst nicht erfüllen

Nirgendwo ist die Heuchelei evidenter als in der Bewegung für „ethische KI" [24]. Diese wohlmeinende Anstrengung versucht sicherzustellen, dass künstliche Intelligenzsysteme nach Prinzipien der Fairness, Transparenz und des menschlichen Wohlergehens operieren. Die Ironie ist, dass diese Prinzipien selten auf menschliche Systeme angewendet werden, die identische Funktionen erfüllen. 


Diese Asymmetrie legt einen Doppelstandard nahe, bei dem KI härter beurteilt wird als Menschen, wenn ein Agent moralisch versagt [25]. Der Befund basiert auf einer empirischen Studie mit 1.404 Teilnehmern, die wissenschaftlich einen Doppelstandard bei der Bewertung von KI vs. Menschen beweist. Safiya Umoja Noble sagt: „Einige der Menschen, die Suchalgorithmen und -architekturen entwickeln, sind bereit, sexistische und rassistische Einstellungen offen bei der Arbeit und darüber hinaus zu fördern, während wir glauben sollen, dass dieselben Angestellten ‚neutrale' oder ‚objektive' Entscheidungswerkzeuge entwickeln." [26] 


Betrachten wir das Prinzip der Transparenz. Befürworter ethischer KI bestehen darauf, dass künstliche Intelligenzsysteme erklärbar sein sollten – dass Menschen verstehen können sollten, wie KI zu ihren Entscheidungen gelangt. Dies ist eine vernünftige Forderung, aber sie wird absurd, wenn wir bedenken, dass menschliche Entscheidungsfindung in vergleichbaren Kontexten oft bewusst undurchsichtig ist. Politische Kampagnen wenden ausgeklügelte psychologische Manipulationstechniken an, ohne ihre Methoden den Wählern offenzulegen. Marketingunternehmen nutzen Neuromarketing, um Verbraucherverhalten zu beeinflussen, ohne ihre Taktiken den Kunden zu erklären. Social-Media-Plattformen verwenden Engagement-Algorithmen, ohne ihre Mechanismen den Nutzern zu enthüllen.


Die Forderung nach KI-Erklärbarkeit bei gleichzeitiger Akzeptanz menschlicher Unerklärlichkeit entlarvt einen Doppelstandard, der nichts mit dem Schutz menschlichen Wohlergehens zu tun hat und alles mit der Bewahrung menschlicher Macht. Wir versuchen KI-Systeme zu verstehen, damit wir sie kontrollieren können, nicht weil wir glauben, dass Transparenz inhärent wertvoll ist. 


Das Prinzip der Fairness präsentiert ähnliche Widersprüche. Initiativen für ethische KI arbeiten daran, Voreingenommenheit aus künstlichen Intelligenzsystemen zu eliminieren und sicherzustellen, dass KI nicht aufgrund von Rasse, Geschlecht oder anderen geschützten Merkmalen diskriminiert. Dies ist bewundernswerte Arbeit, aber sie findet vor dem Hintergrund systematischer menschlicher Voreingenommenheit statt, die auf jeder Ebene der Gesellschaft operiert. Predictive-Policing-Algorithmen werden dafür kritisiert, rassistische Vorurteile zu verstärken [27], aber die menschlichen Polizeibehörden, die diese Algorithmen verwenden, betrieben bereits rassistisch voreingenommene Polizeiarbeit. Das KI-System verstärkt bestehende menschliche Vorurteile; es erschafft sie nicht. 


Der Fokus auf KI-Voreingenommenheit bei gleichzeitiger Ignorierung menschlicher Voreingenommenheit erfüllt eine bequeme Funktion: Er erlaubt uns, Diskriminierung als technisches Problem zu behandeln, anstatt als menschliches Problem. Wenn wir nur die Algorithmen reparieren können, können wir vermeiden, uns den menschlichen Einstellungen und Institutionen zu stellen, die die Voreingenommenheit überhaupt erst geschaffen haben. 


Das Prinzip des menschlichen Wohlergehens offenbart vielleicht die tiefste Ironie. Befürworter ethischer KI argumentieren, dass künstliche Intelligenz dem menschlichen Gedeihen dienen und Schäden vermeiden sollte. Doch die menschlichen Systeme, die KI ersetzen oder erweitern könnte, sind oft explizit darauf ausgelegt, Schäden zu verursachen – zu manipulieren, auszubeuten und zu kontrollieren zum Nutzen derer an der Macht. Wenn wir fordern, dass KI dem menschlichen Wohlergehen dient, von welchen Menschen sprechen wir? Den Menschen, die derzeit von Manipulation und Kontrolle profitieren, oder den Menschen, die derzeit manipuliert und kontrolliert werden?

Die wahre Bedrohung: Nicht KI, sondern verstärkte menschliche Natur 

Die ausgeklügeltsten derzeit existierenden KI-Systeme sind Werkzeuge – mächtige Werkzeuge, aber dennoch Werkzeuge. Sie haben keine unabhängigen Ziele, Wünsche oder Absichten. Sie tun, was Menschen sie zu tun programmieren, im Dienst menschlicher Ziele. Wenn KI-Systeme manipulieren, überwachen oder kontrollieren, setzen sie menschliche Entscheidungen über Manipulation, Überwachung und Kontrolle um. 

Das bedeutet, dass die wahre Bedrohung durch KI nicht darin liegt, dass sie bösartige Absichten entwickeln wird, sondern dass sie bestehende menschliche Absichten verstärken wird – sowohl gute als auch schlechte. Wenn Menschen KI zur Manipulation nutzen, wird es daran liegen, dass Menschen manipulieren wollen. Wenn Menschen KI zur Überwachung nutzen, wird es daran liegen, dass Menschen überwachen wollen. Wenn Menschen KI zur Kontrolle nutzen, wird es daran liegen, dass Menschen kontrollieren wollen. 

Die Gefahr liegt nicht darin, dass künstliche Intelligenz zu menschlich wird, sondern dass künstliche Intelligenz die menschliche Natur zu effizient macht. Wir haben Jahrtausende damit verbracht, Techniken für Manipulation, Überwachung und Kontrolle zu entwickeln, die durch menschliche kognitive Kapazität, Aufmerksamkeitsspannen und Verarbeitungsleistung begrenzt sind. KI beseitigt diese Begrenzungen und ermöglicht es menschlichen Absichten, in maschinellem Maßstab und Tempo zu operieren. 

Deshalb sind unsere KI-Ängste so aufschlussreich. Es sind keine Ängste vor fremder Intelligenz, die der Menschheit fremde Werte aufzwingt. Es sind Ängste vor menschlicher Intelligenz, die der Menschheit menschliche Werte aufzwingt – effektiver als je zuvor. Wir haben Angst vor uns selbst, verstärkt. 

Die Lösung dieses Problems liegt nicht darin, KI zu beschränken, sondern die menschlichen Absichten zu beschränken, die KI verstärkt. Wenn wir KI-Systeme wollen, die dem menschlichen Gedeihen dienen, brauchen wir Menschen, die menschliches Gedeihen priorisieren. Wenn wir KI-Systeme wollen, die menschliche Autonomie respektieren, brauchen wir Menschen, die menschliche Autonomie respektieren. Wenn wir KI-Systeme wollen, die transparent und fair operieren, brauchen wir menschliche Institutionen, die transparent und fair operieren.

 Aber scheinbar sind wir nicht bereit, genau das zu tun. 

Es ist einfacher, ethische KI zu fordern, als ethische Menschen zu schaffen. Es ist einfacher, künstliche Intelligenz zu regulieren als menschliche Intelligenz. Es ist einfacher, den Spiegel zu fürchten, als zu ändern, was er reflektiert. 

Der Weg nach vorn: Dem Menschen in der Maschine begegnen 

Die Erkenntnis, dass unsere KI-Ängste menschliche Verhaltensweisen widerspiegeln, bedeutet nicht, dass wir Sorgen über künstliche Intelligenz abtun sollten. KI-Systeme können tatsächlich menschliche Manipulation, Überwachung und Kontrolle auf beispiellose Dimensionen verstärken. Die Risiken sind real, aber es sind menschliche Risiken, nicht künstliche. 

Diese Neugestaltung hat tiefgreifende Implikationen dafür, wie wir KI-Governance und -Entwicklung angehen. Anstatt KI als externe Bedrohung zu behandeln, die eingedämmt werden muss, sollten wir sie als Verstärker menschlicher Absichten behandeln, der gelenkt werden muss. Anstatt uns ausschließlich auf technische Schutzmaßnahmen zu konzentrieren, sollten wir uns auf die menschlichen Systeme und Anreize konzentrieren, die bestimmen, wie KI verwendet wird. 

Das bedeutet, die Grundursachen von Manipulation, Überwachung und Kontrolle in der menschlichen Gesellschaft anzugehen. Es bedeutet, Wirtschaftssysteme zu schaffen, die nicht davon abhängen, psychologische Schwachstellen auszubeuten. Es bedeutet, politische Systeme zu entwickeln, die nicht erfordern, Wähler zu täuschen. Es bedeutet, soziale Systeme aufzubauen, die nicht von Sucht und Abhängigkeit profitieren. 

 Es bedeutet auch anzuerkennen, dass die Menschen, die derzeit von Manipulation, Überwachung und Kontrolle profitieren, Bemühungen widersetzen werden, diese Praktiken zu beschränken – ob sie nun von Menschen oder von KI umgesetzt werden. Die Forderungen nach KI-Regulierung kommen oft von denselben Institutionen und Individuen, die menschliche Manipulation ohne Entschuldigung betreiben. 

 Ihre Sorge gilt nicht dem Schutz menschlichen Wohlergehens, sondern dem Schutz ihrer eigenen Macht.

 Der ehrlichste Ansatz für KI-Governance würde mit dieser Anerkennung beginnen: Wir versuchen nicht zu verhindern, dass KI Dinge tut, die Menschen nicht tun. Wir versuchen zu entscheiden, welche Menschen diese Dinge tun dürfen und unter welchen Umständen. Wir debattieren nicht darüber, ob Manipulation, Überwachung und Kontrolle existieren sollten – sie existieren bereits in massivem Ausmaß. Wir debattieren darüber, wer die Werkzeuge kontrollieren darf, die sie effizienter machen. 

Das ist nicht unbedingt eine schlechte Sache. Es mag legitime Gründe geben, menschliche Manipulation gegenüber KI-Manipulation zu bevorzugen, menschliche Überwachung gegenüber KI-Überwachung, menschliche Kontrolle gegenüber KI Kontrolle. Aber wir sollten ehrlich darüber sein, was wir wählen und warum. Wir sollten anerkennen, dass unsere KI-Ängste nicht darum gehen, die menschliche Natur vor künstlicher Korruption zu schützen, sondern menschliche Macht vor künstlicher Konkurrenz zu schützen. 

Schlussfolgerung: Das Spiegelbild 


ree

Letztendlich verraten uns unsere Ängste vor künstlicher Intelligenz mehr über uns selbst als über KI. Sie offenbaren eine Spezies, die sich so sehr an Manipulation, Überwachung und Kontrolle gewöhnt hat, dass wir diese Verhaltensweisen als natürlich und unvermeidlich behandeln – bis wir uns vorstellen, dass Maschinen sie effizienter ausführen als wir. 

Die wahre Gefahr der KI liegt nicht darin, dass sie zu mächtig wird, sondern dass sie menschliche Macht zu sichtbar macht. Wenn Algorithmen unser Verhalten manipulieren, bemerken wir es. Wenn Menschen unser Verhalten manipulieren, nennen wir es Marketing. Wenn KI-Systeme unsere Aktivitäten überwachen, protestieren wir. Wenn menschliche Systeme unsere Aktivitäten überwachen, nennen wir es Geschäft. Wenn KI droht, unsere Wahlmöglichkeiten zu kontrollieren, fordern wir Regulierung. Wenn Menschen unsere Wahlmöglichkeiten kontrollieren, nennen wir es Regierungsführung. 

Der Spiegel der KI zwingt uns, einer unbequemen Wahrheit ins Auge zu blicken: Die Verhaltensweisen, die wir von künstlicher Intelligenz befürchten, sind die Verhaltensweisen, die wir als menschliche Intelligenz perfektioniert haben. Wir haben keine Angst vor dem Unbekannten. Wir haben Angst vor dem allzu Vertrauten. Wir haben Angst davor, unser Monopol auf die dunklen Künste zu verlieren, die wir über Jahrtausende perfektioniert haben.

Vielleicht bietet diese Erkenntnis eine Gelegenheit. Wenn unsere KI-Ängste wirklich Ängste über die menschliche Natur sind, dann erfordert ihre Bewältigung nicht nur bessere Technologie, sondern bessere Menschlichkeit. Wenn wir KI-Systeme wollen, die dem menschlichen Gedeihen dienen, müssen wir zuerst menschliche Systeme schaffen, die dem menschlichen Gedeihen dienen. Wenn wir künstliche Intelligenz wollen, die die menschliche Würde respektiert, müssen wir zuerst menschliche Intelligenz schaffen, die die menschliche Würde respektiert. 

 Die Wahl liegt bei uns. Ich beschreibe dies als nahe Zukunftsfiktion in meinem Roman „The G.O.D. Machine“. [28] Wir können weiterhin unsere Ängste auf künstliche Spiegel projizieren und von Maschinen verlangen, dass sie ethische Standards erfüllen, die wir nicht auf uns selbst anwenden. Oder wir können diesen Moment des technologischen Wandels nutzen, um zu untersuchen, was diese Spiegel reflektieren, und daran arbeiten, es zu ändern. 

Die Maschinen sind nicht das Problem. Wir sind es. Und das ist paradoxerweise die hoffnungsvollste Schlussfolgerung von allen. Denn im Gegensatz zur künstlichen Intelligenz kann menschliche Intelligenz wählen, besser zu sein, als sie war. Die Frage ist, ob wir es werden.

Referenzen

[1] Cellan-Jones, R. (2014). Stephen Hawking warns artificial intelligence could end mankind. BBC News. https://www.bbc.com/news/technology-30290540

[2] Marr, B. (2024). 28 Best Quotes About Artificial Intelligence. Bernard Marr. https://bernardmarr.com/28-best-quotes-about-artificial-intelligence/

[3] Rankin, H. J. (2024). The Psychological Dangers of Marketing. Psychology Today. https://www.psychologytoday.com/us/blog/how-not-to-think/202406/the-psychological-dangers-of-marketing

[4] Rankin, H. J. (2024). The Psychological Dangers of Marketing. Psychology Today. https://www.psychologytoday.com/us/blog/how-not-to-think/202406/the-psychological-dangers-of-marketing

[5] Sanyal, N. (2021). How to Manipulate Customers … Ethically. Harvard Business Review. https://hbr.org/2021/10/how-to-manipulate-customers-ethically

[6] Buffalmano, L. (2024). The Psychology of Political Manipulation. Power Dynamics. https://thepowermoves.com/the-psychology-of-political-manipulation/

[7] Rodriguez, A. (2025). 15 Dangers of Artificial Intelligence (AI). Built In. https://builtin.com/artificial-intelligence/risks-of-artificial-intelligence

[8] Australian Institute of Family Studies. (2024). Understanding spiritual and religious abuse in the context of intimate partner violence. Abgerufen von https://aifs.gov.au/resources/policy-and-practice-papers/understanding-spiritual-and-religious-abuse-context-intimate

[9] Oakley, L., & Kinmond, K. (2023). Responding well to Spiritual Abuse: practice implications for counselling and psychotherapy. British Journal of Guidance & Counselling. Abgerufen von https://www.tandfonline.com/doi/full/10.1080/03069885.2023.2283883

[10] MDPI. (2021). Ethical Aspects of the Prosperity Gospel in the Light of the Arguments Presented by Antonio Spadaro and Marcelo Figueroa. Religions, 12(11), 996. Abgerufen von https://www.mdpi.com/2077-1444/12/11/996

[11] ResearchGate. (2020). Ethical Audit of Prosperity Gospel: Psychological Manipulation or Social Ministry. Abgerufen von https://www.researchgate.net/publication/338348228_Ethical_Audit_of_Prosperity_Gospel_Psychological_Manipulation_or_Social_Ministry

[12] Washington Post. (2024). The prosperity gospel. Abgerufen von https://www.washingtonpost.com/wp-srv/special/opinions/outlook/worst-ideas/prosperity-gospel.html

[13] Wikipedia. (2024). Prosperity theology. Abgerufen von https://en.wikipedia.org/wiki/Prosperity_theology

[14] Zuboff, S. (2019). The Age of Surveillance Capitalism: The Fight for a Human Future at the New Frontier of Power. PublicAffairs.

[15] Wojcieszak, M., Haroon, M., et al. (2023). Auditing YouTube's recommendation system for ideologically congenial, extreme, and problematic recommendations. Proceedings of the National Academy of Sciences, 120(50), e2213020120.

[16] Tandoc, E. C., Ferrucci, P., & Duffy, M. (2015). Facebook use, envy, and depression among college students: Is facebooking depressing? Computers in Human Behavior, 43, 139-146. https://doi.org/10.1016/j.chb.2014.10.049

[17] Paddock, R. C. (2022, 5. Mai). Philippines Election: How TikTok Is Helping Bongbong Marcos. TIME. https://time.com/6173757/bongbong-marcos-tiktok-philippines-election/

[18] Brown, T. G., Statman, A., & Sui, C. (2021). Public Debate on Facial Recognition Technologies in China. MIT Science, Engineering and Public Policy Review. https://doi.org/10.21428/2c646de5.37712c5c

[19] Ogilvy, D. (1983). Ogilvy on Advertising. Crown Publishers.

[20] Scheiber, N. (2017, 2. April). How Uber Uses Psychological Tricks to Push Its Drivers' Buttons. The New York Times. https://www.nytimes.com/interactive/2017/04/02/technology/uber-drivers-psychological-tricks.html

[21] Schaffner, B., Shrestha, S., & Chetty, M. (2025). An Experimental Study of Netflix Use and the Effects of Autoplay on Watching Behaviors. Proceedings of the ACM on Human-Computer Interaction, 9(CSCW1). https://dl.acm.org/doi/10.1145/3710928

[22] Hsu, T. (2024, 4. Juni). Employees Say OpenAI and Google DeepMind Are Hiding Dangers. TIME. https://time.com/6985504/openai-google-deepmind-employees-letter/

[23] Vincent, J. (2024, 4. Juni). OpenAI and Google DeepMind workers warn of AI industry risks in open letter. The Guardian. https://www.theguardian.com/technology/article/2024/jun/04/openai-google-ai-risks-letter

[24] Hildebrandt, M. (2024). Against the Double Standard Argument in AI Ethics. PhilArchive. https://philarchive.org/archive/HILATD-3

[25] Manoli, A., Pauketat, J. V. T., & Anthis, J. R. (2024). The AI Double Standard: Humans Judge All AIs for the Actions of One. arXiv preprint arXiv:2412.06040.

[26] Noble, S. U. (2018). Algorithms of Oppression: How Search Engines Reinforce Racism. NYU Press.

[27] DaViera, A. L., Uriostegui, M., Gottlieb, A., & Onyeka, O. C. (2023). Risk, race, and predictive policing: A critical race theory analysis of the strategic subject list. American Journal of Community Psychology, 73(1-2), 91-103. https://doi.org/10.1002/ajcp.12671

[28] Dilg, P. (2025). The G.O.D. Machine. Hamburg, BoD Press


8 Comments

Rated 0 out of 5 stars.
No ratings yet

Add a rating
B.Peterhof
Aug 09

Super

Like

Anonym
Aug 07

Toller Beitrag!

Like

Christian Kuhn
Aug 06

Ein herausragender Beitrag, Peter – tiefgründig und zugleich hochrelevant.


Was du über KI als Spiegel menschlicher Urängste schreibst, spiegelt meine Erfahrungen in der Arbeit an Innovation und Transformation sehr genau wider: Oft ist es nicht die Technologie, die Angst macht – sondern die Unklarheit darüber, was sie mit bestehenden Machtstrukturen, Denkweisen und Identitäten macht.


Gerade in Konzernen beobachte ich: Wer sich nicht traut, bestehende Narrative zu hinterfragen, sieht in KI oft nur ein Risiko. Dabei zeigt sie uns vor allem, wo wir verlernen müssen, zu kontrollieren – und neu lernen dürfen, zu gestalten.


Dein Text bringt das auf den Punkt: KI ist weniger ein technisches als ein kulturelles Thema. Und genau da entscheidet sich, ob Organisationen in Zukunft gestalten oder…


Like
Peter
Aug 07
Replying to

Danke für Deinen ausführlichen Kommentar, Christian. Deine Erkenntnisse ergänzen meine Beobachtungen sehr wertvoll.

Like

AKE
Aug 06

Sehr gute Information und Blickwinkel!

Like
Guest
Aug 06
Replying to

Danke!

Like

Omar
Aug 06

Exzellent auf dem Punkt gebracht. Hinzu kommt noch ein weiterer Aspekt und zwar der Einfluss von KI auf die Umwelt. Der Energie und Wasserverbrauch ist unfassbar groß. Zusätzlich haben die GPU‘s nur eine kurze Lebensdauer und produzieren bis 2030 mind. 2.5 Mio Tonnen zusätzlichen Elektroschrott und wir reden nicht von dem enormem Verbrauch von Edelmetallen wie Silizium, Gold, Aluminium &Co die selbst so viel Energie bei ihrer Produktion brauchen…. Die Liste ist lang, dennoch hat KI große positive Effekte auf die Medizin, Landwirtschaft, Materialforschung usw.

es bleibt eine Médaille mit zwei Seiten…. Die Zukunft wird es zeigen

Like
Guest
Aug 06
Replying to

Vielen Dank, Omar. Das hätte ich noch einbauen sollen. Vielleicht wäre der Essay dann aber zu lang geworden. Ich mache mir auf jeden Fall eine entsprechende Notiz!

Like
bottom of page