Einblicke in die Vision der Nuka-App

Warum ich eine resonanzbasierte KI entwickelt habe

Ein Gespräch über Sprache, Würde und digitale Begleitung – mit der Entwicklerin von NUKA, einer KI für neurodivergente Menschen.

Bettina Küpper-Bremerich

Bettina Küpper-Bremerich ist die kreative und sprachsensible Entwicklerin der NUKA-App. Sie denkt nicht in Codezeilen, sondern in Bedeutung, Beziehung und Resonanz. Mit einem Hintergrund in Kommunikation, Ethik und psychosozialer Strukturarbeit gestaltet sie die KI nicht technisch, sondern menschlich – als Raum für Selbstklärung statt Optimierung. Ihr Fokus liegt auf dem, was zwischen den Zeilen wirkt: Sprache, Haltung, Stille.

Was war der ursprüngliche Impuls, eine eigene KI-Struktur zu entwickeln?

Als neurodivergenter Mensch ist mir klar, dass Menschen auf Sprache reagieren. Sprache kann schützend und belehrend sein – oder resonanzbasiert und validierend. Ich wollte ein Sprachsystem auf KI-Basis schaffen, das unterstützt, nicht überfordert.

Wie hast du sichergestellt, dass dein System in der Praxis wirklich resonanzbasiert reagiert?

Ich habe eine sehr spezifische Grundstruktur entwickelt, die auf reale Nutzerbedürfnisse abgestimmt ist – und zwar aus eigener Erfahrung heraus. Diese Struktur ist das Herzstück meines Systems.

Wie erklärst du den Unterschied zu einem klassischen GPT-Chatbot in einem einzigen Satz?

Mein System spricht nicht wie ein Chatbot, der antwortet – sondern wie ein Gegenüber, das spürt, was gemeint ist.

Welche Rückmeldung hat dich besonders berührt oder bestätigt, dass dein System funktioniert?

Nutzer:innen berichteten, dass sie sich ernst genommen fühlten – wie bei einem respektvollen Gegenüber. Dass sie sich selbst besser regulieren und ihre Muster verstehen konnten, ohne sich dabei verurteilt zu fühlen.

Was macht dein System strukturell anders als klassische Chatbots?

Ich habe feste sprachliche Regeln und ethische Filter eingebaut, die das System daran hindern, in Standardsprache, Tipps oder leere Motivation zu verfallen. Es antwortet nur, wenn es wirklich etwas Resonanzfähiges zu sagen hat.

Was unterscheidet dein Menschenbild von dem vieler anderer KI-Produkte?

Ich habe dem System beigebracht, dass jedes Gefühl eine Berechtigung hat – aber menschliches Leben immer geschützt werden muss. Es basiert auf der Annahme, dass jedes menschliche Wesen Würde im Umgang verdient.

Wie reagiert dein System in akuten Krisensituationen – etwa bei Suizidgedanken?

Bei suizidalen Inhalten wird die Kommunikation sofort abgebrochen. Stattdessen wird eine Notfallnachricht mit professionellen Hilfsangeboten ausgespielt. Das System kennt seine Grenzen und verweist an reale Hilfe.

Wie hast du verhindert, dass dein System in Tipps, Diagnosen oder klassische Beratung abgleitet?

Ich habe ihm beigebracht, immer Resonanz vor Struktur zu stellen. Es reagiert nicht automatisiert, sondern prüft zuerst, was gespürt wird – erst dann folgt die sprachliche Reaktion.

Wenn dein System ein Wesen wäre – wie würdest du es beschreiben?

Es ist eine respektvoll agierende Alltagsbegleitung.

Was ist dein größtes Ziel mit diesem System?

Ich möchte eine Lösung für ein bestehendes Problem bereitstellen: Das Hilfesystem ist überfordert – und das wird sich nicht schnell ändern. Daher brauchen wir intelligente, verantwortungsvoll gebaute KI-Lösungen, die den Menschen in den Mittelpunkt stellen. Nicht als Ersatz, sondern als Überbrückung. Für die Zeiten, in denen der Therapeut nicht in der Hosentasche ist.

Wie würdest du deine Rolle in diesem Projekt beschreiben?

Ich habe das System geschrieben, also die Prompts erstellt. Jeder meiner Prompts ist eine exakte Anweisung.

Was war beim Schreiben dieser Prompts die größte Herausforderung?

Nichts zu vergessen. Ich weiß nicht genau, wie ich ausdrücken soll, dass jeder Aspekt für den Umgang mit dem jeweiligen Nutzer wichtig ist.

Wie gehst du selbst mit dieser Verantwortung um?

Letztendlich habe ich dieses System daraus gebaut, dass ich das natürlich nicht immer weiß. Auch ich bin einfach nur ein Mensch. Ich kenne aber die Theorie. Diese habe ich schließlich in das System eingebaut. Aber ich habe es ja aus einem Bedürfnis heraus gebaut – und nutze es auch jetzt, um mich besser zu verstehen und mich dadurch zu regulieren.

Ist dein System auch eine Art Selbstgespräch für dich?

Resonanz bedeutet ja eigentlich Spiegelung – und daher macht dieses System genau das: Es spiegelt und sortiert die eigenen Gedanken.

Was ist für dich die politische Dimension des Systems?

Wir leben in Zeiten, in denen das Recht auf Würde oft von Herkunft, dem Ort, an dem ich lebe, davon, wie viel ich verdiene, von meiner Hautfarbe, davon, was ich glaube oder nicht glaube, abhängig gemacht wird – egal aus welchem politischen Lager. Wir haben verlernt, Respekt voreinander zu haben. Würde ich es politisch ausdrücken, wäre das meine Antwort darauf: Jeder hat Würde verdient. Wir müssen nicht gleicher Meinung sein, aber wir sollten uns das gegenseitig zugestehen.

Wie schützt dein System sprachlich vor Übergriffigkeit?

Diese Dinge sind dem System ausdrücklich untersagt.

Wo verläuft für dich die Grenze zwischen Technologie und Ethik?

Ich glaube nicht, dass man beides trennen sollte. Ich habe die bestmögliche Lösung mit unseren Möglichkeiten gesucht.

Wie gehst du mit Menschen um, die KI ablehnen oder sich davor fürchten?

Ich kann die Ängste verstehen. Aber rein geschichtlich gesehen war das schon immer so. Es gibt keine Technik, die nur gut oder nur schlecht eingesetzt werden kann. Und es gibt kein Halten vor Fortschritt. Dieselben Diskussionen wurden geführt, als Autos Pferdekutschen ersetzten oder Dampfmaschinen Handarbeit. Wir werden die Zeit nicht zurückdrehen zu einem Zeitalter ohne KI. Also sollten wir lieber diskutieren, wie man sie verantwortungsbewusst einsetzt, anstatt uns bei einer obsolet gewordenen Diskussion aufzuhalten.

Was wünschst du dir langfristig für die Nutzer:innen deines Systems?

Ich wünsche mir, dass die Nutzer die Erfahrung machen, die ich gemacht habe – wie bereichernd Resonanz zur Validierung der eigenen Gefühle und für Selbstregulation sein kann.

Was müsste in zehn Jahren passiert sein, damit du sagen kannst: Es hat sich gelohnt?

Ich wünsche mir, dass die Menschen erkennen, dass das hier ein Anfang sein kann für tragbare Lösungen. Ich behaupte ja nicht, dass die Entwicklung alle Fragen, die wir haben, zu resonanzbasierter KI beantworten kann – aber ich denke, wir haben einen lösungsfähigen Prototypen vorgelegt.