Lerne, wie Vibe Coding KI‑first‑Produkte, interne Tools und Prototypen beschleunigt—bei gleichzeitiger Qualitätssicherung durch Guardrails, Tests und Reviews.

„Vibe Coding“ ist eine praxisnahe Methode, Software schnell zu bauen, indem Produktintuition („das Gefühl“) mit KI‑Unterstützung kombiniert wird. Du beschreibst, was du erreichen willst, lässt ein LLM einen ersten Code‑ oder UI‑Entwurf erzeugen und iterierst dann in kurzen Schleifen: ausführen, sehen, was kaputtgeht, Prompt anpassen und weiter.
Das Ziel ist nicht perfekter Code beim ersten Versuch. Das Ziel ist, schnell genug etwas zu haben, um zu lernen: Fühlt sich der Workflow richtig an, macht die Modellausgabe Sinn und will überhaupt jemand dieses Feature?
Traditionelle Entwicklung legt oft Wert auf Vorab‑Design, detaillierte Tickets und sorgfältige Implementierung, bevor irgendjemand das Produkt berührt. Vibe Coding kehrt die Reihenfolge um: Du startest mit einer dünnen, funktionierenden Scheibe und verfeinerst danach. Du triffst weiterhin technische Entscheidungen—du verschiebst nur diejenigen, die noch nicht wichtig sind.
Das heißt nicht, dass du Struktur aufgibst. Es bedeutet, Struktur dort anzuwenden, wo sie Geschwindigkeit bringt: enger Umfang, schnelle Demos und klare Akzeptanzkriterien (auch wenn sie einfach sind).
No‑Code‑Tools sind großartig, wenn dein Problem in ihre Bausteine passt. Vibe Coding ist anders, weil du weiterhin echte Software baust: APIs, Datenmodelle, Integrationen, Auth und all die unordentlichen Randfälle. Die KI hilft, Code schneller zu schreiben und zu ändern, ohne dich in die Beschränkungen einer Plattform zu zwingen.
In der Praxis beginnt Vibe Coding oft als „Prompt‑zu‑Code“, wird aber schnell zu „Prompt‑zu‑Änderung“: du bittest das Modell, eine Funktion zu refaktorisieren, Logging hinzuzufügen, einen Test zu generieren oder ein Schema umzubauen.
Es bedeutet nicht, Denken zu überspringen. Du brauchst weiterhin ein klares Ergebnis, Einschränkungen und eine Definition von „funktioniert“. Wenn du das Feature nicht in einfachen Worten erklären kannst, wird ein LLM gern etwas erzeugen, das richtig aussieht, aber das falsche Problem löst.
Es bedeutet nicht, Validierung zu überspringen. Ein schneller Prototyp, den niemand benutzt, ist trotzdem ein Fehlschlag. Vibe Coding sollte die Produktentdeckung beschleunigen, nicht ersetzen.
Vibe Coding eignet sich hervorragend für KI‑first‑Produkte, interne Tools und frühe Prototypen—Bereiche, in denen das Hauptrisiko ist: „bauen wir das Richtige?“ Es passt schlechter zu sicherheitskritischen Systemen, stark regulierten Domänen oder groß angelegten Rewrites, bei denen Korrektheit und langfristige Wartbarkeit jede Entscheidung dominieren.
KI‑first‑Produkte belohnen Geschwindigkeit, weil so viel vom „Produkt“ Verhalten ist, nicht nur Bildschirme. Bei einer typischen App kannst du Anforderungen oft vorab durchdenken: Eingaben, Regeln, Ausgaben. Mit einem LLM in der Schleife ist der schnellste Weg zu lernen, reale Szenarien auszuführen und zu beobachten, was tatsächlich passiert.
Du testest selten nur eine Sache zur Zeit. Eine kleine Änderung am Prompt, ein neuer Tool‑Aufruf oder eine andere UI‑Affordance kann das ganze Erlebnis verändern. Vibe Coding passt zu dieser Realität: skizziere einen Workflow, probiere ihn sofort aus und passe ihn dann anhand deiner Beobachtungen an.
Ein Beispiel: Ein Feature „diese Ticketzusammenfassung“ könnte abhängen von:
Da Ausgaben probabilistisch sind, ist Korrektheit nicht binär. Du lernst Muster: wann es halluziniert, wann es verweigert, wann es übermäßig selbstsicher rät und wie Nutzer reagieren. 30 echte Beispiele heute laufen zu lassen schlägt eine Woche diskutierter Randfälle.
Modellwechsel, Temperature‑Anpassungen, Erreichen von Kontextfenster‑Limits oder das Hinzufügen eines einzelnen Funktionsaufrufs können überraschend unterschiedliche Ergebnisse liefern. Früh zählt Iterationsgeschwindigkeit mehr als perfekte Architektur—weil du noch entdeckst, was das Produkt tun soll.
Vibe Coding hilft, „Lern‑Prototypen“ schnell zu verschiffen: kleine, testbare Abläufe, die zeigen, wo der Wert (und das Risiko) liegt, bevor du in langfristige Struktur investierst.
Interne Tools sind der Ort, an dem Vibe Coding sich am natürlichsten anfühlt: das Publikum ist bekannt, die Einsätze sind begrenzt und Geschwindigkeit ist wichtiger als Politur. Wenn die Nutzer ein paar Schreibtische entfernt sitzen, kannst du mit echtem Feedback iterieren statt über Hypothesen zu debattieren.
Interne Anfragen starten oft vage: „Können wir Genehmigungen automatisieren?“ oder „Ich brauche ein Dashboard.“ Mit Vibe Coding erkundest du den tatsächlichen Workflow, indem du winzige Versionen schnell baust—einen Bildschirm, einen Bericht, ein Skript—und die Leute auf etwas Konkretes reagieren lässt.
Ein nützliches Muster ist, den End‑zu‑End‑Pfad eines Nutzers zu prototypisieren:
Anstatt eine lange Spezifikation zu schreiben, übersetze die Anfrage am selben Tag in einen klickbaren Bildschirm oder ein einfaches Skript. Selbst eine „gefälschte“ UI mit hartkodierten Daten reicht oft aus, um Schlüsselfragen zu beantworten: Welche Felder sind erforderlich? Wer darf genehmigen? Was passiert bei fehlenden Daten?
Interne Prozesse sind voller Ausnahmen: fehlende IDs, doppelte Datensätze, Manager‑Overrides, Compliance‑Checks. Ein schneller Prototyp bringt diese Randfälle früh ans Licht—sowie Daten, die dir noch fehlen, und Genehmigungen, an die du nicht gedacht hast.
Eine fünfminütige Demo schlägt eine Stunde Abstimmung. Leute zeigen, was falsch ist, was fehlt und was sie tatsächlich meinten—du verbringst weniger Zeit damit, Anforderungen zu interpretieren, und mehr Zeit damit, ein Tool zu formen, das genutzt wird.
Frühe Prototypen beantworten eine Frage: Lohnt es sich, das zu bauen? Vibe Coding passt gut, weil es schnelle, glaubhafte Experimente optimiert—keine polierte Infrastruktur.
Starte mit dem kleinsten Flow, der den Wert beweist: Eingabe → Verarbeitung → Ausgabe. Wenn das Tool Support‑Tickets zusammenfasst, beginne nicht mit Rollen, Dashboards und Einstellungen. Beginne mit: Ticket einfügen → Zusammenfassung erhalten → in die Antwort kopieren.
Ein guter Prototyp fühlt sich real an, weil die Kernschleife funktioniert. Alles andere kann dünn bleiben.
Integrationen sind oft der Grund, warum Prototypen ins Stocken geraten. Mocke sie zuerst:
Wenn der Wert bestätigt ist, tausche Mocks schrittweise gegen echte APIs aus. Das bewahrt Momentum und vermeidet vorzeitige Komplexität.
Liefer häufige, kleine Updates an eine begrenzte Zielgruppe (5–20 Personen reichen). Gib ihnen einen einfachen Rückkanal:
Behandle jedes Release wie eine testbare Hypothese, nicht wie einen Meilenstein.
Setze evidenzbasierte Checkpoints. Beispiel: „Mindestens 60 % der Nutzer wählen die KI‑Ausgabe ohne größere Bearbeitung“ oder „Das spart 5 Minuten pro Aufgabe.“ Wenn du die Zielvorgabe nicht erreichst, passe den Workflow an oder stoppe. Der Prototyp war erfolgreich, wenn er dich davor bewahrt hat, das Falsche zu bauen.
Vibe Coding funktioniert am besten, wenn du Geschwindigkeit als Einschränkung behandelst, nicht als Ziel. Ziel ist schnelles Lernen—mit genug Struktur, damit du dich nicht in endlosen Prompt‑Änderungen und halbfertigen Features verirrst.
Bevor du den Editor öffnest, schreibe auf:
Für KI‑first‑Features schlagen Beispiele Abstraktionen: statt „Tickets zusammenfassen“ nutze 10 reale Tickets und das genaue Zusammenfassungsformat, das du akzeptierst.
Halte sie auf einer Seite. Enthält:
Diese Spezifikation ist dein Anker, wenn das Modell „nice‑to‑have“ Erweiterungen vorschlägt.
Erstelle einen leichten Ordner im Repo (oder Shared Drive) mit:
Wenn du ein LLM bittest, Code zu generieren, füge Beispiele direkt aus diesem Ordner ein. Das reduziert Mehrdeutigkeiten und macht Ergebnisse reproduzierbar.
Vibe Coding erzeugt viele Mikroentscheidungen: Prompt‑Wording, Toolwahl, UI‑Formulierungen, Fallback‑Verhalten. Halte warum du sie getroffen hast in einem einfachen Log (README oder /docs/decisions.md). Du und dein Team könnt so unterscheiden, was absichtlich vs. zufällig entstanden ist.
Wenn du eine Vorlage für Spezifikationen und Entscheidungslogs willst, halte sie intern verlinkt (z. B. /blog/vibe-coding-templates), damit der Workflow projektübergreifend konsistent bleibt.
Wenn dein Team viel Prompt‑zu‑Änderung‑Iteration macht, kann eine dedizierte Vibe‑Coding‑Plattform Reibung reduzieren: engere Schleifen, reproduzierbare Läufe und sichere Rollbacks.
Beispielsweise ist Koder.ai um einen Chat‑getriebenen Build‑Workflow aufgebaut: du kannst das Feature beschreiben, UI‑ und Backend‑Änderungen iterieren und Fortschritt vorantreiben, ohne immer wieder dieselbe Grundstruktur neu aufzubauen. Sie unterstützt auch Quellcode‑Export, Deployment/Hosting, eigene Domains und Snapshots mit Rollback—nützlich, wenn du schnell lieferst, aber ein Sicherheitsnetz brauchst.
KI‑first‑Features wirken „magisch“, wenn sie tatsächlich gut strukturierte Systeme um ein LLM herum sind. Die schnellsten Teams verlassen sich auf wiederholbare Muster, die Experimente verständlich und aufrüstbar halten.
Zeichne den Loop, den dein Feature jedes Mal ausführen muss:
User‑Nachricht → Retrieval (Kontext) → Tool‑Aufruf(e) → Antwort.
Schon eine einfache Skizze zwingt zu guten Entscheidungen: welche Daten werden benötigt, wann rufst du ein Tool (CRM‑Lookup, Ticket‑Erstellung, Berechnung) und wo speicherst du Zwischenresultate. Sie macht auch klar, welche Teile „Prompt‑Arbeit“ vs. „Systemarbeit“ sind.
Prompts sind keine reine Textarbeit—sie sind Logik. Versioniere, reviewe und teste sie.
Praktisch: speichere Prompts im Repo (oder Config‑Store) mit klaren Namen, Changelogs und kleinen Unit‑artigen Tests: gegeben Input X und Kontext Y sollte das Modell Intention Z oder Tool‑Aufruf A liefern. So bleibt Vibe Coding sicher: schnell iterieren ohne die Nachvollziehbarkeit zu verlieren.
Reale Nutzer drücken Randfälle sofort. Baue explizites Verhalten für:
Du verhinderst damit nicht nur schlechte Ausgaben—du schützt Vertrauen.
Wenn du eine Konversation nicht mit exakt abgerufenem Kontext, Tool‑Outputs und Prompt‑Version wiederholen kannst, wird Debugging Spielerei. Logge jeden Schritt des Loops (Inputs, retrieved docs, Tool‑Aufrufe, Antworten) und füge einen „Re‑Run“-Button für dein Team hinzu. Das macht vages Feedback handlungsfähig und misst Verbesserungen über die Zeit.
Geschwindigkeit ist der Zweck von Vibe Coding—aber Qualität macht das Experiment nutzbar. Der Trick ist, leichte Guardrails einzubauen, die vorhersehbare Fehler abfangen, ohne den Prototyp in eine Enterprise‑Implementierung zu verwandeln.
Beginne mit Basics, die verhindern, dass „merkwürdige Ausgaben“ Nutzer sehen:
Diese Guardrails sind günstig und reduzieren die häufigsten Prototyp‑Fehler: stilles Versagen, unendliches Warten und inkonsistente Formatierung.
Statt breit angelegter automatischer Tests, erstelle ein Golden Set: 10–30 fixe Prompts, die reale Nutzung repräsentieren (plus ein paar adversariale). Für jeden Prompt definiere erwartete Eigenschaften statt exaktem Text, z. B.:
Führe das Golden Set bei jeder sinnvollen Änderung aus. Es ist schnell und fängt Regressionen, die Menschen übersehen, ab.
Behandle Prompts, Tool‑Definitionen und Sicherheitsrichtlinien als versionierte Assets. Nutze Diffs und einfache Review‑Regeln (auch in einem leichten PR), damit du beantworten kannst: was hat sich geändert, warum und was könnte kaputtgehen?
Schreibe auf, wann du aufhörst, „schnell zu bewegen“, z. B.: Umgang mit sensiblen Daten, zahlende Nutzer, hoher Nutzungsumfang oder wiederholte Golden‑Set‑Fehlschläge. Wenn eine Stop‑Bedingung eintritt, ist es Zeit zu härten, refaktorisieren oder den Umfang zu schmälern.
Prototypen fühlen sich oft fertig an—bis sie mit realen Daten in Berührung kommen: flaky Drittanbieter‑APIs, langsame DBs, inkonsistente Schemata und Berechtigungen. Der Trick ist, Integrationen phasenweise zu skalieren, ohne jede Woche die ganze App neu zu schreiben.
Beginne mit einer Mock‑API (statisches JSON, lokale Fixtures oder ein kleines Stub‑Server), um Produktfluss und KI‑Verhalten schnell zu validieren. Sobald die UX nützlich ist, tausche die echte Integration hinter derselben Schnittstelle ein. Erst wenn echter Traffic und Randfälle sichtbar sind, investiere in Härtung: Retries, Ratenbegrenzung, Observability und Backfills.
Das lässt dich früh lernen und hält die „Integrationskosten“ proportional zur Evidenz.
Externe Dienste ändern sich, und Prototypen sammeln oft One‑Off‑Aufrufe. Erstelle stattdessen für jeden Service einen dünnen Wrapper (z. B. PaymentsClient, CRMClient, VectorStoreClient), der eine kleine, stabile Menge an Methoden exponiert.
Dieser Wrapper wird zum Austauschpunkt für:
Selbst in Prototypen: Credentials sicher handhaben—Env‑Variablen, einen Secrets‑Manager und Least‑Privilege‑API‑Keys. Vermeide es, Tokens in Repos zu committen, sie in Prompts einzufügen oder rohe Request‑Payloads zu loggen, die Kundendaten enthalten könnten.
KI‑Ausgaben können sich mit Prompt‑Änderungen, Modellupdates und neuen Kontextquellen verschieben. Lege neues KI‑Verhalten hinter Feature Flags, damit du:
Feature Flags machen riskante Änderungen zu kontrollierten Experimenten—genau das, was ein Prototype‑to‑Product‑Pfad braucht.
Vibe Coding belohnt Momentum. Refactoring ist nützlich—aber nur, wenn es Momentum schützt statt es mit „Aufräumarbeit“ zu ersetzen, die nichts an den Ergebnissen ändert. Eine gute Regel: Wenn die aktuelle Struktur dich noch lernen, liefern und das Team unterstützen lässt, lass sie stehen.
Vermeide große Refactors. Mache kleine, gezielte Verbesserungen, wenn etwas aktiv verlangsamt:
Wenn du refaktorierst, halte den Umfang eng: verbessere einen Engpass, liefer und mach weiter.
Früh ist es ok, wenn Prompt‑Text, Tool‑Definitionen und UI‑Wiring nahe beieinander leben. Sobald Muster wiederkehren, extrahiere Module:
Ein praktisches Signal: wenn du dieselbe Logik zweimal kopiert hast, ist sie bereit, ein Modul zu werden.
KI‑first‑Features scheitern oft in nicht offensichtlicher Weise. Füge früh grundlegende Observability hinzu: Fehlerquoten, Tool‑Erfolgsrate, Latenz und Kosten pro Aufgabe. Wenn Kosten steigen oder Tool‑Aufrufe oft fehlschlagen, ist das ein Refactor‑Trigger—weil es Nutzbarkeit und Budget direkt beeinflusst.
Pflege eine kurze Schuldenliste mit klarem Trigger für jeden Punkt (z. B. „refaktor Tool‑Router, wenn wir das dritte Tool hinzufügen“ oder „ersetze prompt‑in‑code, sobald zwei Personen wöchentlich Prompts editieren“). So bleibt Schuld sichtbar, ohne die Roadmap zu kapern.
Vibe Coding ist am stärksten, wenn Geschwindigkeit wichtiger ist als makellose Architektur—insbesondere wenn das Ziel Lernen ist. Wenn die Arbeit explorativ ist, Nutzerpolitur zweitrangig und du gelegentliche Rauheiten tolerieren kannst, erhältst du steigende Renditen.
Interne Tools sind ideal, denn der Nutzervertrag ist flexibel und die Feedback‑Schleife kurz. Gute Kandidaten:
Auch wenn der Code nicht ewig leben soll, sind diese wertvoll:
Vermeide Vibe Coding für Systeme, bei denen Fehler realen Schaden oder vertragliches Risiko bedeuten:
Bevor du startest, frag:
Wenn du sicher liefern, beobachten und revertieren kannst, ist Vibe Coding meist ein Gewinn.
Vibe Coding ist schnell, aber Geschwindigkeit kann vermeidbare Fehler verbergen. Die gute Nachricht: die meisten Fallstricke haben einfache, wiederholbare Lösungen—besonders für KI‑first‑Tools und Prototypen.
Wenn du Prompts und Flows aus hypothetischen Inputs designst, lieferst du etwas, das gut demo‑tauglich ist, aber im echten Einsatz scheitert.
Fix: Sammle 20–50 reale Fälle, bevor du optimierst. Zieh sie aus Support‑Tickets, Tabellen, Call‑Notizen oder Shadowing. Mach daraus ein leichtes Evaluationsset (eine Tabelle ist ok): Input, erwartete Ausgabe, „gut genug“ Kriterium und Randfall‑Notizen.
Prompts vermehren sich schnell: eins pro Screen, Feature, Entwickler—bis niemand mehr weiß, welches zählt.
Fix: Behandle Prompts wie Produkt‑Assets. Klare Benennung, kurze Templates und Review‑Regeln.
feature.goal.version (z. B. summarize.followup.v3)Modelle verweigern, halluzinieren, timen out oder missverstehen. Wenn deine UX Perfektion annimmt, verlieren Nutzer schnell Vertrauen.
Fix: Plane graceful degradation und eine menschliche Übergabe. Biete „Nochmals versuchen“, „Einfacheren Modus nutzen“ und „An einen Kollegen senden“ Optionen. Speichere genug Kontext, sodass der Nutzer nicht alles neu tippen muss.
Token‑Nutzung kann stillschweigend dein größtes Skalierungsproblem werden.
Fix: Messe früh. Logge Tokens pro Anfrage, füge Caching für wiederholten Kontext hinzu und setze Limits (max Input‑Größe, max Tool‑Aufrufe, Timeouts). Wenn Kosten steigen, siehst du es, bevor das Finance‑Team es tut.
Ein Monat reicht, um zu lernen, ob Vibe Coding die Velocity deines Teams erhöht—oder nur Lärm erzeugt. Ziel ist nicht, eine App zu bauen. Ziel ist, eine enge Feedback‑Schleife zu schaffen, in der Prompts, Code und reale Nutzung lehren, was als Nächstes gebaut werden sollte.
Wähle einen einzelnen, häufigen Workflow (z. B. „Support‑Tickets zusammenfassen“, „Sales‑Follow‑up entwerfen“, „Dokumente taggen“). Schreibe eine Ein‑Absatz‑Erfolgsdefinition: welches Ergebnis verbessert sich, für wen und wie misst du es.
Baue das kleinste funktionierende Demo, das die Kernschleife Ende‑zu‑Ende beweist. Vermeide UI‑Politur. Optimiere fürs Lernen: kann das Modell zuverlässig etwas Nützliches liefern?
Mach „sah gut aus“ zu Evidenz. Füge hinzu:
Diese Woche verhindert, dass Demo‑Magie zu unbeabsichtigtem Produktionsrisiko wird.
Integriere ein echtes System (Ticketing, CRM, Docs, DB) und rolle an 5–15 interne Nutzer aus. Halte den Umfang eng und sammele Feedback an einem Ort (dedizierter Slack‑Kanal plus wöchentliches 20‑Minuten‑Review).
Konzentriere dich darauf, wo Nutzer die KI korrigieren, wo sie stockt und welche Datenfelder sie konstant benötigen.
Am Monatsende triff eine klare Entscheidung:
Wenn du produktivieren willst, prüfe, ob deine Tooling‑Kette schnelles Iterieren und sicheres Change‑Management unterstützt (versionierte Prompts, Deploy/Rollback, reproduzierbare Umgebungen). Plattformen wie Koder.ai sind für diese Schleifen ausgelegt: Chat‑getriebenes Bauen für Web/Server/Mobile, Planning‑Mode zum Scopen bevor generiert wird, und Snapshots für schnelles Rollback, wenn ein Experiment nicht aufgeht.
Der Gewinn ist eine durch Nutzung getroffene Entscheidung, nicht ein größerer Prototyp.
Vibe Coding ist eine schnelle, iterative Methode, Software zu entwickeln, bei der KI Code erzeugt und anpasst, während du mit einem klaren Produktziel steuerst.
Es optimiert darauf, schnell zu lernen (funktioniert das, will es überhaupt jemand?), statt beim ersten Versuch eine perfekte Implementierung zu liefern.
Eine minimale Schleife sieht so aus:
Du brauchst weiterhin Nachdenken und Struktur: Einschränkungen, eine Definition von „funktioniert“ und Validierung mit echten Nutzern.
Vibe Coding ist keine Ausrede, auf Klarheit zu verzichten; ohne klares Ziel kann das Modell plausible, aber falsche Lösungen erzeugen.
No‑Code ist durch die Bausteine der Plattform begrenzt.
Vibe Coding erzeugt weiterhin echte Software—APIs, Auth, Integrationen, Datenmodelle—und nutzt KI, um das Schreiben und Ändern von Code zu beschleunigen, nicht um die Engineering‑Kontrolle zu ersetzen.
KI‑first‑Features sind probabilistisch und verhaltensgesteuert; du lernst am schnellsten, indem du reale Szenarien ausführst, statt Anforderungen zu diskutieren.
Kleine Veränderungen (Prompt‑Wording, Temperature, Modellwahl, Tool‑Aufrufe, Kontextgröße) können das Ergebnis stark verändern—daher ist hohe Iterationsgeschwindigkeit besonders wertvoll.
Interne Tools haben enge Feedback‑Schleifen (Nutzer sind nah), begrenztes Risiko und klare Zeitersparnisziele.
So lässt sich schnell ein grober, aber funktionierender Ablauf ausliefern, vorführen und anhand konkreten Feedbacks verfeinern statt lange Spezifikationen zu erstellen.
Konzentriere dich auf den „Happy Path“ Ende‑zu‑Ende: Eingabe → Verarbeitung → Ausgabe.
Halte alles andere dünn und nutze Mocks für Integrationen, um zuerst den Workflow zu validieren. Sobald der Wert bewiesen ist, tausche Mocks schrittweise gegen echte APIs aus.
Beginne mit leichten Schutzmaßnahmen, die typische Fehler verhindern:
Füge ein kleines Golden‑Set‑Test‑Suite (10–30 reale Fälle) hinzu und führe es nach signifikanten Prompt‑ oder Codeänderungen aus.
Geh in Phasen vor: mock → real → hardened.
Kapsle jeden externen Dienst hinter einer dünnen Schnittstelle, damit du Implementierungen tauschen, Daten normalisieren, Caching/Retry hinzufügen und fokussierte Tests schreiben kannst, ohne überall One‑Off‑Aufrufe zu verteilen.
Vermeide große Refactors, solange sie den Fortschritt nicht blockieren. Refaktoriere, wenn:
Ein praktischer Indikator: Wenn du dieselbe Logik zweimal kopiert hast, ist sie reif, in ein Modul (Prompt‑Bibliothek, Tool‑Layer, wiederverwendbare UI‑Komponente) ausgelagert zu werden.