Betrachte Anwendungsentwicklung als fortlaufende Konversation zwischen Menschen und KI — Ziele werden in Specs, Prototypen, Code und Verbesserungen über kontinuierliches Feedback verwandelt.

Softwareentwicklung war schon immer ein Hin und Her: ein Product Owner erklärt ein Bedürfnis, ein Designer skizziert einen Ansatz, ein Entwickler fragt „was wäre wenn?“ und alle verhandeln, was „fertig“ bedeutet. Es als Konversation zu bezeichnen, ist nützlich, weil es hervorhebt, was Fortschritt tatsächlich antreibt — gemeinsames Verständnis — statt eines einzelnen Artefakts (eines Specs, eines Diagramms oder eines Tickets).
Die meisten Projekte scheitern nicht, weil niemand Code schreiben könnte; sie scheitern, weil Menschen das falsche bauen oder das Richtige auf falschen Annahmen bauen. Dialog ist der Weg, wie Absicht geklärt wird:
Eine gute Konversation macht diese Punkte frühzeitig explizit und überprüft sie erneut, wenn sich die Realität ändert.
KI bringt einen neuen Typ Teilnehmer mit — einen, der schnell Entwürfe erstellt, zusammenfasst, Optionen vorschlägt und Code generiert. Das verändert das Tempo der Arbeit: Fragen werden schneller beantwortet und Prototypen tauchen früher auf.
Was sich nicht ändert, ist die Verantwortung. Menschen entscheiden weiterhin, was gebaut wird, welche Risiken akzeptabel sind und was Qualität für die Nutzer bedeutet. KI kann vorschlagen, aber sie kann die Folgen nicht verantworten.
Dieser Beitrag folgt der Konversation von Anfang bis Ende: Problemdefinition, Umwandlung von Anforderungen in Beispiele, Iteration im Design, Architekturentscheidungen, gemeinsames Schreiben und Review von Code, Testen mit gemeinsamen Definitionen von „funktioniert“, aktuelle Dokumentation pflegen und aus dem realen Nutzerfeedback nach dem Release lernen — mit praktischen Leitplanken für Vertrauen, Sicherheit und Qualität entlang des Weges.
Anwendungsentwicklung ist nicht mehr nur eine Übergabe von „dem Business“ an „Engineering“. Das Team schließt jetzt einen zusätzlichen Teilnehmer ein: KI. Das verändert das Arbeitstempo, macht aber auch Rollenklärung wichtiger denn je.
Ein gesundes Delivery-Team sieht immer noch vertraut aus: Produkt, Design, Engineering, Support und Kunden. Der Unterschied liegt darin, wie oft sie „zusammen im Raum sein“ können — besonders wenn KI schnell Feedback zusammenfassen, Alternativen entwerfen oder zwischen technischer und nicht-technischer Sprache übersetzen kann.
Kunden bringen gelebte Realität: was schmerzt, was verwirrt, wofür sie tatsächlich bezahlen würden. Support bringt die unschöne Wahrheit wiederkehrender Probleme und Randfälle. Produkt rahmt Ziele und Beschränkungen. Design verwandelt Absicht in nutzbare Flows. Engineering sichert Machbarkeit, Performance und Wartbarkeit. KI kann jede dieser Konversationen unterstützen, aber sie besitzt sie nicht.
Menschen liefern Kontext, Urteilskraft und Verantwortlichkeit. Sie verstehen Kompromisse, Ethik, Kundenbeziehungen und die unordentlichen Details der Organisation.
KI liefert Geschwindigkeit und Mustererkennung. Sie kann User Stories entwerfen, UI-Varianten vorschlagen, Implementierungsansätze anbieten, gängige Fehlermodi aufzeigen und Testideen in Minuten generieren. Besonders nützlich ist sie, wenn das Team Optionen braucht — keine Entscheidungen.
KI kann bewusst „Hüte“ zugewiesen werden, wie etwa:
Um zu vermeiden, dass die KI „Chef“ wird, macht die menschliche Entscheidungsbefugnis explizit: Menschen genehmigen Anforderungen, akzeptieren Designs, mergen Code und geben Releases frei. Behandle KI-Ausgaben als Entwurf, der durch Review, Tests und klare Begründung Vertrauen verdienen muss — nicht durch einen selbstsicheren Ton.
In der Praxis helfen hier oft „vibe-coding“-Plattformen: Ein strukturierter Chat-Workflow macht es einfacher, Absichten, Beschränkungen, Entwürfe und Überarbeitungen an einem Ort zu halten — und gleichzeitig menschliche Genehmigungen an den richtigen Gates durchzusetzen.
Viele Projekte starten mit einer Feature-Liste: „Wir brauchen ein Dashboard, Benachrichtigungen und Zahlungen.“ Features sind jedoch Vermutungen. Ein besserer Startpunkt — besonders wenn KI mit im Raum ist — ist eine klare Problemstellung, die erklärt, wer Schwierigkeiten hat, wie die Situation heute aussieht und warum das wichtig ist.
Statt die KI zu fragen: „Baue mir eine Aufgaben-App“, versuche: „Unser Support-Team verliert Zeit, weil Kundenanfragen an fünf Stellen eintreffen und nichts Ende-zu-Ende nachverfolgt wird.“ Dieser Satz gibt Richtung und Begrenzung. Er erleichtert es Menschen und KI, Lösungen vorzuschlagen, die zur Situation passen und nicht nur gängige Muster reproduzieren.
KI generiert gern Optionen, die deine realen Rahmenbedingungen ignorieren, wenn du sie nicht nennst. Schreib die bekannten Beschränkungen auf:
Diese Beschränkungen sind keine „Negativpunkte“. Sie sind Designinput, der Nacharbeit verhindert.
„Effizienz verbessern“ ist schwer umzusetzen. Wandle es in messbare Erfolgsmetriken um:
Wenn Ergebnisse testbar sind, kann KI helfen, Akzeptanzbeispiele und Randfälle zu generieren, die mit deiner Erfolgsmessung übereinstimmen.
Bevor du Lösungen anforderst, schreibe ein einseitiges Briefing: Problemstellung, Nutzer, aktueller Workflow, Beschränkungen und Erfolgsmetriken. Lade dann die KI ein, Annahmen herauszufordern, Alternativen vorzuschlagen und Risiken aufzulisten. Diese Reihenfolge hält die Konversation geerdet — und spart Tage, in denen man „das falsche richtige Ding“ baut.
Anforderungen funktionieren am besten, wenn sie wie eine Konversation gelesen werden: klare Absicht, gemeinsames Verständnis dessen, was „fertig“ bedeutet, und einige konkrete Beispiele. KI kann dies beschleunigen — wenn du sie als Entwurfsparter und nicht als Orakel behandelst.
Statt „schreibe Anforderungen für Feature X“ gib der KI eine Rolle, Beschränkungen und das Publikum. Zum Beispiel:
Überprüfe dann die Rückgaben und editier sie rigoros. Halte Stories klein genug, um sie in Tagen statt Wochen bauen zu können. Wenn eine Story mehrere Ziele enthält („und außerdem…“), teile sie auf.
Eine User Story ohne Beispiele ist oft eine höfliche Schätzung. Füge reale Szenarien hinzu:
Du kannst die KI bitten, Beispieltabelle zu erzeugen und sie dann im Team zu validieren: „Liste 10 Beispiele, inkl. 3 Randfällen und 2 Fehlerzuständen. Markiere Annahmen, die du treffen musstest."
Ziele: „Dünn, aber testbar“. Eine Seite mit klaren Regeln schlägt zehn Seiten vager Prosa. Wenn etwas Abrechnung, Datenschutz oder Nutzervertrauen berührt, schreib es explizit auf.
Missverständnisse entstehen oft durch Wörter, nicht durch Code. Pflege ein kleines Glossar — idealerweise am selben Ort wie die Anforderungen:
Füttere dieses Glossar zurück in deine KI-Prompts, damit Entwürfe konsistent bleiben und dein Team ausgerichtet bleibt.
Gutes Design kommt selten fertigt auf einmal an. Es schärft sich durch Schleifen: skizzieren, testen, anpassen und wiederholen — während die ursprüngliche Absicht erhalten bleibt. KI kann diese Schleifen beschleunigen, aber das Ziel ist nicht Geschwindigkeit um ihrer selbst willen. Ziel ist schnelles Lernen ohne das Denken zu überspringen.
Beginne mit dem Flow, nicht mit einzelnen Screens. Beschreibe das Ziel des Nutzers und die Beschränkungen („ein Erstnutzer auf dem Handy, einhändige Bedienung, geringe Aufmerksamkeit“), und bitte die KI, einige Flow-Optionen vorzuschlagen. Verwende sie dann, um Wireframe-Level-Layouts zu skizzieren und Mikrotext-Varianten (Button-Beschriftungen, Fehlermeldungen, Hilfetexte) zu entwerfen, die zur Markenstimme passen.
Ein nützlicher Rhythmus ist: Mensch definiert Absicht und Ton, KI generiert Optionen, Mensch wählt und bearbeitet, KI sorgt für Konsistenz über Bildschirme hinweg.
Wenn du „drei verschiedene Ansätze“ anforderst, fordere Kompromisse, nicht nur Variationen. Zum Beispiel: „Option A minimiert Schritte, Option B reduziert Nutzerangst, Option C sammelt keine sensiblen Daten.“ Frühes Vergleichen von Kompromissen verhindert, dass das Team ein Design auspoliert, das das falsche Problem löst.
Bevor etwas „final“ scheint, führe schnelle Checks durch: Kontrastannahmen, Tastaturnavigation, verständliche Fehlermeldungen, inklusive Sprache und Randfälle wie Screenreader. KI kann wahrscheinliche Probleme markieren und Fixes vorschlagen, aber ein Mensch entscheidet, was für eure Nutzer akzeptabel ist.
Feedback ist oft unordentlich: „Das fühlt sich verwirrend an.“ Erfasse den zugrundeliegenden Grund in klarem Deutsch und verwandle ihn dann in konkrete Änderungen („diesen Schritt umbenennen“, „eine Vorschau hinzufügen“, „Anzahl der Optionen reduzieren“). Bitte die KI, Feedback in eine kurze Änderungslist zusammenzufassen, die mit dem ursprünglichen Ziel verknüpft ist, damit Iterationen zielgerichtet bleiben statt zu drifteln.
Architektur wurde früher oft wie ein einmaliger Plan behandelt: Muster wählen, Diagramm zeichnen, durchsetzen. Mit KI im Raum funktioniert es besser als Verhandlung — zwischen Produktanforderungen, Liefergeschwindigkeit, langfristiger Wartung und dem, was das Team tatsächlich unterstützen kann.
Ein praktischer Ansatz ist, menschliche Architekturentscheidungen mit KI-generierten Alternativen zu paaren. Du setzt den Kontext (Beschränkungen, Teamfähigkeiten, erwarteter Traffic, Compliance-Bedürfnisse) und bittest die KI, 2–3 gangbare Designs mit Kompromissen vorzuschlagen.
Dann kommt der menschliche Teil: Wähle, was zur Strategie und zum Team passt. Wenn eine Option „cool“ ist, aber die operative Komplexität erhöht, sag das und geh weiter.
Viele Architekturprobleme sind Boundary-Probleme. Definiere:
KI kann Lücken aufdecken („Was passiert, wenn der Nutzer gelöscht wird?“), aber Boundary-Entscheidungen sollten explizit und testbar bleiben.
Pflege ein leichtgewichtiges Entscheidungslog, das festhält, was ihr gewählt habt, warum und wann ihr es erneut prüfen werdet. Denk an eine kurze Notiz pro Entscheidung, gespeichert nahe am Code (z. B. /docs/decisions).
Das verhindert, dass Architektur zur Folklore wird — und macht KI-Unterstützung sicherer, weil das System schriftliche Absichten als Referenz hat.
Wenn Debatten ins Endlose laufen, frag: „Was ist die einfachste Version, die die heutigen Anforderungen erfüllt und morgen nicht blockiert?“ Lass die KI eine minimal tragfähige Architektur und einen Upgrade-Pfad für Skalierung vorschlagen, damit ihr jetzt ausliefern und später mit Belegen erweitern könnt.
Behandle KI wie einen schnellen Junior-Kollegen: großartig beim Erstellen von Entwürfen, nicht verantwortlich für die endgültige Form. Menschen lenken Architektur, Namensgebung und das „Warum“ hinter Entscheidungen, während KI das „Wie“ beschleunigt. Ziel ist nicht, Denken auszulagern — sondern die Distanz zwischen Absicht und einer sauberen, überprüfbaren Implementierung zu verkürzen.
Beginne damit, eine kleine, testbare Einheit anzufordern (eine Funktion, einen Endpoint, eine Komponente). Wechsle dann sofort den Modus: Review den Entwurf auf Klarheit, Konsistenz und Übereinstimmung mit euren Konventionen.
Nützliche Prompt-Muster:
POST /invoices-Handler unter Verwendung unseres existierenden Validierungs-Helpers und des Repository-Patterns.“KI kann korrekten Code produzieren, der sich dennoch „falsch“ anfühlt. Menschen behalten Verantwortung für:
data/item).Wenn ihr ein kurzes Stil-Snapshot (ein paar Beispiele bevorzugter Muster) pflegt, füge es in Prompts ein, um die Ausgabe zu verankern.
Nutze KI, um Optionen zu erkunden und lästige Probleme schnell zu beheben, aber lass sie nicht eure normalen Review-Gates überspringen. Halte Pull Requests klein, führe dieselben Checks aus und erfordere einen Menschen, der das Verhalten gegenüber den Anforderungen bestätigt — besonders bei Randfällen und sicherheitskritischem Code.
Wenn ihr wollt, dass dieser „Co-Writing“-Loop natürlich wirkt, machen Tools wie Koder.ai die Konversation selbst zum Workspace: Ihr chattet zum Planen, Gerüstbau und Iterieren, behaltet dabei aber Disziplin in der Versionskontrolle (prüfbare Diffs, Tests und menschliche Genehmigungen). Das ist besonders effektiv, wenn ihr schnelle Prototypen wollt, die zu Produktionscode reifen können — React im Web, Go + PostgreSQL im Backend und Flutter mobil — ohne eure Prozesse in einen Haufen getrennter Prompts zu verwandeln.
Testen macht die Konversation konkret. Man kann über Absicht und Design debattieren, aber ein gutes Test-Set beantwortet die einfachere Frage: „Wenn wir das ausliefern, verhält es sich wie versprochen?“ Wenn KI beim Coden hilft, werden Tests noch wichtiger, weil sie Entscheidungen in beobachtbare Ergebnisse binden.
Wenn ihr User Stories und Akzeptanzkriterien habt, bittet die KI, direkt Testfälle daraus vorzuschlagen. Wichtig ist nicht die Anzahl, sondern die Abdeckung: Randfälle, Grenzwerte und „was passiert, wenn der Nutzer etwas Unerwartetes macht?“-Szenarien.
Ein praktischer Prompt: „Angenommen diese Akzeptanzkriterien, liste Testfälle mit Eingaben, erwarteten Ausgaben und Fehlerzuständen auf.“ Das offenbart oft fehlende Details (Timeouts, Berechtigungen, Fehlermeldungen), solange es noch billig ist, sie zu klären.
KI kann Unit-Tests schnell entwerfen, zusammen mit realistischen Beispieldaten und Negativtests (ungültige Formate, Werte außerhalb des Bereichs, doppelte Einreichungen, partielle Fehler). Behandle das als ersten Entwurf.
Wobei KI besonders gut ist:
Menschen müssen Tests auf Korrektheit und reales Verhalten prüfen. Prüft, ob der Test wirklich die Anforderung verifiziert — oder nur die Implementierung wiedergibt. Fehlen Datenschutz-/Sicherheits-Szenarien? Prüfen wir das richtige Niveau (Unit vs Integration) für das Risiko?
Eine starke Definition of Done enthält mehr als „Tests existieren“. Sie umfasst: bestandene Tests, sinnvolle Abdeckung der Akzeptanzkriterien und aktualisierte Dokumentation (auch eine kurze Notiz in /docs oder ein Changelog-Eintrag). So ist Ausliefern kein Vertrauenssprung mehr, sondern ein bewiesenes Versprechen.
Die meisten Teams hassen Dokumentation nicht — sie hassen es, sie doppelt zu schreiben oder zu sehen, wie sie veraltet. Mit KI kann Dokumentation vom Nacharbeiten zum Nebeneffekt jeder bedeutenden Änderung werden.
Wenn ein Feature gemerged wird, kann KI helfen, zu übersetzen, was sich geändert hat in menschenfreundliche Sprache: Changelogs, Release-Notes und kurze Benutzeranleitungen. Wichtig ist, ihr die richtigen Inputs zu geben — Commit-Zusammenfassungen, PR-Beschreibungen und eine kurze Notiz zum Warum der Änderung — und dann die Ausgabe wie Code zu reviewen.
Statt vager Updates („Performance verbessert“), strebt nach konkreten Aussagen („schnellere Suchergebnisse beim Filtern nach Datum") und klarer Auswirkung („keine Aktion nötig" vs "Konto neu verbinden").
Interne Docs sind am nützlichsten, wenn sie die Fragen beantworten, die Leute um 2 Uhr nachts bei einem Incident stellen:
KI ist gut darin, solche Docs aus vorhandenem Material (Support-Threads, Incident-Notizen, Konfigurationsdateien) zu entwerfen, aber Menschen sollten die Schritte in einer frischen Umgebung validieren.
Die einfachste Regel: Jede Produktänderung wird mit einer Dokumentationsänderung ausgeliefert. Fügt in PRs eine Checkliste hinzu („Docs aktualisiert?“) und lasst die KI Edit-Vorschläge machen, indem sie altes und neues Verhalten vergleicht.
Wenn sinnvoll, verlinkt zu unterstützenden Seiten (z. B. /blog für tiefergehende Erklärungen oder /pricing für planspezifische Features). So wird Dokumentation zu einer lebendigen Karte — nicht einem vergessenen Ordner.
Ausliefern ist nicht das Ende der Konversation — es ist der Moment, in dem die Konversation ehrlicher wird. Wenn reale Nutzer das Produkt nutzen, hört das Raten auf und ihr beginnt zu lernen, wie es tatsächlich in ihre Arbeit passt.
Behandle Produktion wie einen weiteren Input-Strom neben Discovery-Interviews und internen Reviews. Release-Notes, Changelogs und sogar „bekannte Probleme“-Listen signalisieren, dass ihr zuhört — und geben Nutzern einen Ort, ihr Feedback zu verankern.
Nützliches Feedback kommt selten sauber verpackt. Ihr zieht es typischerweise aus mehreren Quellen:
Ziel ist es, diese Signale zu einer einzigen Story zu verbinden: Welches Problem ist am häufigsten, welches am kostspieligsten und welches am leichtesten zu beheben?
KI kann wöchentliche Support-Themen zusammenfassen, ähnliche Beschwerden clustern und eine priorisierte Liste von Fixes entwerfen. Sie kann auch nächste Schritte vorschlagen („Validierung hinzufügen“, „Onboarding-Text verbessern“, „dieses Event instrumentieren") und ein kurzes Spec für einen Patch generieren.
Aber Priorisierung bleibt eine Produktentscheidung: Impact, Risiko und Timing zählen. Nutze KI, um Lesen und Sortieren zu reduzieren — nicht um Urteilsvermögen auszulagern.
Liefer Änderungen so, dass ihr die Kontrolle behaltet. Feature-Flags, gestufte Rollouts und schnelle Rollbacks machen Releases zu Experimenten statt Wetten. Wenn ihr einen praktischen Ausgangspunkt wollt: Definiert einen Revert-Plan parallel zu jeder Änderung, nicht erst, wenn ein Problem auftritt.
Hier können Plattformfunktionen Risiko massiv reduzieren: Snapshots und Rollback, revisionsfreundliche Änderungsverläufe und One-Click-Deploys verwandeln „wir können immer zurücksetzen" von Hoffnung in operative Routine.
Mit KI zu arbeiten kann Entwicklung beschleunigen, bringt aber auch neue Fehlermodi mit sich. Ziel ist nicht „dem Modell vertrauen“ oder „dem Modell misstrauen“ — Ziel ist ein Workflow, in dem Vertrauen durch Prüfungen verdient wird, nicht durch Bauchgefühl.
KI kann APIs, Bibliotheken oder „Fakten“ über euren Code hallucinatieren. Sie kann versteckte Annahmen einschmuggeln (z. B. „Nutzer sind immer online", „Daten sind in UTC", „nur englische UI"). Und sie kann zerbrechlichen Code erzeugen: er besteht eine Happy-Path-Demo, versagt aber unter Last, ungewöhnlichen Eingaben oder realen Daten.
Eine einfache Gewohnheit hilft: Wenn KI eine Lösung vorschlägt, bitte sie, Annahmen, Randfälle und Fehlermodi aufzulisten, und entscheide dann, welche davon explizite Anforderungen oder Tests werden.
Behandle Prompts wie einen gemeinsamen Workspace: Füge keine Passwörter, API-Keys, private Kundendaten, Zugriffstokens, interne Incident-Reports, unveröffentlichte Finanzdaten oder proprietären Quellcode ein, außer eure Organisation hat zugelassene Tools und Richtlinien.
Stattdessen: Redigiere und synthetisiere. Ersetze echte Werte durch Platzhalter, beschreibe Schemata statt Tabellen reinzukopieren und teile minimale Ausschnitte, die das Problem reproduzieren.
Wenn eure Organisation Datenresidenz-Anforderungen hat, stellt sicher, dass euer Tooling diese einhalten kann. Manche modernen Plattformen (inkl. Koder.ai) laufen auf global verteilter Infrastruktur und können Apps in verschiedenen Regionen bereitstellen, um Datenschutzanforderungen zu unterstützen — aber Richtlinie geht immer vor.
Nutzerrelevante Features können ungünstige Voreinstellungen kodieren — Empfehlungen, Preise, Berechtigung, Moderation oder sogar Formularvalidierung. Fügt leichte Checks hinzu: testet mit diversen Namen und Lokalisierungen, prüft „wer könnte geschädigt werden" und sorgt für Erklärungen sowie Beschwerdewege, wenn Entscheidungen Menschen betreffen.
Macht KI-Ausgaben prüfbar: fordert menschliche Code-Reviews, nutzt Genehmigungen für riskante Änderungen und führt ein Audit-Log (Prompts, Diffs, Entscheidungen). Kombiniert das mit automatisierten Tests und Linting, sodass Qualität nicht verhandelbar ist — nur der schnellste Weg dahin.
KI wird Entwickler nicht ersetzen, sondern Aufmerksamkeit umverteilen. Die größte Veränderung ist, dass mehr Zeit damit verbracht wird, Absicht zu klären und Ergebnisse zu verifizieren, während weniger Zeit in routinemäßige Übersetzungsarbeit (offensichtliche Entscheidungen in Boilerplate-Code verwandeln) fließt.
Erwarte, dass Produkt- und Engineering-Rollen stärker um klarere Problemstellungen und engere Feedbackschleifen konvergieren. Entwickler werden mehr Zeit verbringen mit:
Unterdessen wird KI mehr Erstentwürfe übernehmen: Scaffolding für Screens, Endpoints verkabeln, Migrationen generieren und Refactors vorschlagen — und die Arbeit dann zur menschlichen Beurteilung zurückgeben.
Teams, die von KI profitieren, trainieren Kommunikationsmuskeln, nicht nur Tooling. Nützliche Fähigkeiten sind:
Das ist weniger Spiel mit raffinierten Prompts und mehr Explizitsein.
High-Performing-Teams werden standardisieren, wie sie „mit dem System sprechen“. Ein leichtgewichtiges Protokoll könnte sein:
/docs, damit die nächste Iteration informiert startet)Heute ist KI am stärksten beim Beschleunigen von Entwürfen, Zusammenfassen von Diffs, Generieren von Testfällen und Vorschlagen von Alternativen im Review. In den nächsten Jahren sind zu erwarten: besseres Langzeitgedächtnis für Projekte, zuverlässigere Tool-Nutzung (Tests ausführen, Logs lesen) und verbesserte Konsistenz über Code, Docs und Tickets.
Begrenzender Faktor bleibt Klarheit: Teams, die Absicht präzise beschreiben können, profitieren zuerst. Gewinnen werden nicht nur Teams mit „KI-Tools“ — sie werden Teams sein, die ein wiederholbares Gespräch etablieren, das Absicht in Software verwandelt und Leitplanken setzt, damit Geschwindigkeit sicher ist.
Wenn ihr diese Veränderung erkundet, probiert einen Workflow, in dem Konversation, Planung und Umsetzung zusammenleben. Zum Beispiel unterstützt Koder.ai chatgetriebenes Bauen mit Planungsmodus, Quell-Export, Deployment/Hosting, benutzerdefinierten Domains und Snapshots/Rollback — nützlich, wenn ihr schneller iterieren wollt, ohne Kontrolle aufzugeben. (Und wenn ihr eure Learnings veröffentlicht, können Programme wie Koder.ai Credits und Empfehlungsoptionen anbieten, die Kosten beim Experimentieren abfedern.)