KI Pair Programming: Warum ich meinem Code-Partner eine Bedienungsanleitung schreibe
Quelle: https://sora.chatgpt.com/

KI Pair Programming: Warum ich meinem Code-Partner eine

Michael Schiller
20. Januar 2026 · 13 Minuten Lesezeit
Digitalisierung Transformation KI Agilität

Das Paradox der Verlangsamung

Die Idee ist, langsamer zu werden um schneller zu werden! Dieser Satz klingt zunächst wie ein Widerspruch. Doch er beschreibt präzise, was erfolgreiche KI-Zusammenarbeit ausmacht. Die initiale Investition in Dokumentation, in klare Regeln, in expliziten Kontext fühlt sich an wie Verlangsamung. Aber sie ist das Fundament, auf dem Geschwindigkeit erst möglich wird.
Pair Programming mit KI – Das Interview
Pair Programming mit KI – Das Interview Klicken zum Laden

Die Illusion der magischen KI

Vielleicht kennst du das: Du gibst der KI eine Aufgabe, sie liefert beeindruckenden Code, du bist begeistert. Kurze Zeit später merkst du, dass dieser Code nicht zu deinem Projekt passt. Nicht weil die KI schlecht wäre, sondern weil sie den Kontext nicht kannte.
Die KI weiss nicht, dass wir Mailjet statt ActionMailer nutzen. Sie weiß nicht, dass Seeds in Produktion laufen. Sie weiss nicht, welche Architekturentscheidungen wir getroffen haben und warum. Sie ist brillant, aber blind für alles, was nicht explizit kommuniziert wurde.
Die Lösung ist keine bessere KI. Die Lösung ist bessere Kommunikation. Und genau dafür gibt es die AGENTS.md.

AGENTS.md: Die Bedienungsanleitung für deinen KI-Partner

Die AGENTS.md ist ein Markdown-Dokument im Projektverzeichnis, das alles enthält, was die KI wissen muss: Technologie-Stack, Architekturentscheidungen, Coding-Standards, kritische Regeln. Sie ist die Bedienungsanleitung, die aus einem generischen KI-Assistenten einen informierten Projektpartner macht.
Stell dir vor, du bekommst einen neuen Kollegen. Einen brillanten Entwickler, der theoretisch alles kann, aber dein Projekt nicht kennt. Du würdest ihm nicht einfach Aufgaben zuwerfen und hoffen, dass er schon das Richtige tut. Du würdest ihm Kontext geben, ihm die Architektur erklären, ihm zeigen, wo die Fallstricke liegen. Genau das ist die AGENTS.md, eine strukturierte Einarbeitung für einen Partner, der jeden Tag neu anfängt.
Was konkret darin steht, hat sich über Monate der Zusammenarbeit mit KI-Assistenten entwickelt, oft durch schmerzhafte Lernerfahrungen. Einige Beispiele:

NEVER DELETE PRODUCTION DATA

Diese Regel klingt so selbstverständlich, dass man sich fragt, warum sie überhaupt aufgeschrieben werden muss. Die Antwort liegt in einem Vorfall, der mich gelehrt hat, wie anders KI-Systeme denken. Wir hatten einen Fall, bei dem die KI in einer Seed-Datei (einem Skript, das Testdaten generiert) die Funktion destroy_all verwendet hat. Das Problem: Seed-Dateien laufen in der Entwicklungsumgebung und in der Produktion. Das Ergebnis war Datenverlust, der hätte vermieden werden können.
Was mich an diesem Vorfall am meisten beschäftigt hat, war nicht der Fehler selbst. Fehler passieren. Es war die Erkenntnis, dass die KI keine intuitive Vorstellung davon hat, welche Operationen gefährlich sind und welche nicht. Sie sieht Code, nicht Konsequenzen. Seitdem steht in unserer AGENTS.md in unmissverständlicher Sprache: NEVER use destroy_all, delete_all, truncate in Seeds! – und die KI hält sich daran, jedes Mal.

NEVER commit without permission

Die KI ist von Natur aus hilfsbereit, manchmal zu hilfsbereit. Ohne explizite Einschränkung würde sie Änderungen vornehmen und gleich committen und pushen, um den Workflow zu beschleunigen. Das klingt effizient, untergräbt aber etwas Wesentliches: die menschliche Kontrolle über den Entwicklungsprozess.
Ich habe mich bewusst entschieden, den Git-Workflow vollständig in meiner Hand zu behalten. Jede Commit-Erlaubnis gilt nur einmal und muss explizit erteilt werden. Das mag ineffizient erscheinen, aber es zwingt mich, jeden Commit bewusst zu betrachten, die Änderungen zu verstehen, Verantwortung zu übernehmen. In einer Welt, in der KI immer mehr Aufgaben übernimmt, sind solche bewussten Kontrollpunkte keine Bremse, sondern ein Anker.

Emails ALWAYS via Mailjet

Ein scheinbar triviales Detail: Wir nutzen Mailjet für E-Mails, nicht den Standard-ActionMailer von Rails. Ohne diese explizite Regel in der AGENTS.md würde die KI bei jeder E-Mail-Implementierung den naheliegenden, aber für unser Projekt falschen Weg wählen. Mit der Regel? Zuverlässig korrekt, jedes Mal, ohne dass ich daran denken muss.
Dieses Beispiel zeigt etwas Wichtiges über die Natur von Kontext: Es sind oft oft die kleinen, scheinbar selbstverständlichen Details, die Probleme verursachen, und weniger die grossen architektonischen Entscheidungen, die niemand explizit ausspricht, weil das doch jeder weiss. Die KI weiss es eben nicht. Genau deshalb muss es aufgeschrieben werden.

Die drei Prinzipien effektiver KI-Zusammenarbeit

Nach Monaten intensiver Arbeit mit KI-Assistenten haben sich drei Prinzipien herauskristallisiert, die ich für fundamental halte:

1. Langsamer werden, um schneller zu werden

Die initiale Investition in Kontext zahlt sich aus. Eine gut gepflegte AGENTS.md spart Stunden an Korrekturarbeit. Die Zeit, die du in Dokumentation investierst, bekommst du mehrfach zurück – als ganz konkrete Zeitersparnis bei jeder einzelnen Aufgabe.

2. Denken und Handeln austarieren

Die Arbeit mit KI verändert das Verhältnis zwischen Nachdenken und Umsetzen fundamental. Früher war der Engpass oft die Implementierung: Die Idee war klar, aber die Umsetzung dauerte. Heute ist es umgekehrt: Die KI kann in Minuten umsetzen, wofür früher Tage nötig waren. Der neue Engpass ist das Denken.
Das erfordert ein bewusstes Austarieren. Wann ist es Zeit nachzudenken, zu planen, Konzepte zu entwickeln? Wann ist es Zeit zu handeln, auszuprobieren, zu iterieren? Das Pendel schwingt schneller als früher: Eine Stunde denken, zwei Stunden umsetzen, fünfzehn Minuten reflektieren, dann wieder von vorne.

3. Ownership in den Critical Paths behalten

Die vielleicht wichtigste Erkenntnis: Ownership darf niemals delegiert werden, schon gar nicht an eine KI. Die KI kann Code schreiben, Tests erstellen, Dokumentation verfassen. Aber die Verantwortung für das, was am Ende entsteht, liegt beim Menschen. Immer.
Code-Review ist nicht optional. Architekturentscheidungen bleiben beim Menschen. Sicherheitskritische Bereiche erfordern besondere Aufmerksamkeit. Die Analogie zum Autopiloten im Flugzeug ist treffend: Der Autopilot kann fliegen, starten, landen. Aber der Pilot muss trotzdem fliegen können. Er muss verstehen, was der Autopilot tut. Er muss eingreifen können, wenn etwas schiefläuft. Und er trägt die Verantwortung. Der Autopilot trägt sie nicht.

Warum weniger mehr ist

An dieser Stelle muss ich eine Warnung aussprechen, die aus jahrelanger Erfahrung stammt: Die Versuchung des Overengineering ist real, und sie ist gefährlich, gerade weil sie sich als Professionalität tarnt.
Erinnerst du dich an die grossen Jira-Einführungen der letzten Jahre? Ich habe viele davon gesehen, und das Muster war fast immer dasselbe: Am Anfang stand der Wunsch nach Ordnung und Kontrolle. Also wurden komplexe Rechtemanagementsysteme eingerichtet, detaillierte Workflows für jeden erdenklichen Fall definiert, Prozesse bis ins kleinste Detail ausgearbeitet. Die Absicht war gut: Wer will schon Chaos?
Das Ergebnis war jedoch das Gegenteil von dem, was beabsichtigt war. Statt Ordnung entstand Lähmung. Die Systeme wurden so komplex, dass niemand mehr durchblickte. Statt die Arbeit zu unterstützen, wurde das Tool zum Hindernis. Und dann passierte das Unvermeidliche: Die Menschen begannen, Workarounds zu entwickeln, um ihr eigenes System zu umgehen. Die aufwendig konstruierten Prozesse existierten nur noch auf dem Papier, während die eigentliche Arbeit in Schatten-Workflows stattfand.
Das Prinzip Einfachheit ist kein Luxus und keine Nachlässigkeit. Es ist überlebenswichtig. Komplexität hat die Tendenz, sich selbst zu nähren. Jede neue Regel erzeugt Randfälle, die weitere Regeln erfordern. Jeder neue Prozess schafft Schnittstellen, die koordiniert werden müssen. Irgendwann kippt das System, und die Kosten der Komplexität übersteigen ihren Nutzen.
Für die AGENTS.md bedeutet das eine bewusste Selbstbeschränkung:
Erstens muss das Dokument von der KI vollständig erfasst werden können. Das ist keine abstrakte Anforderung, sondern eine praktische Notwendigkeit: KI-Systeme arbeiten mit begrenzten Kontextfenstern. Ein Dokument, das zu lang oder zu komplex ist, wird nicht vollständig verarbeitet. Dann entstehen genau die Inkonsistenzen und Fehler, die man vermeiden wollte. Zu viele Regeln führen zu Widersprüchen, und Widersprüche führen zu Verwirrung.
Zweitens sollten Projekte und Aufgaben so dimensioniert sein, dass sie als Ganzes verstanden werden können. Lieber kleinere, vollumfängliche, gemeinsam durchdachte Schritte als monumentale Vorhaben, die niemand mehr überblickt. Das ist nicht nur Token-effizient im technischen Sinne, und es entspricht auch der Art, wie gute Zusammenarbeit funktioniert: in überschaubaren Einheiten, mit klaren Zielen, mit der Möglichkeit, nach jedem Schritt innezuhalten und zu reflektieren.
Drittens ist die AGENTS.md ein lebendiges Dokument, das mit jeder Erfahrung wächst, aber sie muss schlank bleiben. Jede neue Regel sollte die Frage beantworten müssen: Ist das wirklich notwendig, oder versuche ich, ein Problem zu lösen, das besser anders adressiert werden sollte? Die beste Regel ist oft die, die man nicht braucht, weil das System von sich aus richtig funktioniert.

Warum Verantwortung gestaltet werden muss

Es gibt einen Aspekt dieser neuen Arbeitsweise, der in den technischen Diskussionen oft untergeht, der aber meiner Erfahrung nach mindestens ebenso wichtig ist wie alle Fragen der Tooling und Prozesse: die menschliche Psychologie.
Menschen reagieren auf eine bestimmte Weise, wenn sie das Gefühl haben, dass jemand anderes besser ist als sie. Das ist keine Schwäche und kein Charakterfehler. Es ist eine zutiefst menschliche Reaktion, die evolutionär durchaus Sinn ergibt. Wenn die KI scheinbar alles kann und der Mensch nur noch zuschaut, passiert etwas Subtiles, aber Gefährliches: Die Verantwortung beginnt zu diffundieren. Die KI hat das so gemacht wird zur bequemen Ausrede, und mit der Ausrede schwindet auch das Engagement, die Aufmerksamkeit, die kritische Prüfung.
Ich habe dieses Muster bei mir selbst beobachtet, und es hat mich beunruhigt. In Momenten, in denen die KI besonders beeindruckende Ergebnisse lieferte, ertappte ich mich dabei, weniger genau hinzuschauen, weniger kritisch zu hinterfragen. Das ist menschlich. Aber es ist auch gefährlich.
Die Lösung liegt darin, die Zusammenarbeit bewusst zu gestalten. Die AGENTS.md ist ein Teil dieser Gestaltung. Sie definiert, was die KI tun soll und was sie lassen muss. Sie schafft Räume, in denen der Mensch die Kontrolle behält – aus dem Wissen heraus, dass Verantwortung niemals delegiert werden kann.

Die Zukunft der Teams

Wenn ich über die Zukunft der Arbeit nachdenke, sehe ich nicht die Ablösung des Menschen durch die Maschine. Ich sehe eine Neuorganisation, die auf den veränderten Möglichkeiten aufbaut.
Unsere Arbeitswelt wurde in einer Zeit geformt, in der Wissen knapp und schwer zu transferieren war, in der Spezialisierung der einzige Weg zu Exzellenz schien.
Die KI verändert diese Grundannahmen. Wenn ein einzelner Mensch mit KI-Unterstützung Aufgaben übernehmen kann, die früher ein ganzes Team erforderten, dann stellt sich die Frage: Wie sollten wir Arbeit organisieren, wenn die alten Beschränkungen nicht mehr gelten?
Meine Beobachtung (und es ist eine Beobachtung, keine Prophezeiung) geht in Richtung kleinerer, autonomer Einheiten. Zellen, die problem- und kundenorientiert arbeiten, die alle Expertisen in sich vereinen, die es braucht, um ein Problem ganzheitlich zu lösen. Nicht mehr die Frage: Wer ist für diesen Prozessschritt zuständig?, sondern: Wer kann dieses Problem lösen?
In diesen Teams finden sich die Menschen mit den relevanten Fähigkeiten, angereichert mit der Erfahrung und dem Wissen der KI. Die KI wird zum Teammitglied, das Wissen einbringt, das sonst fehlen würde, das Routineaufgaben übernimmt, das als Sparringspartner für Ideen dient. Aber die Verantwortung, die Entscheidungen, die Richtung: Das bleibt beim Menschen.
Drumherum entstehen spezialisierte Services: UX-Experten, die sich um das Gesamtkonzept kümmern, Architekten, die übergreifende Standards definieren, Menschen, die Architecture Decision Records pflegen und die Definition of Done auf Unternehmensebene verantworten. Sie bilden den Rahmen, innerhalb dessen die autonomen Teams arbeiten.
Die Teams selbst entwickeln ihre eigene Arbeitsweise. Sie haben ihre AGENTS.md, ihre Regeln, ihre Kultur des Umgangs mit KI. Sie lernen, was funktioniert und was nicht, und sie teilen dieses Wissen. Sie sind autonom, aber nicht isoliert, verbunden durch gemeinsame Standards, gemeinsame Ziele, gemeinsames Lernen.
Das ist keine ferne Zukunftsvision, die irgendwann einmal Realität werden könnte. Das ist die Realität, die gerade entsteht, in Unternehmen, die bereit sind, ihre Strukturen zu hinterfragen und neu zu denken.

MCP - Ein Beispiel für pragmatische Integration

Um diese eher abstrakten Überlegungen zu konkretisieren, möchte ich ein technisches Detail teilen, das exemplarisch zeigt, wie die Philosophie in der Praxis aussieht.
Wir nutzen das Model Context Protocol (MCP), um der KI Zugriff auf unser Projektmanagement zu geben. Das bedeutet: Tasks anlegen, Zeit erfassen, Subtasks abhaken, Projektfortschritt dokumentieren. Alles direkt aus der Entwicklungsumgebung heraus, ohne Kontextwechsel, ohne manuelle Übertragung von Informationen.
Die Idee dahinter ist einfach: Wenn die KI ohnehin an einem Task arbeitet, warum sollte sie nicht auch den Status aktualisieren können? Wenn sie Zeit für eine Aufgabe aufwendet, warum sollte diese Zeit nicht automatisch erfasst werden? Die Integration von Entwicklungsarbeit und Projektmanagement reduziert Reibung und erhöht Transparenz.
In der Umsetzung zeigte sich jedoch ein Problem, das typisch ist für die Arbeit mit neuen Technologien: Cloudflare, unser Sicherheits-Layer, der die Website vor Angriffen schützt, unterbricht Server-Sent Events (SSE) nach einer bestimmten Zeit. SSE ist die Technologie, die MCP für Echtzeit-Kommunikation nutzt. Das Ergebnis: Verbindungsabbrüche, Timeouts, Frustration.
Die elegante Lösung wäre gewesen, Cloudflare anders zu konfigurieren oder eine alternative Kommunikationstechnologie zu verwenden. Die pragmatische Lösung, die wir gewählt haben, ist simpler: Ein lokaler Proxy, der auf meinem Rechner läuft, die Anfragen entgegennimmt und weiterleitet. Nicht elegant, aber funktional. Und in der AGENTS.md steht deshalb: ALWAYS use the local MCP Proxy at http://127.0.0.1:3002. Die KI weiss das, hält sich daran, und alles funktioniert.
Dieses Beispiel illustriert einen wichtigen Punkt: Gute Zusammenarbeit entsteht durch klare Kommunikation über die Realität, wie sie ist. Die AGENTS.md dokumentiert nicht, wie die Welt sein sollte, und wie sie ist, inklusive aller Workarounds und pragmatischen Kompromisse.

Die Verschmelzung der Rollen

Früher war die Welt der Softwareentwicklung übersichtlich strukturiert: Product Manager schreibt das Ticket, Developer implementiert, QA testet, Designer gestaltet. Klare Trennung, klare Verantwortlichkeiten, klare Übergabepunkte.
Heute kann eine Person mit KI-Partner vieles davon leisten. Konzept entwickeln, Code schreiben, Tests erstellen, UI gestalten. Die traditionellen Rollengrenzen verschwimmen. Das ist eine enorme Chance: schnellere Iterationen, weniger Kommunikationsoverhead, direktere Umsetzung von Ideen.
Aber – und das ist entscheidend – diese Verschmelzung bedeutet nicht, dass tiefe Kenntnisse unwichtiger werden. Im Gegenteil: Code-Souveränität wird wichtiger denn je.
Warum? Weil die KI Fehler macht. Subtile Fehler, die nur erkennt, wer den Code wirklich versteht. Sie schlägt Lösungen vor, die funktionieren, aber eher suboptimal sind. Sie folgt Patterns, die in einem anderen Kontext sinnvoll waren, hier aber nicht passen. Sie produziert Code, der heute läuft, aber morgen Probleme verursacht.
Die Analogie, die mir am hilfreichsten erscheint, ist die des Autopiloten im Flugzeug. Der Autopilot kann fliegen, starten, landen. Er macht das zuverlässig und präzise, oft besser als ein menschlicher Pilot. Aber der Pilot muss trotzdem fliegen können. Er muss verstehen, was der Autopilot tut. Er muss die Instrumente lesen können. Er muss eingreifen können, wenn etwas schiefläuft. Er muss erkennen können, wann etwas schiefläuft.
Wer blind der KI vertraut, wer aufhört, den Code zu verstehen, wer die kritische Prüfung aufgibt, wird früher oder später Probleme bekommen. Wer hingegen die KI als Partner nutzt und ihre Arbeit versteht, wer seine eigene Expertise einbringt und die Ergebnisse kritisch bewertet, erreicht neue Höhen der Produktivität.

Denkpartnerschaft als neue Arbeitsform

Ich habe vor einiger Zeit geschrieben, dass perfekte Prompts Bullshit sind. Diese Überzeugung hat sich durch die Erfahrungen der letzten Monate nur verstärkt. Es geht nicht darum, die perfekte Anweisung zu formulieren, den magischen Satz zu finden, der die KI dazu bringt, genau das zu tun, was man will. Es geht um Zusammenarbeit, mit allem was dazugehört: Kommunikation, Kontext, Iteration, Lernen.
Die KI ist so gut wie der Kontext, den du ihr gibst. Gib ihr eine AGENTS.md, pflege sie, verweise darauf, wenn nötig. Stell sicher, dass die Grundlagen klar sind, dass die wichtigen Entscheidungen dokumentiert sind, dass die Spielregeln bekannt sind. Dann funktioniert die Zusammenarbeit hervorragend. Zwar ohne Magie, aber zuverlässig und produktiv.
Aber erwarte keine Magie. Erwarte einen Partner, der brillant ist, wenn du ihm sagst, was er wissen muss. Einen Partner, der theoretisch alles kann, wenn du ihm zeigst, wie es in deinem spezifischen Kontext funktioniert. Einen Partner, der dich schneller macht, wenn du bereit bist, ihn zu führen, zu korrigieren, zu hinterfragen.
Das ist keine Delegation, bei der du eine Aufgabe abgibst und auf das Ergebnis wartest. Das ist Denkpartnerschaft, eine neue Form der Zusammenarbeit, die von beiden Seiten Beiträge erfordert. Die KI bringt Wissen, Geschwindigkeit, Ausdauer. Du bringst Kontext, Urteilsvermögen, Verantwortung. Zusammen entsteht etwas, das keiner von beiden allein erreichen könnte.
Die AGENTS.md ist mein Beitrag zu dieser Partnerschaft. Sie ist das Dokument, das den Kontext schafft, die Regeln definiert, die Zusammenarbeit ermöglicht. Sie ist nicht perfekt, sie ist nicht vollständig, sie wird sich weiterentwickeln. Aber sie ist der Anfang einer bewussten, gestalteten Arbeitsbeziehung mit einer Technologie, die unsere Art zu arbeiten fundamental verändert.
Jetzt Kontakt aufnehmen