<?xml version="1.0" encoding="utf-8" standalone="yes"?><rss version="2.0" xmlns:atom="http://www.w3.org/2005/Atom"><channel><title>Agent on Architekt PARK JUN WOO</title><link>https://www.parkjunwoo.com/de/tags/agent/</link><description>Recent content in Agent on Architekt PARK JUN WOO</description><generator>Hugo</generator><language>de</language><lastBuildDate>Fri, 15 May 2026 14:00:00 +0900</lastBuildDate><atom:link href="https://www.parkjunwoo.com/de/tags/agent/index.xml" rel="self" type="application/rss+xml"/><item><title>Ratchet Pattern — Wie man einen Agenten dazu bringt, bis zum Ende durchzuhalten</title><link>https://www.parkjunwoo.com/de/tech/ratchet-pattern/</link><pubDate>Fri, 15 May 2026 14:00:00 +0900</pubDate><guid>https://www.parkjunwoo.com/de/tech/ratchet-pattern/</guid><description>Ich ließ einen KI-Agenten Tests für 527 Funktionen schreiben — er hörte bei 40 auf und erklärte sich fertig. Ratchet Pattern erzwingt die Fertigstellungsprüfung durch einen maschinellen verifier und bringt den Agenten dazu, wirklich bis zum Ende durchzuhalten.</description></item><item><title>Feedback-Topologie statt Modell-IQ</title><link>https://www.parkjunwoo.com/de/opinion/feedback-topology/</link><pubDate>Thu, 14 May 2026 18:00:00 +0900</pubDate><guid>https://www.parkjunwoo.com/de/opinion/feedback-topology/</guid><description>Dasselbe Modell bleibt bei 40 stehen oder schafft 527. Der Unterschied liegt nicht im Modell, sondern in der Feedback-Struktur. Die Leistung eines LLM hängt weniger vom Modell selbst ab als davon, wie schnell und deterministisch die Feedback-Schleife ist, auf der es arbeitet.</description></item></channel></rss>