Den Zurich Agentic AI Hyperchallenge 2025 gewinnen: Eine Reise von Beharrlichkeit und Qualität

Inhaltsverzeichnis
- Der Standard, der alles veränderte
- Der Monat des Bauens, was man zu brauchen glaubt
- Der Monat des Wiederaufbaus, was man tatsächlich braucht
- Die Woche, in der alles kaputt ging
- Die Zusammenarbeit, die Fokus ermöglichte
- Die Performance-Krise
- Der lange Schweif, über den niemand spricht
- Die ehrliche Bewertung
- Was der Gewinn tatsächlich validierte
- Die Lektionen, die ich mitnehme
- 1. Langsamer werden, um schneller zu sein
- 2. Erste Version ist immer falsch
- 3. Produktions-Deployment ist der echte Test
- 4. Grossartiger PM = Kraft-Multiplikator
- 5. Die letzten 15% bestimmen die Wahrnehmung
- 6. Qualität ist ein Wettbewerbsgraben
- Für jeden, der eine grosse Herausforderung in Betracht zieht
- Abschliessende Gedanken
Im Juni 2025 erhielt ich das Challenge-Brief von Zurich Group: Entwickle ein KI-System für Enterprise-Versicherungsreporting. Im September haben wir gewonnen. Das System, das wir "etio" genannt haben, reduziert jetzt Finanzreporting von 3-4 Tagen auf Stunden.
Aber dies ist keine Geschichte über KI oder Algorithmen. Es ist eine Geschichte darüber, was passiert, wenn man sich verpflichtet, etwas zu bauen, das tatsächlich funktioniert – keine Demo, kein Proof-of-Concept, sondern etwas, dem Unternehmensaktuare bei echten Finanzentscheidungen vertrauen würden.
Wir traten unter Wangari Global an (CEO: Ari Joury). Oliver Min managte das Projekt. Ich konzipierte und entwickelte das System. Dies ist meine Geschichte dieser vier Monate.
Der Standard, der alles veränderte
Die meisten Teams im Wettbewerb rannten, um beeindruckende Demos zu zeigen. Früh trafen wir eine andere Entscheidung: Wir würden für Produktions-Deployment bauen, nicht für Präsentationen.
Diese eine Entscheidung prägte jede Wahl danach.
Als alle anderen ihre ersten funktionierenden Prototypen feierten, richteten wir noch Infrastruktur ein. Als sie Folien polierten, testeten wir unter Stress mit echten Daten. Als sie auffällige Features hinzufügten, fixten wir Edge Cases.
Es fühlte sich langsam an. Es fühlte sich an, als würden wir zurückfallen. Aber wir hielten die Linie.
Das Prinzip: Wenn es nicht gut genug ist, um am Montagmorgen in Produktion zu laufen, ist es nicht fertig.
Der Monat des Bauens, was man zu brauchen glaubt
Juni war über Selbstvertrauen. Ich wusste, was gebaut werden musste. Die Architektur war klar in meinem Kopf. Das Design machte auf Papier Sinn.
Ich baute es. Es sah gut aus. Die Teile passten logisch zusammen.
Dann testete ich es mit echten Versicherungsdaten, und alles brach auseinander.
Die Lektion: Die erste Version lehrt dich das Problem. Du musst es falsch bauen, bevor du verstehst, wie man es richtig baut.
Der Monat des Wiederaufbaus, was man tatsächlich braucht
Juli war über Demut. Dreimal in einer Woche schaute ich auf das Gebaute und erkannte, es war grundlegend falsch:
Woche 1: Die Art, wie das System strukturiert war, machte es unmöglich, verschiedene Datenformate zu handhaben. Neu gebaut.
Woche 2: Die Kommunikation zwischen Komponenten schuf Engpässe, die ich nicht antizipiert hatte. Neu gebaut.
Woche 3: Die Datenverarbeitung konnte Edge Cases im echten Versicherungsreporting nicht handhaben. Neu gebaut.
Jedes Mal fühlte es sich wie Versagen an. Jedes Mal war es tatsächlich Fortschritt.
Der Mindset-Shift: Refactoring bedeutet nicht zuzugeben, dass du falsch lagst. Es demonstriert, dass du etwas gelernt hast.
Olivers Rolle als Projektmanager wurde hier kritisch. Dreimal kam ich zu ihm und sagte "Ich muss das neu bauen." Dreimal hätte er sagen können "wir haben keine Zeit." Dreimal sagte er "mach es richtig."
Das ist das Projektmanagement, das zählt – Qualität schützen, wenn Zeitdruck sagt, Kompromisse einzugehen.
Die Woche, in der alles kaputt ging
Mitte Juli deployete ich auf Produktions-Infrastruktur. Alles, was perfekt auf meinem Laptop funktionierte, scheiterte spektakulär auf echten Servern.
Ich verbrachte eine Woche damit, Probleme zu fixen. Am Ende hatte ich 18 separate Fixes gemacht – jeder enthüllte das nächste Problem. Environment-Variablen. Netzwerk-Konfigurationen. Ressourcenlimits. Race Conditions.
Jeder Bug, den ich als "das wird bei echtem Einsatz nicht passieren" abgetan hatte, wurde zu einem kritischen Blocker.
Die Erkenntnis: Du weisst nicht, ob dein System funktioniert, bis du es in Produktion deployst. Alles andere ist optimistisches Raten.
Die Zusammenarbeit, die Fokus ermöglichte
Während all dem machte Olivers Projektmanagement den Unterschied zwischen Bauen und Herumirren:
Wovon er mich schützte:
- Unnötige Meetings über Fortschritt
- Scope-Diskussionen ohne Entscheidungen
- Feature-Requests ohne Prioritäten
- Druck, Ecken für Demos abzuschneiden
Was er bereitstellte:
- Klare Prioritäten (das zählt, das nicht)
- User-Perspektive-Tests (fand Probleme, die ich nie sehen würde)
- Reality-Checks ("wird das tatsächlich gebraucht?")
- Timeline-Management (realistische Meilensteine)
Das Wertvollste, was er tat: Er hielt mich davon ab, im Koordinations-Overhead zu ertrinken. Ich baute. Er managte alles andere.
Wir traten unter Wangari Global an, mit Ari Joury als CEO – die offizielle Entität für die Challenge.
Die Performance-Krise
Ende Juli: Das System funktionierte, aber es war langsam. Die Verarbeitung Tausender Versicherungsdatensätze dauerte viel zu lange.
Ich hatte zwei Möglichkeiten:
- "Es funktioniert" als gut genug akzeptieren
- Eine weitere Woche damit verbringen, es schnell zu machen
Wir wählten Geschwindigkeit. Denn "produktionsbereit" bedeutet, dass Benutzer nicht warten.
Eine Woche Optimierung. Der Unterschied: Von unbenutzbar langsam zu produktionsschnell.
Die Lektion: Performance ist keine technische Metrik. Es ist eine User Experience, die bestimmt, ob Leute dein System tatsächlich nutzen.
Der lange Schweif, über den niemand spricht
August und September handelten nicht vom Bau neuer Features. Sie handelten von der unglamourösen Arbeit, die "funktioniert auf meiner Maschine" von "bereit zum Deployment" trennt:
- Jeder Edge Case handhaben
- Fehlermeldungen schreiben, die Menschen verstehen können
- Das System elegant ausfallen lassen
- Dokumentation für drei verschiedene Zielgruppen
- Demo-Vorbereitung
Dies sind die 15%, die 50% der Zeit beanspruchen. Dies sind auch die 15%, die bestimmen, ob Evaluatoren ein poliertes professionelles System oder einen groben Prototyp sehen.
Die Verpflichtung: Wir haben nicht eingereicht, bis alles Produktionsstandards erfüllte. Nicht "gut genug für eine Demo." Produktionsstandards.
Wir reichten drei Tage früh ein. Nicht weil uns die Verbesserungen ausgingen, sondern weil wir erreicht hatten, was wir bauen wollten.
Die ehrliche Bewertung
Bei Einreichung war das System etwa 85% der ursprünglichen Vision:
Was einwandfrei funktionierte:
- Vollständige Datenverarbeitungs-Pipeline
- Automatisierte Finanzanalyse
- Report-Generierung
- Echtzeit-Monitoring
- Multi-Datenbank-Koordination
Was mit Setup funktionierte:
- Präsentationsgenerierung (benötigte Templates)
- Einige fortgeschrittene Analysen (teilweise integriert)
Was wir planten, aber nicht bauten:
- Ein paar fortgeschrittene Features, von denen wir erkannten, dass sie nicht kritisch waren
Die Realität: 85% in Produktionsqualität gebaut schlägt 100% in Demo-Qualität gebaut.
Was der Gewinn tatsächlich validierte
Die Benachrichtigung kam: Wir haben gewonnen.
Aber was validierte das?
Nicht, dass wir die raffinierteste KI gebaut haben. Wir validierten einen Ansatz:
- Mit Produktions-Infrastruktur beginnen - Nicht später nachrüsten
- Refactoren, wenn man lernt - Es ist kein Versagen, es ist Fortschritt
- Qualitätsstandards schützen - Nie für den Zeitplan Kompromisse eingehen
- Früh deployen - Produktion findet jede Schwäche
- Komplett abschliessen - Politur zählt genauso viel wie Features
- Gründlich dokumentieren - Präsentation zählt
Die Formel, die funktionierte:
Qualität × Klare Kommunikation × Beharrlichkeit = Gewinn
Die Lektionen, die ich mitnehme
1. Langsamer werden, um schneller zu sein
Der erste Monat fühlte sich langsam an. Wir bauten Infrastruktur, während andere Demos zeigten. Aber wenn es zählte, konnten wir schnell vorgehen, weil das Fundament solide war.
Das Paradox: Langsamer am Anfang zu gehen, lässt dich schneller sein, wenn es zählt.
2. Erste Version ist immer falsch
Ich baute Hauptkomponenten dreimal in einer Woche neu. Ich sah das früher als Versagen. Jetzt sehe ich es als den Prozess.
Der Shift: Du kannst die richtige Lösung nicht entwerfen, bis du die falsche baust und verstehst, warum.
3. Produktions-Deployment ist der echte Test
Alles, was auf meinem Laptop funktionierte, ging in Produktion kaputt. Jeder Edge Case, den ich abtrat, wurde kritisch.
Die Wahrheit: Du weisst nicht, ob es funktioniert, bis echte Benutzer, echte Daten, echte Umgebung, echte Einschränkungen.
4. Grossartiger PM = Kraft-Multiplikator
Olivers Projektmanagement handelte nicht vom Tracking von Tasks. Es handelte davon, meine Fähigkeit zu schützen, mich aufs Bauen zu konzentrieren, während er alles andere handhabte.
Die Anerkennung: Solo-Builder stecken im Koordinations-Overhead fest. Grossartige PMs eliminieren diesen Overhead.
5. Die letzten 15% bestimmen die Wahrnehmung
Features brachten uns auf 85%. Politur brachte uns zur Produktion. Dokumentation brachte uns zum Gewinn.
Die Realität: Evaluatoren können nur bewerten, was sie verstehen. Mach deine Arbeit verständlich.
6. Qualität ist ein Wettbewerbsgraben
Wenn alle Zugang zu denselben KI-Modellen und Tools haben, wird Qualität zum Differentiator.
Die Einsicht: Die meisten Konkurrenten schneiden Ecken ab. Wenn du das nicht tust, stichst du hervor.
Für jeden, der eine grosse Herausforderung in Betracht zieht
Wenn du daran denkst, einen ambitionierten KI-Wettbewerb oder ein Projekt anzugehen:
Stelle dir zuerst diese Fragen:
-
Kannst du dich auf Produktionsqualität verpflichten? Nicht "gut genug für Demo", sondern "gut genug, um Montag zu deployen." Wenn du dich nicht auf diesen Standard verpflichten kannst, fang nicht an.
-
Kannst du damit umgehen, neu zu bauen, wenn du lernst, dass du falsch liegst? Du wirst es zuerst falsch bauen. Das ist kein Versagen – das ist der Prozess. Kannst du das akzeptieren?
-
Hast du die richtige Unterstützungsstruktur? Jemanden, der deinen Fokus vor Koordinations-Overhead schützt. Jemanden, der Qualität über Geschwindigkeit schätzt. Wenn nicht, finde sie zuerst.
-
Kannst du dem Drang nach "nur noch einem Feature" widerstehen? Zu wissen, wann man aufhört zu bauen und anfängt zu shippen, ist genauso wichtig wie zu wissen, was man baut.
-
Wirst du so gründlich dokumentieren, wie du baust? Die beste Arbeit, die schlecht erklärt ist, verliert gegen gute Arbeit, die kristallklar ist.
Wenn du auf alle fünf mit Ja geantwortet hast, bist du bereit. Wenn nicht, fixe, was fehlt, bevor du anfängst.
Abschliessende Gedanken
Den Zurich Group Agentic AI Hyperchallenge 2025 zu gewinnen, lehrte mich, dass Enterprise-KI-Wettbewerbe nicht durch die beeindruckendsten Demos gewonnen werden. Sie werden durch die vollständigsten, zuverlässigsten, verständlichsten Systeme gewonnen.
Die chaotische Mitte – die Refactors, die Produktionskrisen, die Performance-Optimierungen, die Dokumentation – da werden Gewinne tatsächlich verdient. Die Demo ist nur, wo man es zeigt.
Die drei Entscheidungen, die am meisten zählten:
- Produktionsstandards vom ersten Tag an - Qualität nicht später nachrüsten
- Refactoren, wenn man lernt - Iteration ist Fortschritt, kein Versagen
- Qualität über Zeitplan schützen - Geschwindigkeit kompromittieren, niemals Standards
Wenn jemand fragt "was war der Schlüssel zum Gewinn?" würde ich auf eine Sache zeigen:
Wir weigerten uns, irgendetwas einzureichen, das nicht produktionsbereit war.
Diese eine Verpflichtung prägte jede andere Entscheidung. Und sie machte den ganzen Unterschied.
