Er is een paradox in de wereld van AI-agents: hoe langer je ermee bouwt, hoe minder je het LLM inzet. Na maanden productieontwikkeling met AI-workflows is het patroon glashelder: zo'n 65% van alle workflownodes draait op deterministische code. Geen LLM-aanroep, geen tokens, gewoon logica.
En toch verzet het systeem méér werk dan ooit.
De evolutie van volledig agentisch naar hybride
De eerste reflex bij het bouwen van AI-agents is om alles door het model te laten doen. Elke beslissing, elke datapunt, elke routering: laat de LLM het uitzoeken. In theorie elegant. In de praktijk onbetrouwbaar, traag en duur.
De doorbraak komt wanneer je workflows gaat structureren als gerichte grafen met twee soorten nodes: deterministische nodes (code) en agentische nodes (LLM). De kunst zit niet in hoe je AI inzet, maar in wanneer.
De verdeling in de praktijk
Wanneer je productie-workflows analyseert, ontstaat een helder spectrum:
- ~30% pure code: dealupdates, routering, datavalidatie. Nul LLM-aanroepen nodig. De logica is voorspelbaar en deterministisch.
- ~35% overwegend code: research en extractie. Het meeste werk (70-90%) is code: API-calls, data ophalen, structureren. Het LLM doet alleen de synthese aan het eind.
- ~20% echt hybride: analyses en complexe fixes. Meerdere LLM-rondes verweven met code, waarbij het model actief meedenkt in de workflow.
- ~15% volledig agentisch: open onderzoek waarbij het model vrij moet kunnen exploreren. Hier heeft het LLM maximale vrijheid nodig.
Meer werk, minder AI
Dit is het tegenintuïtieve inzicht: door AI selectiever in te zetten, kun je méér automatiseren. Deterministische code is snel, goedkoop, voorspelbaar en testbaar. Door die in te zetten waar mogelijk, reserveer je de dure en langzamere LLM-capaciteit voor waar het echt waarde toevoegt: ambiguïteit, synthese en ongestructureerde problemen.
Het is alsof je een chirurg alleen laat opereren en het papierwerk door assistenten laat doen. De chirurg wordt niet minder belangrijk, maar de kliniek draait wel beter.
Hoe wij dit bij CID toepassen
Dit hybride model is precies hoe CID's executiesysteem werkt. Elk taakplan is een gestructureerde workflow waarin:
- Deterministische stappen de voorspelbare acties afhandelen: data ophalen uit je tools, records bijwerken, bestanden verplaatsen
- LLM-stappen alleen worden ingezet waar menselijk oordeelsvermogen nodig is: interpretatie, synthese, beslissingen bij ambiguïteit
- De transitielogica bepaalt wanneer welk type node wordt aangeroepen, op basis van condities. Niet op basis van hoop
Elk executieplan is volledig inspecteerbaar. Je ziet precies welke stappen code zijn en welke het model aanroepen. Geen black box, geen onnodig tokenverbruik, geen onvoorspelbaar gedrag waar het niet nodig is.
Tijdelijke steiger of blijvend patroon?
Mogelijk is dit hybride model tijdelijk. Naarmate modellen beter worden, kunnen ze taken overnemen die nu nog deterministische code vereisen. Maar zelfs dan blijft het principe overeind: structuur boven hoop. De vraag is niet "kan het model dit?" maar "moet het model dit?"
De beste AI-systemen van vandaag zijn niet de systemen die overal AI inzetten. Het zijn de systemen die weten wanneer ze dat juist niet moeten doen.
