22 dec 2025

2025
De belofte die niet uitkwam

Door

Lennard

&

Linda

23 nov 2025

2025
De belofte die niet uitkwam

Door

Lennard

&

Linda

22 dec 2025

2025
De belofte die niet uitkwam

Door

Lennard

&

Linda

22 dec 2025

2025
De belofte die niet uitkwam

Door

Lennard

&

Linda

2025 zou het jaar van de AI-agent worden. Dat hadden de grote tech-bedrijven ons beloofd. Autonome programma's die zelfstandig kantoorwerk zouden uitvoeren. Hele afdelingen die "bemenst" zouden worden door AI.

2025 zou het jaar van de AI-agent worden. Dat hadden de grote tech-bedrijven ons beloofd. Autonome programma's die zelfstandig kantoorwerk zouden uitvoeren. Hele afdelingen die "bemenst" zouden worden door AI.

2025 zou het jaar van de AI-agent worden. Dat hadden de grote tech-bedrijven ons beloofd. Autonome programma's die zelfstandig kantoorwerk zouden uitvoeren. Hele afdelingen die "bemenst" zouden worden door AI.

2025 zou het jaar van de AI-agent worden. Dat hadden de grote tech-bedrijven ons beloofd. Autonome programma's die zelfstandig kantoorwerk zouden uitvoeren. Hele afdelingen die "bemenst" zouden worden door AI.

Het jaar is bijna voorbij en kunnen we de balans opmaken: het is er niet van gekomen!

In de Trouw las ik deze week een column van Ilyaz Nasrullah over de podcast Shell Game. Daarin probeert maker Evan Ratliff een bedrijf op te zetten dat volledig draait op AI-agents. Het doel: een miljoen dollar omzet. Het resultaat: chaos.

Van het verzinnen van een bedrijfsnaam tot het bouwen van een website – niets gaat van een leien dakje. Een AI-agent belt een sollicitant op zondagavond, terwijl het gesprek voor maandagochtend gepland stond. Wanneer de (menselijke) sollicitant vraagt of er iets mis is gegaan, verontschuldigt de agent zich uitgebreid... om vervolgens gewoon door te gaan met het gesprek.

Hilarisch. Maar ook veelzeggend.

98% haalt de werkvloer niet

Dit verhaal staat niet op zichzelf. Een paar dagen eerder kopte de Volkskrant: "98% van de AI-toepassingen haalt de werkvloer niet."

Achtennegentig procent. Dat is geen bug, dat is een patroon.

De reden? Niet de technologie. De aanpak.

Organisaties starten met AI vanuit de hype. Vanuit "we moeten iets met AI". Vanuit de techniek. Maar ze vergeten de belangrijkste vraag: voor welk probleem is dit eigenlijk een oplossing?

En precies daar gaat het mis.

Wij maakten dezelfde fout

Ik kan niet doen alsof wij hier boven staan. Wij zijn zelf ook vol enthousiasme uit de bocht gevlogen.

Sinds GPT-2 in 2019 uitkwam, experimenteren we met AI. Duizenden tests. Eigen agents gebouwd. En op een gegeven moment dachten we: laten we één agent veel verantwoordelijkheid geven op een grote dataset.

Het resultaat? Hallucinaties. Inconsistentie. Verkeerde classificaties. Foute beslissingen.

We hoopten dat OpenAI of Anthropic dit zouden fixen. Dat gebeurde niet. Deze beperkingen bestaan nog steeds.

The wild horse!

Wij behandelen AI als een wild paard. Ongelooflijk krachtig. Maar zonder teugels gevaarlijk en onvoorspelbaar.

De fout die Ratliff maakt in Shell Game – en die wij ook maakten – is AI behandelen als een mens. Een agent een naam geven, een rol, een functie. Verwachten dat het zelfstandig complexe taken uitvoert.

Wil je weten welke lessen wij hieruit geleerd hebben?
En hoe wij AI nu wél succesvol inzetten?

Meld je aan voor de webinar

Op 20 en 22 januari geven we een webinar van 30 minuten:
AI: Van wannahave naar waarde.

Geen hype. Wel: wat werkt, wat niet, en hoe je bij die 2% hoort die wél slaagt.

Dinsdag 20 januari | 10:00 uur Meld je aan
Donderdag 22 januari | 16:00 uur Meld je aan

Het jaar is bijna voorbij en kunnen we de balans opmaken: het is er niet van gekomen!

In de Trouw las ik deze week een column van Ilyaz Nasrullah over de podcast Shell Game. Daarin probeert maker Evan Ratliff een bedrijf op te zetten dat volledig draait op AI-agents. Het doel: een miljoen dollar omzet. Het resultaat: chaos.

Van het verzinnen van een bedrijfsnaam tot het bouwen van een website – niets gaat van een leien dakje. Een AI-agent belt een sollicitant op zondagavond, terwijl het gesprek voor maandagochtend gepland stond. Wanneer de (menselijke) sollicitant vraagt of er iets mis is gegaan, verontschuldigt de agent zich uitgebreid... om vervolgens gewoon door te gaan met het gesprek.

Hilarisch. Maar ook veelzeggend.

98% haalt de werkvloer niet

Dit verhaal staat niet op zichzelf. Een paar dagen eerder kopte de Volkskrant: "98% van de AI-toepassingen haalt de werkvloer niet."

Achtennegentig procent. Dat is geen bug, dat is een patroon.

De reden? Niet de technologie. De aanpak.

Organisaties starten met AI vanuit de hype. Vanuit "we moeten iets met AI". Vanuit de techniek. Maar ze vergeten de belangrijkste vraag: voor welk probleem is dit eigenlijk een oplossing?

En precies daar gaat het mis.

Wij maakten dezelfde fout

Ik kan niet doen alsof wij hier boven staan. Wij zijn zelf ook vol enthousiasme uit de bocht gevlogen.

Sinds GPT-2 in 2019 uitkwam, experimenteren we met AI. Duizenden tests. Eigen agents gebouwd. En op een gegeven moment dachten we: laten we één agent veel verantwoordelijkheid geven op een grote dataset.

Het resultaat? Hallucinaties. Inconsistentie. Verkeerde classificaties. Foute beslissingen.

We hoopten dat OpenAI of Anthropic dit zouden fixen. Dat gebeurde niet. Deze beperkingen bestaan nog steeds.

The wild horse!

Wij behandelen AI als een wild paard. Ongelooflijk krachtig. Maar zonder teugels gevaarlijk en onvoorspelbaar.

De fout die Ratliff maakt in Shell Game – en die wij ook maakten – is AI behandelen als een mens. Een agent een naam geven, een rol, een functie. Verwachten dat het zelfstandig complexe taken uitvoert.

Wil je weten welke lessen wij hieruit geleerd hebben?
En hoe wij AI nu wél succesvol inzetten?

Meld je aan voor de webinar

Op 20 en 22 januari geven we een webinar van 30 minuten:
AI: Van wannahave naar waarde.

Geen hype. Wel: wat werkt, wat niet, en hoe je bij die 2% hoort die wél slaagt.

Dinsdag 20 januari | 10:00 uur Meld je aan
Donderdag 22 januari | 16:00 uur Meld je aan

Het jaar is bijna voorbij en kunnen we de balans opmaken: het is er niet van gekomen!

In de Trouw las ik deze week een column van Ilyaz Nasrullah over de podcast Shell Game. Daarin probeert maker Evan Ratliff een bedrijf op te zetten dat volledig draait op AI-agents. Het doel: een miljoen dollar omzet. Het resultaat: chaos.

Van het verzinnen van een bedrijfsnaam tot het bouwen van een website – niets gaat van een leien dakje. Een AI-agent belt een sollicitant op zondagavond, terwijl het gesprek voor maandagochtend gepland stond. Wanneer de (menselijke) sollicitant vraagt of er iets mis is gegaan, verontschuldigt de agent zich uitgebreid... om vervolgens gewoon door te gaan met het gesprek.

Hilarisch. Maar ook veelzeggend.

98% haalt de werkvloer niet

Dit verhaal staat niet op zichzelf. Een paar dagen eerder kopte de Volkskrant: "98% van de AI-toepassingen haalt de werkvloer niet."

Achtennegentig procent. Dat is geen bug, dat is een patroon.

De reden? Niet de technologie. De aanpak.

Organisaties starten met AI vanuit de hype. Vanuit "we moeten iets met AI". Vanuit de techniek. Maar ze vergeten de belangrijkste vraag: voor welk probleem is dit eigenlijk een oplossing?

En precies daar gaat het mis.

Wij maakten dezelfde fout

Ik kan niet doen alsof wij hier boven staan. Wij zijn zelf ook vol enthousiasme uit de bocht gevlogen.

Sinds GPT-2 in 2019 uitkwam, experimenteren we met AI. Duizenden tests. Eigen agents gebouwd. En op een gegeven moment dachten we: laten we één agent veel verantwoordelijkheid geven op een grote dataset.

Het resultaat? Hallucinaties. Inconsistentie. Verkeerde classificaties. Foute beslissingen.

We hoopten dat OpenAI of Anthropic dit zouden fixen. Dat gebeurde niet. Deze beperkingen bestaan nog steeds.

The wild horse!

Wij behandelen AI als een wild paard. Ongelooflijk krachtig. Maar zonder teugels gevaarlijk en onvoorspelbaar.

De fout die Ratliff maakt in Shell Game – en die wij ook maakten – is AI behandelen als een mens. Een agent een naam geven, een rol, een functie. Verwachten dat het zelfstandig complexe taken uitvoert.

Wil je weten welke lessen wij hieruit geleerd hebben?
En hoe wij AI nu wél succesvol inzetten?

Meld je aan voor de webinar

Op 20 en 22 januari geven we een webinar van 30 minuten:
AI: Van wannahave naar waarde.

Geen hype. Wel: wat werkt, wat niet, en hoe je bij die 2% hoort die wél slaagt.

Dinsdag 20 januari | 10:00 uur Meld je aan
Donderdag 22 januari | 16:00 uur Meld je aan

Het jaar is bijna voorbij en kunnen we de balans opmaken: het is er niet van gekomen!

In de Trouw las ik deze week een column van Ilyaz Nasrullah over de podcast Shell Game. Daarin probeert maker Evan Ratliff een bedrijf op te zetten dat volledig draait op AI-agents. Het doel: een miljoen dollar omzet. Het resultaat: chaos.

Van het verzinnen van een bedrijfsnaam tot het bouwen van een website – niets gaat van een leien dakje. Een AI-agent belt een sollicitant op zondagavond, terwijl het gesprek voor maandagochtend gepland stond. Wanneer de (menselijke) sollicitant vraagt of er iets mis is gegaan, verontschuldigt de agent zich uitgebreid... om vervolgens gewoon door te gaan met het gesprek.

Hilarisch. Maar ook veelzeggend.

98% haalt de werkvloer niet

Dit verhaal staat niet op zichzelf. Een paar dagen eerder kopte de Volkskrant: "98% van de AI-toepassingen haalt de werkvloer niet."

Achtennegentig procent. Dat is geen bug, dat is een patroon.

De reden? Niet de technologie. De aanpak.

Organisaties starten met AI vanuit de hype. Vanuit "we moeten iets met AI". Vanuit de techniek. Maar ze vergeten de belangrijkste vraag: voor welk probleem is dit eigenlijk een oplossing?

En precies daar gaat het mis.

Wij maakten dezelfde fout

Ik kan niet doen alsof wij hier boven staan. Wij zijn zelf ook vol enthousiasme uit de bocht gevlogen.

Sinds GPT-2 in 2019 uitkwam, experimenteren we met AI. Duizenden tests. Eigen agents gebouwd. En op een gegeven moment dachten we: laten we één agent veel verantwoordelijkheid geven op een grote dataset.

Het resultaat? Hallucinaties. Inconsistentie. Verkeerde classificaties. Foute beslissingen.

We hoopten dat OpenAI of Anthropic dit zouden fixen. Dat gebeurde niet. Deze beperkingen bestaan nog steeds.

The wild horse!

Wij behandelen AI als een wild paard. Ongelooflijk krachtig. Maar zonder teugels gevaarlijk en onvoorspelbaar.

De fout die Ratliff maakt in Shell Game – en die wij ook maakten – is AI behandelen als een mens. Een agent een naam geven, een rol, een functie. Verwachten dat het zelfstandig complexe taken uitvoert.

Wil je weten welke lessen wij hieruit geleerd hebben?
En hoe wij AI nu wél succesvol inzetten?

Meld je aan voor de webinar

Op 20 en 22 januari geven we een webinar van 30 minuten:
AI: Van wannahave naar waarde.

Geen hype. Wel: wat werkt, wat niet, en hoe je bij die 2% hoort die wél slaagt.

Dinsdag 20 januari | 10:00 uur Meld je aan
Donderdag 22 januari | 16:00 uur Meld je aan

Beyond the mould

Neem contact op

Hoe kunnen we je helpen groeien?

Nieuwsbrief

Abonneer je op onze nieuwsbrief

Beyond
the mould

Neem contact op

Hoe kunnen we je helpen groeien?

Nieuwsbrief

Abonneer je op onze nieuwsbrief

Beyond the mould

Neem contact op

Hoe kunnen we je helpen groeien?

Nieuwsbrief

Abonneer je op onze nieuwsbrief

Beyond the mould

Neem contact op

Hoe kunnen we je helpen groeien?

Nieuwsbrief

Abonneer je op onze nieuwsbrief