Product Updates·Michiel de Jongh

Objectiever toezicht zonder black box

Hoe voorkom je onbewuste vooroordelen in toezicht én contractmanagement, zonder menselijke beoordelaars te vervangen? Wetenschappelijk onderzoek leert hoe AI kan ondersteunen.

Het dilemma: consistentie versus menselijke discretie

Als toezichthouder of contractmanager herken je het waarschijnlijk: twee vergelijkbare situaties, maar toch handel je net iets anders. Aanbieder A krijgt een waarschuwing, aanbieder B direct een onderzoek. Niet uit kwade wil, maar omdat menselijke beoordeling nu eenmaal context-afhankelijk is. Dat is soms waardevol—maatwerk vereist discretie—maar het roept ook vragen op over rechtszekerheid en gelijke behandeling.

Recent wetenschappelijk onderzoek uit de VS¹ laat zien hoe groot dit effect kan zijn: zelfs professionele rechters passen dezelfde juridische regels in slechts 52% van de gevallen consistent toe. Sympathie voor een partij, de formulering van een regel (strikt versus open), en andere extralegale factoren blijken onbewust van invloed.

De vraag is of we objectiever kunnen werken zonder de menselijke beoordelaar—en diens waardevolle discretie—te vervangen.

Wat het onderzoek laat zien (en wat niet)

Onderzoekers van de University of Chicago repliceerden een rechterlijk experiment, dit keer met GPT-5 naast 61 Amerikaanse federale rechters. De casus: een verkeersongevalzaak waarbij bepaald moest worden welk staatsrecht van toepassing was, met verschillende schadevergoedingslimieten. Het experiment varieerde drie factoren: het type regel (strikt of open standaard), de locatie van het ongeluk (die bepaalde welk staatsrecht juridisch correct was), en welke partij sympathieker werd gepresenteerd.

De resultaten waren opvallend. Rechters volgden de juridisch correcte uitkomst in 52% van de gevallen, GPT-5 in 100%. Noch rechters, noch GPT-5 lieten zich significant beïnvloeden door sympathie voor een partij. GPT-5 gaf bovendien heldere, traceerbare redeneringen zonder juridische hallucinaties of logische fouten.

Wat betekent dit? Niet dat AI beter is dan mensen. Wel dat AI kan helpen bij het consistent toepassen van objectieve regels—mits menselijke beoordelaars de eindcontrole behouden.

Rechters volgden de juridisch correcte uitkomst in 52% van de gevallen, GPT-5 in 100%. AI kan helpen bij het consistent toepassen van objectieve regels—mits menselijke beoordelaars de eindcontrole behouden.

University of Chicago

Silicon Formalism: Rules, Standards, and Judge AI (2026)

Wat dit NIET is: de les van de Toeslagenaffaire

Voor we ingaan op toepassingen, is het cruciaal te benadrukken wat dit onderzoek niet betekent en waar BasisBeeld fundamenteel van verschilt.

De Toeslagenaffaire toonde de gevaren van automatische besluitvorming zonder menselijke tussenkomst, black box-algoritmes die niemand begreep, profilering van burgers op basis van nationaliteit of postcode, en het ontbreken van ruimte voor context of menselijk oordeel.

BasisBeeld's PrivateAI werkt fundamenteel anders. Het ondersteunt maar vervangt niet: de toezichthouder of contractmanager beslist altijd zelf. Alle AI-suggesties zijn transparant en traceerbaar met bronvermelding. Er vindt geen profilering plaats van cliënten of aanbieders; de AI checkt of feitelijke gegevens kloppen met regelgeving. Menselijke discretie blijft centraal, met volledige ruimte voor maatwerk en afwijking van suggesties.

Dit onderscheid is niet cosmetisch. Het gaat om een fundamenteel andere filosofie: AI als geheugensteun en consistentiecheck, niet als beslisser. We ontwikkelen PrivateAI continu verder om deze ondersteuning steeds verfijnder en waardevoller te maken, waarbij we voortdurend leren van feedback uit de praktijk.

Wat dit WEL betekent voor toezicht en contractmanagement

Het onderzoek biedt drie concrete inzichten voor het sociaal domein.

Objectieve regels zijn controlerbaar; discretionaire ruimte blijft waardevol

Het onderzoek toont dat hoe strikter de regel, hoe consistenter de toepassing, zowel door mensen als AI. Voor toezicht en contractmanagement betekent dit dat gestructureerde toetsingskaders effectiever zijn dan open vragen. In plaats van te vragen "Hoe staat het met de kwaliteit?" werkt het beter om te vragen "Hoeveel cliënten wachten meer dan zes weken op zorg, volgens Wmo-artikel X?"

BasisBeeld gebruikt dit al in periodieke vragenlijsten met gerichte, concrete vragen, automatische signalering bij objectieve afwijkingen zoals declaraties buiten looptijd, en gestructureerde workflows voor rechtmatigheidsonderzoeken met checks op subsidiariteit en proportionaliteit. We werken continu aan het verfijnen van deze toetsingskaders op basis van ervaringen in de praktijk.

PrivateAI kan helpen door te checken of antwoorden van aanbieders kloppen met eerder ingediende declaratiedata, door voor te bereiden welke Wmo- en Jeugdwet-artikelen relevant zijn voor een dossier, en door te herkennen wanneer een situatie significant afwijkt van eerdere vergelijkbare casussen. De toezichthouder of contractmanager bepaalt altijd zelf of een afwijking terecht is (maatwerk) of onterecht (nalevingsprobleem).

Onbewuste sympathie-effecten bestaan—ook bij professionals

Het onderzoek bevestigt wat we al vermoedden: sympathie voor een partij kan onbewust meespelen, zelfs bij ervaren professionals. In de praktijk zien we herkenbare patronen waarbij een kleinschalige, lokale, idealistische aanbieder soms coulanter wordt beoordeeld dan een commerciële, grote organisatie—ook al kunnen beide dezelfde contractafspraak overtreden.

PrivateAI helpt door dossiers objectief te analyseren tegen contractafspraken en Wmo- en Jeugdwet-regelgeving, en door feitelijk te tonen waar declaraties afwijken van contractafspraken, zonder daar zelf een oordeel over te vellen. De toezichthouder beoordeelt vervolgens of er een goede reden is voor de afwijking en of dit moet leiden tot actie. We ontwikkelen deze ondersteuning continu verder, zodat signaleringen steeds relevanter en beter onderbouwd worden.

Het resultaat is niet dat je geen rekening houdt met context, maar dat je bewuster beslist wanneer je afwijkt van objectieve criteria.

Consistentie schept vertrouwen—bij aanbieders én bestuurders

Gemeente Nissewaard zag dit al in de praktijk: door gestructureerde toetsing werden aanbieders bewuster van verwachtingen. Ze vulden periodiek vragenlijsten in, zagen dat dit objectief werd getoetst, en scherpten hun eigen processen aan. Niet door dwang, maar door transparantie.

Voor contractmanagers helpt PrivateAI bij het voorbereiden van contractgesprekken door agendapunten te stellen op basis van het toetsingskader, financiële data en eerdere afspraken. In één overzicht zie je waar prestaties afwijken van het contract. Deze transparantie leidt tot gedragsverandering: aanbieders weten dat toetsing objectief is en nemen meer eigen verantwoordelijkheid.

Voor toezichthouders biedt dit rechtmatigheidsonderzoeken met ingebouwde checks op subsidiariteit en proportionaliteit. AI helpt dossiers voorbereiden, relevante regelgeving citeren en afwijkingen signaleren. Bij escalatie levert dit beter onderbouwde besluiten op, met minder discussie over mogelijke willekeur.

Hoe werkt dit in de praktijk binnen BasisBeeld?

Scenario: Toezichthouder ontvangt melding over aanbieder

Traditioneel moet je handmatig een dossier samenstellen uit meerdere bronnen, relevante Wmo- en Jeugdwet-artikelen opzoeken, checken of er eerdere meldingen zijn over deze aanbieder, en beoordelen of de situatie proportioneel genoeg is voor een onderzoek.

Met PrivateAI-ondersteuning stelt de AI een dossier samen met alle relevante gegevens: contracten, eerdere meldingen en declaratiedata. Het toont relevante Wmo- en Jeugdwet-artikelen met citaten en signaleert bijvoorbeeld dat er eerder twee vergelijkbare meldingen waren die beide niet escaleerden. Jij beoordeelt vervolgens of je een onderzoek start of eerst een gesprek aangaat met de aanbieder.

Wat PrivateAI niet doet: besluiten of een aanbieder "verdacht" is, aanbieders categoriseren in risicoprofielen, of automatisch vervolgstappen afdwingen. We blijven deze ondersteuning verfijnen, zodat de informatie die je krijgt steeds completer en relevanter wordt.

Scenario: Contractmanager bereidt gesprek voor

Zonder ondersteuning betekent dit Excel-sheets met financiële data handmatig doornemen, eerdere notulen terugzoeken, checken welke KPI's waren afgesproken, en agendapunten samenstellen.

Met PrivateAI-ondersteuning stelt de AI agendapunten voor op basis van het toetsingskader en geconstateerde afwijkingen. Het toont bijvoorbeeld dat wachttijden zijn gestegen van drie naar zeven weken, wat de contractafspraak van maximaal vier weken overschrijdt, en citeert een eerdere afspraak uit de notule van Q2 2025 waarin werd toegezegd de wachtlijst terug te brengen. Jij bepaalt vervolgens of je dit nu formeel of informeel bespreekt.

Wat PrivateAI niet doet: bepalen of een aanbieder "goed" of "slecht" presteert, automatisch consequenties adviseren zoals boetes of beëindiging, of beslissen welke agendapunten verplicht zijn. Naarmate we meer leren van de praktijk, wordt de ondersteuning bij gespreksvoorbereiding steeds gerichter.

AI als geheugensteun en consistentiecheck, niet als beslisser. Geen black box. Geen profilering. Geen automatische besluitvorming. Wel ondersteuning die menselijke beoordelaars helpt bewuster én consistenter te werken.

BasisBeeld PrivateAI Principe

Transparantie en traceerbaarheid: geen black box

Elke AI-suggestie in BasisBeeld is traceerbaar. Je ziet waar de suggestie vandaan komt (bronvermelding: contractafspraak, Wmo-artikel, eerdere notule), waarom AI dit voorstelt (afwijking van norm, eerdere afspraak, wettelijke verplichting), en wat je ermee hebt gedaan (gevolgd, genegeerd, aangepast—vastgelegd in het Journaal).

Dit zorgt voor verantwoording richting bestuur bij vragen waarom aanbieder X wel is onderzocht en Y niet. Het biedt leermomenten, bijvoorbeeld wanneer blijkt dat je vaak afwijkt bij kleinschalige aanbieders, waarna je kunt reflecteren of dit terecht is of een vooroordeel. En het garandeert AVG-compliance: geen geautomatiseerde besluitvorming, wel volledige logging.

Deze traceerbaarheid ontwikkelen we continu verder. We leren welke informatie het meest waardevol is voor toezichthouders en contractmanagers, en hoe we die informatie het best kunnen presenteren.

Conclusie: Objectiviteit vergroten, menselijke controle behouden

Wetenschappelijk onderzoek toont dat zelfs professionals onbewust worden beïnvloed door sympathie en door hoe regels zijn geformuleerd. PrivateAI in BasisBeeld helpt toezichthouders en contractmanagers objectiever werken, niet door hen te vervangen, maar door feitelijke afwijkingen te signaleren zonder te oordelen, relevante regelgeving en eerdere afspraken te onthouden zonder handmatig zoeken, consistentie te bevorderen bij vergelijkbare gevallen, en transparant te blijven doordat alle suggesties traceerbaar zijn terwijl jij beslist.

We ontwikkelen PrivateAI continu verder, leren van jullie feedback, en verfijnen de ondersteuning stap voor stap. Geen black box. Geen profilering. Geen automatische besluitvorming. Wel ondersteuning die menselijke beoordelaars helpt bewuster én consistenter te werken.

Meer weten?

Meer informatie vind je in ons whitepaper "PrivateAI in BasisBeeld: Ondersteuning Zonder Automatisering", of vraag een demo aan om te zien hoe PrivateAI rechtmatigheidsonderzoeken en contractgesprekken voorbereidt. Neem contact op via info@basisbeeld.nl.


Bronvermelding:

¹ Posner, E.A. & Saran, S. (2026). Silicon Formalism: Rules, Standards, and Judge AI. University of Chicago Coase-Sandor Institute for Law & Economics Research Paper No. 26-02.


Over BasisBeeld

BasisBeeld is het innovatieve platform voor contractmanagement, toezicht, beleid en kwaliteitsborging in het sociaal domein (Wmo en Jeugdwet). Met PrivateAI, centrale databeheer en gemeente-overstijgende samenwerking (BasisNet) helpen we toezichthouders, contractmanagers en beleidsmedewerkers betere, snellere beslissingen te nemen—met respect voor de menselijke maat en zonder automatische besluitvorming.

Tags

AIToezichtTransparantieContractmanagementPrivateAI