vak & mens

advocaat en algoritme

Moet ambtenaar AI-gebruik melden?

De inzet van AI en algoritmes binnen asiel­procedures roept vragen op over transparantie en toetsbaarheid. In recente rechtszaken is geëist dat het gebruik van AI, zoals de Case Matcher, expliciet wordt gemeld bij besluit­vorming, wat leidt tot meer openheid over deze technologie binnen de Immigratiedienst.

Het politieke debat over het asielbeleid gaat vaak over grenscontroles, slagbomen en bordjes met ontmoedigende teksten bij azc’s. Maar ook bij de IND zijn algoritmes al jaren ingeburgerd. Asielaanvragen kunnen met Case Matcher worden gerelateerd aan vergelijkbare casussen. Maar voor de recht­bank ontkent de IND steeds dat deze AI-tool in dat specifieke geval is ingezet. In mei liet de recht­bank Rotterdam de Immigratiedienst hiermee nog wegkomen, in een beroep van iemand die al een asiel­procedure in Duitsland had lopen: ‘Dat verweerder in het algemeen gebruik kan maken van Case Matcher maakt echter niet dat dat in dit geval ook zo is.’

In juni volgde een uitspraak van de recht­bank Groningen, over een tweede asielaanvraag van een Algerijn. Advocaat Gonny Meijering uit Assen stelde weer Case Matcher aan de orde, en de IND bezwoer andermaal dat het algoritme niet was gebruikt. Maar nu overwoog de recht­bank ‘uitdrukkelijk dat de minister, totdat de Case Matcher in rechte is getoetst, in de besluit­vorming het gebruik moet vermelden als zij in een zaak gebruikmaakt van de Case Matcher’. Het beroep was ongegrond, maar de rechter eiste in navolging van de Raad voor de rechtspraak voortaan meer transparantie over niet-getoetste AI.

Weer een paar weken later deed Meijering in een nieuwe zaak over een jezidi-vrouw een beroep op die nieuwe voorwaarde. Dit beroep bleek gegrond, omdat de IND niet weerlegde dat AI was gebruikt bij de afwijzing van de aanvraag. Ook gaf de dienst geen uitsluitsel over de complexiteit van Case Matcher. Het zou een eenvoudige zoekmachine zijn, maar deze staat wel in het algoritmeregister en IND-mede­werkers moeten een cursus volgen voordat ze het systeem mogen gebruiken.

Nog een week later, afgelopen juli, behaalde Meijering een tweede overwinning met een beroep op hetzelfde criterium. Nu ging het over een cliënt die op 14 mei een COA-medewerker met een wandelstok zou hebben geslagen en daarom was overgeplaatst naar een handhaving en toezichtlocatie. Het besluit hiertoe was in twee dagen op papier gezet en daarbij was mogelijk weer AI gebruikt, oordeelde de rechter. Die breidde de verlangde transparantie zomaar uit naar ‘AI, in welke vorm dan ook’. De rechter oordeelde ‘dat niet kan worden uitgesloten dat in onderhavige procedure gebruik is gemaakt van AI voor het redigeren en vormgeven van het plaatsingsbesluit dan wel voor de verslaglegging van het op 14 mei 2025 plaatsgevonden incident’. Het beroep was gegrond en de man krijgt een kleine schade­vergoeding van het COA.

Betekent dit nu dat bij elke beschikking veelgebruikte AI-tools als Copilot, Gemini, Siri of ChatGPT moeten worden gemeld? De recht­bank Groningen kan de uitspraak verder niet toelichten. Het COA laat weten: ‘De overweging van de recht­bank vinden wij te ver gaan en kan forse precedentwerking hebben. Er is daarom hoger beroep ingesteld tegen de uitspraak.’

Meijering wil niet ingaan op de reikwijdte van de overweging voor AI in het algemeen. Ze focust zich op Case Matcher en hoopt dat de recht­bank in een volgende zaak op 29 oktober eindelijk toekomt aan het toetsen van dat algoritme. Er is volgens haar geen door de AVG voor­geschreven Data Protection Impact Assessment gedaan naar de tool, en dat zou een reden kunnen zijn voor onrecht­matigheid. Die zittingsdag zijn toevallig ook de Tweede Kamerverkiezingen. Die lijken wederom grotendeels in het teken te staan van noodwetten en dichte grenzen en veel minder over strengere regels voor het gebruik van AI.