AIJB

Hoe kunstmatige intelligentie het rechtssysteem verandert – en waarom dat nu echt belangrijk is

Hoe kunstmatige intelligentie het rechtssysteem verandert – en waarom dat nu echt belangrijk is
2025-11-06 voorlichting

tilburg, donderdag, 6 november 2025.
Voor het eerst krijgt een hoogleraar in Nederland een specifieke leerstoel gewijd aan de verantwoorde rol van AI binnen de rechtsstaat. Francien Dechesne neemt vanaf 1 november 2025 haar functie aan Tilburg University op, met als kernvraag: hoe zorgen we dat AI in het rechtssysteem eerlijk, transparant en verantwoord wordt ingezet? Het is geen kwestie van techniek alleen, maar van morele keuzes – bijvoorbeeld bij risicobeoordelingen in het strafrecht. Intrigerend? De leerstoel wordt gefinancierd door het WODC, het wetenschappelijk centrum van het ministerie van Justitie, wat laat zien dat de overheid nu serieus meedenkt over de ethische gevolgen van AI. Dit is geen toekomstvisie, maar een stap die vandaag wordt genomen om morgen vertrouwen te behouden in het recht.

Een nieuwe stap in de verantwoorde integratie van AI in het recht

Vanaf 1 november 2025 neemt Francien Dechesne haar functie op als bijzonder hoogleraar ‘Data and AI for the Rule of Law’ aan de Tilburg School of Humanities and Digital Sciences. Haar aanstelling is een historisch moment: het is de eerste leerstoel in Nederland die specifiek is gewijd aan de verantwoorde toepassing van kunstmatige intelligentie binnen het kader van de rechtsstaat. Dechesne, die al universitair hoofddocent ethiek en digitale technologie is aan de Universiteit Leiden, breidt haar onderzoek uit naar de juridische, ethische en governance-vraagstukken rond AI in de justitie en veiligheid [1]. De leerstoel wordt gefinancierd door het Wetenschappelijk Onderzoek- en Datacentrum (WODC) van het ministerie van Justitie en Veiligheid, wat wijst op een duidelijke overheidseer aan de noodzaak van wetenschappelijke kennis bij de implementatie van AI in het publieke domein [1]. Haar werk richt zich op het waarborgen van transparantie, rechtvaardigheid en verantwoording bij het gebruik van AI, met name in gevoelige toepassingen zoals risicobeoordelingen in het strafrecht, besluitvorming in het openbaar bestuur en het beheer van persoonsgegevens [1]. De combinatie van haar academische achtergrond in informatica, wiskunde en filosofie maakt haar geschikt voor een interdisciplinaire benadering van complexe vraagstukken rond AI en recht [1].

Van techniek naar morele keuzes: de kern van het werk van Dechesne

Dechesne’s leerstoel gaat verder dan technische optimalisatie; zij richt zich op de morele en maatschappelijke implicaties van AI in het rechtssysteem. Haar onderzoek kijkt naar hoe biologische vooroordelen en sociale uitsluiting kunnen worden versterkt door algoritmes, met name in contexten waarbij AI beslissingen neemt over vrijheid, straf en toegang tot diensten [2]. Ze analyseert hoe racialisering van witte identiteit en andere structurele ongelijkheden kunnen worden versterkt door AI-systemen die op historische data worden getraind, wat leidt tot een versterking van bestaande ongelijkheden in het rechtssysteem [2]. Door haar functie bij het eLaw Centrum voor Recht en Digitale Technologie aan de Universiteit Leiden en haar nieuwe rol in Tilburg, is zij in staat om kennisoverdracht tussen universiteiten en overheidsinstanties te bevorderen, met het oog op een verantwoorde integratie van AI in het publieke domein [1]. Haar positie tussen de afdeling Cognitive Science and AI en het Tilburg Institute for Law, Technology, and Society (TILT) onderstreept de interdisciplinaire aard van haar werk, waarin technologie, filosofie en juridische wetenschap samenkomen [1].

AI in de praktijk: van risicobeoordeling tot vertrouwen in de rechtsstaat

In het strafrecht worden risicobeoordelingssystemen al sinds 2010 gebruikt om de kans op herhaald crimineel gedrag te voorspellen, maar hun betrouwbaarheid en eerlijkheid worden steeds vaker betwist. Dechesne’s werk richt zich op het analyseren van deze systemen om te voorkomen dat zij onbedoeld discriminatie bevorderen, bijvoorbeeld op basis van ras of sociaal-economische achtergrond [1][2]. De leerstoel onderzoekt hoe transparantie en verantwoording kunnen worden gegarandeerd, zodat rechters en overheidsinstanties weten hoe AI tot een bepaalde conclusie komt, en waarom die conclusie niet moet worden geaccepteerd zonder kritische beoordeling [1]. Dit is cruciaal, want zonder transparantie kan AI als een ‘zwarte doos’ fungeren die beslissingen neemt zonder duidelijke basis of controle. De WODC, dat de leerstoel mogelijk maakt, benadrukt dat hoogwaardige wetenschappelijke kennis essentieel is voor het rechtvaardige gebruik van data en AI in justitie en veiligheid [1]. Door een combinatie van academisch onderzoek en samenwerking met overheidsinstellingen wil Dechesne bijdragen aan een systeem dat niet alleen efficiënt is, maar ook vertrouwenswaardig en rechtvaardig voor alle burgers.

Het brede kader: waarom het rechtssysteem nu op AI moet reageren

De snelheid waarmee AI wordt geïntegreerd in overheidsdienstverlening en juridische praktijken vereist een snelle en verantwoorde reactie van het rechtssysteem. Dechesne’s aanstelling is een direct antwoord op de toenemende druk op het recht om met technologische veranderingen om te gaan, vooral in het licht van de groeiende populariteit van AI in het openbaar bestuur [1]. Geen enkele andere wetenschappelijke discipline hoeft nu meer te denken aan het verband tussen technologie en recht dan de ethiek van AI, omdat systemen die ooit als ondersteunend werden gezien, nu kritische beslissingen nemen over mensenleven, vrijheid en toegang tot diensten [2]. Haar werk helpt bij het ontwikkelen van kaders voor governance die garant staan voor eerlijkheid, verantwoording en controle. Dit is niet langer een kwestie van toekomstvisie, maar van huidige verantwoordelijkheid: de rechtsstaat moet voorkomen dat technologie het vertrouwen van burgers ondermijnt [1].

Bronnen