De bureaucratie van de waarschijnlijkheid

Op 1 februari 2026 heeft het Stimuleringsfonds Creatieve Industrie zijn nieuwe Richtlijn gebruik van generatieve AI. Het beleid maakt formeel een einde aan het tijdperk van "Don't Ask, Don't Tell"-schaduw-IT in de Nederlandse culturele sector. Het legt de aansprakelijkheid terecht bij de aanvrager en eist volledige transparantie over het gebruik van generatieve tools.

Vanuit het perspectief van "Digital = Governance" is dit een noodzakelijke stap vooruit. Maar bij nadere bestudering van de tekst komt een fascinerende asymmetrie aan het licht. Terwijl aanvragers AI mogen gebruiken (op voorwaarde dat ze controleren op vooringenomenheid en fouten), is het adviseurs expliciet verboden deze tools te gebruiken in hun beoordelingsproces. Onder verwijzing naar vertrouwelijkheidsverplichtingen (artikel 2:5 Awb) en de classificatie als "hoog risico" onder de EU-AI-wet, heeft het Fonds commissies juist de tools ontnomen die aanvragers gebruiken om de inhoud te genereren.

Dit leidt tot een nieuwe realiteit: sollicitanten die beschikken over probabilistische algoritmen zullen hun pitch houden voor menselijke commissies die volledig moeten vertrouwen op hun intuïtie om het kunstmatige te herkennen.

De 'beige' dreiging

We regeren niet alleen om fraude of auteursrechten te bestrijden; we regeren om de cultuur te laten voortbestaan. Twee recente onderzoeken bevestigen wat velen van ons intuïtief al aanvoelden:

  1. Homogenisering: Onderzoekers Doshi en Hauser (2025) hebben vastgesteld dat individuele, door AI gegenereerde ideeën weliswaar vaak van hoge kwaliteit zijn, maar dat ze de collectieve diversiteit aan oplossingen drastisch verminderen. AI trekt alles in de richting van het statistische gemiddelde.

  2. De „illusie van creativiteit“: Uit een studie die in januari 2026 in *Nature Scientific Reports* verscheen, bleek dat grote taalmodellen weliswaar „afwijkende“ ideeën kunnen genereren, maar moeite hebben met echte conceptuele sprongen– het soort dat kenmerkend is voor de avant-gardecultuur.

Als onze bestuursstructuren (de adviseurs) niet zijn opgeleid om dit ‘beiging’ – deze statistische afvlakking van radicale ideeën – te herkennen, lopen we het risico dat we een monocultuur van uiterst competente, perfect gestandaardiseerde, maar creatief doodlopende projecten financieren.

De bestuurskloof

In de huidige richtlijnen wordt AI vooral gezien als een juridische kwestie en een kwestie van bronvermelding („Heb je de tool vermeld?“). We moeten het echter beschouwen als een kwestie van competentie. Nu het adviseurs wettelijk verboden is om aanvragen in AI-tools in te voeren om ze te „controleren“ of patronen in duizenden inzendingen te analyseren, verandert de rol van de commissie. Ze kunnen vuur niet met vuur bestrijden. Ze moeten vertrouwen op een nieuw soort „wrijvingsproef“.

De wrijvingstest voor 2026: Als een applicatie „wrijvingsloos“ aanvoelt – als de logica te perfect verloopt, het jargon te gestandaardiseerd is en de risicobeoordeling te evenwichtig overkomt – is het waarschijnlijk het resultaat van een probabiliteitsengine. Menselijke creativiteit is rommelig. Ze kent hiaten. Ze kent „wrijving“.

Een voorstel voor commissies

We kunnen de instrumenten niet verbieden, maar we kunnen het filter wel aanpassen. Culturele bestuursorganen moeten verder kijken dan de ‘checklist’-beoordeling van de haalbaarheid en gaan letten op eigenheid.

  • Vraag naar het 'waarom', niet alleen naar het 'wat': grote taalmodellen zijn er slecht in om persoonlijke motivatie uit te leggen zonder daarbij algemeen te klinken.

  • Waardeer de "ruwe kantjes": we moeten ophouden met het afstraffen van imperfect geschreven teksten als het artistieke kernidee radicaal is. Een gepolijst voorstel is niet langer een teken van competentie; het is vaak slechts een teken van een Pro-abonnement.

De Richtlijn is een goed begin om aan de voorschriften te voldoen. Maar om de ziel van de sector te beschermen, hebben we adviseurs nodig die moedig genoeg zijn om het „volkomen gemiddelde“ af te wijzen ten gunste van het „onvolmaakte maar menselijke“.

Referenties

Stimuleringsfonds Creatieve Industrie. (2026). Richtlijn voor het gebruik van generatieve kunstmatige intelligentie (GAI). Rotterdam: Stimuleringsfonds Creatieve Industrie. Van kracht vanaf 1 februari 2026.

Doshi, A. R., & Hauser, O. (2025). "Het homogeniserende effect van grote taalmodellen op creatieve diversiteit." ScienceDirect.

Koivisto, M., & Grassini, S. (2026). "Divergente creativiteit bij mensen en grote taalmodellen." Nature Scientific Reports, 16(1).

Colofon & Transparantieverklaring

In strikte overeenstemming met de 'Richtlijn gebruik GAI' (2026) inzake transparantie:

Auteur en eindverantwoordelijke: Jorge Alves Lino.
Gebruikte generatieve tool: Littlebird (Systeem 2.2).
Omvang van de ondersteuning: Onderzoeksverificatie (PDF-analyse), bronsynthese en stilistische kalibratie.
Validatie: De menselijke auteur bevestigt dat deze tekst is gecontroleerd op vooringenomenheid en „hallucinaties“, en verklaart dat de hierin voorgestelde Friction Test is gegenereerd op basis van menselijke intuïtie, en niet door een probabilistische engine.

Jorge Alves Lino

Jorge Alves Lino-de Wit is een architect van culturele systemen die bestuursvormen als ontwerpmedium onderzoekt. Hij ontwerpt en bouwt flexibele organisatiestructuren die ervoor zorgen dat cultuur kan bloeien in het digitale tijdperk.

https://jorgealveslino.nl/
Vorige
Vorige

Bestuur als besturingssysteem | De evaluatie van de provincie Noord-Brabant

Volgende
Volgende

Het einde van de gig: een nieuwe opzet voor het contract van de artiest