De rijksoverheid weet van veel kunstmatige intelligentie (AI) niet of die naar behoren werkt. Voor meer dan de helft van de AI-systemen die het Rijk gebruikt, zeggen overheidsorganisaties dat de kansen nog niet zijn afgewogen tegen eventuele risico’s. Bovendien is er een prikkel om risico’s laag in te schatten. Dat blijkt uit een op 16 oktober 2024 gepubliceerd onderzoek van de Algemene Rekenkamer.
De Rekenkamer heeft bij 70 overheidsorganisaties geïnventariseerd welke AI-systemen zij gebruiken of hebben gebruikt. De meeste organisaties geven aan AI te gebruiken, maar gebruiken meestal maar een paar AI-systemen. Bijna alle organisaties zeggen niet meer dan 3 systemen te gebruiken. De organisaties die het meest gebruik maken van AI zijn de politie en het UWV. Zij gebruiken respectievelijk 23 en 10 AI-systemen. AI wordt vooral gebruikt voor toepassingen waar burgers en bedrijven niet direct mee te maken hebben. Zo zetten organisaties AI in om kennis te vergaren of te verwerken, of om hun interne processen te optimaliseren. Een deel van de AI-systemen heeft wel een directe impact op burgers en bedrijven. Zo zetten organisaties AI-systemen in voor inspectie en handhaving of om de dienstverlening voor burgers en bedrijven te verbeteren.
Efficiënte interne bedrijfsvoering
Overheidsorganisaties geven aan dat zij het efficiënter maken van interne bedrijfsvoering als grootste kans voor AI zien. Zo zou AI kunnen helpen bij mogelijke personeelstekorten. Toch is bij een derde van de gebruikte systemen voor de organisaties niet bekend of het AI-systeem de verwachting waarmaakt. Organisaties benoemen diverse obstakels waardoor ze de kansen van AI nog niet optimaal kunnen benutten: onvoldoende expertise en capaciteit, onduidelijkheden over weten regelgeving voor datadeling, onvoldoende toereikende infrastructuur en een toenemende verantwoordingslast. Voor meer dan de helft van de opgegeven AI-systemen hebben de organisaties geen risicoafweging gemaakt. Voor een derde van de opgegeven AI-systemen met een hoog risico is geen risicoafweging gemaakt. Daar waar wel een risicoafweging is gemaakt, valt op dat dit niet op uniforme wijze gebeurt. De instrumenten die organisaties gebruiken lopen uiteen van privacytoetsen en AI-toetsingskaders tot zelfontwikkelde risicoanalyses. Er is geen rijksbreed instrument om risico’s af te wegen. De organisaties classificeerden de risico’s van de meeste opgegeven AI-systemen als minimaal volgens de AI-verordening. Dit betekent niet dat deze AI-systemen vrij van risico’s zijn. Risico’s als privacyschending blijven aanwezig.