Search this site
Embedded Files
LearningLion
  • Home
  • Werking van LearningLion
    • Preprocessing
    • Retrieval
    • Generation
    • Controlestap
  • Use Cases
    • Kamervragen
    • Woo-verzoeken
  • Compliance
    • AVG
    • Auteursrecht
    • AI verordening
    • Algoritmeregister
  • Andere lopende onderzoeken
  • Meet the Team!
  • Nieuws
  • Begrippenlijst
LearningLion
  • Home
  • Werking van LearningLion
    • Preprocessing
    • Retrieval
    • Generation
    • Controlestap
  • Use Cases
    • Kamervragen
    • Woo-verzoeken
  • Compliance
    • AVG
    • Auteursrecht
    • AI verordening
    • Algoritmeregister
  • Andere lopende onderzoeken
  • Meet the Team!
  • Nieuws
  • Begrippenlijst
  • More
    • Home
    • Werking van LearningLion
      • Preprocessing
      • Retrieval
      • Generation
      • Controlestap
    • Use Cases
      • Kamervragen
      • Woo-verzoeken
    • Compliance
      • AVG
      • Auteursrecht
      • AI verordening
      • Algoritmeregister
    • Andere lopende onderzoeken
    • Meet the Team!
    • Nieuws
    • Begrippenlijst

Lara Mutsaers

Hoe Toets je Verantwoorde AI?

10 oktober 2024

Wat betekent verantwoorde AI eigenlijk? 

Voor de overheid betekent dat:

  1. De overheid voldoet aan bestaande wet- en regelgeving;

  2. Voorafgaand aan het gebruik van AI per casus een risico-analyse wordt uitgevoerd. Dit zijn een Data Protection Impact Assessment (DPIA) en een algoritme impact assessment zoals een Impact Assessment Mensenrechten en Algoritmes (IAMA). Daarmee worden de risico’s en risicobeperkende maatregelen vastgesteld;

  3. De uitkomsten van de DPIA ter advies worden voorgelegd aan de Chief Information Officer (CIO) en de Functionaris Gegevensbescherming (FG).

De bovengenoemde punten zijn ook van toepassing bij het gebruiken of (door)ontwikkelen van een open source generatieve AI-toepassing.

Wat is een DPIA?

Als het algoritme persoonsgegevens verwerkt, moet er een DPIA worden uitgevoerd. Dit is een instrument om vooraf privacy risico’s van een gegevensverwerking in kaart te brengen. Zo kunnen er maatregelen worden genomen om deze risico’s te verkleinen. Bij het uitvoeren van een DPIA moet onder meer worden geïdentificeerd wat de doelen zijn van de verwerking van de gegevens. Deze moeten ook relevant zijn voor de keuzes rondom de inzet van het algoritme.

De uitkomsten van het DPIA moeten verplicht worden gedeeld met de Functionaris Gegevensbescherming (FG) om advies te vragen over de uitkomsten.

Wat is een IAMA?

Dit impact assessment is een instrument voor discussie en besluitvorming binnen de overheid. Het maakt een dialoog mogelijk tussen verschillende disciplines en stakeholders die betrokken zijn bij de ontwikkeling of inzet van een algoritmisch systeem. Het bevat veel vragen die discussie oproepen met als doel om ervoor te zorgen dat alle relevante aandachtspunten rondom de inzet van een algoritme in een vroegtijdig stadium en op een gestructureerde manier aan bod komen. Hierdoor worden negatieve consequenties tegengegaan die kunnen optreden als er te snel een algoritme wordt ingezet.

De vragen van de IAMA moeten worden beantwoord als een overheidsorgaan overweegt een algoritme te (laten) ontwikkelen, in te kopen, aan te passen en/of in te gaan zetten. Daarnaast kan het dienen als reflectie.

Het IAMA vind zijn grondslag in een groot aantal richtsnoeren en handreikingen. Twee voorbeelden zijn het Ethische Richtsnoeren voor betrouwbare Kunstmatige Intelligentie en Handreiking non-discriminatie by design.

Vragen die in het IAMA voorkomen hebben onder andere te maken met het doel van het algoritme, publieke waarden, wettelijke grondslag, verantwoordelijkheden, betrouwbaarheid en mensenrechten. Alle ingrediënten om te voldoen aan de vereisten voor een verantwoorde AI.

Meer lezen?

  • Overheidsbrede visie Generatieve AI

  • Voorlopig standpunt generatieve AI kabinet - Digitale Overheid

  • IAMA

  • Ethische richtsnoeren voor betrouwbare KI

  • Non-discriminatie by design

  • Data protection impact assessment

Google Sites
Report abuse
Google Sites
Report abuse