Onderzoek opgestart na discriminatie/etnisch profileren door Belastingdienst - Pagina 14
  • + Plaats Nieuw Onderwerp
    Pagina 14/14 EersteEerste ... 41314
    Resultaten 131 tot 132 van de 132

    Onderwerp: Onderzoek opgestart na discriminatie/etnisch profileren door Belastingdienst

    1. #131
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.588
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Onderzoek opgestart na discriminatie/etnisch profileren door Belastingdienst


      ______

      Wat is een algoritme?


      Een algoritme is niets meer dan een serie instructies die door een computer kan worden uitgevoerd. In veel huidige discussies rond algoritmes in besluitvorming wordt vaak gedoeld op zogenoemde ‘zelflerende’ algoritmes. Het gaat dan om algoritmes die op grond van veel datavoorbeelden en bijbehorende uitkomsten de belangrijkste patronen leren die tot die uitkomsten hebben geleid.

      Wat vaak vergeten wordt is dat de datavoorbeelden en uitkomsten door mensen worden aangeleverd, en algoritmes alleen op grond van gegeven data kunnen optimaliseren. Een daadwerkelijk ‘menselijk intelligent’ breder begrip van de wereld hebben zij niet.

      Discussies over maatschappelijk onwenselijke uitkomsten van algoritmes beperken zich vaak tot de techniek. Terwijl de rol van mensen in het aanleveren van data (met mogelijke vooroordelen) en het bepalen wat ‘goede’ en ‘foute’ uitkomsten zijn, veel belangrijker is bij de uiteindelijke besluitvorming.


      Er zijn meer indicatoren bekend van het risicoclassificatiemodel. De bekendste is de indicator Nederlander/niet-Nederlander, waarmee geselecteerd wordt op het al dan niet hebben van de Nederlandse nationaliteit. Daarvan oordeelde de AP vorig jaar al dat deze discriminerend werkt. Daarnaast is uit inmiddels openbare documenten te achterhalen dat bijvoorbeeld de afstand tussen het woonadres van ouders en de locatie van de kinderopvang een indicator was, evenals de hoogte van de opvanguren, het aantal kinderen op de opvang, of het feit dat iemand geregistreerd stond als wanbetaler bij zijn ziektekostenverzekering.

      Uiteindelijk waren zo’n 20 indicatoren ‘significant genoeg om door het algoritme gebruikt te worden in de risicobepaling’, zo liet de Belastingdienst in 2019 weten aan de zogeheten commissie-Donner, die de toeslagenaffaire onderzocht. Welke dat zijn, wil de Belastingdienst niet zeggen omdat dit het toezicht zou ondermijnen.

      Hoog inkomen, lager risico


      Aan diezelfde commissie-Donner legt de Belastingdienst uit dat er niet alleen indicatoren zijn die een hoger risico opleveren. Bepaalde indicatoren kunnen de risicoscore ook ver*lagen. Als voorbeeld noemt de Belastingdienst ‘een hoog inkomen’ of ‘bevestiging via contra-informatie’. Van dat laatste zegt de Belastingdienst nu dat het nooit een indicator is geweest in de risicoclassificatie.

      Maar het inkomen, dat speelde wel degelijk een rol, bevestigt de fiscus. “In het verleden bleek uit de ervaringsgegevens die in het risicoclassificatiemodel Toeslagen werden gebruikt een statistisch verband tussen de hoogte van het inkomen en de kans op een (on)juiste aanvraag. Deze indicator werd in ieder geval vanaf maart 2016 diverse keren met variabele grenswaarden in het model van Toeslagen gebruikt”, laat een woordvoerder weten.

      Bij navraag blijkt dat het inkomen zowel een positieve (hogere) bijdrage, als een negatieve bijdrage aan de score kan geven. Met andere woorden: een laag inkomen zorgt voor een hogere risicoscore, een hoog inkomen juist voor een lagere. Dat er geselecteerd is op inkomen, is volgens de woordvoerder ook te verdedigen. “De controles van Toeslagen waren (en zijn) gericht op het voorkomen van hoge terugvorderingen.” Omdat hoge terugvorderingen vooral voor mensen met een laag inkomen een probleem vormen, vindt de Belastingdienst het verdedigbaar dat zij ‘eerder in aanmerking komen voor controle op onjuistheden’.

      Wat de ‘grenswaarden’ voor het inkomen zijn, zegt de Belastingdienst niet. Wel stelt de fiscus: “De impact van de individuele variabele ‘inkomen’ op de hoogte van de toeslag is klein. Dit geldt ook voor het gewicht van deze variabele in de controle op onjuistheden.”

      Als de indicator ‘inkomen’ inderdaad maar licht meetelde in de risicoselectie, is er iets heel geks aan de hand. Feit is namelijk dat het model vooral lage inkomens een hoge risicoscore toekende, blijkt uit cijfers die de Belastingdienst zelf aan de commissie-Donner stuurde. Van de 1000 hoogste risicoscores uit het model, heeft 82,3 procent een huishoudinkomen van minder dan 20.000 euro. Dat is ruim elf keer zoveel als het percentage van alle aanvragers van toeslag: daar heeft 7,3 procent van de aanvragers een huishoudinkomen onder de 20.000 euro.

      “Dat is een enorm verschil”, reageert Liem. “Hoe het model precies werkt, is op basis van openbare informatie niet na te gaan. Maar als de uitkomst zo inzoomt op een specifieke groep, in dit geval lage inkomens, dan moeten er alarmbellen afgaan bij de ambtenaren die met die modellen werken.”

      Zonder precieze inzage in het model is het gissen naar een verklaring voor dat verschil. Een manier is dat de indicatoren die het model gekozen heeft, onderling verband houden. Bijvoorbeeld: als de postcode van mensen een indicator is, zegt dit indirect ook iets over het inkomen. “Als je een laag inkomen hebt, woon je waarschijnlijk niet in Wassenaar.”

      Opvallend is ook het percentage alleenstaanden


      Een laag inkomen is overigens niet het enige kenmerk dat eruit springt bij de hoogste risicoscores. Opvallend is ook het percentage alleenstaanden (86,9 procent, tegen 14 procent van alle aanvragers), en het aantal mensen met meer dan 200 uur opvang per maand (34,7 procent, tegen 1,2 procent van alle aanvragers). Het kost weinig moeite om het verband te zien tussen dit soort kenmerken. Alleenstaanden hebben doorgaans meer opvang nodig als zij werken, en hebben tegelijkertijd een lager huishoudinkomen, aangezien voor toeslagen de inkomens van beide partners worden opgeteld. Zo kan een laag inkomen via verschillende indicatoren een heel hoge risicoscore veroorzaken.

      Een andere verklaring voor het enorme aandeel van lage inkomens, ligt in de start van het model. Onlangs gaven ambtenaren van de Belastingdienst al toe dat er ‘relatief veel lage inkomens’ in FSV stonden vermeld. “Op basis van die gegevens is het model getraind – dat is dus precies een manier waarop je fouten importeert in je model”, zegt Liem. “Zonder dat je het zelf wilt of ziet, selecteert je model dan op lage inkomens.”

      De statistische term daarvoor is selectiebias: de selectie van gegevens waarvan het model denkt dat ze representatief zijn voor alle aanvragers van toeslagen, geven in werkelijkheid een vertekend beeld. Dat is een probleem als het onbewust gebeurt, maar bij Toeslagen heeft de manier waarop het model gebruikt is waarschijnlijk ook nog eens gezorgd voor ‘doorselectie’, een zichzelf versterkende selectiebias.

      _____

      Controle betekent nog geen correctie


      Dit artikel beschrijft de manier waarop de Belastingdienst aanvragen voor toeslagen selecteerde voor extra controle op fouten of fraude. Dat er sprake was van extra controle betekent echter niet automatisch dat die aanvragen ook gecorrigeerd, of zelfs volledig afgewezen worden. “Het model gaf een overzicht van aanvragen waar mogelijk een fout in zat en die moesten worden nagekeken, niet of de aanvraag zelf correct was”, zegt de Belastingdienst.

      Uit de toeslagenaffaire is echter gebleken dat extra kans op controle wel degelijk gevolgen had. Zo stelt de commissie-Donner dat sprake was van ‘institutionele vooringenomenheid’. De commissie beschrijft de praktijk waarin bij vermoedens, ook als het ging om selectie door het risicoclassificatiemodel, vooral werd gezocht naar bevestiging. Dat blijkt ook uit de hoeveelheid correcties die er plaatsvonden bij controle: tussen 2014 tot en met 2019 werd bij 62 procent van de gecontroleerde aanvragen de toeslag naar beneden bijgesteld. Gemiddeld ging het dan om een vermindering van 45,2 procent van het aangevraagde toeslagbedrag.

      Daar komt bij dat Toeslagen de afspraak had gemaakt jaarlijks minimaal 25 miljoen euro aan ‘fraude’ terug te pakken. Dat bedrag werd gebruikt om het risicoclassificatiemodel op te zetten en extra personeel aan te nemen om fraude op te sporen. In maart vorig jaar bleek dat Toeslagen extra inzette op controle van door hen bepaalde ‘hoge risico’s’ als de 25 miljoen euro niet gehaald werd. Bedoeld om ‘een hogere opbrengst te genereren’, staat in een verslag van het management van Toeslagen uit 2018. In 2019 zou de Belastingdienst gestopt zijn met het sturen op een minimale opbrengst.


      Hoe zit dat? Toeslagen controleerde alleen de hoogste risicoscores die door het model werden bepaald. De uitkomsten daarvan werden gebruikt om het model verder te trainen. Het model versterkt zo zijn eigen vooroordelen: als het vermoedt dat bij lagere inkomens meer kans is op fraude, worden vooral die aanvragen gecontroleerd en zoomt het steeds verder in op lage inkomens. “Iedereen die iets weet van risicoselectie weet dat je alert moet zijn op selectiebias”, zegt Liem. Dat kan bijvoorbeeld door aselect steekproeven te trekken bij aanvragers van toeslagen, en de uitkomsten daarvan ook te gebruiken om het model te trainen. Of door bewust ook lagere risicoscores te controleren, om het model te trainen met aanvragen die een beter totaalbeeld geven.

      Er is geen geld uitgetrokken om de selectiebias tegen te gaan


      Die aselecte steekproeven en controles van lage risicoscores vonden de afgelopen jaren juist niet plaats, blijkt uit interne documenten van de Belastingdienst. “Wij onderzoeken alleen de hoge scores en er is geen toezichtproces dat ook andere kenmerken onderzoekt”, schrijft de fiscus in maart in een onderzoek. Dat daarmee selectiebias in de hand wordt gewerkt is bekend, maar er is voor gekozen geen tijd en geld uit te trekken om dat tegen te gaan. In juli vorig jaar werd besloten het risicoclassificatiemodel uit de lucht te halen, na een kritisch rapport van onderzoeksbureau KPMG. Oorspronkelijk was het plan om na wat kleine aanpassingen het model na vier tot zes weken weer in gebruik te nemen. Nader onderzoek liet zoveel gebreken zien dat de Belastingdienst gestart is met een pilot van het zogeheten behandelkeuzemodel, voorlopig alleen nog getest bij de huurtoeslag.

      Volgens de Belastingdienst gebruikt het behandelkeuzemodel geen zelflerende algoritmen. “De selectie van aanvragen die worden gecontroleerd, wordt gedaan op basis van opvallende zaken”, zegt een woordvoerder. “Denk aan de situatie dat een aanvrager van huurtoeslag in korte tijd drie keer de huurprijs aanpast. Dit kan een signaal zijn dat de aanvrager niet weet welke huurprijs hij moet invoeren.” Ook krijgen zowel ambtenaren als burgers die gecontroleerd worden bij dit model informatie over de reden waarom de aanvraag is geselecteerd voor controle.

      Hoofddocent Liem heeft zo haar twijfels over de nieuwe aanpak. “Bij algoritmes weet je welke systematiek is toegepast om tot een score te komen. Leidt die systematiek tot vragen of twijfels, dan kun je die herzien, en de herziene versie opnieuw systematisch toepassen. In het nieuwe model wordt alles overgelaten aan de behandelende ambtenaren. Beslissingen zijn overgeleverd aan individuen. Maakt dit de dienstverlening niet trager, onsystematischer, en gevoeliger voor persoonlijke willekeur en vooroordelen, die wij toch bewust of onbewust zullen hebben?”

      Met dank aan Ilyaz Nasrullah


      https://www.trouw.nl/politiek/hoe-de...aude~bbb66add/
      'One who deceives will always find those who allow themselves to be deceived'

    2. #132
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.588
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Onderzoek opgestart na discriminatie/etnisch profileren door Belastingdienst

      Commentaar Belastingdienst

      Hoe een algoritmefuik drama’s veroorzaakt

      24 november 2021

      De fnuikende werking van algoritmes is opnieuw naar boven gekomen bij de Belastingdienst. Onder de groep mensen bij wie een verhoogde kans zou bestaan op fraude doken opvallend veel lage inkomens op. De precieze oorzaak is onduidelijk, al is wel gebleken dat het algoritme dat de selectie bepaalt, is getest op een volstrekt ondeugdelijke database met vermeende fraudeurs. Garbage in, garbage out, zeggen de Engelsen in zo’n geval: wie een model baseert op onzin, krijgt er slechts onzin uit.

      Dat algoritmes schadelijk kunnen uitpakken, blijkt ook bij sociale media. Die leiden de gebruiker een fuik in met vergelijkbare boodschappen of filmpjes, steeds net iets extremer. Een tunnel met steeds minder alternatieve visies op de werkelijkheid. Dat kan dramatische gevolgen hebben, bijvoorbeeld als zo vijandbeelden worden versterkt, of complottheorieën worden bevestigd.

      In het geval van overheden komt bovenop het gebruik van algoritmes de inzet van staatsmacht. En die macht was in het geval van de Belastingdienst enorm. Algoritmes waren zeker niet het enige probleem in de Toeslagenaffaire, maar de wijze waarop selectiecriteria zichzelf steeds bevestigen zorgde ervoor dat de macht van de overheid zich bovenmatig op een specifieke groep richtte. Met hier als uitkomst dat opvallend veel mensen met een laag inkomen werden getroffen, juist de groep die niet kan voldoen aan de keiharde eisen tot terugbetaling bij veronderstelde fraude met toeslagen.

      Terughoudend

      Er is dan ook alle reden terughoudend te zijn met de inzet van algoritmes door de overheid. Want het gaat vaker mis. Zo is een algoritme door de gemeente Nissewaard ingezet tegen mogelijke bijstandsfraude, terwijl de achterliggende selectie van de te onderzoeken burgers in nevelen gehuld bleef – reden om ermee te stoppen. De Rekenkamer in Rotterdam concludeerde dat discriminatie de algoritmes in kon sluipen, niet zozeer direct (afkomst, geslacht, nationaliteit mogen er niet in zitten), maar wel indirect via laaggeletterdheid. Op basis van een serie van dit soort Nederlandse voorbeelden waarschuwde Amnesty vorige maand de VN voor de gevaren van algoritmes bij de overheid.

      Register van algoritmes

      Zijn er oplossingen? De Rotterdamse Rekenkamer bepleit een register van algoritmes, zodat controleerbaar is welke er zijn en hoe ze zijn opgebouwd. Amsterdam beschikt al over zoiets, maar het vereist wel heel veel kennis over de werking van algoritmes bij de gemeenten zelf.

      Hoe dan ook moet iedere inzet van algoritmes worden getoetst met willekeurige steekproeven. En vooral met de inzet van gezond verstand: wie een serieuze oververtegenwoordiging van groepen mensen aantreft, moet zich voortdurend afvragen of hij niet door een veel te nauwe tunnel naar de werkelijkheid zit te kijken.

      Het commentaar
      is de mening van Trouw, verwoord door leden van de hoofdredactie en senior redacteuren.


      https://www.trouw.nl/opinie/hoe-een-...aakt~b0970405/
      'One who deceives will always find those who allow themselves to be deceived'

    + Plaats Nieuw Onderwerp

    Bladwijzers

    Bladwijzers

    Forum Rechten

    • Je mag geen nieuwe onderwerpen plaatsen
    • Je mag geen reacties plaatsen
    • Je mag geen bijlagen toevoegen
    • Je mag jouw berichten niet wijzigen
    •