Wat jullie te wachten staat: Racisme next level - Pagina 6
  • + Plaats Nieuw Onderwerp
    Pagina 6/8 EersteEerste ... 567 ... LaatsteLaatste
    Resultaten 51 tot 60 van de 73

    Onderwerp: Wat jullie te wachten staat: Racisme next level

    1. #51
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      19.762
      Post Thanks / Like
      Reputatie Macht
      4011790

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Citaat Oorspronkelijk geplaatst door Revisor Bekijk Berichten
      ‘Zwarte lijst’ banken bevat duizenden Nederlanders

      World-Check

      Grote banken gebruiken een omstreden databank om mensen door te lichten op corruptie en terrorisme. De data blijken echter vaak verouderd.

      Mark Beunderman 25 juni 2017 om 20:04
      Foto iStock

      Wereldwijd gebruiken banken een controversiële lijst met namen van particulieren voor controle op corruptie, criminaliteit of terrorisme. De lijst is dikwijls verouderd en leidt in sommige gevallen tot het blokkeren van rekeningen of het tegenhouden van overboekingen. Dit blijkt uit onderzoek dat radioprogramma Argos en onderzoeksplatform OneWorld samen verrichtten met enkele buitenlandse media, waaronder de Britse krant The Times en de Belgische krant De Tijd.

      Het gaat om de databank World-Check, samengesteld door de financiëledataverstrekker Thomson Reuters, met meer dan twee miljoen namen. Argos en OneWorld konden een kopie uit 2014 van de niet-openbare lijst inzien. Volgens Thomson Reuters zelf maken 49 van de 50 grootste banken ter wereld gebruik van de lijst, en meer dan 300 overheidsinstanties.

      Als iemand op de lijst voorkomt, kan dat betekenen dat banken extra onderzoek doen als iemand een rekening opent of een transactie doet. Banken zijn wettelijk verplicht te letten op criminele geldstromen en terreurfinanciering en maken, bij gebrek aan een internationale overheidsdatabase, gebruik van commercieel verkochte lijsten.

      De lijst van Thomson Reuters bevat zo’n 12.000 Nederlanders. De grootste categorie vormen de ‘aan de politiek blootgestelden’, PEP’s (politically exposed persons). Dat zijn mensen die, al is het maar via familiebanden, een verbinding hebben met politiek, recht of bestuur. Zij gelden in de internationale regelgeving als relatief gevoelig voor zaken als witwassen. Overigens is dit vooral op basis van ervaringen met dictators en bestuurders van corrupte landen.

      In Nederland vormen de PEP’s een bonte en nogal willekeurige verzameling, onder wie prinses Amalia, de moeder van premier Mark Rutte en misdaadverslaggever Peter R. de Vries, die kortstondig politieke ambities had. Zelfs de in 1988 overleden vader van Rutte staat er op, wat duidt op informatie van slechte kwaliteit, stelt Argos.

      Argos noemt geen voorbeelden van ‘PEP’s’ die door de lijst daadwerkelijk in de problemen zijn geraakt met banken. Anders is dat met de categorie ‘terreur’. De Nigeriaanse milieuactivist Sunny Ofehe, tegen wie het Nederlandse OM in 2012 al een aanklacht liet vallen, stond nog steeds in de World-Check-lijst van 2014. ABN Amro blokkeerde zijn overboekingen en bevroor tijdelijk zijn geld, zegt Ofehe in het programma. ABN Amro bevestigt tegenover Argos gebruik te maken van World-Check, maar wil over het geval-Ofehe niets kwijt. In de lijst van World-Check staan 310 Nederlanders bestempeld als terrorist, terwijl op de terreurlijst van de overheid slechts 122 namen staan.

      In Londen beëindigde HSBC in 2014 op basis van World-Check de rekeningen van de Finsbury Park-moskee, vorige week nog in het nieuws omdat haar bezoekers doelwit waren van een aanslag. Onterecht werd de moskee destijds als terroristische organisatie bestempeld. De moskee klaagde Thomson Reuters aan en kreeg gelijk via een schikking. Thomson Reuters bood zijn excuses aan.

      Mensen die menen onterecht op de lijst staan of willen weten of ze erop staan, kunnen daarover volgens Thomson Reuters contact opnemen. In Argos riep Aleid Wolfsen, voorzitter van de Autoriteit Persoonsgegevens, mensen die gedupeerd zijn op zich bij hem te melden.



      https://www.nrc.nl/nieuws/2017/06/25...69764-a1564465



      Foto: ANP

      Banken kiezen eigen lijn bij coffeeshops (2)

      35 min geleden

      AMSTERDAM - Nederlandse banken kiezen hun eigen lijn bij het aangaan van relaties met coffeeshops. Er zijn geen gezamenlijke afspraken over de sector, stelt de Nederlandse Vereniging van Banken (NVB).

      De NVB reageerde op een onderzoek van Het Financieele Dagblad en Investico waaruit bleek dat 30 procent van de coffeeshops onderpand is in een hypotheek.

      ,,Het is een individuele keuze van banken, maar ze hebben wel de plicht te kijken naar integriteitsrisico's'', stelt een woordvoerder van de NVB. De grote Nederlandse banken geven dan ook aan verschillende benaderingen te hebben voor coffeeshops. ABN AMRO en de Volksbank melden geen hypotheken meer te verlenen aan coffeeshops. De Rabobank laat weten ,,zeer terughoudend'' te zijn.

      Voor betaalrekeningen kunnen coffeeshops wel bij Rabobank en ABN AMRO terecht, de Volksbank heeft geen zakelijke klanten. Dat is het gevolg van een brief uit 2010 van toenmalig minister van Financiën Wouter Bos. Het merendeel van de verstrekte hypotheekleningen met coffeeshops als onderpand dateert nog van voor die versoepeling.

      Alle banken benadrukken het dilemma waar ze door het gedoogbeleid voor coffeeshops voor worden gesteld: coffeeshops mogen wiet verkopen, maar niet inkopen. Dat leidt tot de mogelijkheid van witwassen van geld via de wietverkoop. ,,Uiteindelijk gaat het allemaal om integriteitsregels waar we ons aan moeten houden'', legt een woordvoerder van Rabobank uit. ,,En dit is een grijs gebied.''


      Banken kiezen eigen lijn bij coffeeshops (2)|Feed| Telegraaf.nl


      Zo kun je eigenlijk een rare situatie krijgen dat een coffeeshophouder op een zwarte lijst van een bank gezet kan worden maar zich laat financieren door dezelfde bank of een andere bank. De macht bepaalt wat strafbaar is.
      'One who deceives will always find those who allow themselves to be deceived'

    2. #52
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      19.762
      Post Thanks / Like
      Reputatie Macht
      4011790

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Ik loop al achter de feiten aan.


      ...
      Al die hypotheken met ‘blow-bakstenen’ als onderpand zijn moeilijk te rijmen met de terughoudendheid van banken om coffeeshops aan de voorkant te bedienen. Advocaat Maurice Veldman, raadsman van veel coffeeshops, reageert dan ook verbaasd op het grote aantal bancaire hypotheken: ‘Ik heb totaal tegenovergestelde ervaringen. Ik ben tegenwoordig meer tijd kwijt met banken dan met strafzaken. Een van mijn cliënten kreeg zelfs privé geen hypotheek toen bleek dat hij bij een coffeeshop op de loonlijst stond.’
      .....

      https://www.groene.nl/artikel/patsers-boeven-en-banken



      'One who deceives will always find those who allow themselves to be deceived'

    3. #53
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      19.762
      Post Thanks / Like
      Reputatie Macht
      4011790

      Standaard Re: Wat jullie te wachten staat: Racisme next level


      © Ubisoft

      Techblog - In dit South Park-spel word je gewaarschuwd als je een personage met een donkere huidskleur kiest

      Het laatste nieuws, geruchten en roddels over tech, internet en gadgets voor u bij elkaar geblogd door de specialisten van de Volkskrant.

      Door: Bard van de Weijer Laurens Verhagen Peter van Ammelrooy

      8 september 2017, 19:12

      #Ophef over South Park-game

      Controverse is de Amerikaanse animatieserie South Park niet vreemd. Er is zelfs een compleet lemma in Wikipedia gewijd aan alle politieke, religieuze en moralistische heisa die de serie heeft veroorzaakt in de afgelopen twintig jaar.

      Maar nu is er ook online-ophef (op de altijd lichtgeraakte interwebs) over de komende game rond Stan Marsh, Kyle Broflovski, Eric Cartman en Kenny 'My God - They Killed Kenny' McCormick - met de titel South Park: The Fractured But Whole.

      Waarom? Omdat de website Eurogamer bij een rondje proefspelen heeft ontdekt dat de game zich moeilijker laat spelen als je een personage kiest met een donkere huidskleur. Je personage verdient minder geld en ook de omgang met andere figuren in de game verloopt anders. De speler wordt ook gewaarschuwd als hij bij het personaliseren van zijn avatar de schuifregelaar op een donkere huidskleur zet, door Eric Cartman zelve:

      "Don't worry, this doesn't affect combat. Just every other aspect of your whole life." ("Maak je geen zorgen, dit heeft geen effect op hoe goed je kunt vechten. Alleen maar op ieder aspect van je leven.")Discriminatie! roept de ene helft van het internet. Satire! roept de andere twitteraar. Alle anderen kunnen vanaf 17 oktober oordelen. Dan is South Park: The Fractured But Whole te koop voor pc's en de spelcomputers PlayStation 4 en Xbox One. En zoals de animatieserie bedoeld is voor volwassen tv-kijkers heeft de game een leeftijdspredicaat van 18 jaar of ouder gekregen. (PvA)


      https://www.volkskrant.nl/tech/techb...iest~a4509849/
      'One who deceives will always find those who allow themselves to be deceived'

    4. #54
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      19.762
      Post Thanks / Like
      Reputatie Macht
      4011790

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      De computer is racistisch

      Profilering

      Als in zwarte wijken meer criminaliteit voorkomt, zal de politie er vaker patrouilleren. Dat leidt tot meer arrestaties, die computers niet neutraal registreren. „Als je ze vooroordelen voedt, krijg je vooroordelen terug.”

      Wouter van Noort 19 september 2017


      Illustratie Tomas Schats

      ‘Ik heb nog geen goed argument gehoord waarom wij de robot meer moeten vrezen dan de mens”, schreef Arnon Grunberg vorige week in zijn Voetnoot-column in de Volkskrant. Hij vraagt zich af: „Zullen er ooit robots bestaan die aan psychopathologische stoornissen lijden of hebben we het altijd over de stoornissen van de makers van die robots?”

      Die vraag is hoogst actueel nu robots steeds dieper doordringen in het dagelijks leven. En hoewel we robots en kunstmatige intelligentie nu nog niet snel zouden diagnosticeren als psychopathologisch, zijn er wél toenemende zorgen over andere typisch menselijke onvolkomenheden die robots massaal aan het overnemen zijn: racisme, seksisme en andere vooroordelen.

      Onlangs bracht Google, één van de belangrijkste ontwikkelaars van kunstmatige intelligentie, een waarschuwingsvideo over machine learning (ML), een variant van kunstmatige intelligentie. „Bij machine learning leren computers zelfstandig patronen in data te ontdekken. Daarom is het verleidelijk om te denken dat daarbij geen vooroordelen komen kijken”, vertelt de voice-over. „Maar als iets op data gebaseerd is, maakt het dat nog niet neutraal.” Volgens Google moeten gebruikers en ontwikkelaars van machine learning zich daar beter van bewust zijn.


      „ML leert als een kind of een hond,” zegt Maya Gupta aan de telefoon vanuit het Californische Mountain View. Zij is onderzoeksdirecteur van Glassbox, een belangrijk ML-lab van Google. „Als je ze vooroordelen voedt, krijg je vooroordelen terug.”

      Dat blijkt bijvoorbeeld ook bij Googles eigen zoekmachine, die met behulp van ML werkt. Tik daar de zoekopdracht ‘CEO’ in en je krijgt vooral plaatjes van witte oude mannen. Eerder moest Google excuses aanbieden omdat ML foto’s van zwarte mensen per ongeluk classificeerde als ‘gorilla’s’. Deze variant van kunstmatige intelligentie wordt niet door mensen geprogrammeerd maar leert zelfstandig welke beslissingen het neemt op basis van patronen in grote hoeveelheden data. Dat kan ervoor zorgen dat patronen uit het verleden worden voortgezet, of zelfs versterkt. „We doen er alles aan om dat soort dingen te voorkomen”, zegt Gupta. Maar dat lukt niet altijd, en Google is niet het enige bedrijf dat hiermee worstelt.

      Misdaad voorspellen

      Bevooroordeelde computers hebben zelfs al effect op arrestaties en gevangenisstraffen. Uit een onderzoek van de Amerikaanse mensenrechtenorganisatie Human Rights Data Analysis Group bleek eerder dit jaar dat veelgebruikte politiesoftware van techbedrijf Predpol de politie bovenmatig vaak naar zwarte wijken stuurde. De politie gebruikt dat soort software om bijvoorbeeld misdaad te voorspellen met behulp van patronen uit het verleden. Omdat er vaker criminaliteit was in zwarte wijken, gingen agenten daar vaker patrouilleren dan in andere wijken, wat daar leidde tot meer arrestaties. Volgens de onderzoekers ontstond zo een feedback-loop, een vicieuze cirkel die zichzelf versterkt. Misschien was vaker patrouilleren in die wijken in zekere mate gerechtvaardigd vanwege hogere criminaliteitscijfers, maar door het versterkende effect raakte de software steeds erger bevooroordeeld over zwarte wijken.

      Vorig jaar publiceerde platform voor onderzoeksjournalistiek ProPublica een ander zorgwekkend onderzoek. In de VS gebruiken honderden rechtbanken software om een inschatting te maken van het risico dat gevangenen recidiveren. Dat systeem heet Correctional Offender Management Profiling for Alternative Sanctions (Compas). ProPublica kwam erachter dat Compas zwarte verdachten benadeelde: het wees zwarte mensen vaker onterecht aan als recidivisten.

      ProPublica onderzocht de ‘risico-scores’ die het programma aan 7.000 verdachten gaf en onderzocht vervolgens hoeveel van die mensen daadwerkelijk binnen twee jaar werden opgepakt voor een ander misdrijf (hetzelfde criterium als het programma gebruikte). Bij zwarte verdachten zat de software er volgens ProPublica in 45 procent van de gevallen naast, bij witte mensen 24 procent.

      Nederland voerde eerder dit jaar als eerste land zogeheten predictive policing landelijk in: met behulp van kunstmatige intelligentie neemt de politie beslissingen over onder meer patrouilles en extra inzet. „Aan de hand van de prognoses van ‘Hot Times’ en ‘Hot Spots’ kan de politie haar capaciteit effectief inzetten,” meldde zij destijds in een ronkend persbericht over het Nederlandse Criminaliteits Anticipatie Systeem. Ook daarbij kunnen allerlei vooroordelen, feedback-loops en vicieuze cirkels voorkomen, , maar de politie wil geen vragen van NRC beantwoorden over hoe ze die voorkomen. De Orwelliaanse namen van deze technologieën helpen het publieke vertrouwen waarschijnlijk niet per se vooruit.

      Grote implicaties


      Volgens Google kunnen problemen in dergelijke software komen door drie biases (ingebakken afwijkingen), die optreden bij machine learning. De interactie-bias bijvoorbeeld, waarbij de gebruiker zelf een systeem bevooroordeeld maakt. Google vroeg gebruikers bijvoorbeeld bij een experiment om een schoen te tekenen, waarbij de meeste mensen een mannenschoen tekenden. Daardoor herkende het ML-systeem vervolgens vrouwenschoenen niet als schoenen. De tweede, zogeheten latente bias treedt op als ML op een verkeerde manier plaatjes verbindt aan geslacht, leeftijd of huidskleur. Zo komt het dat de zoekopdracht ‘CEO’ vooral oude mannen oplevert: omdat op foto’s van CEO’s nou eenmaal vaker witte mannen staan dan zwarte vrouwen.

      Dan is er ook nog de selectie-bias: die treedt op als de data die worden gebruikt om ML te ‘trainen’ onevenredig veel mensen uit een bepaalde groep bevat. Daardoor wordt het systeem beter in het herkennen van juist die specifieke groep. Dat heeft grote implicaties voor predictive policing, en bijvoorbeeld voor werving en selectie van personeel; ook dat gebeurt bij steeds meer bedrijven met behulp van kunstmatige intelligentie.

      „We doen veel onderzoek naar hoe we dit soort fouten kunnen voorkomen”, zegt Maya Gupta. „Hoe zorgvuldiger we weten wélke data we voeden aan deze systemen, en hoe beter de systemen leren van fouten, hoe minder onterechte vooroordelen er zullen optreden.” Maar ze wijst er ook op dat ML tal van voordelen meebrengt: „Want wat is het alternatief? Als je deze beslissingen aan mensen overlaat, zijn ze ook verre van perfect.” Bij computers zijn de vooroordelen in elk geval makkelijker te spotten en te corrigeren, zegt ze.

      Gupta is bezig met onderzoek naar hoe je ‘eerlijkheid’ in zelflerende computers kunt inbouwen. Dat roept direct ook de constatering op dat bedrijven als Google dus in grote mate bepalen wat ‘eerlijk’ is wat vooroordelen betreft – en wat ‘oneerlijk’. „Daarom publiceren we ook veel over dit onderwerp,” zegt Gupta. „Om zoveel mogelijk mensen te betrekken bij deze belangrijke discussies.” De grote bedrijven in ML, waaronder Google, Facebook en Apple hebben zich het afgelopen jaar verenigd in de zogeheten Partnership on Artificial Intelligence to benefit people and society, precies om dit soort problemen met kunstmatige intelligentie te ondervangen. Maar veel systemen worden ontwikkeld in grote techbedrijven die niet allemaal even transparant zijn. Bovendien: onderzoeksteams zoals bij Google zeggen ethiek serieus te nemen, maar bestaan vaak louter uit techneuten; er zitten geen ethici in Maya Gupta’s groep.

      Bescherming nodig


      Het Europees Economisch en Sociaal Comité (EESC), een belangrijk Europees adviesorgaan, waarschuwde in mei voor deze problemen. Het riep overheden op snel in actie te komen en bijvoorbeeld een Europees normerings- en certificeringssysteem te ontwikkelen om te controleren of kunstmatige intelligentie voldoet aan standaarden voor „veiligheid, transparantie, begrijpelijkheid, verklaarbaarheid en ethische waarden”. Veel politieke actie kwam er daarna niet, ondanks dat steeds duidelijker wordt dat computers leren van mensen en dat ze ook veel menselijke feilbaarheden overnemen. Mensen moeten soms tegen computers worden beschermd, maar het is ook nodig om computers tegen mensen te beschermen. Vrij naar Arnon Grunberg: soms hebben robots net zoveel te vrezen van mensen als andersom.



      https://www.nrc.nl/nieuws/2017/09/19...70987-a1573906
      'One who deceives will always find those who allow themselves to be deceived'

    5. #55
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      19.762
      Post Thanks / Like
      Reputatie Macht
      4011790

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      'One who deceives will always find those who allow themselves to be deceived'

    6. #56
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      19.762
      Post Thanks / Like
      Reputatie Macht
      4011790

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      De Voorspelbare Mens 2: Big Brother en criminaliteit https://www.npo.nl/de-voorspelbare-m...MS_AT_10651230
      'One who deceives will always find those who allow themselves to be deceived'

    7. #57
      Very Important Prikker Ibrah1234's Avatar
      Ingeschreven
      Mar 2013
      Berichten
      5.665
      Post Thanks / Like
      Reputatie Macht
      737764

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      De angst blijkt niet uit de uitkomst referendum Sleepwet. Slechts een nipte meerderheid stemde tegen en dan vnl. de drie noordelijke provincies.

    8. #58
      Speak Your Mind plz! mrz's Avatar
      Ingeschreven
      Oct 2002
      Locatie
      Leiden
      Berichten
      9.779
      Post Thanks / Like
      Reputatie Macht
      48987

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Fake nieuws next level. Terrorisme wordt allemaal over 1 kam gescheerd terwijl het gewoon cabal teringzooigeweld is en ja hoor het is weer raak. Criminelen.
      My Daily Peace of Music:
      http://www.soundcloud.com/hugo32

    9. #59
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      19.762
      Post Thanks / Like
      Reputatie Macht
      4011790

      Standaard Re: Wat jullie te wachten staat: Racisme next level




      Wat is SyRI?

      18 januari 2018

      SyRI, is dat niet de spraakherkenning van de iPhone? Nee, dat is ‘Siri’. Híer hebben we het over SyRI (Systeem Risico Indicatie): een systeem van de overheid dat persoonsgegevens van burgers aan elkaar koppelt, bedoeld om verschillende vormen van fraude, misbruik en overtredingen op te sporen.

      Met technieken van inlichtingendiensten – zoals datamining en patroonherkenning – wordt de handel en wandel van burgers gevolgd en geanalyseerd, en worden er risicoprofielen van burgers gemaakt. SyRI is vergelijkbaar met het profileren van potentiële criminelen. In principe is iedereen bij voorbaat verdacht.

      Waarom mag het, en sinds wanneer?

      SyRI is een uitwerking van de wet SUWI (Structuur Uitvoeringsorganisaties Werk en Inkomen). Deze wet werd aangenomen in 2013.

      In 2014 werd min of meer geruisloos een besluit over SyRI aan de SUWI-wet toegevoegd. In de wandeling wordt dit wel ‘het SyRI-besluit’ genoemd, maar formeel gezien is het een extra hoofdstuk in het zogenaamde SUWI-besluit. Op 12 september 2014 trad dit SyRI-besluit (zoals we het gemakshalve maar zullen blijven noemen) in werking, ondanks grote bezwaren van het toenmalige College Bescherming Persoonsgegevens en de Raad van State. Minister Asscher legde hun adviezen op belangrijke punten naast zich neer. Ook het verzoek om burgers meer inzicht te geven in wat er met hun gegevens gebeurt, werd niet ingewilligd.

      Formeel bestaat SyRI dus sinds 2014. Maar eigenlijk bestaat de SyRI-werkwijze al sinds 2008, toen – bij wijze van proef – de zogenaamde Blackbox-methode geïntroduceerd werd. Daarover straks meer.

      Wat wordt er allemaal gekoppeld?

      Volgens het officiële Besluit SUWI kan SyRI de volgende soorten gegevens aan elkaar koppelen:

      arbeidsgegevens
      boetes en sancties
      fiscale gegevens
      gegevens over roerende en onroerende goederen
      handelsgegevens
      huisvestingsgegevens
      identificerende gegevens
      inburgeringsgegevens
      nalevingsgegevens
      onderwijsgegevens
      pensioengegevens
      reïntegratiegegevens
      schuldenlastgegevens
      gegevens over uitkeringen, toeslagen en subsidies
      vergunningen en ontheffingen

      Een hele waslijst dus. En volgens privacy-juristen kan hij nog gemakkelijk aangevuld worden met nog veel meer gegevens, ook al worden die niet met name genoemd. Omdat ze gemakkelijk onder de wél genoemde items kunnen vallen, zoals water- en energieverbruik.

      Je kunt je afvragen wat er eigenlijk níet gekoppeld wordt. Volgens de Raad van State, die in 2014 een negatief advies uitbracht over SyRI, is er “nauwelijks een persoonsgegeven te bedenken dat niet voor verwerking in aanmerking komt”. Het is een “vergaande beperking van de persoonlijke levenssfeer”. En: “De opsomming lijkt niet bedoeld om in te perken, maar om zo veel mogelijk armslag te hebben,” aldus de Raad van State.

      Koppeling volgens de ‘Blackbox-methode’

      SyRI maakt gebruik van de zogenaamde ‘Blackbox-methode’. Eerst even de achtergrond daarvan. Daarna de methode zelf, en hoe die werkt.

      Gegevensbestanden mogen niet zomaar aan elkaar gekoppeld worden. Omdat daardoor niet alleen ‘verdachte personen’ maar ook ónverdachte personen geanalyseerd en geprofileerd kunnen worden.

      Tot 2008 gebeurde dat analyseren en profileren nog wél, onder andere in het project Waterproof, waarbij uitkeringsfraude werd opgespoord op basis van waterverbruik. De Autoriteit Persoonsgegevens (destijds het CBP) maakte daar bezwaar tegen. Daarom werd toen de Blackbox-methode ontwikkeld, om data ‘anoniem’ te kunnen koppelen en analyseren.

      ‘Anoniem’ tussen aanhalingstekens, omdat de gegevens niet echt geanonimiseerd worden, maar gepseudonimiseerd. Ze worden dus niet helemaal ontdaan van hun naam, maar vervangen door een pseudoniem, bijvoorbeeld een getal. Vervolgens kan dat pseudoniem weer terugvertaald worden naar de bijbehorende naam. De fase waarin gegoocheld wordt met gepseudonimiseerde gegevens, is een zwarte doos (black box).

      SyRI maakt gebruik van deze Blackbox-methode. Dat werkt dus ongeveer zo:

      de bestanden die gekoppeld moeten worden, worden eerst gepseudonimiseerd;
      vervolgens vindt de koppeling plaats, gevolgd door een analyse;
      daar rollen dan de mogelijke fraudegevallen uit;
      die mogelijke fraudegevallen worden weer van hun oorspronkelijke naam voorzien.

      In feite bestaat SyRI dus al sinds 2008, alleen heette het systeem toen anders, namelijk ‘Black Box’.

      SyRI in de praktijk

      SyRI kan officieel gebruikt worden door:

      gemeenten;
      het UWV (Uitvoeringsinstituut Werknemersverzekeringen);
      de Sociale Verzekeringsbank (die o.a. de AOW en de kinderbijslag uitkeert);
      de Inspectie SZW (voorheen de Sociale Inlichtingen- en Opsporingsdienst);
      de Belastingdienst.

      Het bovenstaande lijstje staat in de wet SUWI (artikel 64). Maar volgens privacy-juristen kan de lijst in werkelijkheid nog uitgebreid worden met meer instanties.

      De officiële procedure is als volgt:

      1. twee of meer van de bovengenoemde partijen – die we hierna ‘de vragende organisaties’ zullen noemen – sluiten een ‘samenwerkingsverband’, en verzoeken het ministerie van SZW om een risicoanalyse uit te voeren;

      2. de Stichting Inlichtingenbureau (‘Informatieknooppunt Gemeenten’) verwerkt de aangeleverde gegevensbestanden volgens de Blackbox-methode (zie boven);

      3. de potentiële hits – oftewel de resultaten die op een verhoogd risico duiden – worden teruggeleverd aan de Inspectie SZW. (Officieel worden ze teruggeleverd aan ‘de minister’, maar die houdt zich daar niet persoonlijk mee bezig natuurlijk);

      4. de Inspectie SZW analyseert de potentiële hits, bepaalt welke gegevens voor een risicomelding in aanmerking komen, en verstrekt ze daarna aan de vragende organisaties (of de politie, of het OM). Mogelijk kunnen er ook nog andere organisaties (of ‘bestuursorganen’) de risico-registraties raadplegen, dat is niet duidelijk;

      5. de vragende organisaties (of de politie of het OM) zijn verplicht om nader te onderzoeken of het echt om fraude gaat, voordat ze een sanctie (zoals een boete of een naheffing) kunnen opleggen;

      6. de risicomeldingen worden opgenomen in een register dat burgers op aanvraag kunnen inzien. Burgers worden niet automatisch op de hoogte gesteld van het onderzoek, en weten niet op grond waarvan ze verdacht zijn;

      7. het Inlichtingenbureau vernietigt direct alle resultaten die niet op een verhoogd risico duiden; het ministerie van SZW bewaart risicomeldingen maximaal 2 jaar. (Hoewel er volgens privacy-juristen situaties denkbaar zijn waarin de risicomeldingen langer bewaard kunnen worden dan 2 jaar.)

      Wat levert het op?

      De opbrengsten van SyRI zijn onduidelijk en oncontroleerbaar. Over de voorganger Black Box meldde het Ministerie van Sociale Zaken dat dat project van 2008 t/m 2014 zo’n € 21 miljoen had opgeleverd (aan naheffingen, boetes, teruggevorderde en beëindigde uitkeringen, en correcties op toeslagen). Dus € 21 miljoen over 6 jaar, oftewel een schamele € 3,5 miljoen per jaar. (Bron: Kamerbrief ‘Rapportage over SyRI-projecten’, 29 juni 2015)
      Bronnen

      Wet SUWI
      wetten.nl - Regeling - Wet structuur uitvoeringsorganisatie werk en inkomen - BWBR0013060

      Besluit SUWI (met name Hoofdstuk 5a over SyRI)
      wetten.nl - Regeling - Besluit SUWI - BWBR0013267

      WRR-rapport: ‘Big Data in een vrije en veilige samenleving’ (WRR, 2016, p.56-58)
      Niet gevonden | WRR.nl

      Volkskrant-artikel: ‘Burger wordt straks doorgelicht zoals profiel van crimineel wordt opgesteld’ (VK, 1 okt. 2014)
      Cookies op de Volkskrant

      Peter Olsthoorn: ‘Big Data voor Fraudebestrijding’ (WRR, Working Paper 21, 2016)
      Niet gevonden | WRR.nl

      Kamerbrief ‘Rapportage over SyRI-projecten’ (Ministerie SZW, 29 juni 2015)
      https://www.rijksoverheid.nl/binarie...-projecten.pdf


      https://bijvoorbaatverdacht.nl/wat-is-syri/
      'One who deceives will always find those who allow themselves to be deceived'

    10. #60
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      19.762
      Post Thanks / Like
      Reputatie Macht
      4011790

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Doorlichten burgers sociale zekerheid met behulp van SyRI



      De Raad van State oordeelt zeer kritisch over de aanpak van minister Asscher en minister Opstelten om fraudeurs op te sporen. Volgens het adviesorgaan stellen de ministers vrijwel geen grenzen aan de hoeveelheid gegevens die ze verzamelen. Bovendien is de database waarin risicomeldingen over burgers worden vastgelegd, niet wettelijk geregeld en zouden burgers over een risicomelding geïnformeerd moeten worden. De minister legt het oordeel van de Raad van State naast zich neer.

      Gemeenten en andere overheidsinstanties krijgen de mogelijkheid gegevens over burgers aan elkaar te koppelen om fraude met belastingen, uitkeringen en toeslagen op te sporen. Hiervoor is de Wet SUWI vorig jaar oktober gewijzigd (toelichting). Minister Asscher (PvdA) en minister Opstelten (VVD) publiceerden op 11 september een concrete uitwerking van deze wetswijziging. Volgens dit plan worden de volgende gegevens over iedere burger aan elkaar gekoppeld:

      arbeidsgegevens,
      boete en sanctiegegevens,
      belastinggegevens,
      gegevens over bezittingen,
      gegevens waaruit blijkt dat een persoon niet in aanmerking komt voor een uitkering,
      eventuele bedrijfsgegevens uit het handelsregister,
      woon- en verblijfgegevens
      identificerende gegevens, waaronder naam, adres, woonplaats, postadres, geboortedatum, geslacht en administratieve kenmerken,
      gegevens over eventuele inburgering en inburgeringsverplichtingen,
      nalevingsgegevens (of je je aan de wet hebt gehouden),
      onderwijsgegevens,
      pensioengegevens,
      gegevens of een persoon na een periode van ziekte zich aan de re-integratieverplichtingen houdt of heeft gehouden,
      gegevens over schulden,
      uitkerings-, toeslagen- en subsidiegegevens,
      gegevens over vergunningen en ontheffingen,
      zorgverzekeringsgegevens.

      Geschrokken
      De Raad van State (RvS) is geschrokken van deze enorme lijst aan gegevens en spreekt van een "vergaande beperking van de persoonlijke levenssfeer". De Raad concludeert: "…Er [is] nauwelijks een persoonsgegeven te bedenken dat niet voor verwerking in aanmerking komt. De opsomming lijkt niet bedoeld om in te perken, maar om zoveel mogelijk armslag te hebben." Dit verhoudt zich volgens de RvS niet tot de wettelijke plicht alleen de strikt noodzakelijke gegevens te verzamelen om een doel te bereiken. De raad vraagt zich ook af of het allemaal wel in verhouding staat tot het te bereiken doel. Bovendien zouden volgens de aangenomen wet geen medische of strafrechtelijke gegevens gebruikt mogen worden. Deze worden in het plan van de minister nu toch genoemd.

      Willekeur
      De gegevens worden bij elkaar gebracht in het Systeem Risico-Indicatie (SyRI) van een inlichtingeneenheid van de gemeente of overheidsdienst zodat er vervolgens een profiel van elke burger kan worden gemaakt. Die profielen worden getoetst aan vooraf bepaalde risicoprofielen, zodat de afwijkende personen eruit gefilterd worden. De RvS concludeert dat die risicoprofielen niet zijn vastgesteld. De inlichtingeneenheid lijkt vrij te worden gelaten om zelf filters in te stellen, zodat er naar bepaalde uitkomsten gezocht kan worden. Volgens de de RvS gaat dit in tegen de eis van de Wet bescherming persoonsgegevens dat gegevens alleen voor concrete doelen mogen worden verwerkt. De RvS spreekt van een ‘fishing expedition’ en concludeert dat deze werkwijze kan leiden tot willekeur.

      Niet geïnformeerd
      De mensen die volgens SyRI voldoen aan een risicoprofiel, komen in een database terecht. De RvS stelt dat verwerking van persoonsgegevens altijd een wettelijk basis moet hebben, maar dat deze database niet in de aangenomen wetswijziging staat vermeld. De risicomeldingen worden twee jaar in de database bewaard, maar burgers wordt niet verteld dat ze erin staan en ook niet waardoor de risicomelding ontstond. De RvS stelt dat het een wettelijke plicht is burgers over deze risicomeldingen actief te informeren.

      Minister legt advies naast zich neer
      In een reactie (achterin het RvS-advies) schrijft minister Asscher dat hij het aantal gegevens niet gaat aanpassen. Alleen de medische gegevens zullen worden uitgesloten. Ook zal hij zich niet beperken tot actuele gegevens, omdat volgens hem gegevens van langere tijd geleden soms nodig kunnen zijn. Het actief informeren van burgers zou volgens de minister teveel informatie geven over de werkwijze van de inlichtingeneenheid. Bovendien zou het een "onevenredige inspanning" van de overheid vergen.

      College Bescherming Persoonsgegevens (CBP) maakt bezwaar
      Eerder bleek al dat het CBP bezwaar heeft tegen het voorstel en het kabinet adviseerde het het wetsvoorstel niet in te dienen. Het CBP mist een specifieke onderbouwing met een belangenafweging waarbij de gevolgen van het wetsvoorstel voor de persoonlijke levenssfeer van de burger in vergelijking tot de huidige situatie worden afgewogen. Anders gezegd, de vraag is of de inbreuk op de privacy niet te groot is voor de beoogde voordelen. Het CBP vindt ook dat de bewaartermijnen van gegevens omlaag moeten.

      Zonder debat aangenomen
      De wetswijziging SUWI waarop het plan van de ministers is gebaseerd, is op 1 oktober 2013 door de Eerste Kamer als hamerstuk aangenomen. Op 12 september was het al door de Tweede kamer zonder debat en zonder stemming (PDF) aangenomen. Over dit wetsvoorstel is daarmee geen enkel debat geweest in Tweede of Eerste Kamer.

      Geen doelstelling
      Er is geen doelstelling vastgelegd hoeveel fraude moet worden opgespoord. In 2011 werd in het totaal 0,2% aan fraude geconstateerd van de circa 80 miljard euro die aan uitkeringen en toeslagen wordt besteed. Bij een pilot met deze brede gegevensuitwisseling werd 12 miljoen euro (0,01%) aan uitkeringsfraude ontdekt. De jaarlijkse kosten voor deze extra gegevens*uitwisseling via SyRI worden geschat op circa 2,5 miljoen euro.

      Laag waterverbruik kan fraude betekenen
      De minister noemt als voorbeeld van een situatie die tot een melding leidt de hoogte van het waterverbruik. De aanname is dat bij een zeer laag waterverbruik op een adres (minder dan 5 m3 per jaar) sprake is van een feitelijk niet-bewoond adres en daardoor mogelijk van verzwegen samenwoning elders, met uitkeringsfraude en huurtoeslagfraude als gevolg. Aangezien een volwassen persoon gemiddeld 45 m3 water per jaar verbruikt is het aannemelijk dat er bij een zeer hoog verbruik (meer dan 70 m3) meerdere personen op het adres wonen.

      Andere voorbeelden van mensen die nader onderzocht moeten worden, zijn mensen waarvan het banktegoed in een jaar explosief stijgt of samenlevende mensen die op verschillende adressen in het GBA staan. Ook een persoon die in een andere wijk meerdere garageboxen heeft en in korte tijd meerdere voertuigen op naam heeft gehad is volgens de minister verdacht.

      Deelnemende instanties
      In elk geval gaan de gemeenten, het UWV, de SVB, de rijksbelastingdienst en de Inspectie van het Ministerie van SZW (voorheen de Arbeidsinspectie) dit systeem gebruiken. Het wetsvoorstel laat de mogelijkheid open dat er ook andere partijen mee gaan doen, waarbij gedacht kan worden aan bijv. DUO, de instantie die de studiefinanciering uitvoert.

      In de wetswijziging is aangekondigd dat ook de gegevens van in ieder geval de volgende instanties met de overheidsgegevens worden samengevoegd:

      Drinkwaterbedrijven,

      Energiebedrijven,

      Woningcorporaties,

      Registers kinderopvang en peuterspeelzaalwerk (ivm kinderopvangtoeslag),

      Buitenlandse zaken (ivm in het buitenland gedetineerden)

      Met dit wetsvoorstel mogen bepaalde gegevens van het UWV worden doorgegeven aan pensioenfondsen, arbeidsongeschiktheidsverzekeraars, SVB en het Centraal Bureau voor de Statistiek (CBS).


      https://www.privacybarometer.nl/maat...parante_burger
      'One who deceives will always find those who allow themselves to be deceived'

    + Plaats Nieuw Onderwerp

    Bladwijzers

    Bladwijzers

    Forum Rechten

    • Je mag geen nieuwe onderwerpen plaatsen
    • Je mag geen reacties plaatsen
    • Je mag geen bijlagen toevoegen
    • Je mag jouw berichten niet wijzigen
    •