Wat jullie te wachten staat: Racisme next level - Pagina 10
  • + Plaats Nieuw Onderwerp
    Pagina 10/11 EersteEerste ... 91011 LaatsteLaatste
    Resultaten 91 tot 100 van de 105

    Onderwerp: Wat jullie te wachten staat: Racisme next level

    1. #91
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.243
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Casper Albers

      De Britse overheid liet examencijfers schatten door een algoritme, en maakte idiote menselijke keuzes




      25 augustus 2020

      De scholen zijn weer geopend en het zal een speciaal jaar worden. Minister Slob opende het jaar in stijl: op de eerste schooldag kondigde hij een onderzoek aan naar de ventilatie op scholen – een onderzoek dat je ook had kunnen doen tijdens de zomervakantie. De voorzitter van de ondernemingsorganisatie voor de installatiebranche, de branche die geld verdient aan het advies om ventilatiesystemen te vervangen, leidt het onderzoek. In de wetenschap zijn scherpe regels over belangenverstrengeling, dat zouden ze in het publieke bestuur ook eens moeten proberen.

      Ook het hoger onderwijs opent komende week weer zijn deuren. De eindexamens gingen niet door en alle eindexamenkandidaten zijn daarom geslaagd. Een klein percentage is daarmee ten onrechte geslaagd en zal waarschijnlijk over de bindendstudieadvieslat struikelen. Liever dat dan scholieren ten onrechte te laten zakken.

      In het Verenigd Koninkrijk (zonder Schotland) hebben ze het een stuk slechter aangepakt. Aanmelding bij een Britse universiteit doe je voor het eindexamen en dan word je toegelaten op voorwaarde dat je bijvoorbeeld drie keer een A* haalt (A* is het hoogste ‘cijfer’ dat je voor een vak kunt halen). Dure, prestigieuze universiteiten leggen de lat daarbij hoger dan andere universiteiten. Duizenden scholieren hadden zo’n conditionele toelating van hun universiteit naar keuze ontvangen. En toen gingen de examens niet door.

      De overheid heeft voor elke scholier daarom de eindexamenresultaten geschat
      op basis van een algoritme. Door het zo te framen, dacht de overheid de schuld aan de computer te kunnen geven bij tegenvallende resultaten, maar dat algoritme wordt natuurlijk gevoed door menselijke keuzes. En die waren hier vrij idioot.

      De eindexamenresultaten werden voorspeld op basis van drie ingrediënten. Het model begon met de resultaten op een oefenexamen aan het begin van het schooljaar en een advies van de school. Daar zijn kanttekeningen bij te plaatsen, maar je moet iets bij gebrek aan beter. Het ging mis omdat ook gekeken werd naar de prestaties van de school in de afgelopen jaren.

      Om zo goed mogelijk de schoolresultaten te voorspellen is dit een slimme aanpak. Om individuele resultaten te voorspellen niet. Stel, je hebt twee leerlingen, Achmed en Bloem, die op basis van hun proefexamen en schooladvies exact dezelfde score krijgen. Het algoritme bevoordeelt vervolgens Bloem omdat haar school in een wijk stond vol met rijke, hoogopgeleide ouders, en straft de kinderen op de school in de volksbuurt van Achmed.

      Hier kwam (
      ruim van tevoren al) terecht een heleboel kritiek op en uiteindelijk besloot de Britse overheid om de cijfers aan te passen op alleen de individuele prestaties.

      Hoewel ook in Nederland het egalitaire onderwijssysteem, van basisschool tot universiteit, steeds meer onder druk komt te staan, is het nog lang niet zo erg als bij de Britten. Slaag je voor het vwo (met het juiste vakkenpakket), dan ben je welkom aan de universiteit, ongeacht je cijferlijst. Niet alleen geef je zo laatbloeiers een betere kans, het scheelt ook veel gedoe bij pandemiesituaties.

      Ik ben in ieder geval blij dat ik volgende week weer voor een brede, diverse groep studenten mijn college mag streamen.

      Casper Albers is hoogleraar statistiek aan de Rijksuniversiteit Groningen


      https://www.volkskrant.nl/wetenschap...uzes~bb7a9602/
      'One who deceives will always find those who allow themselves to be deceived'

    2. #92
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.243
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level


      © Veerlesillustraties

      Datum: 29 september 2020

      Nederland: maak een einde aan gevaarlijke politie-experimenten met massasurveillance


      De Nederlandse politie moet een einde maken aan het gebruik van algoritmische systemen die leiden tot massasurveillance en etnisch profileren. Dat stelt Amnesty International in een vandaag verschenen rapport dat de mensenrechtenrisico’s van ‘predictive policing’ blootlegt.

      Het rapport We Sense Trouble: Automated Discrimination and Mass Surveillance in Predictive Policing in the Netherlands beschrijft de gevaren van ‘predictive policing’, een werkwijze die steeds meer wordt gebruikt door de Nederlandse politie. De predictive policing-projecten, die de politie ‘proeftuinen’ noemt, gebruiken wiskundige modellen om het risico in te schatten dat door een bepaalde persoon of op een bepaalde locatie een strafbaar feit wordt gepleegd. De politie richt haar inzet vervolgens op de personen of locaties die aangemerkt worden als ‘hoog risico’.

      Sensing-project in Roermond


      Een van deze voorbeelden is het Sensing-project in Roermond. Bij dit project probeert de politie mobiel banditisme in Roermond te voorkomen. De politie gebruikt de term ‘mobiel banditisme’ voor verschillende vermogensdelicten, zoals zakkenrollerij en winkeldiefstal. Volgens de politie zijn het vooral mensen uit Oost-Europese landen die zich hieraan schuldig maken. Bij het Sensing-project worden gegevens geregistreerd van alle voertuigen die in en om Roermond rijden.

      ‘Wat tot voor kort in sciencefiction-films te zien was, is werkelijkheid geworden voor miljoenen mensen in Nederland’, zegt Merel Koning, senior beleidsadviseur technologie en mensenrechten bij Amnesty International. ‘Dit predictive policing-project onderwerpt mensen aan massasurveillance. Dat is nooit gerechtvaardigd.’

      Massasurveillance in Roermond


      Door het gebruik van camera’s en andere sensoren houdt de politie systematisch alle mensen in de gaten die in en rond Roermond rijden. En verzamelt informatie over voertuigen en bewegingspatronen. Deze gegevens worden vervolgens verwerkt in een algoritmisch model dat een ‘risicoscore’ berekent voor ieder voertuig. De politie gelooft dat dit informatie geeft over de kans dat bepaalde bestuurders en inzittenden in de stad zijn om een strafbaar feit te plegen.

      Als een voertuig als ‘hoog risico’ wordt aangemerkt, probeert de politie om de auto staande te houden om de bestuurder en inzittenden te controleren. De Nederlandse wet beschermt mensen onvoldoende tegen dit soort willekeurige en discriminerende politiecontroles.

      ‘De inwoners van Roermond, en mensen die naar de stad reizen, worden eigenlijk gebruikt als proefkonijn in een experiment waarvoor ze geen toestemming hebben gegeven. Het Sensing-project leidt tot een schending van hun recht op privacy, databescherming en non-discriminatie’, zegt Merel Koning.

      Vooroordelen en discriminerend


      Predictive policing-methodes worden vaak aangeprezen als ‘objectief’ en ‘neutraal’. Ook volgens de Nederlandse politie is het systeem neutraal en gebaseerd op objectieve criminaliteitscijfers. Dit klopt echter niet: vooroordelen en stereotypen beïnvloeden de modellen en algoritmes. En dat leidt tot discriminerende uitkomsten met hogere risicoscores voor bepaalde maatschappelijke bevolkingsgroepen, zoals in dit geval mensen uit Oost-Europa.

      Oproep Amnesty International


      Het is duidelijk dat het Sensing-project discrimineert en is ontworpen om vooral mensen met een Oost-Europese nationaliteit te profileren en tot doelwit te maken. De Nederlandse autoriteiten moeten een einde maken aan het Sensing-project en vergelijkbare experimenten.

      Amnesty International pleit voor een verplichte, bindende mensenrechtentoets voor het gebruik van predictive policing-technologieën.



      https://www.amnesty.nl/actueel/neder...sasurveillance
      'One who deceives will always find those who allow themselves to be deceived'

    3. #93
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.243
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Nederland heeft een algoritmewaakhond nodig

      Privacy Ondanks de toeslagenaffaire blijft de overheid dubieuze algoritmes gebruiken, ziet Dagmar Oudshoorn. Tijd voor een toezichthouder.


      Dagmar Oudshoorn is directeur van Amnesty International over algoritmes.

      Auto’s schuiven aan richting het Designer Outlet Centre in Roermond. Marcel van Hoorn / ANP

      Volhardende journalisten en Kamerleden hebben ervoor gezorgd dat onschuldige burgers die slachtoffer waren van de toeslagenaffaire van de Belastingdienst eindelijk gehoord werden. Begin dit jaar dwong een groep burgerrechtenactivisten via de rechter af dat de overheid moet stoppen met het omstreden gebruik van algoritmes om uitkeringsfraude op de sporen. We kunnen er als samenleving echter niet op vertrouwen dat journalisten, Kamerleden en activisten ons beschermen tegen de risico’s van het gebruik van algoritmes door de overheid. Daarom is het hoog tijd voor een algoritmewaakhond die de overheid controleert.

      Uit een nieuw onderzoek van Amnesty International blijkt dat de Nederlandse politie al meer dan anderhalf jaar Roermond onder massasurveillance heeft. Iedere autobeweging wordt minutieus vastgelegd, geanalyseerd en bewaard. Dat de meeste bestuurders van de auto’s niets met criminaliteit te maken hebben, lijkt de politie niet uit te maken. Door het verzamelen van al die gegevens worden op grote schaal de privacyrechten geschonden van inwoners van Roermond en bezoekers aan de stad.

      Dit zogenaamde Sensing-project is onderdeel van een politieproject om zakkenrollers aan te pakken in een winkelcentrum in Roermond. Door massasurveillance worden veel gegevens verzameld die de politie gebruikt om voorspellingen te doen over deze vorm van criminaliteit. Op deze enorme hoeveelheid data, die de politie illegaal en zelfs met medeweten van het OM verzamelt, worden algoritmes losgelaten – sets van regels die conclusies trekken uit gegevens.

      Deze leiden tot resultaten die bepalen of de politie wel of niet ingrijpt in een bepaalde situatie. Volgens de politie is deze vorm van optreden ‘objectief’ en ‘neutraal’, omdat het systeem is gebaseerd op ‘objectieve’ criminaliteitscijfers. Maar onder andere door de gekozen cijfers en het gebruik van algoritmes zijn de resultaten bij dit project discriminerend: vooral mensen uit Oost-Europa komen naar boven en hebben dus een grotere kans om door de politie te worden gecontroleerd.

      Discriminerende uitkomsten

      Algoritmes lijken objectief, maar software is door mensen gemaakt en de systemen zijn afhankelijk van de gegevens die mensen erin stoppen. Die gegevens kunnen berusten op vooroordelen en dus kunnen de conclusies tot discriminatie leiden.

      Als er altijd al veel politieaandacht was voor criminaliteit begaan door een bepaalde bevolkingsgroep, zal het algoritme op basis van die gegevens voorspellen dat deze groep zich in de toekomst ook schuldig zal maken aan criminaliteit: dat blijkt immers uit de gebruikte en vertekenende data. En dit kan weer leiden tot discriminerende uitkomsten voor bepaalde groepen, bijvoorbeeld in het geval van Roermond Oost-Europeanen.

      Bij het project in Roermond speelt discriminatie ook een rol door het gebruik van nationaliteiten in risicoprofielen, net als bij de toeslagenaffaire van de Belastingdienst gebeurde. Dat is verboden. Maar niemand bij de politie, het Openbaar Ministerie of de gemeente Roermond greep in. Ook de toezichthouder (de Autoriteit Persoonsgegevens) deed niets want deze putte uit één informatiebron met betrekking tot dit experiment: de politie zelf – en die bleef stil.

      Mensenrechtentoets


      Het feit dat de politie onder het mom van ‘een experiment’ onze privacy op grote schaal heeft kunnen schenden, zegt veel over de politie en andere overheidsorganen die betrokken zijn bij het project, maar zegt nog meer over het gebrek aan heldere regels voor het gebruik van algoritmes. Dat overheden algoritmes kunnen misbruiken wanneer ze niet zijn gebonden aan heldere regels, weten we. Een goed voorbeeld hiervan is de toeslagenaffaire van de Belastingdienst.

      Op dit moment weet niemand welke instanties algoritmes gebruiken en op welke manier, en of er sprake is van discriminatie of geautomatiseerd etnisch profileren. En dat is zorgwekkend. Daarom is het hoog tijd dat de Tweede Kamer in actie komt. Want iedereen is gebaat bij de bescherming van onze privacy.

      Om massasurveillance en discriminatie met algoritmes te stoppen, moet het hele proces transparanter worden. Er moet een bindende mensenrechtentoets komen die instanties verplicht zijn uit te voeren voorafgaand en tijdens het gebruik van algoritmes. Voor geslaagd toezicht op het gebruik van algoritmes is het belangrijk dat een toezichthouder bij de data, de gebruikte risicoprofielen en algoritmes kan om er verder onderzoek naar te doen. Het Sensing-project in Roermond moet per direct worden gestaakt.


      https://www.nrc.nl/nieuws/2020/10/14...nodig-a4016038
      'One who deceives will always find those who allow themselves to be deceived'

    4. #94
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.243
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      HRW: China gebruikt artificiële intelligentie bij onderdrukking Oeigoeren

      IPS . 11 december 2020



      China maakt gebruik van artificiële intelligentie om moslims in de regio Xinjiang willekeurig op te pakken, zegt Human Rights Watch. Meer dan tweeduizend mensen werden zo opgesloten. De mensenrechtenorganisatie spreekt van ‘geautomatiseerde repressie’.

      Het Chinese datasysteem Integrated Joint Operations Platform (IJOP) selecteert met behulp van artificiële intelligentie mensen voor ondervraging en mogelijke opsluiting. China gebruikt het systeem in Xingjiang om Oeigoeren, een Turkssprekende moslimminderheid, te onderdrukken, zegt Human Rights Watch (HRW).

      Tweeduizend gedetineerden


      Het was al bekend dat China allerlei data van de inwoners van Xingjiang verzamelt en opslaat. Het gaat onder meer om biometrische gegevens zoals DNA, vingerafdrukken en irisscans.

      De mensenrechtenorganisatie zag nu een gelekte lijst met daarop namen van meer dan tweeduizend gedetineerden uit het district Aksu in Xingjiang. Het IJOP had de namen eerst geselecteerd als potentieel bedreigend.

      Politiediensten gebruikten die automatische selectie vervolgens om mensen te ondervragen en naar heropvoedingskampen in Xinjiang te sturen, zegt HRW, dat spreekt van ‘geautomatiseerde repressie’.

      Oproepen uit het buitenland


      Volgens Human Rights Watch selecteren de IJOP-algoritmen mensen op basis van gedrag dat perfect legaal is. Zo werd ‘mevrouw T.’ vastgehouden omdat het IJOP-systeem haar had gemarkeerd vanwege ‘banden met gevoelige landen’. De vrouw had in maart 2017 vier telefoonoproepen ontvangen van een buitenlands nummer. De Aksu-lijst vermeldt van elk gesprek de exacte tijdsduur, tot op de seconde.

      ‘Met andere woorden, het IJOP-systeem is geprogrammeerd om bepaald gedrag te herkennen, oproepen naar een buitenlands nummer, waarbij de exacte duur van de oproepen wordt genoteerd.’

      Verplichte arbeid


      Human Rights Watch belde dat nummer en ontdekte dat het aan de zus van mevrouw T. toebehoorde. Die vertelde aan de organisatie dat haar zus door de politie was ondervraagd rond de datum die de Aksu-lijst als haar detentiedatum heeft geregistreerd. De politie had daarbij specifiek naar haar zus gevraagd omdat die in het buitenland woont.

      In China zitten naar schatting een miljoen Oeigoeren en andere moslims opgesloten.
      De zus heeft sindsdien geen rechtstreeks contact meer gehad met haar familie in Xinjiang. HRW vermoedt dat mevrouw T. is vrijgelaten uit het heropvoedingskamp. Via een tussenpersoon heeft haar zus vernomen dat ze nu in een fabriek werkt en alleen in het weekend naar huis mag. Ze vreest dat haar zus tegen haar wil in die fabriek werkt.

      Miljoen Oeigoeren opgesloten

      In China zitten naar schatting een miljoen Oeigoeren en andere moslims opgesloten. In haar World Report 2019 noemde de mensenrechtenorganisatie de repressie in het land “de ergste sinds de bloedige onderdrukking van de protesten op het Tiananmenplein.”

      Sinds 2016 heeft de regionale regering van Xinjiang het repressieve beleid aangescherpt, inclusief beperking van reizen naar het buitenland en gedwongen terugkeer van jongeren die in het buitenland studeren.

      ‘Predictive policing-platforms zijn eigenlijk niet meer dan een pseudowetenschappelijk vijgenblad voor de Chinese regering om de enorme onderdrukking van Turkssprekende moslims te rechtvaardigen’, zegt HRW-onderzoeker Maya Wang. ‘De Chinese regering moet het IJOP onmiddellijk sluiten, alle verzamelde gegevens verwijderen en iedereen vrijlaten die willekeurig wordt vastgehouden in Xinjiang.’


      https://www.mo.be/nieuws/hrw-china-g...king-oeigoeren
      'One who deceives will always find those who allow themselves to be deceived'

    5. #95
      Prikker
      Ingeschreven
      Sep 2005
      Berichten
      812
      Post Thanks / Like
      Reputatie Macht
      165223

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      [video] Syrisch vluchtelingengezin geterroriseerd door buurman in Heerlen
      Door Redactie - 16 dec 2020
      Heerlen
      In een video die is gepubliceerd door Muslim Rights Watch Nederland (MRWN) is te zien dat een gezin uit Syrië in Heerlen wordt geterroriseerd door de buurman. Onderstaande beelden kunnen als heftig worden ervaren. UPDATE: de gemeente Heerlen en Politie zeggen in een verklaring het Syrische gezin en betrokkenen te ondersteunen en helpen “Dit met als doel zo snel als mogelijk de rust en het veiligheidsgevoel terug te brengen binnen het gezin en in de buurt.“



      De vader van het vluchtelingengezin, dat inmiddels is ondergedoken in België, verklaart dat hij reeds een aanvraag heeft ingediend voor een gepaste woning en nog in afwachting is van een reactie. Ondanks herhaaldelijke aangiftes tegen de buurman, die op beelden te zien is terwijl hij het huis van het gezin probeert binnen te dringen, en naar verluidt zelfs de dochter seksueel zou hebben geïntimideerd, zouden er geen stappen zijn ondernomen tegen de man. De buren van de Syrische man beschuldigen hem juist van seksuele intimidatie en stalking, volgens De Limburger. Vooralsnog zijn daar geen beelden van verschenen.

      Wel heeft de woningcorporatie Vincio Wonen, volgens MRWN een kort geding aangespannen om het Syrische gezin uit de woning te zetten. –Update 17-12-2020 – 19:50 uur: de rechter oordeelde [LINK] dat voldoende aannemelijk is gemaakt dat het Syrische gezin voor overlast zorgde, maar ging niet mee in de eis om het gezin uit huis te plaatsen. Vinicio Wonen lijkt hier in aanloop naar deze escalatie van geweld haar zorgplicht te hebben verzaakt.- De politieke partij Denk heeft aangekondigd Kamervragen te zullen stellen.
      © DutchTurks.nl

    6. #96
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.243
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Big data

      Een algoritme is niet neutraal, ook een overheidsalgoritme niet



      Beeld Idris van Heffen

      Dat de overheid volop gebruikmaakt van algoritmes is bekend. Maar deugen de data wel die daarvoor worden gebruikt?


      Kristel van Teeffelen30 maart 2021, 19:59

      De wijk Groenewoud in Tilburg staat er wat betreft leefbaarheid niet goed op. Volgens de zogeheten Leefbaaro*meter van het ministerie van binnenlandse zaken scoort de buurt in het zuiden van de Brabantse stad een ‘zwak’. Vooral met de veiligheid is het er niet goed gesteld, maar het zijn ook de bewoners die de leefbaarheid volgens de barometer naar beneden trekken.

      Die Leefbaarometer is een algoritme dat buurten in heel Nederland een score toewijst. Niet gewoon voor de lol, zodat iedereen kan zien hoe zijn eigen buurt op de kaart staat. Gemeenten gebruiken de computerberekening bijvoorbeeld om voor het ministerie te onderbouwen waarom ze in bepaalde buurten mensen voor woningen mogen weigeren die geen werk hebben, of die een strafblad hebben. Ook Tilburg doet op verschillende plekken in Groenewoud, zwaaiend met onder meer de ‘zwak’ van de Leefbaaro*meter in de hand, een beroep op die zogeheten Wet bijzondere maatregelen grootstedelijke problematiek, beter bekend als de Rotterdamwet.

      Daarmee is de Leefbarometer een van de vele algoritmes die de overheid de afgelopen jaren omarmde en waar burgers de gevolgen van merken. Wie niet aan de criteria voldoet, kan geen huis krijgen in Groenewoud en op andere plekken waar de Rotterdamwet wordt ingezet. Gemeenten gebruiken algoritmes om te bepalen wie er extra streng wordt benaderd omdat hij in het *risicoprofiel van een fraudeur past. En de politie bepaalt met computerberekeningen op welke wijk ze vanavond extra de aandacht zullen vestigen.

      Er zijn een hoop kanttekeningen te plaatsen


      Maar deugen die algoritmes wel? Er zijn volgens Gerwin van Schie, die aan de Universiteit van Utrecht onderzoek doet naar algoritmes bij de overheid, een hoop kanttekeningen te plaatsen. Zo is het volgens hem hoog tijd dat er meer aandacht komt voor de data die voor de berekeningen worden gebruikt en de vraag wat daar het gevolg van is. “Daar wordt op dit moment bij de overheid nog heel naïef mee omgegaan. Er is te weinig besef dat algoritmes een vertekend beeld van de werkelijkheid laten zien en dat het de ongelijkheid kan vergroten in de samenleving.”

      Vooral bij het gebruik van gegevens over etniciteit wordt duidelijk waar de pijnpunten liggen. Neem weer diezelfde Leefbaaro*meter. Volgens het ministerie worden de scores voor een wijk bepaald op basis van honderd ‘voornamelijk objectieve indicatoren’, zoals het type woningen in de wijk, de voorzieningen en het aantal misdrijven. Die graadmeters zijn bepaald nadat uit ‘uitvoerig statistisch onderzoek’ is gebleken dat ze een goede inschatting geven of een buurt als leefbaar wordt ervaren, staat op de site van de Leefbaarometer.

      ‘Achtergronden hebben *een negatieve invloed op de uitkomst van het algoritme’


      Van Schie wijst op de indicator ‘bewoners’. Een buurt krijgt mede een score toebedeeld voor leefbaarheid op basis van de mensen die er wonen en waar die vandaan komen. Uit Suriname, Marokko of Turkije, bijvoorbeeld. “Die achtergronden hebben *allemaal een negatieve invloed op de uitkomst van het algoritme. Autochtoon staat er niet tussen, blijkbaar is dat een factor die voor de score niet uitmaakt.”

      In de Leefbaarometer wordt iemands land van herkomst dus ingezet om een waardeoordeel te geven aan de leefomgeving. Van Schie vindt dat om verschillende redenen kwalijk. Het werkt stigmatiserend en discriminerend. Maar ook problematisch is dat de Leefbaarometer volgens hem teveel een meting van de werkelijkheid lijkt, terwijl dat het niet is. Het is een voorspelling van hoe leefbaar een bepaalde plek is. “De Leefbaarometer is onder meer gebaseerd op onderzoeken onder bewoners naar de ervaren leefbaarheid in verschillende wijken. Dat is vervolgens verklaard met data. Zo is teruggerekend welke factoren invloed hebben en dat is geëxtrapoleerd naar alle wijken.”
      Eigenlijk moet je ervan uitgaan dat ieder algoritme zo zijn beperkingen kent, zegt Christian Verhagen van Verdonck, Klooster & Associates. Hij adviseert verschillende overheden bij de inzet van computerberekeningen. “Het is goed om te beseffen dat er altijd keuzes worden gemaakt in datasets en dat deze invloed hebben op de uitkomst van algoritmes. Kijk naar de politie die met allerlei data aan de slag gaat om te bepalen waar ze extra gaan surveilleren. In de systemen staan geregistreerde misdrijven, dat betekent niet dat die de werkelijkheid weergeven.”

      Nog een voorbeeld, opnieuw over etniciteit. Sommige algoritmes van de overheid maken gebruik van data van het Centraal Bureau voor de Statistiek (CBS). Dat gebeurt bijvoorbeeld bij het project Zicht op ondermijning, wat tot doel heeft patronen rond zaken als drugsproblematiek of misbruik van vastgoed voor gemeenten inzichtelijk te maken. Voor elke gemeente wordt bijvoorbeeld voorspeld hoe groot het risico is dat jongeren er in de drugscriminaliteit belanden. Verschillende factoren spelen daarbij een rol, waaronder opleiding en migratieachtergrond van bewoners.
      'One who deceives will always find those who allow themselves to be deceived'

    7. #97
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.243
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      De data van het CBS hebben algauw het stempel ‘neutraal’

      Het CBS is bij het project betrokken en levert een belangrijk deel van de data. De data van het statistiekbureau hebben algauw het stempel ‘neutraal’, terwijl ook die organisatie keuzes moet maken in de categorisering van gegevens. Dat wordt vooral duidelijk bij de indeling van mensen in westerse- en niet-westerse migratieachtergrond. Bij westers worden bijvoorbeeld mensen uit Japan en Indonesië meegeteld, terwijl Turken als enige Europeanen niet in deze categorie vallen.

      Van Schie: “Als je gaat nadenken waarom die indeling zo is, dan merk je al dat het niet neutraal is. Zou Indonesië als westers land worden gezien omdat het een Nederlandse kolonie is geweest? Suriname wordt dan wel weer gezien als niet-westers. Zou het te maken hebben met wat we cultureel westers noemen? Dan zou het weer onlogisch zijn om Japan bij het westen in te delen.”

      Zelf verklaart het CBS de indeling zo: ‘Op grond van hun sociaal-economische en so*ciaal-culturele positie worden personen met een migratieachtergrond uit Indonesië en Japan tot de westerse migratieachtergrond gerekend. Het gaat vooral om mensen die in het voormalig Nederlands-Indië zijn geboren en werknemers van Japanse bedrijven met hun gezin.’

      Christian Verhagen ziet niet zozeer een probleem in deze categorisering. “Je kunt het ermee eens zijn of niet, maar het CBS geeft dat heel transparant weer.” De vraag is of iedereen zich bewust is van die indeling. “Er bestaat over het algemeen een te sterk vertrouwen in wat de computer ons vertelt. Daarom is het belangrijk om te werken aan een gezond kritisch vermogen als het aankomt op de inzet algoritmes. Geef ambtenaren die met uitkomsten aan de slag gaan een soort bijsluiter, zorg dat ze weten welke keuzes er in de data zijn gemaakt en wat dat voor gevolgen heeft.”

      Transparantie is ook voor burgers relevant


      En niet alleen voor ambtenaren moet dat duidelijk zijn. Transparantie over welke gegevens er gebruikt worden in algoritmes van de overheid en welke beperkingen of risico’s daarin zitten, is ook voor burgers relevant, zegt Verhagen. Een vergelijkbare oproep deed de Nationaal Ombudsman eerder deze maand: overheid wees opener en communiceer duidelijker over de inzet van computerberekeningen.

      Er bestaan hier en daar al wat initiatieven. Zo heeft de gemeente Amsterdam een database opgezet waarin burgers niet alleen kunnen zien welke algoritmes er in de stad worden gebruikt, maar ook uitleg vinden over de overwegingen om bepaalde data wel of niet te gebruiken. Het tegengaan van discriminatie krijgt daarin speciale aandacht. Zo wordt bij het algoritme om illegaal vakantieverhuur op te sporen, informatie over nationaliteit, burgerlijke staat en geboorteland niet meegenomen. De gemeente wil naar eigen zeggen zo voorkomen dat er een vertekend beeld of vooroordeel ontstaat over specifieke groepen.

      Overigens is de database op dit moment nog verre van compleet. Er staan nu nog maar vijf algoritmes in. De gemeente zegt tot doel te hebben uiteindelijk zo compleet mogelijk te worden. Volgens Verhagen kan zo’n openbare database het gesprek aanjagen over de wenselijkheid van algoritmes en het gebruik van bepaalde gegevens. Er bestaan volgens hem terechte zorgen, al waarschuwt hij ook voor een te negatief beeld. “Laten we algoritmes niet helemaal in het verdomhoekje zetten. Er bestaan hele waardevolle, goede voorbeelden. ABN Amro ontwikkelde bijvoorbeeld samen met de Universiteit van Amsterdam een algoritme dat patronen herkent die op mensenhandel kunnen duiden. Dat is een maatschappelijk zeer relevante toepassing.” Ook kunnen algoritmes de vooringenomenheid bij organisaties volgens hem juist blootleggen. Beslissingen werden misschien eerst op basis van het onderbuikgevoel van medewerkers genomen, terwijl de computer duidelijk kan maken dat dat niet terecht is.

      ‘Als je afkomst gaat gebruiken als voorspeller, dan heb je het 98 van de 100 keer mis’


      Ook Van Schie schiet niet alle overheids*algoritmes af, al vindt hij dat we wel een debat moeten voeren over de vraag of we bepaalde data– zoals over etniciteit – überhaupt moeten gebruiken. “Er kunnen correlaties zijn die samenhangen met afkomst, dat zal ik niet ontkennen. De vraag is of je die correlaties moet omzetten in stereo*typeringen die tegen mensen worden gebruikt. Kijk naar de populatie in de gevangenis. Van de totale Nederlandse populatie zit 0,4 procent in de gevangenis, van alle Marokkanen is dat 2 procent. Dan kun je twee dingen zeggen: er zitten dus vijf keer zoveel Marokkanen in de cel, dus kan dat een indicator zijn om te bepalen wie er grotere kans heeft het verkeerde pad op te gaan. Of je ziet het zo: 99,6 procent van de bevolking zit niet in de gevangenis en 98 procent van de Marokkaanse-Nederlanders niet. Als je afkomst toch gaat gebruiken als voorspeller, dan heb je het dus nog altijd 98 van de 100 keer mis. Is het aantal keren dat je het goed hebt het waard om de rest systematisch weg te zetten?”

      Bovendien roept het volgens hem vragen op over causaliteit. “Dat Marokkaanse Nederlanders vaker voor een verkeerd pad kiezen in hun leven wordt nu vaak behandeld als een ‘bewijs’ voor het feit dat jongeren met deze migratieachtergrond inherent crimineel zouden zijn. Je kunt je echter ook afvragen of dit een reflectie is van een samenleving die hen geen andere opties biedt. Er zijn de afgelopen jaren genoeg berichten geweest over uitzendbureaus die meewerken aan discriminerende verzoeken van klanten en over hoe lastig het is om een stageplek te vinden voor jongeren met een migratieachtergrond.”

      Van Schie staat zeker niet alleen in zijn kritiek. Al jaren wordt er gewaarschuwd voor discriminerende algoritmes. Inmiddels klinkt de roep om te stoppen met het meewegen van zoiets als etniciteit en geboorteland luider. Langzaamaan lijkt alle kritiek effect te hebben. Zo zegt het ministerie van binnenlandse zaken bezig te zijn met een nieuwe versie van de Leefbaarometer waarin etniciteit geen rol meer speelt. Datzelfde geldt voor het project ‘Zicht op ondermijning’ en de voorspellingen over jonge aanwas in de drugscriminaliteit. Ook dat algoritme, waarin migratieachtergrond nu nog een factor is, wordt momenteel aangepast.


      https://www.trouw.nl/binnenland/een-...niet~bbc021d0/
      'One who deceives will always find those who allow themselves to be deceived'

    8. #98
      Joker Bart.NL's Avatar
      Ingeschreven
      Jan 2004
      Locatie
      Sneek
      Leeftijd
      52
      Berichten
      2.681
      Post Thanks / Like
      Reputatie Macht
      286225

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Citaat Oorspronkelijk geplaatst door Revisor Bekijk Berichten
      Is het aantal keren dat je het goed hebt het waard om de rest systematisch weg te zetten?
      Of eigenlijk beter geformuleerd: is datgene wat je ermee bereikt het wel waard om etnisch te profileren?

      De maatschappelijke schade kan groot zijn als je mensen discrimineert. Maar de meeste mensen begrijpen ook dat bepaalde soorten criminaliteit door bepaalde groepen worden gedaan.

      Dus als de meeste autodieven uit Oost-Europa komen dan heb je meer succes bij de bestrijding van deze criminaliteit als je met dat gegeven rekening houdt.

      Je zou door middel van kunstmatige intelligentie kunnen selecteren, met dan als criterium: het meeste succes.

      Dan wordt het objectiever. Nu kan het heel goed zijn dat een aantal politie agenten een hekel heeft aan zwarten of Marrokanen en dat dit hun gedrag beïnvloedt.

    9. #99
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.243
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Citaat Oorspronkelijk geplaatst door Bart.NL Bekijk Berichten
      Of eigenlijk beter geformuleerd: is datgene wat je ermee bereikt het wel waard om etnisch te profileren?

      De maatschappelijke schade kan groot zijn als je mensen discrimineert. Maar de meeste mensen begrijpen ook dat bepaalde soorten criminaliteit door bepaalde groepen worden gedaan.

      Dus als de meeste autodieven uit Oost-Europa komen dan heb je meer succes bij de bestrijding van deze criminaliteit als je met dat gegeven rekening houdt.

      Je zou door middel van kunstmatige intelligentie kunnen selecteren, met dan als criterium: het meeste succes.

      Dan wordt het objectiever. Nu kan het heel goed zijn dat een aantal politie agenten een hekel heeft aan zwarten of Marrokanen en dat dit hun gedrag beïnvloedt.

      Het probleem zit hem in dat je als verdachte wordt aangemerkt op grond van statistische gegevens die herleidt worden naar afkomst. Dat is in strijd met artikel 27 Sv. Een verdachte heeft plichten maar ook rechten, door deze ai en/of algoritmen worden de artificiele verdachte zijn rechten zoals omschreven in art. 28 Sv e.v.

      De statistische gevens, en dan zeg ik nog niets over de kwaliteit en status van de statistieken, worden doorgetrokken naar afkomst om als verdachte aangemerkt te worden. Je afkomst is als criterium dan genoeg om als verdachte aangemerkt te worden. Totaal in strijd met art. 27 Sv.

      En dan door die specifieke criteria wordt een bepaalde afkomst vaker als verdachte aangemerkt, waardoor ze meer gecontroleerd worden, controleer je ze meer dan vindt je ook meer verdachten. En die anderen die je niet controlleert vind je minder. Dan krijg je een soort naar de bodem toe gecentrifiguurde vicieuze self-fulfilling algoritme profecy

      Zo'n samenleving wil ik niet.
      'One who deceives will always find those who allow themselves to be deceived'

    10. #100
      Joker Bart.NL's Avatar
      Ingeschreven
      Jan 2004
      Locatie
      Sneek
      Leeftijd
      52
      Berichten
      2.681
      Post Thanks / Like
      Reputatie Macht
      286225

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Citaat Oorspronkelijk geplaatst door Revisor Bekijk Berichten
      Het probleem zit hem in dat je als verdachte wordt aangemerkt op grond van statistische gegevens die herleidt worden naar afkomst. Zo'n samenleving wil ik niet.
      Als een auto met een Oost-Europees kenteken wordt geselecteerd voor een controle zijn de inzittenden geen verdachte maar geselecteerd voor controle. Dat is een belangrijk verschil.

      Ik wil ook geen samenleving waar criminelen vrij spel hebben.

      Maar ook al ben je geen verdachte, als jij steeds opnieuw geselecteerd wordt voor een controle terwijl je niets verkeerds hebt gedaan, dan is dat een kwalijke zaak.

      Dus als je dit al zou willen doen, dan moet er een goede reden voor zijn, en die reden moet objectief zijn, dus niet de agent heeft een hekel aan een bepaalde groep of een ongefundeerd vermoeden.

      In de praktijk gebeurt dit gewoon en er kan er een goede reden voor zijn dus is het beter om er eerlijk over te zijn en de criteria objectiever te maken.

      Daarnaast, vanwege de persoonlijke en maatschappelijke schade die ontstaat doordat mensen zich gediscrimineerd voelen, zou je het alleen moeten toepassen wanneer het echt nodig is.

    + Plaats Nieuw Onderwerp

    Bladwijzers

    Bladwijzers

    Forum Rechten

    • Je mag geen nieuwe onderwerpen plaatsen
    • Je mag geen reacties plaatsen
    • Je mag geen bijlagen toevoegen
    • Je mag jouw berichten niet wijzigen
    •