Wat jullie te wachten staat: Racisme next level - Pagina 11
  • + Plaats Nieuw Onderwerp
    Pagina 11/11 EersteEerste ... 1011
    Resultaten 101 tot 105 van de 105

    Onderwerp: Wat jullie te wachten staat: Racisme next level

    1. #101
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.174
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Algoritmes gemeente Rotterdam kunnen leiden tot ‘vooringenomen uitkomsten’

      De algoritmes die de gemeente Rotterdam gebruikt om bijvoorbeeld uitkeringsfraude op te sporen kunnen leiden tot ‘vooringenomen uitkomsten’. Dit concludeert de Rekenkamer Rotterdam in een rapport dat donderdag verschijnt. Voorzitter Paul Hofstra legt uit wat er is misgegaan.

      Rik Kuiper 15 april 2021, 0:00

      De skyline van Rotterdam vanuit de EuromastBeeld Arie Kievit

      Bent u een nieuwe toeslagenaffaire op het spoor? Bij de Belastingdienst selecteerde een algoritme vooral mensen met een dubbele nationaliteit voor nader onderzoek.

      ‘Zo erg is het in Rotterdam niet. Maar onze bevindingen vragen op z’n zachtst gezegd wel aandacht.’

      Ambtenaren beseffen nauwelijks dat er ethische risico’s zijn bij het gebruik van algoritmes, schrijft u. Dat is een stevige conclusie.

      ‘Het beeld is inderdaad zorgelijk. Er kan veel misgaan waar het ethische principes als verantwoordelijkheid, transparantie en eerlijkheid betreft. Wat ons betreft moet er wel wat gebeuren.’

      Over wat voor algoritmes hebben we het?


      ‘Rotterdam gebruikt bijvoorbeeld een algoritme om uitkeringsfraude op te sporen. Dat algoritme berekent op basis van gegevens uit verschillende systemen wat het risico is dat iemand onterecht een uitkering ontvangt. Het algoritme geeft aan wie opnieuw aan een onderzoek onderworpen moet worden.’

      Wat kan daarbij misgaan?


      ‘Iedereen is zich ervan bewust dat het algoritme bepaalde kenmerken niet mag meenemen, zoals bijvoorbeeld afkomst of nationaliteit. Dat is in strijd met de wet. Maar ondertussen gebruikt het algoritme wel kenmerken die ‘meelopen’ met afkomst, zoals bijvoorbeeld laaggeletterdheid. Daardoor kunnen toch relatief veel mensen met een migratieachtergrond de klos zijn. Er kan daardoor een bepaalde vooringenomenheid in het systeem sluipen. En dat is een probleem.’

      Dus net als in de toeslagenaffaire worden mensen feitelijk op basis van hun achtergrond geselecteerd voor nader onderzoek?


      ‘Juist. En dat is in strijd met een ethisch principe: eerlijkheid. Dus dat moet anders.’

      Wordt daar onvoldoende over nagedacht?


      ‘Er wordt wel over nagedacht, maar niet naar gehandeld. Er zijn bijvoorbeeld plannen om een algoritmeregister aan te leggen, waarin alle algoritmes die de gemeente gebruikt worden vastgelegd, inclusief de bijbehorende risico’s en hoe daarmee moet worden omgegaan. Alleen is dat register er nog steeds niet. Ook werken de ambtenaren nog niet met De Ethische Data Assistent, een model dat teams helpt ethische problemen te herkennen in dataprojecten.’

      Welke andere algoritmes gebruikt de gemeente Rotterdam?


      ‘Dat zou uit zo’n register moeten blijken. Nu is het onduidelijk. Ook bij de gemeente zelf heeft niemand het overzicht.’

      U kent geen enkel ander voorbeeld?


      ‘Jawel. Ook bij de gemeentebelastingen worden algoritmes gebruikt. Maar dat hebben we niet nader onderzocht.’

      In het rapport adviseert u om werk te maken van dat register van algoritmes. Ook moet iemand verantwoordelijk worden voor het ontwikkelen van algoritmes en het toezicht erop.


      ‘Ja. We hebben zes aanbevelingen. Er moet vooral beter samengewerkt worden tussen de afdeling die het algoritme ontwikkelt en de afdeling die het gebruikt. Nu neemt niemand de verantwoordelijkheid. Ze wijzen soms naar elkaar als het fout dreigt te gaan.’

      Het college van burgemeester en wethouders heeft al laten weten alle adviezen over te nemen.


      ‘Klopt. En dat gebeurt echt niet bij al onze rapporten.’

      Hebben andere steden hun algoritmes beter op orde?


      ‘Rotterdam loopt in Nederland voorop bij het gebruik van algoritmes. Andere grote steden zullen ze ook wel gebruiken. En die lopen vermoedelijk tegen dezelfde problemen aan. Ik denk dat ze daar zeker wat hebben aan onze aanbevelingen.’


      https://www.volkskrant.nl/nieuws-ach...sten~bb8cfe62/
      'One who deceives will always find those who allow themselves to be deceived'

    2. #102
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.174
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Burger beter beschermen tegen ‘computer says no’

      De Europese Unie gaat voorspellende algoritmen in de publieke ruimte beperken. Maar de voorstellen daartoe blijken te vaag. Criminoloog Marc Schuilenburg in een nieuwe Veiligheidscolumn.
      Slimme camera's, hier tijdelijk opgesteld op het Amsterdamse Museumplein, worden ingezet om demonstraties te signaleren. Foto Evert Elzinga / ANP

      De Europese Unie gaat de digitale teugels strakker aantrekken voor de toepassing van artificial intelligence (AI) in voorspellende systemen. Dat blijkt uit het 81 pagina’s dikke voorstel Regulation on a European Approach for Artificial Intelligence dat deze week uitlekte en online is te lezen via Politico.

      Hierin stelt de EU dat voorspellen met algoritmen en AI veel voordelen biedt op gebieden als gezondheidszorg, onderwijs en veiligheid. Die systemen brengen ook de nodige risico’s met zich mee en kunnen slecht uitpakken voor burgers. De impact ervan moet daarom aan banden worden gelegd. Zo gaat de EU strenge voorwaarden stellen aan het gebruik van algoritmen en AI. Diverse toepassingen van voorspellende systemen worden zelfs verboden.

      Volop gebruik


      De EU heeft een classificatie gemaakt van, wat ze noemt, ‘hoog risico’-AI-systemen (Annex II). Het gaat onder meer om systemen die worden gebruikt door de politie (‘systems for predicting the occurrence of crimes’) en de rechterlijke macht (‘systems to assist judges at court’). Ook in Nederland wordt de laatste jaren volop gebruikgemaakt van deze systemen. Zo loopt de Nationale Politie voorop met het landelijke Criminaliteits Anticipatie Systeem om te voorspellen in welke wijken de grootste kans op criminaliteit is. De Reclassering past het risicotaxatie-instrument OxRec toe dat een waarschijnlijkheidsscore uitdrukt in percentages van het risico op recidive van een delinquent. Tegelijk experimenteert het ministerie van Justitie in woonwijken met slimme lantaarnpalen, die helpen om inbraken te voorspellen en te voorkomen, maar ook om verdachte personen op te pakken en het veiligheidsgevoel in de buurt te vergroten. En in smart cities, zoals in Eindhoven, verzamelen techbedrijven grote hoeveelheden persoonlijke gegevens van burgers om de sfeer in de publieke ruimte aan te passen. Doel is de agressie te verminderen en het veiligheidsgevoel te verbeteren.

      Weinig bewijs


      Er is veel kritiek op deze systemen. Zo bestaat weinig bewijs dat ze tot betere uitkomsten leiden. Uit onderzoek naar predictive policing komt geen hard bewijs naar voren om te staven dat het voorspellen van criminaliteit door de politie óók daadwerkelijk werkt. Waar de ene evaluatie claimt dat hierdoor criminaliteit afneemt, laat een andere evaluatie geen enkel aantoonbaar effect zien. Bovendien kan het gebruik van statische factoren als ‘nationaliteit’ of ‘buurt’ in voorspellende systemen leiden tot etnisch profileren en discriminatie. Ook kunnen vuile data – onrechtmatig verkregen of onjuiste data – niet of nauwelijks uit voorspellende data-analyses worden verwijderd, wat betekent dat wanneer vuile data in de analyses zitten, de uitkomsten ook vervuild raken. Tot slot dreigt de menselijke maat uit het systeem te verdwijnen. Hoewel zelflerende algoritmen in voorspellingssystemen de suggestie wekken dat het besluitvormingsproces constant in beweging is, zal in de praktijk het tegenovergestelde gebeuren. De vrije beslissingsruimte van rechters en politieagenten wordt kleiner of dreigt zelfs helemaal te verdwijnen.

      Verbieden of begrenzen


      Om burgers beter te beschermen tegen de risico’s van hoog-risico-AI-systemen wil de EU de volgende toepassingen volledig verbieden of waar nodig begrenzen:

      - AI-systemen (‘indiscriminate surveillance’) voor het monitoren en tracken van willekeurige personen in de publieke ruimte;
      - AI-systemen voor het maken van sociale kredietscores, waarbij iemands betrouwbaarheid wordt beoordeeld op basis van gedrag of voorspelde persoonlijkheidskenmerken;
      - het gebruik van biometrische identificatiesystemen in de publieke ruimte, waaronder gezichtsherkenning.

      Ook stelt de EU dat burgers een melding moeten krijgen wanneer ze in contact komen met een hoog-risico-AI-systeem, tenzij dit duidelijk is uit de omstandigheden of gebruikscontext. Bovendien moet beter toezicht komen op algoritmen en AI, inclusief systemen die een directe bedreiging vormen voor onze veiligheid, zoals zelfrijdende auto’s, en systemen die worden gebruikt voor rechterlijke beslissingen. Dat toezicht ontbreekt nu, concludeert de EU.

      Nog te vaag


      Deze ambities van de EU zijn prijzenswaardig. Op verschillende punten is het voorstel uit Brussel alleen wel nog te vaag. Zo wordt een uitzondering gemaakt voor biometrische systemen in de publieke ruimte die ‘serious crime’ bestrijden. Wat onder deze vorm van criminaliteit wordt verstaan, is onduidelijk. Wel is evident dat de Europese plannen grote gevolgen hebben voor de Nederlandse praktijk. Niet alleen worden in Nederland talloze hoog-risico-AI-systemen gebruikt - van de rechterlijke macht tot de Nationale Politie -, maar ook bezit men op nationaal niveau onvoldoende kennis en capaciteit om alles in goede banen te leiden.

      Er is te weinig expertise over voorspellende systemen, over hoe die met elkaar zijn verbonden, over aan welke ethische waarden ze moeten voldoen. Zo concludeerde de Rekenkamer Rotterdam deze week dat ambtenaren nauwelijks beseffen dat ethische risico’s kleven aan het gebruik van algoritmes, zoals wanneer die worden aangewend om uitkeringsfraude op te sporen.

      De Nederlandse overheid moet dit nu gaan organiseren. De impact van technologie is niet alleen een maatschappelijk probleem, maar volgens de EU ook een politiek probleem.

      De Veiligheidscolumn wordt geschreven door deskundigen uit de wereld van handhaving, politie en wetenschap. Marc Schuilenburg doceert aan de afdeling strafrecht en criminologie van de Vrije Universiteit Amsterdam. Zijn nieuwste boek is Hysterie. Een cultuurdiagnose (2019).


      https://www.nrc.nl/nieuws/2021/04/16...ys-no-a4040077
      'One who deceives will always find those who allow themselves to be deceived'

    3. #103
      Eric de Blois
      Ingeschreven
      Jul 2016
      Berichten
      3.424
      Post Thanks / Like
      Reputatie Macht
      13

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Zo loopt de Nationale Politie voorop met het landelijke Criminaliteits Anticipatie Systeem om te voorspellen in welke wijken de grootste kans op criminaliteit is.
      Uitstekend..goede en noodzakelijke ontwikkeling. Hoe meer controle hoe beter.

    4. #104
      Eric de Blois
      Ingeschreven
      Jul 2016
      Berichten
      3.424
      Post Thanks / Like
      Reputatie Macht
      13

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Is er ook al een programma om daders van graffiti in beeld te brengen en op te laten draaien voor alle schade. Dat is namelijk ook een cultureel kankergezwel. Heel het land verpauperd met die rotzooi .

    5. #105
      Very Important Prikker
      Ingeschreven
      Aug 2003
      Berichten
      4.994
      Post Thanks / Like
      Reputatie Macht
      248326

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Citaat Oorspronkelijk geplaatst door Rob Gosseling Bekijk Berichten
      Is er ook al een programma om daders van graffiti in beeld te brengen en op te laten draaien voor alle schade. Dat is namelijk ook een cultureel kankergezwel. Heel het land verpauperd met die rotzooi .
      Ik reageer niet op Rob maar op Revisor. Met zijn oeverloze lappen met tekst. Het lijkt wel het communistisch manifest. Het oplappen van aannames. Maar ik heb liever dat die Revisor zijn eigen mening nu eens stelt. Wij leze die shit en hij lapt er niks aan vast. Lekker makkelijk. Hij denkt dat wij onwetenden zijn,die opgevoed worden in tekst. De meerderheid leest niet eens lappen met tekst. De meerderheid leest een tekst en reageer hier op. Altijd het zelfde met Revisor. Zeg je mening een keer. Hoe de vork in de steel hangt. Als je het niet weet doe dan een tekst erbij voor je aanname. Ja, de wereld is gewoon bizar. Maar zo bizar, met oeverloos teksten achter elkaar gaan plaatsen, verander jezelf en wees een keer open mond. Zonder geklooi met je mededelen in je rampkoers scenario’s. En je bent nog lang niet Paul Verhoeven, of Poe,,je bent iemand die met teksten zwaait, Koran teksten kan dus ook..serieus? Zeker.....maar mijn kop staat er niet naar...klip en klaar beter een garnaal of een vis of een merel zonder nest of die mens aan het roer die snapt dus alles wel wel maar ook geen enen mallemoer..Wees kalm en wees altijd blij omdat wij dus leven met zijn allen op een rij, niet die een of die ander,eerst die ander dan ben jij.
      Fijne dag,gezegende ramadan en was je handen en die anderhalf meter, niet voor niks de basis regels,volgen, die eerste stap, in de week veranderingen, samengevat in punten zes dus Doeiiiiiiii

    + Plaats Nieuw Onderwerp

    Bladwijzers

    Bladwijzers

    Forum Rechten

    • Je mag geen nieuwe onderwerpen plaatsen
    • Je mag geen reacties plaatsen
    • Je mag geen bijlagen toevoegen
    • Je mag jouw berichten niet wijzigen
    •