Wat jullie te wachten staat: Racisme next level - Pagina 11
  • + Plaats Nieuw Onderwerp
    Pagina 11/12 EersteEerste ... 101112 LaatsteLaatste
    Resultaten 101 tot 110 van de 113

    Onderwerp: Wat jullie te wachten staat: Racisme next level

    1. #101
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.459
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Algoritmes gemeente Rotterdam kunnen leiden tot ‘vooringenomen uitkomsten’

      De algoritmes die de gemeente Rotterdam gebruikt om bijvoorbeeld uitkeringsfraude op te sporen kunnen leiden tot ‘vooringenomen uitkomsten’. Dit concludeert de Rekenkamer Rotterdam in een rapport dat donderdag verschijnt. Voorzitter Paul Hofstra legt uit wat er is misgegaan.

      Rik Kuiper 15 april 2021, 0:00

      De skyline van Rotterdam vanuit de EuromastBeeld Arie Kievit

      Bent u een nieuwe toeslagenaffaire op het spoor? Bij de Belastingdienst selecteerde een algoritme vooral mensen met een dubbele nationaliteit voor nader onderzoek.

      ‘Zo erg is het in Rotterdam niet. Maar onze bevindingen vragen op z’n zachtst gezegd wel aandacht.’

      Ambtenaren beseffen nauwelijks dat er ethische risico’s zijn bij het gebruik van algoritmes, schrijft u. Dat is een stevige conclusie.

      ‘Het beeld is inderdaad zorgelijk. Er kan veel misgaan waar het ethische principes als verantwoordelijkheid, transparantie en eerlijkheid betreft. Wat ons betreft moet er wel wat gebeuren.’

      Over wat voor algoritmes hebben we het?


      ‘Rotterdam gebruikt bijvoorbeeld een algoritme om uitkeringsfraude op te sporen. Dat algoritme berekent op basis van gegevens uit verschillende systemen wat het risico is dat iemand onterecht een uitkering ontvangt. Het algoritme geeft aan wie opnieuw aan een onderzoek onderworpen moet worden.’

      Wat kan daarbij misgaan?


      ‘Iedereen is zich ervan bewust dat het algoritme bepaalde kenmerken niet mag meenemen, zoals bijvoorbeeld afkomst of nationaliteit. Dat is in strijd met de wet. Maar ondertussen gebruikt het algoritme wel kenmerken die ‘meelopen’ met afkomst, zoals bijvoorbeeld laaggeletterdheid. Daardoor kunnen toch relatief veel mensen met een migratieachtergrond de klos zijn. Er kan daardoor een bepaalde vooringenomenheid in het systeem sluipen. En dat is een probleem.’

      Dus net als in de toeslagenaffaire worden mensen feitelijk op basis van hun achtergrond geselecteerd voor nader onderzoek?


      ‘Juist. En dat is in strijd met een ethisch principe: eerlijkheid. Dus dat moet anders.’

      Wordt daar onvoldoende over nagedacht?


      ‘Er wordt wel over nagedacht, maar niet naar gehandeld. Er zijn bijvoorbeeld plannen om een algoritmeregister aan te leggen, waarin alle algoritmes die de gemeente gebruikt worden vastgelegd, inclusief de bijbehorende risico’s en hoe daarmee moet worden omgegaan. Alleen is dat register er nog steeds niet. Ook werken de ambtenaren nog niet met De Ethische Data Assistent, een model dat teams helpt ethische problemen te herkennen in dataprojecten.’

      Welke andere algoritmes gebruikt de gemeente Rotterdam?


      ‘Dat zou uit zo’n register moeten blijken. Nu is het onduidelijk. Ook bij de gemeente zelf heeft niemand het overzicht.’

      U kent geen enkel ander voorbeeld?


      ‘Jawel. Ook bij de gemeentebelastingen worden algoritmes gebruikt. Maar dat hebben we niet nader onderzocht.’

      In het rapport adviseert u om werk te maken van dat register van algoritmes. Ook moet iemand verantwoordelijk worden voor het ontwikkelen van algoritmes en het toezicht erop.


      ‘Ja. We hebben zes aanbevelingen. Er moet vooral beter samengewerkt worden tussen de afdeling die het algoritme ontwikkelt en de afdeling die het gebruikt. Nu neemt niemand de verantwoordelijkheid. Ze wijzen soms naar elkaar als het fout dreigt te gaan.’

      Het college van burgemeester en wethouders heeft al laten weten alle adviezen over te nemen.


      ‘Klopt. En dat gebeurt echt niet bij al onze rapporten.’

      Hebben andere steden hun algoritmes beter op orde?


      ‘Rotterdam loopt in Nederland voorop bij het gebruik van algoritmes. Andere grote steden zullen ze ook wel gebruiken. En die lopen vermoedelijk tegen dezelfde problemen aan. Ik denk dat ze daar zeker wat hebben aan onze aanbevelingen.’


      https://www.volkskrant.nl/nieuws-ach...sten~bb8cfe62/
      'One who deceives will always find those who allow themselves to be deceived'

    2. #102
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.459
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Burger beter beschermen tegen ‘computer says no’

      De Europese Unie gaat voorspellende algoritmen in de publieke ruimte beperken. Maar de voorstellen daartoe blijken te vaag. Criminoloog Marc Schuilenburg in een nieuwe Veiligheidscolumn.
      Slimme camera's, hier tijdelijk opgesteld op het Amsterdamse Museumplein, worden ingezet om demonstraties te signaleren. Foto Evert Elzinga / ANP

      De Europese Unie gaat de digitale teugels strakker aantrekken voor de toepassing van artificial intelligence (AI) in voorspellende systemen. Dat blijkt uit het 81 pagina’s dikke voorstel Regulation on a European Approach for Artificial Intelligence dat deze week uitlekte en online is te lezen via Politico.

      Hierin stelt de EU dat voorspellen met algoritmen en AI veel voordelen biedt op gebieden als gezondheidszorg, onderwijs en veiligheid. Die systemen brengen ook de nodige risico’s met zich mee en kunnen slecht uitpakken voor burgers. De impact ervan moet daarom aan banden worden gelegd. Zo gaat de EU strenge voorwaarden stellen aan het gebruik van algoritmen en AI. Diverse toepassingen van voorspellende systemen worden zelfs verboden.

      Volop gebruik


      De EU heeft een classificatie gemaakt van, wat ze noemt, ‘hoog risico’-AI-systemen (Annex II). Het gaat onder meer om systemen die worden gebruikt door de politie (‘systems for predicting the occurrence of crimes’) en de rechterlijke macht (‘systems to assist judges at court’). Ook in Nederland wordt de laatste jaren volop gebruikgemaakt van deze systemen. Zo loopt de Nationale Politie voorop met het landelijke Criminaliteits Anticipatie Systeem om te voorspellen in welke wijken de grootste kans op criminaliteit is. De Reclassering past het risicotaxatie-instrument OxRec toe dat een waarschijnlijkheidsscore uitdrukt in percentages van het risico op recidive van een delinquent. Tegelijk experimenteert het ministerie van Justitie in woonwijken met slimme lantaarnpalen, die helpen om inbraken te voorspellen en te voorkomen, maar ook om verdachte personen op te pakken en het veiligheidsgevoel in de buurt te vergroten. En in smart cities, zoals in Eindhoven, verzamelen techbedrijven grote hoeveelheden persoonlijke gegevens van burgers om de sfeer in de publieke ruimte aan te passen. Doel is de agressie te verminderen en het veiligheidsgevoel te verbeteren.

      Weinig bewijs


      Er is veel kritiek op deze systemen. Zo bestaat weinig bewijs dat ze tot betere uitkomsten leiden. Uit onderzoek naar predictive policing komt geen hard bewijs naar voren om te staven dat het voorspellen van criminaliteit door de politie óók daadwerkelijk werkt. Waar de ene evaluatie claimt dat hierdoor criminaliteit afneemt, laat een andere evaluatie geen enkel aantoonbaar effect zien. Bovendien kan het gebruik van statische factoren als ‘nationaliteit’ of ‘buurt’ in voorspellende systemen leiden tot etnisch profileren en discriminatie. Ook kunnen vuile data – onrechtmatig verkregen of onjuiste data – niet of nauwelijks uit voorspellende data-analyses worden verwijderd, wat betekent dat wanneer vuile data in de analyses zitten, de uitkomsten ook vervuild raken. Tot slot dreigt de menselijke maat uit het systeem te verdwijnen. Hoewel zelflerende algoritmen in voorspellingssystemen de suggestie wekken dat het besluitvormingsproces constant in beweging is, zal in de praktijk het tegenovergestelde gebeuren. De vrije beslissingsruimte van rechters en politieagenten wordt kleiner of dreigt zelfs helemaal te verdwijnen.

      Verbieden of begrenzen


      Om burgers beter te beschermen tegen de risico’s van hoog-risico-AI-systemen wil de EU de volgende toepassingen volledig verbieden of waar nodig begrenzen:

      - AI-systemen (‘indiscriminate surveillance’) voor het monitoren en tracken van willekeurige personen in de publieke ruimte;
      - AI-systemen voor het maken van sociale kredietscores, waarbij iemands betrouwbaarheid wordt beoordeeld op basis van gedrag of voorspelde persoonlijkheidskenmerken;
      - het gebruik van biometrische identificatiesystemen in de publieke ruimte, waaronder gezichtsherkenning.

      Ook stelt de EU dat burgers een melding moeten krijgen wanneer ze in contact komen met een hoog-risico-AI-systeem, tenzij dit duidelijk is uit de omstandigheden of gebruikscontext. Bovendien moet beter toezicht komen op algoritmen en AI, inclusief systemen die een directe bedreiging vormen voor onze veiligheid, zoals zelfrijdende auto’s, en systemen die worden gebruikt voor rechterlijke beslissingen. Dat toezicht ontbreekt nu, concludeert de EU.

      Nog te vaag


      Deze ambities van de EU zijn prijzenswaardig. Op verschillende punten is het voorstel uit Brussel alleen wel nog te vaag. Zo wordt een uitzondering gemaakt voor biometrische systemen in de publieke ruimte die ‘serious crime’ bestrijden. Wat onder deze vorm van criminaliteit wordt verstaan, is onduidelijk. Wel is evident dat de Europese plannen grote gevolgen hebben voor de Nederlandse praktijk. Niet alleen worden in Nederland talloze hoog-risico-AI-systemen gebruikt - van de rechterlijke macht tot de Nationale Politie -, maar ook bezit men op nationaal niveau onvoldoende kennis en capaciteit om alles in goede banen te leiden.

      Er is te weinig expertise over voorspellende systemen, over hoe die met elkaar zijn verbonden, over aan welke ethische waarden ze moeten voldoen. Zo concludeerde de Rekenkamer Rotterdam deze week dat ambtenaren nauwelijks beseffen dat ethische risico’s kleven aan het gebruik van algoritmes, zoals wanneer die worden aangewend om uitkeringsfraude op te sporen.

      De Nederlandse overheid moet dit nu gaan organiseren. De impact van technologie is niet alleen een maatschappelijk probleem, maar volgens de EU ook een politiek probleem.

      De Veiligheidscolumn wordt geschreven door deskundigen uit de wereld van handhaving, politie en wetenschap. Marc Schuilenburg doceert aan de afdeling strafrecht en criminologie van de Vrije Universiteit Amsterdam. Zijn nieuwste boek is Hysterie. Een cultuurdiagnose (2019).


      https://www.nrc.nl/nieuws/2021/04/16...ys-no-a4040077
      'One who deceives will always find those who allow themselves to be deceived'

    3. #103
      Eric de Blois
      Ingeschreven
      Jul 2016
      Berichten
      3.729
      Post Thanks / Like
      Reputatie Macht
      14

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Zo loopt de Nationale Politie voorop met het landelijke Criminaliteits Anticipatie Systeem om te voorspellen in welke wijken de grootste kans op criminaliteit is.
      Uitstekend..goede en noodzakelijke ontwikkeling. Hoe meer controle hoe beter.

    4. #104
      Eric de Blois
      Ingeschreven
      Jul 2016
      Berichten
      3.729
      Post Thanks / Like
      Reputatie Macht
      14

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Is er ook al een programma om daders van graffiti in beeld te brengen en op te laten draaien voor alle schade. Dat is namelijk ook een cultureel kankergezwel. Heel het land verpauperd met die rotzooi .

    5. #105
      Very Important Prikker
      Ingeschreven
      Aug 2003
      Berichten
      5.004
      Post Thanks / Like
      Reputatie Macht
      248328

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Citaat Oorspronkelijk geplaatst door Rob Gosseling Bekijk Berichten
      Is er ook al een programma om daders van graffiti in beeld te brengen en op te laten draaien voor alle schade. Dat is namelijk ook een cultureel kankergezwel. Heel het land verpauperd met die rotzooi .
      Ik reageer niet op Rob maar op Revisor. Met zijn oeverloze lappen met tekst. Het lijkt wel het communistisch manifest. Het oplappen van aannames. Maar ik heb liever dat die Revisor zijn eigen mening nu eens stelt. Wij leze die shit en hij lapt er niks aan vast. Lekker makkelijk. Hij denkt dat wij onwetenden zijn,die opgevoed worden in tekst. De meerderheid leest niet eens lappen met tekst. De meerderheid leest een tekst en reageer hier op. Altijd het zelfde met Revisor. Zeg je mening een keer. Hoe de vork in de steel hangt. Als je het niet weet doe dan een tekst erbij voor je aanname. Ja, de wereld is gewoon bizar. Maar zo bizar, met oeverloos teksten achter elkaar gaan plaatsen, verander jezelf en wees een keer open mond. Zonder geklooi met je mededelen in je rampkoers scenario’s. En je bent nog lang niet Paul Verhoeven, of Poe,,je bent iemand die met teksten zwaait, Koran teksten kan dus ook..serieus? Zeker.....maar mijn kop staat er niet naar...klip en klaar beter een garnaal of een vis of een merel zonder nest of die mens aan het roer die snapt dus alles wel wel maar ook geen enen mallemoer..Wees kalm en wees altijd blij omdat wij dus leven met zijn allen op een rij, niet die een of die ander,eerst die ander dan ben jij.
      Fijne dag,gezegende ramadan en was je handen en die anderhalf meter, niet voor niks de basis regels,volgen, die eerste stap, in de week veranderingen, samengevat in punten zes dus Doeiiiiiiii

    6. #106
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.459
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Interview

      Volgens deze techniekfilosofe was de toeslagenaffaire het topje van de ijsberg: ‘De techniek was niet objectief’


      Hoogleraar techniekfilosofie Sabine Roeser: ‘De technologische keuzes die je maakt horen deel uit te maken van een idee welke maatschappij je wilt’.Beeld Inge van Mill

      Eerlijk, objectief en efficiënt: zo zou automatisering moeten werken. Was het maar zo, zegt hoogleraar techniekfilosofie Sabine Roeser. Ze denkt dat de toeslagenaffaire het topje van de ijsberg is.

      Lodewijk Dros 25 juni 2021, 12:28

      In de toeslagenaffaire gaat veel aandacht uit naar twee kanten van de zaak: de slachtoffers die gemangeld zijn door regels en de uitvoerders die stug vasthielden aan de handhaving daarvan. De techniek zelf komt minder in beeld. En dat, zegt Sabine Roeser, is een gemis. De waarden die daarin verpakt zitten, verdienen juist alle aandacht, zegt de Delftse hoogleraar ethiek van de techniek.

      “In mijn werk onderscheid ik de technocratische en de populistische valkuil. In het eerste geval draait alles om cijfers die als objectief worden beschouwd. In het tweede alleen om wat het publiek al dan niet wil.”

      Dat objectieve is op het eerste gezicht zo gek niet, zou je zeggen. Je creëert een computerprogramma, voert daar de juiste gegevens in en er komt een objectieve weging uit voort. “Was het maar waar!”, reageert Roeser. “Er zitten biases (vooroordelen, red.) in, die het geautomatiseerde systeem juist versterkt. Wat statistisch gezien waarschijnlijk is, hoeft zich niet te herhalen in de toekomst en zegt weinig over individuen. Bovendien houd je het systeem in stand, terwijl je juist zaken zou moeten veranderen. Belangrijke morele vraagstukken zoals rechtvaardigheid worden niet meegenomen.”

      Objectief imago van techniek


      Dat het systeem achter de toeslagenaffaire zo lang heeft kunnen draaien, hangt samen met het objectieve imago van techniek. Daardoor is vergeten, zegt Roeser, dat je menselijke controle nodig hebt. “Als je lik-op-stukbeleid uitbesteedt aan een geautomatiseerd systeem, krijg je problemen. Dat je dataverwerking delegeert aan AI (kunstmatige intelligentie) is prima, als er maar een toetsing door een mens is, die kan kijken: klópt dit nog wel? Die had kunnen zien dat hier racistische factoren in zaten. Is je achternaam van buitenlandse herkomst, heb je een dubbele nationaliteit en doe je een beroep op kindertoeslag, dan ben je al verdacht. Deze techniek was niet objectief.” Bij de introductie van nieuwe technieken, ziet Roeser dan ook vaak een herhaling van zetten. “Alle technologieën hebben ethische dimensies, maar daar is vaak geen oog voor. Neem alleen al de zeshonderd verkeersdoden per jaar door het gebruik van auto’s, dat is ethisch problematisch. Van nieuwe technologie denken voorstanders vaak dat die schoon is, geen slachtoffers maakt. Over de morele aspecten ervan wordt doorgaans niet meteen nagedacht. Bij AI breekt dat besef nu breder door: hé, er zit een ethische dimensie aan.”

      Sabine Roeser: ‘Toen ik hier begon, vroegen mensen vaak: wat heeft ethiek nou met techniek te maken? Dat hoef je nu aan niemand meer uit te leggen.’ Beeld Inge van Mill

      Is die naïeve, positieve houding jegens techniek niet kenmerkend voor techniekspecialisten, zoals aan de Technische Universiteit Delft? Roeser: “Toen ik daar twintig jaar geleden begon, had de TU een kleine filosofievakgroep. Mensen zeiden vaak: wat heeft ethiek nou met techniek te maken? Dat hoef je nu aan niemand meer uit te leggen. Maar die technocratische benadering is nog altijd hardnekkig. De specialisten hebben het uitgerekend, hoor je dan, de kans dat het fout gaat is tien tot de min-zoveelste macht. Dan laten wij in ons onderwijs en onderzoek zien dat er ook morele overwegingen een rol horen te spelen.”

      Populistische valkuil

      Een rode draad in Roesers onderzoek is het belang van emoties. En dan niet om die te demonteren en uit te leggen dat ze heus niet gegrond zijn. Roeser wil emoties niet uit- maar inschakelen. “Gevoelens verzieken een redelijke afweging van belangen niet – dat is wat technocraten denken – maar kunnen er een belangrijk uitgangspunt bij vormen.” Dat inzicht is volgens haar óók een uitweg uit de populistische valkuil. “Emoties zijn geen irrationele onderbuikgevoelens, maar wijzen vaak op belangrijke morele aspecten. Bij doorvragen komen de onderliggende waarden aan het licht. Die moet je benutten bij het nemen van beslissingen.”

      Bij de techniek die in de toeslagenaffaire een rol speelt, is verzuimd naar die ingebouwde waarden te kijken, stelt Roeser. En het is de enige techniek niet die daar mank aan gaat. Dus dient er bij ambtenaren iets te verbeteren aan het besef dat technische systemen ethisch geladen zijn. De vraag is hoe je die erin krijgt, bij zowel ingenieurs als beleidsmakers, maar daaraan wordt gewerkt, zegt Roeser. “Er lopen bij de Nederlandse technische universiteiten tientallen filosofen rond, in Delft zo’n 25 docenten, hoofddocenten en hoogleraren en evenveel promovendi en postdocs. Dat werpt zijn vruchten af. De EU heeft net nieuwe regels aangenomen voor het gebruik van AI. Die zijn mede door Delftse filosofen ontwikkeld.”

      Dat stemt Roeser optimistisch. Ze ziet een belangrijke rol weggelegd voor de wijsbegeerte bij het nadenken over goed en kwaad. Dat kun je niet overlaten aan de empirische wetenschap. De normatieve vragen beantwoord je niet met een opiniepeiling of een berekening. “In een neoliberale context wordt de vraag naar het juiste handelen vaak door een kosten-batenanalyse beantwoord. Voor een extra ingewikkeld probleem gebruiken ze een AI-systeem. De moraalfilosofie is er om erop te wijzen dat zo’n systeem niet waardeneutraal is. Bij de toeslagenaffaire was héél efficiënt een probleem opgelost, maar duizenden mensen is onrecht aangedaan.”

      Het klinkt cynisch, maar is dat niet de prijs voor techniek? De auto kost honderden doden per jaar. Het toeslagensysteem mangelt zijn duizenden gedupeerden. Roeser: “Dat is inderdaad erg cynisch. In Zweden accepteren ze dat aantal verkeersdoden niet meer. Dat hoeft dus helemaal niet. Laten we de ambities wat aanscherpen.”

      Wat is een mensenleven waard?


      Hoe dat in de praktijk werkt, legt Roeser aan beginnende studenten zo uit: “Ik laat ze een kosten-batenanalyse maken, met twee verzekeringstabellen. Daarin staat wat een mensenleven waard is. De uitkomsten waar de studenten mee komen, verschillen steeds, afhankelijk van het bedrag waarmee ze gewerkt hebben. Het idee is vaak dat je gewoon zo mag rekenen ‘want die verzekeringsmaatschappijen zullen dat wel weten’. Met deze opdracht help ik de studenten in te zien dat dat problematisch is, zowel methodologisch als moreel.”

      “We hebben allemaal de intuïtie dat je een mens niet in cijfers kunt vangen, maar we zijn er zo aan gewend dat het normaal is gaan lijken.”

      Beleidsmakers die AI-systemen gebruiken zouden hier kritisch naar moeten kijken, betoogt Roeser. “Ze besteden keuzes uit aan AI. De machine draait en de uitkomsten worden vaak geaccepteerd omdat een dergelijk systeem kwantitatief te werk gaat. Dat wekt de indruk eerlijk en objectief te zijn.”

      “Volgens de modelleurs van informatiesystemen is het garbage in, garbage out: rommel erin, rommel eruit. Als je er slechte data in stopt, dan is de uitkomst troep. Ik zeg: moral garbage in, moral garbage out. De veronderstelling dat je een mensenleven kunt vatten in data, is simplistisch. Dan krijg je morele problemen met de uitkomst. Soms is kwantificatie onvermijdelijk, maar we moeten ons altijd blijven realiseren dat er moreel geladen veronderstellingen in zitten, die je voortdurend moet blijven evalueren. De keuzes die je maakt bij het inrichten van AI horen deel uit te maken van een overkoepelende deliberatie over welke maatschappij je wilt.”

      Ethici erbij betrekken


      Bij het creëren van technologie zouden van meet af aan ethici betrokken moeten worden, zegt Roeser. “De Nederlandse techniekfilosofen werken mee aan verantwoorde innovaties, zoals in de energietransitie en de robotica.” Er zijn ook slechte voorbeelden, dan fungeert een ethicus als window dressing. “Bij Google vlogen sommigen eruit toen ze te kritisch werden.”

      Zonder zorgen is Roeser dus niet en er kunnen nog heel wat lijken uit de kast vallen. Want er moeten veel meer systemen draaien die zogenaamd neutraal en objectief en efficiënt functioneren. “Bij de overheid hebben we het gezien. Bij geautomatiseerde recruitment systemen zijn er ook genoeg voorbeelden van biases.”
      Waar denkt Roeser dat het volgende probleem opdoemt? “Mag ik die vraag omkeren? Wordt AI wel eens ingezet zonder dat dit gevaar dreigt?”

      Is de toeslagenaffaire dan het topje van de ijsberg? Ja, beaamt Roeser. “Het komt vaak voor. Laten we dus kritisch naar deze systemen kijken. Die moeten ons ondersteunen en geen eigen leven gaan leiden. Dat vraagt om een waardebewust ontwerp, met een helder omschreven rol voor menselijke toetsing.”


      https://www.trouw.nl/religie-filosof...tief~b0593d7f/
      'One who deceives will always find those who allow themselves to be deceived'

    7. #107
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.459
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Opinie: Stop algoritmen van overheid die tot discriminatie en uitsluiting leiden

      Uitvoeringsdiensten gebruiken talloze ‘zwarte lijsten’ met potentiële fraudeurs. Dat kan leiden tot (indirecte) etnische profilering en nieuwe drama’s, na de toeslagenaffaire.

      Nani Jansen Reventlow
      15 juli 2021, 15:14


      Gedupeerde ouders van de toeslagenaffaire protesteren bij het Catshuis. Beeld ANP

      Wie denkt dat alle ellende achter de rug is als de 46 duizend claims in de toeslagenaffaire eindelijk afgehandeld zijn, vergist zich. Want daarnaast spelen er ook belangrijke structurele problemen, die opnieuw tot misstanden kunnen leiden. Zo hebben uitvoeringsinstanties van de Nederlandse overheid meer dan tweehonderd ‘zwarte lijsten’ met (vermeende) potentiële fraudeurs in gebruik, die, als we niet oppassen, binnenkort met behulp van technologie nog zwaarder kunnen worden ingezet. Want als na de Tweede Kamer ook de Eerste Kamer de Wet gegevensverwerking door samenwerkingsverbanden oftewel ‘Super-SyRI’ aanneemt, mogen gegevens niet alleen worden gedeeld tussen overheidsdiensten, maar ook tussen overheid en private partijen. Daarmee zou een nachtmerrie à la Big Brother werkelijkheid worden.

      De senaat heeft onlangs advies aangevraagd bij de Raad van State, hoe het staat met risico’s voor de grondrechten van burgers. Een terechte zorg, gelet op de voorgeschiedenis. Super-SyRI is de beoogde opvolger van het ‘Systeem Risico Indicatie’ (SyRI), waarvan de rechter vorig jaar oordeelde dat het in strijd is met het recht op privacy. Bedoeld om preventief fraude op te sporen, werd een algoritme losgelaten op persoonsgegevensbestanden van verschillende overheidsinstanties. Deze betroffen onder meer details over inkomstenbelasting, woonplaats, pensioenregelingen en het al dan niet hebben van een zorgverzekering.

      Inwoners met migratieachtergrond


      Hoe dit geautomatiseerde opsporingsprogramma werkte – dus welke factoren bepaalden wie werd aangemerkt als potentiële fraudeur – werd geheimgehouden. Het systeem werd toegepast in buurten met relatief veel lage inkomens en inwoners met een migratieachtergrond, zonder dat er objectieve aanwijzingen waren dat daar meer fraude voorkomt. Burgers die door het systeem werden gemarkeerd, wat hen blootstelde aan nader onderzoek door overheidsdiensten (inclusief de politie), wisten hier niets van, tenzij ze zelf om deze informatie vroegen.

      Het kabinet ging niet in beroep tegen het vonnis dat SyRI ongedaan maakte, maar zat niet stil: vorig jaar nam de Tweede Kamer bovengenoemde wet aan, ondanks verzet van een brede maatschappelijke coalitie. De bijnaam Super-SyRI dankt het wetsvoorstel aan het feit dat het de grondslag wil bieden ‘persoonsgegevens systematisch te delen en te verwerken, waaronder door profilering’. En dus niet alleen tussen overheden, maar ook met private partijen.

      Het automatiseren van overheidsdiensten wordt vaak gemotiveerd met argumenten als kostenbesparing en efficiëntie. Ook bestaat het misverstand dat technologie neutraal is in plaats van een menselijk product dat de vooroordelen, discriminatie en machtsstructuren in onze samenleving niet alleen kan reproduceren, maar zelfs kan versterken. Een cruciaal, maar onderbelicht punt is dat dit soort technologie wordt uitgerold in een context van structureel racisme. In haar rapport van 2019 gaf VN-rapporteur Tendayi Achiume een verontrustend beeld over de aanwezigheid van structureel racisme in Nederland, een beeld dat later werd bevestigd door de Autoriteit Persoonsgegevens, die oordeelde dat het profileren van ontvangers van kindertoeslag op basis van nationaliteit door de Belastingdienst discriminerend was.

      Gezichtsherkenningssoftware


      Technologie die voornamelijk door witte mannen wordt ontworpen kan negatieve consequenties hebben voor gemarginaliseerde en geracialiseerde groepen in de samenleving, omdat de door hen ontwikkelde software hun eigen positie en wereldbeeld, bewust of onbewust, reproduceert. Met vaak discriminatoire effecten. Dit zien we bijvoorbeeld bij het zogeheten ‘proctoring’: bij onlinetentamens worden zwarte studenten minder goed herkend door de gezichtsherkenningssoftware, met alle stress van dien.

      In het geval van de Belastingdienst was de discriminatie eenvoudig te duiden: er werd gefilterd op dubbele nationaliteit. Maar met technologie kun je dit soort filters niet alleen veel beter verstoppen – zie de geheimhouding over de werking van SyRI – je kunt ook een zogenaamd transparant programma gebruiken om discriminatie eenvoudigweg te verbergen. In plaats van op nationaliteit te filteren, gebruik je op het eerste gezicht neutrale gegevens, zogenaamde ‘proxies’, zoals postcode, achternaam, inkomstenbelasting en het al dan niet hebben van een strafblad, om risico-indicatoren toch toe te spitsen op etniciteit.

      Deze nieuwe werkelijkheid wordt te makkelijk geaccepteerd. De parlementaire ondervragingscommissie Kinderopvangtoeslag waagde zich niet aan uitspraken over racisme. Een parlementaire enquête die dit aspect wel onderzoekt, zal op zijn vroegst plaatsvinden in 2022, waarschijnlijk te laat om van nut te zijn voor de behandeling van Super-SyRI in de senaat. In januari verwierp de Tweede Kamer een motie om het gebruik van nationaliteit of etniciteit bij risicoprofilering in wetshandhaving verbieden, en intussen wordt een tamelijk slap debat gevoerd over de juridische kaders van etnisch profileren.

      Etnisch profileren


      Het College voor de Rechten van de Mens, het instituut dat hier bij uitstek verstand van zou moeten hebben, miste onlangs de essentie in een advies aan de Eerste Kamer over de legitimiteit van etnisch profileren. Door vooral te focussen op het probleem van ‘gekleurde datasets’ die historische ongelijkheden reproduceren in de technologie, gaat het College voorbij aan het feit dat dit lang niet het enige probleem is. Het toepassen van technologie op bepaalde groepen in de samenleving zal deze groepen namelijk doorgaans sowieso geweld aandoen, door die (al dan niet bewuste) vooroordelen bij de ontwerpers – los van de vraag hoe goed die technologie werkt.

      Dat het gebruik van technologie ontberingen verergert, machtsstructuren verankert en de toegang tot het recht belemmert of zelfs blokkeert, blijkt uit talloze voorbeelden, zoals bij het toezicht op migratie en grenzen, rechtshandhaving of het verlenen van essentiële overheidsdiensten. Door onvoldoende aandacht te besteden aan de context waarbinnen de praktijk van ‘profileren’ wordt geautomatiseerd, voedt het College – wellicht onbedoeld, maar duidelijk onwetend – een narratief dat het krijgen van overheidssteun door (met name) zogenaamde ‘niet-Nederlanders’ criminaliseert.

      We moeten ophouden met geloven dat automatisering niet te stoppen is. Technologie wordt ontwikkeld door mensen: wij beslissen wat we maken, waar we het inzetten en hoe we het reguleren. Daarbij moeten we ook rekening houden met de context waarin die technologie opereert. In Nederland moeten we onderkennen dat dit – net als elders ter wereld – een context van institutioneel racisme is. Dat betekent dat we, tot we goed hebben uitgezocht hoe we de disproportioneel negatieve impact van algoritmen op bepaalde groepen kunnen voorkomen, onze drang tot ‘vooruitgang’ moeten intomen. In het besef dat de beslissingen die we nu nemen, blijvende gevolgen hebben voor de komende generaties.

      Nani Jansen Reventlow is oprichter en directeur van het Digital Freedom Fund in Berlijn.


      https://www.volkskrant.nl/columns-op...iden~b1362511/
      'One who deceives will always find those who allow themselves to be deceived'

    8. #108
      Very Important Prikker
      Ingeschreven
      Aug 2003
      Berichten
      5.004
      Post Thanks / Like
      Reputatie Macht
      248328

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      En wat doen we hier tegen. Lappen met tekst. Je wordt hier hondsberoerd van. Zeg een keer hoe je hier kunt gaan wapenen. Algoritmes. Ik word hier voor twee jaar weggestuurd. Zit hier ook een algoritme achter? Elke keer als ik hier iets mededeel krijg ik een groen vinkje.

      Dus ik ben gevaarlijk!!!

      Anderen met haatdragend taal gebruik worden hier gewoon gedoogd. Vrouw onvriendelijk. Mag gewoon. Als je andere mening er op nahoudt mag je iemand in het verderf gaan storten. En denk je dat die Revisor het opneemt voor diegenen.
      Hij steelt van de kranten omdat hij weet hoe dat moet. Hij promoot dit en legt dit uit. Anderen betalen gewoon het abonnement, deze gast dus niet.
      Hoe kunnen we in discussie gaan als die lappen met tekst maar voorbij vliegen nog sneller dan het licht. Kan verdragen.
      Dit vind hij dus leuk.
      Oplossingen.?
      Waar zijn die oplossingen dan.
      Kijk,
      Beveiliging.
      Daar gaat het om.
      Je zelf beveiligen en je gaan behoeden voor
      Oeverloos slecht nieuws.

      Wie is hier slecht de berichtgever…..
      Ja die

      Hij doet precies het zelfde voor hij voor waarschuwt

      Fijne dag iedereen
      ( algoritme,lik mijn reet)

    9. #109
      O'Tmazirt ⵓ'ⵜⵎⴰⵣⵉⵔⵜ Oiseau's Avatar
      Ingeschreven
      Nov 2012
      Berichten
      26.014
      Post Thanks / Like
      Reputatie Macht
      3614777

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      'ER ZITTEN AANNAMES IN EEN ALGORITME'
      Spoiler alert: big data en kunstmatige intelligentie zijn niet de heilige graal voor veiligheidsproblemen. “Er worden niet de goede vragen bij gesteld, omdat de mensen die enthousiast praten over de technologie er niet genoeg vanaf weten”, stelt Mirko Tobias Schaefer, universitair hoofddocent new media & digital culture.

      https://ccv-secondant.nl/platform/ar...-een-algoritme


    10. #110
      Enduring Endurance mrz's Avatar
      Ingeschreven
      Oct 2002
      Locatie
      Leiden
      Berichten
      10.351
      Post Thanks / Like
      Reputatie Macht
      48990

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Ze hebben ooit AI bot gemaakt... De AI werd al snel "bot", aangezien de chatvrienden van de bot (mensen) anti joden en pro nazi dingen ertegen zeiden om hem te programmeren..

      Het werd een 14 jarige nazi bot. Toen zijn ze er maar mee gestopt.

      Het is leuk hoor, vast, de AI. Maar de stroom mag van mij ook weleens uitvallen......
      Weet je? Je kunt ook gewoon aardig zijn....!!!
      http://www.soundcloud.com/hugo32

    + Plaats Nieuw Onderwerp

    Bladwijzers

    Bladwijzers

    Forum Rechten

    • Je mag geen nieuwe onderwerpen plaatsen
    • Je mag geen reacties plaatsen
    • Je mag geen bijlagen toevoegen
    • Je mag jouw berichten niet wijzigen
    •