Wat jullie te wachten staat: Racisme next level
  • + Plaats Nieuw Onderwerp
    Pagina 1/15 1211 ... LaatsteLaatste
    Resultaten 1 tot 10 van de 150

    Onderwerp: Wat jullie te wachten staat: Racisme next level

    1. #1
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      24.630
      Post Thanks / Like
      Reputatie Macht
      4011804

      Standaard Wat jullie te wachten staat: Racisme next level

      Pas op, ook institutioneel racisme wordt geautomatiseerd

      De overheid maakt steeds meer gebruik van risicosystemen om vroegtijdig te kunnen ingrijpen. Vergeten wordt dat die vol zitten met vooroordelen. Discriminatie ligt op de loer, schrijft Marc Schuilenburg in de Politiecolumn.

      Marc Schuilenburg 14 november 2016



      In Nederland worden steeds meer risicosystemen gebruikt om verdachte personen vooraf te signaleren of misbruik van voorzieningen voortijdig op te sporen. Van de Verwijsindex Risicojongeren (VIR) waarin risicosignalen van hulpverleners worden verzameld over jongeren tot het Systeem Risico Indicatie (SyRI) om uitkerings- en belastingfraude te voorkomen.

      Veel risicosystemen werken met gedragsprofielen die zijn opgesteld op basis van enorme hoeveelheden gegevens. Via deze profielen wordt gezocht naar verdachte patronen in het gedrag van personen. Neem SyRI van het Ministerie van Sociale Zaken en Werkgelegenheid. Een laag waterverbruik kan in dit systeem wijzen op uitkeringsfraude omdat iemand bijna nooit thuis is.

      Kan de computer recidive berekenen?


      Voordeel van risicosystemen als VIR en SyRI is dat misstanden sneller kunnen worden opgespoord. Tegelijk is een waarschuwing op haar plaats. Aan het gebruik van deze data-gedreven systemen kleven ook risico’s. Te vaak wordt vergeten dat de techniek die deze verregaande surveillance mogelijk maakt geen waardevrij middel is. Zo worden data altijd ontsloten vanuit een specifieke context en geschiedenis. Denk aan de geautomatiseerde stappen om correlaties te vinden in de data, zoals de algoritmen die worden gebruikt om personen te categoriseren. Deze algoritmen zullen nooit neutraal zijn. Ze werken via variabelen die geselecteerd zijn door ontwikkelaars, analisten en beleidsmakers. Hierdoor zitten er onvermijdelijk vooroordelen (bias) in de software van risicosystemen.

      Het meest duidelijk kwam zo’n vooroordeel naar voren in het onderzoek van journalistenplatform ProPublica naar risico-evaluaties van de Amerikaanse justitie. Steeds meer rechters in de Verenigde Staten gebruiken computerprogramma’s om de kans te berekenen of een verdachte zal recidiveren. Is de kans groter op recidive, dan wordt er een zwaardere gevangenisstraf opgelegd. Uit het onderzoek van ProPublica blijkt dat burgers met een donkere huidskleur structureel hogere risico-scores krijgen toebedeeld dan blanke personen, ongeacht of ze al eerder zijn veroordeeld voor het plegen van criminaliteit. Zo hebben burgers met een donkere huidskleur 77% meer kans om te worden gelabeld als iemand met een ‘hoger risico’ op het plegen van een toekomstig geweldsmisdrijf dan blanke verdachten. Ook hebben ze 45% meer kans dan blanke verdachten om te worden gelabeld als iemand die überhaupt strafbare feiten van welke aard dan ook gaan plegen.

      Wie controleert de risicosystemen?


      Welke voordelen risicosystemen ook mogen hebben, het valt niet te ontkennen dat de bias die in elke dataset zit vervelende consequenties kan hebben voor bepaalde personen of bevolkingsgroepen. In het geval van de bevindingen van ProPublica is er zelfs sprake van institutioneel racisme. Het systeem waarmee rechters in de Verenigde Staten werken om de kans te berekenen dat een verdachte weer in de fout gaat, leidt tot structurele discriminatie en een ongelijke rechtsbehandeling van gekleurde bevolkingsgroepen. Dit maakt de vraag relevant welke bias zit opgesloten in Nederlandse risicosystemen. Welke vooroordelen zijn verborgen in het instrument Recidive Inschattingsschalen (RISc) waarmee de reclassering het recidiverisico van delinquenten inschat? Leidt het Criminaliteit Anticipatie Systeem (CAS) van de Amsterdamse politie dat woninginbraken en overvallen voorspelt tot een selectief optreden tegen bepaalde bevolkingsgroepen?

      Heel lang hebben we gedacht dat voor een prettige en veilige samenleving het nodig was om elkaar te controleren. De staat controleerde de burgers, en burgers elkaar. Met de komst van data-gedreven risicosystemen draait alles een slag. De vraag wordt nu: Wie controleert de algoritmen?

      Marc Schuilenburg doceert aan de afdeling Strafrecht en Criminologie van de Vrije Universiteit te Amsterdam. De Politiecolumn wordt afwisselend geschreven door deskundigen uit het politieveld.

      Blogger Marc Schuilenburg

      Marc Schuilenburg doceert aan de afdeling Strafrecht en Criminologie van de Vrije Universiteit te Amsterdam. Hij studeerde filosofie en rechten aan de Erasmus Universiteit Rotterdam. Zijn nieuwste boek heet The Securitization of Society. Crime, Risk, and Social Order (2015). Hij ontving de driejaarlijkse Willem Nagelprijs van de Nederlandse Vereniging voor Criminologie voor zijn boek Orde in veiligheid. Een dynamisch perspectief (2012). Samen met Bob Hoogenboom geeft hij het mastervak ‘Politie en Veiligheid’ aan de Vrije Universiteit Amsterdam. Zijn website is www.marcschuilenburg.nl.


      https://www.nrc.nl/nieuws/2016/11/14...seerd-a1530922
      'One who deceives will always find those who allow themselves to be deceived'

    2. #2
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      24.630
      Post Thanks / Like
      Reputatie Macht
      4011804

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Big data bedreigt de democratie

      Wouter van Noort 28 november 2016



      Big data wordt gebruikt om sollicitanten te selecteren, verzekerden te beoordelen, aanslagen te voorkomen en politieke campagnes op af te stemmen. Als een algoritme een oordeel velt, zal het wel gebaseerd zijn op een kloppende berekening en neutrale feiten, wordt vaak gedacht. Maar die aanname is ronduit gevaarlijk, volgens Harvard-wiskundige Cathy O’Neil in haar overtuigende boek Weapons of Math Destruction.

      Neem haar voorbeeld van een Amerikaanse autoverzekeraar die op basis van kredietscores (inschattingen van iemands kredietwaardigheid) probeert te voorspellen hoeveel kans iemand heeft op een ongeluk, en daarop de hoogte van de premie baseert. In die kredietscores wordt de postcode verwerkt. En in postcodes zit, zeker in steden met ‘zwarte’ en ‘witte’ wijken, mogelijk ook informatie over huidskleur verwerkt. Huidskleur mag wettelijk niet worden meegewogen in het bepalen van premies, maar door het te verstoppen in algoritmes gebeurt dat via een omweg toch.

      O’Neil waarschuwt dat door dit soort ondoorzichtige algoritmes discriminatie zal toenemen, economische ongelijkheid zal groeien en zelfs dat de democratie gevaar loopt. Want ook overheden gebruiken in toenemende mate algoritmes en datamodellen om beslissingen te nemen. „Het is zeer de vraag of we met big data de menselijke vooroordelen elimineren, of juist camoufleren met nieuwe technologie”, aldus O’Neil.

      Nog een voorbeeld: in de VS, net als in Nederland, maakt de politie gebruik van big data om te bepalen waar ze moeten patrouilleren. Ook daarin zitten mogelijk vooroordelen verstopt, die zichzelf bovendien versterken: als bepaalde wijken vaker worden gecontroleerd, stijgt daar het aantal staandehoudingen, al was het maar vanwege identificatieplicht. Omdat die staandehoudingen in veel modellen meewegen, gaan de agenten nog vaker patrouilleren, waardoor er een vicieuze cirkel ontstaat.

      Feilbare modellen


      Het grote probleem: bijna niemand kan toezicht houden op algoritmes, omdat maar weinig mensen ze kunnen beoordelen – als ze al openbaar zijn.

      O’Neil is een geloofwaardige data-criticus: na haar Harvard-studie werkte ze bij een hedgefonds om complexe data-analysemodellen in elkaar te zetten. Toen ze door kreeg hoe feilbaar de modellen waren, werd ze onderzoeker. Met dit boek sluit ze aan bij een groeiende groep wetenschappers die de laatste maanden waarschuwt voor een te groot geloof in algoritmes en data.

      Dat O’Neil gedurende het hele boek consequent de term weapons of math destruction (WMD) gebruikt, waarmee ze slechte big data-toepassingen aanduidt, draagt niet bij aan de nuchterheid van haar betoog. Dat is jammer, want de vele concrete en recente voorbeelden zijn al voldoende stof voor een zorgwekkende analyse van een van de invloedrijkste technologietrends van de laatste tijd.


      Cathy O’Neil: Weapons of Math Destruction
      . How Big Data Increases Inequality and Threatens Democracy. Crown Publishing Group, 272 blz. €16,99


      https://www.nrc.nl/nieuws/2016/11/28...96961-a1533975
      'One who deceives will always find those who allow themselves to be deceived'

    3. #3
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      24.630
      Post Thanks / Like
      Reputatie Macht
      4011804

      Standaard Re: Wat jullie te wachten staat: Racisme next level


      © REUTERS

      Facebook is gemaakt voor etnisch profileren

      Typhoon werd als zwarte rapper in een mooie auto aangehouden. Sindsdien is de discussie over etnisch profileren terecht losgebarsten. Er is daarbij zelden aandacht voor dat de businessmodellen van diensten uit Silicon Valley grotendeels zijn gebaseerd op profilering, en dat etnisch profileren daarbij als innovatief marketinginstrument wordt aangeprezen.

      Hans de Zwart directeur van Bits of Freedom en komt op voor digitale burgerrechten 16 juni 2016, 02:00

      Zo presenteerden Facebook en Universal Pictures dit jaar hun nieuwste advertentie-innovatie, de cutting edge op het gebied van marketing: het etnisch segmenteren van de Facebook-gebruikers. Het voorbeeld dat ze daarvoor gebruikten was de film Straight Outta Compton, een onverwachte bioscoophit. De bedrijven hadden het potentiële publiek in drieën gedeeld: Afro-Amerikanen, latino's en het 'algemene publiek' (daar hoorden de Afro-Amerikanen en latino's dus niet bij). Voor elk van de drie groepen maakten ze een andere trailer.

      Waarom? Volgens het multiculturele team van de informatiegiganten was het algemene publiek nog niet bekend met N.W.A. (de hiphopgroep die centraal staat in de film). De trailer voor dat publiek verkocht de film dus als de lange weg naar de top van hoofdpersonen Ice Cube en Dr. Dre, die wel breder bekend zijn. Een tweede trailer, die Afro-Amerikanen te zien kregen, was compleet verschillend: deze toonde hoe N.W.A. Compton, een voorstad van Los Angeles, op de kaart heeft gezet. Latino's zagen een kortere trailer met Spaanstalige teksten.

      Na kritiek hierover in de media legde Facebook heel snel uit dat ze geen van hun gebruikers als zwart bestempelen. In plaats daarvan proberen ze te beoordelen of iemand affiniteit heeft met zwarte cultuur. Ze beloofden daarbij niet te zullen kijken naar foto's (hoewel ze waarschijnlijk allang een uitgebreid face recognition algoritme hebben), noch naar namen of demografische gegevens. In plaats daarvan kijken ze naar de voorkeuren van een gebruiker en naar wat die persoon op internet doet. Kort gezegd: als je naar FunX luistert en 'Zwarte Piet is Racisme' 'leuk' vindt, zul je wel zwarte affiniteit hebben.

      Als je dit ziet als een onschuldige vorm van gepersonaliseerde reclame of als een manier waarop een 'zwarte film' een mainstreampubliek kan bereiken, dan mis je het grote plaatje. Facebook is met zijn 1,6 miljard 'inwoners' het grootste land ter wereld. Het bedrijf heeft een gigantische database, waarmee het zijn populatie op elke mogelijke manier in stukjes kan verdelen.

      Wil je alleen maar witte mensen in je Airbnb? Daar zou Facebook in theorie bij kunnen helpen. Op zoek naar een afzetmarkt voor je medicijn tegen kanker? Op Facebook zijn er miljoenen gebruikers die kanker 'leuk' vinden. Ben je als overheid geïnteresseerd in alle mensen met een Koerdische affiniteit? Facebook heeft wel een lijstje. Een overzicht van alle joden of moslims? Zo gepiept.

      Na eerst 'Web 2.0' mogelijk te hebben gemaakt, bouwt Facebook nu de infrastructuur voor 'Segregatie 2.0'. Tja... Wat zou er mis kunnen gaan?

      Hans de Zwart is directeur van Bits of Freedom en komt op voor digitale burgerrechten.


      http://www.volkskrant.nl/opinie/face...eren~a4321084/
      'One who deceives will always find those who allow themselves to be deceived'

    4. #4
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      24.630
      Post Thanks / Like
      Reputatie Macht
      4011804

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Etnisch profileren is onderdeel van vooringenomen criminaliteitsbeleid

      Marc Schuilenburg 17 juni 2016




      De politie maakt steeds meer gebruik van data om crimineel gedrag te analyseren en te voorspellen. Vooral burgers van andere afkomst of met donkere huidskleur hebben er last van. Zij worden vaker staande gehouden.

      De Nederlandse politie maakt steeds meer gebruik van ‘predictive policing’. Met deze methode, overgewaaid uit de Verenigde Staten, probeert de politie op basis van historische criminaliteitsgegevens vaste en opvallende patronen in criminele gedragingen te ontdekken.

      Voorspellen criminaliteit past in trend van securitisering


      Het idee achter deze methode is dat crimineel gedrag kan worden voorspeld omdat criminelen vaak dezelfde misdrijven plegen en veelal rond dezelfde locaties, dicht bij goede uitvalswegen en op dezelfde tijdstippen. Bovendien is er meestal sprake van een relatief duidelijk daderprofiel. Wat ook helpt bij het ontdekken van patronen in criminele gedragingen is dat er steeds meer data beschikbaar zijn, die ons iets over menselijk gedrag vertellen én dat er meer dingen uit onze omgeving zijn die data produceren. Al die data kunnen bruikbare informatie opleveren over wie en wanneer van plan is strafbare feiten te plegen. Data die het in theorie voor de politie mogelijk maken om te anticiperen op eventuele gebeurtenissen.

      Het voorspellen van criminaliteit past in een trend die ik eerder ‘securitisering’ heb genoemd: de neiging om veiligheid breder te definiëren en steeds meer preventieve instrumenten in te zetten voor de vergroting ervan. Denk aan preventief fouilleren, samenscholingsverboden, bewakingscamera’s en poortjessystemen waarmee mensen de toegang wordt ontzegd tot locaties als metro’s en treinstations.

      Etnisch profileren in Nederland is structureel fenomeen


      Het huidige beleid is erop gericht om met behulp van onder meer de zojuist genoemde maatregelen de samenleving veiliger te maken, maar de vraag is of dat ook werkelijk lukt. Van de digitale glazen bol van de politie kun je in ieder geval zeggen dat mensen met een andere etnische afkomst of huidskleur zich er eerder onveiliger door gaan voelen. Dat komt vooral omdat in de selectie van de data en de interpretatie daarvan door de politie allerlei vooronderstellingen zijn ingesloten. Deze bias kwam heel duidelijk naar voren in het onderzoek van het journalistenplatform Propublica naar risicoprofielen van de Amerikaanse justitie. Uit dit onderzoek blijkt dat zwarte burgers ten onrechte twee keer zo vaak als toekomstige criminelen uit het politiesysteem rollen dan blanke personen.

      Diezelfde bias leidt tot de recent veelbesproken praktijk van etnische profilering, waarbij politieagenten burgers op basis van etnische afkomst of huidskleur disproportioneel vaak staande houden. Rapper Typhoon en Feyenoord-doelman Kenneth Vermeer bijvoorbeeld hebben onlangs voor de zoveelste maal mogen ervaren hoe naar het is om door de politie naar de kant van de weg te worden gedirigeerd, zonder dat hiervoor een objectieve en redelijke rechtvaardiging bestaat.

      Ook de aanpak ‘hot spots’ dupeert minderheden


      Met predictive policing worden correlaties en patronen zichtbaar (descriptive) die het mogelijk maken om gedrag en handelen van personen te voorspellen (predictive) die vervolgens de politie sturen in hun aanpak van criminaliteit (prescriptive). Zo sluiten de analytische mogelijkheden van predictive policing nauw aan op nieuwe interventiemethoden van de politie. ‘Hot spot policing’ is daarvan een bekend voorbeeld. Deze methode bestaat uit het gericht en langdurig aanpakken van bepaalde plekken in een park, wijk, huizenblok of een straathoek met een slijterij, waar veel criminaliteit voorkomt. De gedachte achter de aanpak is dat het veilig maken van deze ‘hot spots’ net zolang moet duren totdat er geen sprake meer is van een probleemplek.

      De hotspot benadering is bekend geworden uit New York. Maar de aanpak van ‘hot spots’ gebeurt daar vooral op plekken en in arme delen van de stad waar minderheden wonen. Dit gaat gepaard met ingrijpende en agressieve methoden, waaronder ‘stop & frisk’ (tegenhouden & fouilleren) waarbij de politie mensen willekeurig mag aanhouden en fouilleren op verdenking van criminele activiteiten. Deze methode is zeer omstreden omdat, al weer, vooral minderheden er de dupe van zijn. Inmiddels is ‘stop & frisk’ door de rechter als ongrondwettelijk beoordeeld omdat het in strijd is met grondwetsartikelen die onredelijke aanhoudingen verbieden en gelijke behandeling garanderen.

      Het ontstaan van een gedachtenpolitie dreigt

      De belofte van predictive policing is dat door het gebruik van grootschalige datasets kan worden voorspeld wie, waar en wanneer criminaliteit gaat plegen. Duidelijk is dat het politiewerk hierdoor een volledig nieuw gezicht krijgt. Zo staat de nieuwe werkwijze haaks op de klassieke manier van opsporen waarin het draait om het achteraf ondernemen van actie, vanuit het misdrijf dat heeft plaatsgevonden. Nu wil de politie al ingrijpen vóórdat er een misdaad is gepleegd. Daardoor dreigt niet alleen het gevaar dat rechtsbeginselen zoals de onschuldpresumptie en het beginsel van doelbinding in de knel komen, maar ook dat bepaalde bevolkingsgroepen, door etnische profilering en ‘hot spot policing’, worden gestigmatiseerd.

      Ook het ontstaan van een gedachtenpolitie is niet denkbeeldig. Immers, met het inschatten van het risico of iemand crimineel gedrag gaat plegen, wordt ook de neiging van de politie groter om het gedrag van burgers te psychologiseren. Je zou kunnen zeggen dat de gedachten van burgers hierdoor onder verdenking komen, zonder dat er sprake is van een redelijk vermoeden van schuld aan een strafbaar feit. Met predictive policing wordt namelijk een opsporingsmethode ingezet tegen niet-verdachte burgers in de hoop een willekeurig strafbaar feit op het spoor te komen.

      Ondanks deze bezwaren is de toepassing van predictive policing niet terug te draaien. Daarvoor is de angst voor criminaliteit en een nieuwe terroristische aanslag te groot. Met andere woorden: welkom in het tijdperk waarin data, algoritmes en statistieken beslissingen voor de politie gaan nemen.

      Marc Schuilenburg doceert aan de afdeling Strafrecht en Criminologie van de Vrije Universiteit te Amsterdam. Zijn nieuwste boek heet: ‘The Securitization of Society. Crime, Risk, and Social Order’.

      Foto: Shirley de Jong (Flickr Creative Commons)


      http://www.socialevraagstukken.nl/et...liteitsbeleid/
      'One who deceives will always find those who allow themselves to be deceived'

    5. #5
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      24.630
      Post Thanks / Like
      Reputatie Macht
      4011804

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      15 mei 2016 17:17

      Hoe Facebook voor zijn gebruikers bepaalt welk nieuws ze zien


      Mark Zuckerberg spreekt bij een conferentie over kunstmatige intelligentie. © AFP

      Facebook stond deze week weer eens negatief in de belangstelling, naar aanleiding van de manier waarop het bedrijf hun zogenaamde trending topics samenstelt. Hoe doet Facebook dat en waarom is het mikpunt van kritiek?

      Zoals iedere Facebookgebruiker al wel gewend is, zie je lang niet alles wat al je virtuele vrienden posten. En soms zie je foto's die al uren en uren online staan. Hoe Facebook zorgt wat je wel en niet te zien krijgt, is een bedrijfsgeheim. Het algoritme dat dat bepaalt, houdt het bedrijf angstvallig geheim.

      Dat heeft twee redenen, vertelt Frederike Kaltheuner, onderzoekster op de faculteit der Geesteswetenschappen van de Universiteit van Amsterdam. "Ten eerste zouden marketeers daar misbruik van maken door hun artikelen zo te schrijven dat ze het best gevonden worden, net als bij Google." Daarnaast zijn de algoritmes die Facebook gebruikt een waardevol bezit van het bedrijf, vanwege de data die het ermee verzamelt over haar gebruikers. Data die wordt gebruikt bij de verkoop van advertenties aan bedrijven.

      Trending Topics


      De druk om er openheid over te geven, zwelt echter aan. De aanleiding zijn beschuldigingen over een functie die Facebook in de Verenigde Staten aanbiedt: Trending Topics. Het bedrijf zou nieuws van conservatieve media uit deze nieuwsselectie houden, schrijven onder meer techsite Gizmodo en de Britse krant The Guardian.

      Dat ruikt naar censuur en een Amerikaanse senaatscommissie wilde meteen weten of dat waar was. Facebook-baas Zuckerberg was er snel bij om het te ontkennen. Hij nodigde 'leidende conservatieven' uit om te praten over 'waar Facebook voor staat en hoe ze er zeker van kunnen blijven dat het platform zo open mogelijk blijft'. Tevens plaatste Facebook een uitleg online over hoe de trending topics worden samengesteld.

      Algoritme en mensenwerk


      Allereerst gebeurt dat met behulp van een algoritme, dat artikelen oppikt die potentiële Trending Topics kunnen worden. Of het ook écht een Trending Topic is, wordt beoordeeld door medewerkers van het zogenaamde Trending Topics team.

      Het algoritme herkent artikelen die ineens heel populair worden, bijvoorbeeld omdat het door veel Facebookers gedeeld wordt of omdat er veel reacties onder worden geplaatst. Daarbij wordt ook gebruik gemaakt van een functie die RSS-feeds van nieuwssites afgraast op zoek naar breaking news. Facebook gebruikt daarvoor nieuwssites uit de VS, Canada, Groot-Brittanië, Australië en India.

      Het team dat vervolgens kijkt of het ook daadwerkelijk een trending topic zou moeten zijn, doet het volgende:


      • Het bekijkt of het wel nieuws is en geen onderwerp zoals 'lunch', waar iedere dag wel over gepraat wordt op sociale media.
      • Het voorziet het van een omschrijving op basis van drie media die over het bericht schrijven.
      • Geeft het een categorie zoals sport of gezondheid.
      • Analyseert hoe belangrijk het nieuws is, onder meer op basis van het aantal media dat er over schrijft. Hoe belangrijker het nieuws, hoe hoger het 'importance level' en hoe groter de kans dat mensen het bericht in hun timeline te zien krijgen.


      Maar dat is nog lang niet alles. De lijst van Trending Topics is namelijk gepersonaliseerd voor iedere gebruiker op basis van onder meer de pagina's die iemand 'leuk vindt', de plek waar hij is, of hij of zij eerdere Trending Topics leuk vond of er op reageerde en wat op Facebook zelf populair is, blijkt uit het zeldzame inkijkje in de werkwijze van de techgigant.

      Buitensluiten conservatieve media?

      Het feit dat Facebook de Trending Topics mede liet bepalen door medewerkers, gaf voeding aan de beschuldiging dat het nieuws van een bepaalde afzender niet liet opnemen in de lijst. CEO Zuckerberg steekt zijn afkeer van de Republikeinse presidentskandidaat Trump namelijk niet onder stoelen of banken. Maar van het weigeren of wegdrukken van berichten van conservatieve media is geen sprake, schrijft Facebook.

      Dat juist Facebook zo onder een vergrootglas ligt als het om het gebruik van algoritmes gaat, is niet verwonderlijk, duidt Kaltheuner. "Vooral voor millenials zijn social media de belangrijkste bron voor nieuws. Ook is het steeds vaker de plek waar burgers elkaar vinden en protesten beginnen."

      'Algoritme is niet objectief'

      Dat het bedrijf zelf zegt dat het juist objectief is door een algoritme te gebruiken als filter voor wat wel en geen nieuws is, snijdt volgens haar geen hout. "Zo'n algoritme wordt gemaakt door programmeurs en kan dus nooit objectief zijn. Het pikt op waar mensen op reageren en creëert op die manier een zichzelf versterkende cirkel."

      Dat Facebook het liefst ziet dat gebruikers zich positief uiten op het netwerk, is volgens Kaltheuner ook een gevaar. "De #blacklivesmatter beweging in Ferguson kreeg mondiale aandacht omdat het trending werd op Twitter, maar niet op Facebook", verwijst zij naar het verschil tussen Twitter en Facebook na de dood van een zwarte tiener in het Amerikaanse Ferguson en de daaropvolgende rellen.

      'Algoritmes gevaarlijk voor nieuwsselectie'

      Het gebruik van algoritmes in het algemeen is volgens haar geen probleem. "Algoritmes zijn ontworpen om beslissingen te nemen en mensen zijn vaak erg slecht in het nemen van onbevooroordeelde beslissingen. Het wordt alleen een probleem als algoritmes worden gebruikt voor problemen die geen 'ja'- of 'nee'-antwoord hebben. Nieuws is daarvan een perfect voorbeeld: er is geen objectieve manier om te bepalen of iets belangrijk, relevant of zelfs trending is."

      Toch doen de moderators van Facebook dat, net als journalisten bij kranten of tv. "Het probleem bij Facebook is alleen dat wij denken dat het objectief is, omdat er gebruik wordt gemaakt van een machine", aldus Kaltheuner. "In de journalistiek is de keuze of iets nieuws is per definitie subjectief en mensenwerk." Het gebruik van algoritmes is bovendien ook gevaarlijk als het om nieuws gaat omdat zo'n algoritme 'leert' van de gegevens die het verzamelt, voegt de onderzoekster toe.

      Dat Facebook zichzelf presenteert als platform en dus niets met de nieuwsselectie te maken zou hebben, is volgens Kaltheuner niet waar: "Het bedrijf bepaalt wat relevant of belangrijk is voor zijn gebruikers, datzelfde geldt voor de Trending Topics." Als iets trending wordt, krijgt het meer aandacht van mensen en vervolgens ook media-aandacht. Dat heeft dus wel degelijk consequenties, besluit Kaltheuner.


      http://www.rtlnieuws.nl/technieuws/h...nieuws-ze-zien
      'One who deceives will always find those who allow themselves to be deceived'

    6. #6
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      24.630
      Post Thanks / Like
      Reputatie Macht
      4011804

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Waarom blanke wijken in de VS blank blijven

      Algoritmes helpen adverteerders hun ideale consument te bereiken, maar ze maken ook dat andere groepen worden uitgesloten.

      Charisma Pical 14 december 2016


      Vox.com

      Als je in de Verenigde Staten een (blanke) middenklasse wijk woont, dan is de kans klein dat in het huis naast je een Afro-Amerikaans gezin komt wonen. Hoe dat kan? Onder meer doordat zij de advertentie voor een in de wijk te koop staande woning niet eens te zien krijgen. Vox legt in een uitgebreid geïllustreerd verhaal uit hoe dat komt.

      Dat je de ene advertentie wel ziet, en de andere niet, komt doordat bedrijven online gebruik maken van algoritmes die bepalen wie welke reclame te zien krijgt. Als je via Facebook laat weten dat je regelmatig meedoet aan sportevenementen, dan is de kans groot dat je regelmatig advertenties ziet van sportmerken. Een niet-sporter wordt van die reclames uitgesloten.


      Foto: Vox.

      De patronen die daarbij worden gebruikt zijn generaliserend: ze gaan eruit dat iedereen in een doelgroep min of meer dezelfde kenmerken heeft. Op de Amerikaanse huizenmarkt werkt dat ongeveer net zo, stelt Vox. Mensen die op zoek zijn naar een huis, zien vooral woningen van mensen uit dezelfde doelgroep.

      How the internet keeps poor people in poor neighborhoods: https://t.co/pu5N3a06JL pic.twitter.com/04zsqQSUNC
      — Vox (@voxdotcom) December 14, 2016

      Door het gebruik van zulke algoritmes gebeurt het dat zwarte gezinnen niet de kans krijgen om te reageren op een huis, ook al zouden ze dat heel goed kunnen betalen. De website maakt daarbij overigens de kanttekening dat opzet niet per se in het spel is. Toch maakt het gebruik van algoritmes wel dat segregatie in huisvesting, in de VS een groot probleem, in stand blijft.

      Bekijk hier
      het Vox artikel over waarom arme mensen in arme wijken blijven wonen.


      https://www.nrc.nl/nieuws/2016/12/14...lasse-a1536263
      'One who deceives will always find those who allow themselves to be deceived'

    7. #7
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      24.630
      Post Thanks / Like
      Reputatie Macht
      4011804

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Andere commerciele toepassingen van profiling c.q. predictive policing:






      © Kaj van Ek

      Vanderbilt vertelt hoe bedrijven onze smaak bepalen

      Boek non-fictie - You May Also Like

      recensie

      Wie of wat bepaalt wat consumenten in tijden van overvloed graag willen zien of kopen? De algoritmen van bedrijven als Amazon of Spotify weten vaak eerder wat je wilt dan jijzelf.

      Door: Clara van de Wiel 13 augustus 2016, 02:00

      You May Also Like: Taste in an Age of Endless Choice (NON-fictie) Door: Tom Vanderbilt, Knopf Publishing Group, 320 pagina's; euro 28,99

      Als je erop let, valt het op: in de ijssalon staan de bakken karamel-zeezout er steevast het leegst bij. Tien jaar geleden kwam je die smaak nauwelijks tegen. Waar komt die plotselinge zeezout-liefde vandaan? Waarom vinden we het allemaal ineens zo lekker? In You May Also Like onderzoekt de Amerikaanse auteur Tom Vanderbilt dit soort vragen. Zijn boek is verkrijgbaar in twee smaken: één met een vanille-ijsje op het omslag, één met een chocolade-variant. Hij was benieuwd: zou een van de versies beter verkopen? En waarom?

      ©

      Over smaak zou niet te twisten zijn; het tegendeel is natuurlijk waar. Maar waarop smaak is gebaseerd, waardoor hij wordt beïnvloed en waarom hij voortdurend verandert: het blijft zelfs voor wetenschappers een mysterie. We are strangers to our taste, stelt Vanderbilt in zijn inleiding. Iedereen die zich weleens wanhopig heeft gevoeld in de rij bij Starbucks of tijdens het scrollen door Netflix kent dat probleem. Hoe weet je nog wat je echt lekker, leuk, fijn of goed vindt? En hoe onafhankelijk komt die voorkeur tot stand?

      De komst van waarderingssites als Yelp of Goodreads leek keuzestress eventjes te verlichten. Inmiddels heeft de stortvloed aan meningen het er alleen maar lastiger op gemaakt. Vanderbilt duikt in de wetenschap achter de recensies en doet een paar geinige ontdekkingen. Als de eerste onlinerecensie lovend is, zal ook wat volgt gemiddeld een stuk positiever uitpakken. Maar wordt een boek (of film) populair of wint het een prijs, dan gaat het gemiddelde oordeel omlaag. Hoe graag we ook meedoen met de rest: we willen toch ook kritisch blijven.

      Het voorspellen en beïnvloeden van smaak is altijd belangrijk geweest in de reclame en commercie, maar het internet heeft die smaakindustrie nog eens exponentieel doen groeien. Amazon en Spotify leven van het juist voorspellen van smaak en claimen er steeds beter in te worden. Algoritmen werken als glijmiddel op weg naar je volgende boek, film of muzieknummer. Het montere 'You may also like' van Amazon is niet zelden een griezelig coherent kijkje in de spiegel. Of kunnen we überhaupt al niet meer spreken van eigen smaak en worden we door algoritmen gestuurd?

      Knooppunten

      Vanderbilt reist af naar de knooppunten waar onze smaak wordt vormgegeven. In het hoofdkantoor van Netflix leert hij dat ze gebruikers al niet meer naar hun eigen voorkeuren vragen. People rate aspirationally: wat ze daadwerkelijk kijken is een heel ander verhaal. Dus dan schotel je hun niet de documentaire voor die ze zeggen te prefereren, maar de komedie die ze daadwerkelijk gaan kijken.

      Interessanter nog is zijn bezoekje aan het bedrijfje Echo Nest, waar de techniek voor Spotify wordt ontwikkeld. 'Niets voorspelt een persoon beter dan zijn muziekvoorkeur', schrijft Vanderbilt. De playlists waar Spotify om bekend staat luisteren dus nauw. Voormalig tienersterretje Miley Cyrus kan wat 'geluid' betreft inmiddels prima in een alternatieve-indie-playlist worden gezet. Maar o wee als een muzieksnob haar tegenkomt in zijn persoonlijke aanbevelingen. Juist muzieksmaak gaat over veel meer dan muziek: het imago en de achtergrond van de artiest zijn van grote invloed.

      Pierre Bourdieu onderstreepte al in de jaren zeventig hoezeer smaak samenhangt met sociale klasse en het tonen tot welke groep je behoort. De Franse socioloog komt bij Vanderbilt veelvuldig terug. Bourdieu concludeerde al dat hoe dichter smaakvoorkeuren bij elkaar liggen, des te feller de twisten worden. Juist 'serieuze' muziekfans haten een band als Coldplay het meest. Onze smaak is zorgvuldig afgestemd op onze sociale omgeving. Maar we proberen ons daarin wel nét te onderscheiden. Hoe leuk een jurk ook kan zijn, als een collega in precies hetzelfde exemplaar op het werk verschijnt generen we ons, net zoals we ons storen aan tafelgenoten die in een restaurant precies hetzelfde bestellen.

      Bepaalde aspecten laat Vanderbilt links liggen. De invloed van gender komt nergens terug, evenals de waardering van cultuur uit de homo- of zwarte gemeenschap. Dat is jammer, want juist op dat gebied waren er interessante ontwikkelingen te signaleren geweest. Zie bijvoorbeeld hoezeer straatcultuur onderdeel is geworden van de mainstream, de smaak van de relatief kapitaalkrachtige (en vaak witte) middenklasse.


      http://www.volkskrant.nl/boeken/vand...alen~a4354507/
      'One who deceives will always find those who allow themselves to be deceived'

    8. #8
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      24.630
      Post Thanks / Like
      Reputatie Macht
      4011804

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Discriminatie via de beschikking hebben over data is eigenlijk al veel langer gaande. Denk hierbij aan de beschikbaarheid van de belastinggegevens en de postcode.

      Het is een publiek geheim dat hypotheekverstrekkers op grond van de postcode 2525 (Schilderswijk, Den Haag) heel moeilijk een hypotheek verstrekken als je daar woont.

      Als je in een postcodegebied woont van een grote stad betaal je meestal meer aan verzekeringen.

      Al met al wordt de dsicriminatie steeds verfijnder en sluit het net zich steeds verder om burgers in het algemeen en minderheden in het bijzonder.
      'One who deceives will always find those who allow themselves to be deceived'

    9. #9
      Nog geen adequate titel! Oiseau's Avatar
      Ingeschreven
      Nov 2012
      Berichten
      27.772
      Post Thanks / Like
      Reputatie Macht
      3614780

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Economic Elites Divide and Conquer with Racism

      Sometimes God’s blessings are not in what He gives, but in what He takes away.

    10. #10
      Nog geen adequate titel! Oiseau's Avatar
      Ingeschreven
      Nov 2012
      Berichten
      27.772
      Post Thanks / Like
      Reputatie Macht
      3614780

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      ook een feit anno 2016

      Sometimes God’s blessings are not in what He gives, but in what He takes away.

    + Plaats Nieuw Onderwerp

    Bladwijzers

    Bladwijzers

    Forum Rechten

    • Je mag geen nieuwe onderwerpen plaatsen
    • Je mag geen reacties plaatsen
    • Je mag geen bijlagen toevoegen
    • Je mag jouw berichten niet wijzigen
    •