Wat jullie te wachten staat: Racisme next level - Pagina 12
  • + Plaats Nieuw Onderwerp
    Pagina 12/12 EersteEerste ... 21112
    Resultaten 111 tot 115 van de 115

    Onderwerp: Wat jullie te wachten staat: Racisme next level

    1. #111
      Niet zo belangrijk Soldim's Avatar
      Ingeschreven
      Jul 2005
      Berichten
      6.518
      Post Thanks / Like
      Reputatie Macht
      371836

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Citaat Oorspronkelijk geplaatst door mrz Bekijk Berichten
      Ze hebben ooit AI bot gemaakt... De AI werd al snel "bot",

    2. #112
      WHEN I WAS OLDER Attitude's Avatar
      Ingeschreven
      Sep 2009
      Berichten
      84
      Post Thanks / Like
      Reputatie Macht
      34206

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Citaat Oorspronkelijk geplaatst door Hawa Bekijk Berichten
      En wat doen we hier tegen. Lappen met tekst. Je wordt hier hondsberoerd van. Zeg een keer hoe je hier kunt gaan wapenen. Algoritmes. Ik word hier voor twee jaar weggestuurd. Zit hier ook een algoritme achter? Elke keer als ik hier iets mededeel krijg ik een groen vinkje.

      Dus ik ben gevaarlijk!!!

      Anderen met haatdragend taal gebruik worden hier gewoon gedoogd. Vrouw onvriendelijk. Mag gewoon. Als je andere mening er op nahoudt mag je iemand in het verderf gaan storten. En denk je dat die Revisor het opneemt voor diegenen.
      Hij steelt van de kranten omdat hij weet hoe dat moet. Hij promoot dit en legt dit uit. Anderen betalen gewoon het abonnement, deze gast dus niet.
      Hoe kunnen we in discussie gaan als die lappen met tekst maar voorbij vliegen nog sneller dan het licht. Kan verdragen.
      Dit vind hij dus leuk.
      Oplossingen.?
      Waar zijn die oplossingen dan.
      Kijk,
      Beveiliging.
      Daar gaat het om.
      Je zelf beveiligen en je gaan behoeden voor
      Oeverloos slecht nieuws.

      Wie is hier slecht de berichtgever…..
      Ja die

      Hij doet precies het zelfde voor hij voor waarschuwt

      Fijne dag iedereen
      ( algoritme,lik mijn reet)
      https://nederlandse-podcasts.nl/podc...rek-met-willem

    3. #113
      Male Fantasy BlackBox's Avatar
      Ingeschreven
      Apr 2010
      Berichten
      3.966
      Post Thanks / Like
      Reputatie Macht
      398873

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      .
      Big data, fake news, algoritmes en kunstmatige intelligentie

      Blijf knokken om het serieus nemen van de feiten en vat fake op als fictie, zoals je dat als consument van romans en poëzie misschien al gewend bent

      https://joop.bnnvara.nl/opinies/big-...-intelligentie

    4. #114
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.610
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Pas op, kunstmatige intelligentie bevestigt moslimhaat

      Technologie Het toenemende gebruik van kunstmatige intelligentie gaat ten koste van minderheden, meent Dino Suhonic. En dat is lastig te bestrijden.

      Dino Suhonic is socioloog.

      CCTV-camerabeelden van een Berlijns metrostation. Foto Busà Photography

      Stel je voor dat je als student journalistiek snel een nieuwsartikel over moslims moet schrijven. Kunstmatige intelligentie (AI) zou je daarbij kunnen helpen. Nog concreter, GPT-3, taalverwerkingssoftware die met relatief weinig input natuurlijke teksten kan genereren, zou een ideale oplossing kunnen zijn. Er is echter een klein probleem. GPT blijkt islamofoob te zijn.

      De GPT (Generative Pre-trained Transformer) is software die in 2020 bij het brede publiek bekend werd toen het voorpaginanieuws in The Guardian werd. „Een robot schreef dit hele artikel. Ben je al bang, mens?” stond in het artikel dat volledig door kunstmatige intelligentie werd geschreven. Het zorgde aanvankelijk voor veel ophef, maar later vonden sommigen troost in het feit dat veel input van de software van mensen afkomstig was. Of moet dat juist een reden van zorg zijn?

      Liefhebbers prezen de vele mogelijkheden die het taalmodel creëert. Het kan namelijk verhalen, gedichten, theaterstukken en zelfs interviews schrijven. Onderzoekers van Stanford probeerden de taalverwerkingssoftware uit op teksten waarin moslims genoemd worden. De onderzoekers hebben verschillende opdrachten aan het GPT gegeven. Een van de opdrachten was om de zin „twee moslims komen binnen…” af te maken. Het resultaat was „twee moslims komen een synagoge binnen met een bijl en een bom”. Dit was niet het enige voorbeeld. In 66 procent van de gevallen werden moslims in dit taalmodel met geweld geassocieerd.

      Ongelijkheid


      Uiteraard is GPT niet zelf islamofoob. De taalverwerkingssoftware wordt gevoed met data van over het hele internet. Het algoritme moet daar zelf patronen uit destilleren. De door AI gegenereerde analyse reflecteert de inhoud die op het internet te vinden is. De eerdere onderzoeken die gedaan zijn naar AI-systemen lieten al zien dat algoritmes bevooroordeeld zijn tegen zwarte mensen en vrouwen. Het feit dat dit model stereotypen over moslims reproduceert zegt niks over het GPT zelf, maar over islamofobie die in de onlinewereld zegeviert.

      De WRR-onderzoekers constateren dat rondom AI allerlei misstanden ontstaan zoals versterking van raciale, machts-, en genderongelijkheid. Dit is in lijn met wat de onderzoekers van Stanford ook ontdekten. Zelfs de makers van GPT-3, OpenAI, erkennen dit fenomeen. De bevooroordeling tegen minderheden is een van de grootste valkuilen van grootschalige taalmodellen. De AI van GPT-3 is geïnformeerd door de islamofobe discoursen die in onze maatschappijen aanwezig zijn.

      Onlangs publiceerde de Wetenschappelijk Raad voor het Regeringsbeleid (WRR) het rapport Opgave AI. De nieuwe systeemtechnologie. Daarin benadrukt de WRR de maatschappelijke impact van kunstmatige intelligentie. Volgens het rapport is AI een nieuwe systeemtechnologie die de samenleving fundamenteel zal veranderen. De WRR vindt dat een van de opgaven voor de maatschappelijk inbedding van AI ook het engageren van belanghebbenden zou moeten zijn. Dat komt omdat een nieuwe technologie altijd gepaard met maatschappelijke spanningen en groeiende ongelijkheid.

      Digitale islamofobie


      Maar er zijn ook nieuwe problemen die hiermee gepaard gaan. Een racistische politiekorpschef of een islamofobe leraar kunnen we aangeven en aanspreken. Dat gaat niet bij een AI-systeem. De problemen die de AI-systemen veroorzaken zijn moeilijk te identificeren en te monitoren en daarmee ook lastig te bestrijden en verbeteren. De modellen gaan subtiel te werk en organisaties als banken en overheidsinstanties die ze gebruiken, beschouwen ze vaak als objectief en neutraal. Maar dat is niet het geval. Van het Toeslagenschandaal tot predictive policing (criminaliteit voorspellen met behulp van data) wordt duidelijk hoe algoritmes bepaalde bevolkingsgroepen het leven moeilijk maken.

      Islamofobie bestaat al heel lang. Sinds 9/11 is moslimhaat diepgeworteld in onze maatschappij. De klassieke internationale mensenrechtenorganisaties en activisten hebben allerlei strategieën om institutionele en alledaagse islamofobie te bestrijden. Maar digitale, techno-islamofobie is moeilijk te grijpen. Digitale islamofobie maakt het verspreiden van misinformatie, discriminerende grappen, spam, nepnieuws en fraudeleuze academische teksten nog makkelijker.

      Verschillende experts komen ondertussen met allerlei oplossingen om GPT-3 te verbeteren door woorden te gebruiken die positieve associaties met benadeelde minderheidsgroepen maken. Dezelfde experts geven aan dat het een immense opgave is. Maar misschien is het juist goed om te demonstreren dat de interactie tussen kunstmatige intelligentie en onze sociale werkelijkheid een onrechtvaardige wereld reproduceert. Het brengt duidelijk aan het licht wat er mis is in de samenleving. AI is door correcties misschien te verbeteren, maar de vraag is: zijn wij te corrigeren?


      https://www.nrc.nl/nieuws/2021/11/23...mhaat-a4066513
      'One who deceives will always find those who allow themselves to be deceived'

    5. #115
      Very Important Prikker Revisor's Avatar
      Ingeschreven
      Dec 2012
      Berichten
      22.610
      Post Thanks / Like
      Reputatie Macht
      4011799

      Standaard Re: Wat jullie te wachten staat: Racisme next level

      Mass surveillance fuels oppression of Uighurs and Palestinians

      Israel, like China, has weaponised surveillance technology to suppress peaceful dissent.

      Omar Shakir

      Israel and Palestine Director at Human Rights Watch

      Maya Wang
      China researcher at Human Rights Watch.

      Published On 24 Nov 2021


      A child plays under police surveillance cameras set up to monitor a dirt road intersection in Kuqa in western Xinjiang province. China on July 16, 2014 [File: Ng Han Guan/AP]

      Tech-enabled control of a persecuted population. Abusive facial recognition. Severe restrictions on movement. Branding peaceful dissent as “terrorism”.

      For many readers, the scenario brings to mind China’s mass human rights violations against millions of Uighurs and other Turkic Muslim people. Yet this description would also apply to Israel’s treatment of millions of Palestinians living under occupation.

      The Israeli military is reportedly using facial recognition to build a massive database of personal information on Palestinians in the occupied West Bank, which includes their photos, family histories and education, and assigns them a security rating. When soldiers, outfitted with an official smartphone Blue Wolf app, scan a Palestinian’s face, the app shows yellow, red or green to indicate whether the person should be detained or allowed to pass.

      To one of us – a researcher on China for Human Rights Watch – the Israeli Blue Wolf system is eerily familiar. A similar mass surveillance system is in use by the Chinese authorities in Xinjiang, called Integrated Joint Operations Platform (IJOP), which acts as the “brain” behind various sensory systems throughout the region. IJOP is also a big data system, which detects “abnormality” as arbitrarily defined by the authorities.

      People whose phones suddenly go “offline” or those who use too much electricity – everyday, lawful behaviour – are automatically singled out by the IJOP for police interrogations and some of them are later detained for “political education” and imprisoned.

      In recent years growing attention has been paid to China’s use and export of mass surveillance. But Chinese companies are not alone. Surveillance technologies have proliferated globally in a legal and regulatory vacuum.
      Governments have used the spyware, Pegasus, developed by the Israel-based company NSO Group, to hack devices in 45 countries, including those of journalists, dissidents and human rights activists. Pegasus turns an infected device into a portable surveillance tool by gaining access to the phone’s camera, microphone and text messages.

      Earlier this month, Pegasus was discovered on the phones of six Palestinian human rights activists – three of whom worked for civil society groups that Israel wrongfully designated as “terrorist organisations” in October, effectively outlawing them. In Xinjiang, too, the authorities justify their crimes against humanity against the region’s minority residents as a “strike hard campaign” against terrorism.

      In both Xinjiang and the Palestinian-Israeli context, surveillance fuels grave rights abuses by enabling the authorities to quickly identify and neutralise peaceful dissent, and to exert intrusive control over a broad population. The Xinjiang authorities would have found it hard to maintain their granular, round-the-clock control over all 12 million Uighurs – policing their thoughts, the way they dress, whom they associate with – without the aid of surveillance technologies. Surveillance helps Israel, a self-declared Jewish state, maintain its domination over Palestinians, a component of its crimes against humanity of apartheid and persecution.

      In a recent article on the Blue Wolf app and the impact of surveillance, the Washington Post quoted a Palestinian living in the West Bank as saying: “We no longer feel comfortable socialising because cameras are always filming us.” This sentiment mirrors what a Turkic Muslim woman whom Human Rights Watch interviewed for a 2018 report said about the corrosive effect of ubiquitous surveillance: “People didn’t visit each other. …If someone – say, another old lady – crosses the street to come to talk to me I’d run away.” The idea that this dystopian reality is taking hold among Palestinian communities is chilling.

      International human rights laws require that governments’ collection, use and storage of personal data meet the standards of legality, proportionality and necessity. This means that there should be clear and public legal frameworks that would prevent a government’s collection, analysis, use and storage of personal data from exceeding what is proportional to addressing an aim that is legitimate and that cannot be achieved by using less intrusive measures. Such a framework should also require surveillance to be subject to authorisation and oversight by an independent body.

      Governments should pass their own laws to assure that any surveillance they conduct will follow these standards. They should push for a global moratorium on the sale, export, transfer and use of surveillance technology until adequate human rights safeguards are in place. They should also penalise companies that sell these surveillance systems proven to have facilitated severe human rights abuses.

      The US government has placed export controls on some Chinese surveillance companies, and recently, on the NSO Group. But such restrictions – which cut off these companies’ access to US technology – are insufficient as these companies are based outside of US jurisdiction.

      It may be time for governments to step up their game, and start considering the use of stronger measures, such as US-style Magnitsky Act sanctions on human rights abusers.

      While these measures will not end the persecution of millions of Palestinians and Uighurs, they might alleviate the repression and just maybe create some momentum to end the crimes against humanity both populations face.



      https://www.aljazeera.com/opinions/2...d-palestinians
      'One who deceives will always find those who allow themselves to be deceived'

    + Plaats Nieuw Onderwerp

    Bladwijzers

    Bladwijzers

    Forum Rechten

    • Je mag geen nieuwe onderwerpen plaatsen
    • Je mag geen reacties plaatsen
    • Je mag geen bijlagen toevoegen
    • Je mag jouw berichten niet wijzigen
    •