Het algoritme dat wordt gebruikt voor het hulpprogramma voor contant geld is gebroken, zo blijkt uit een rapport van Human Rights Watch.

Wie geen toegang heeft tot het internet etc. zal door het systeem blijvend worden gediscrimineerd. De factor de-humanisering is de voetangel in de digitale wereld. Mensen bestaan niet uit 1001101 Artificiële intelligentie daar en tegen wel……
De mens is feilbaar daarmee is alles wat hij produceert per definitie feilbaar, computer programma’s en algoritmes zijn gemaakt om sturing te geven daarmee dus ook de feilbaarheid van de programmeur. Iedereen hoe goed bedoeld of hoe boosaardig die een computer programma/algoritme schrijft heeft de intensie iets te willen veranderen in het systeem, het systeem is niet menselijk en voert alleen dat uit wat de programmeur heeft geschreven. Zelflerende systemen behouden dus de fouten gemaakt door de programmeur. Systemen die ons leven gaan regelen dienen op voorhand te worden gesaboteerd omdat wij niet kunnen vaststellen wat de oorspronkelijke intentie van de programmeur/opdrachtgever is of was. Systemen die gaan bepalen wat ons dagelijks doen en laten voor wenselijk houd zijn dus systemen voor onderdrukking en deregulering van de menselijke normen en waarden die ons tot mens maken.
Vince
Volgens een nieuw rapport van Human Rights Watch faalt een door de Wereldbank gesubsidieerd programma dat algoritmische besluitvorming gebruikt om de bestaansmiddelen van armoedebestrijdingsgeld te testen, juist bij de mensen die het zou moeten beschermen. Het armoedebestrijdingsprogramma in kwestie, bekend als het Unified Cash Transfer Program, is opgezet door de Jordaanse regering.
Softwaresystemen1 belangrijke keuzes laten maken wordt vaak aangeprezen als een manier om die keuzes rationeler2, eerlijker en effectiever3 te maken. In het geval van het armoedebestrijdingsprogramma ontdekte het onderzoek4 van Human Rights Watch echter dat het algoritme gebaseerd is op stereotypen en foutieve aannames over armoede.
“Het probleem is niet alleen dat het algoritme zich baseert op onnauwkeurige en onbetrouwbare gegevens over de financiën van mensen”, aldus het rapport. “De formule vlakt ook de economische complexiteit van het leven van mensen af tot een ruwe ranglijst die het ene huishouden tegen het andere uitspeelt, wat sociale spanningen en de perceptie van oneerlijkheid aanwakkert.”
Het programma, dat in Jordanië bekend staat als Takaful, is bedoeld om een echt probleem op te lossen: de Wereldbank heeft de Jordaanse staat een armoedebestrijdingslening van vele miljarden dollars verstrekt, maar het is onmogelijk om met deze lening alle behoeften van Jordanië te dekken.
Omdat er niet genoeg geld is om elke behoeftige Jordaniër een cheque te geven, analyseert Takaful het huishoudinkomen en de uitgaven van elke aanvrager, samen met bijna 60 sociaaleconomische factoren zoals elektriciteitsgebruik, autobezit, bedrijfsvergunningen, arbeidsverleden, ziekte en geslacht. Deze antwoorden worden vervolgens gerangschikt – met behulp van een geheim algoritme – om automatisch te bepalen wie de armsten zijn en de meeste hulp verdienen. Het idee is dat zo’n sorteeralgoritme het geld naar de meest kwetsbare Jordaniërs zou leiden die het het hardst nodig hebben. Volgens Human Rights Watch is het algoritme kapot.

Uit het onderzoek van de rechtengroep bleek dat autobezit een diskwalificerende factor lijkt te zijn voor veel aanvragers van Takaful, zelfs als ze te arm zijn om benzine te kopen om met de auto te rijden.
Op dezelfde manier worden aanvragers gestraft voor het gebruik van elektriciteit en water op basis van de veronderstelling dat hun vermogen om nutsvoorzieningen te betalen bewijst dat ze niet zo berooid zijn als degenen die dat niet kunnen. Het rapport van Human Rights Watch legt echter uit dat het elektriciteitsverbruik soms juist hoog is om armoede gerelateerde redenen.
“Uit een onderzoek naar duurzame huisvesting in Amman in 2020 bleek bijvoorbeeld dat bijna 75 procent van de onderzochte huishoudens met een laag tot modaal inkomen in appartementen woonde met slechte warmte-isolatie, waardoor het duurder was om ze te verwarmen. In andere gevallen verbruikt een Jordaans huishouden misschien wel meer elektriciteit dan de buren omdat ze vastzitten aan oude, energie-inefficiënte huishoudelijke apparaten.”
Meer dan alleen de technische problemen met Takaful zelf zijn de domino-effecten van digitale inkomensonderzoeken. In het rapport wordt opgemerkt dat veel mensen die dringend hulpbehoevend zijn geen toegang hebben tot het internet om zelfs maar een aanvraag in te dienen, waardoor ze een lift naar een internetcafé moeten zien te vinden, of ervoor moeten betalen, waardoor ze nog meer kosten en toeslagen moeten betalen om online te kunnen.
“Wie heeft er geld nodig?” vroeg een 29-jarige Jordaanse ontvanger van Takaful die met Human Rights Watch sprak. “De mensen die echt niet weten hoe ze een aanvraag moeten indienen of geen toegang hebben tot internet of computers.”
Human Rights Watch hekelde ook Takaful’s eis dat het zelf opgegeven inkomen van aanvragers precies overeenkomt met hun zelf opgegeven huishoudelijke uitgaven, wat “niet erkent hoe mensen worstelen om de eindjes aan elkaar te knopen, of hun afhankelijkheid van krediet, steun van familie, en andere ad hoc maatregelen om het gat te dichten”.
Het rapport ontdekte dat de rigiditeit van deze stap mensen dwong om de cijfers te vervalsen zodat hun aanvragen zelfs verwerkt zouden worden, waardoor de illusie van objectiviteit van het algoritme werd ondermijnd. “Mensen dwingen om hun ontberingen zo te manipuleren dat ze passen in de behoefteberekening van het algoritme,” aldus het rapport, “ondermijnt de doelgerichtheid van Takaful en de beweringen van de overheid en de Wereldbank dat dit de meest effectieve manier is om de beperkte middelen te maximaliseren.”

Wie nam die beslissing: Jij of een algoritme?
Toen Human Rights Watch het Distributed AI Research Institute vroeg om deze opmerkingen te bekijken, concludeerde Alex Hanna, de onderzoeksdirecteur van de groep: “Dit zijn technische woorden die geen steek houden met elkaar.” DAIR senior onderzoeker Nyalleng Moorosi voegde hieraan toe: “Ik denk dat ze deze taal gebruiken als technische obfuscatie.”
Zoals het geval is met vrijwel alle geautomatiseerde besluitvormingssystemen, staan de mensen die Takaful hebben ontworpen erop dat het eerlijk en functioneel is, maar ze weigeren iemand onder de motorkap te laten kijken. Hoewel bekend is dat Takaful 57 verschillende criteria gebruikt om armoede te rangschikken, merkt het rapport op dat het Jordaanse Nationale Hulpfonds, dat het systeem beheert, “weigerde om de volledige lijst van indicatoren en de specifieke toegekende gewichten bekend te maken, met de mededeling dat deze alleen voor interne doeleinden waren en ‘voortdurend veranderden'”.
Terwijl fantasierijke visioenen van “Terminator”-achtige kunstmatige intelligenties de publieke angsten rond geautomatiseerde besluitvorming zijn gaan overheersen, stellen andere technologen dat de burgermaatschappij zich zou moeten richten op echte, actuele schade5 die wordt veroorzaakt door systemen zoals Takaful, en niet op nachtmerriescenario’s uit sciencefiction6.
Zolang de functionaliteit van Takaful en zijn soortgenoten geheim blijft voor overheden en bedrijven, zal de omvang van die risico’s onbekend blijven.
Bron: Sam Biddle
Verwijzingen:
Categorie: Armoede & Kunstmatige Intelligentie
Tags: Human Rights Watch, Wereldbank, Algoritme, Takaful, Jordanië, armoede, falend beleid,

Beheerder Vincent W Schoers
Copyright © 2021 door zorgdatjenietslaapt.nl. Toestemming tot gehele of gedeeltelijke herdruk wordt graag verleend, mits volledige creditering en een directe link worden gegeven.
Mijn lichaam is geen eigendom van de staat. Ik heb de uitsluitende en exclusieve autonomie over mijn lichaam en geen enkele politicus, ambtenaar of arts heeft het wettelijke of morele recht om mij te dwingen een niet-gelicentieerd, experimenteel vaccin of enige andere medische behandeling of procedure te ondergaan zonder mijn specifieke en geïnformeerde toestemming. De beslissing is aan mij en aan mij alleen en ik zal mij niet onderwerpen aan chantage door de overheid of emotionele manipulatie door de media, of zogenaamde celebratie influencers.
Alles hier gepubliceerd reflecteert de mening, ziens-, denkwijze van de gene die het plaatst