Automated Malfare - discriminatory effects of welfare automation

Stage YELL
AmnestyDigital
An increasing number of countries is implementing algorithmic decision-making and fraud detection systems within their social benefits system. Instead of improving decision fairness and ensuring effective procedures, these systems often reinforce preexisting discriminations and injustices. The talk presents case studies of automation in the welfare systems of the Netherlands, India, Serbia and Denmark, based on research by Amnesty International.
Social security benefits provide a safety net for those who are dependent on support in order to make a living. Poverty and other forms of discrimination often come together for those affected. But what happens, when states decide to use Social Benefit Systems as a playground for automated decision making? Promising more fair and effective public services, a closer investigation reveals reinforcements of discriminations due to the kind of algorithms and quality of the input data on the one hand and a large-scale use of mass surveillance techniques in order to generate data to feed the systems with on the other hand. Amnesty International has conducted case studies in the Netherlands, India, Serbia and, most recently, Denmark. In the Netherlands, the fraud detection algorithm under investigation in 2021 was found to be clearly discriminatory. The algorithm uses nationality as a risk factor, and the automated decisions went largely unchallenged by the authorities, leading to severe and unjustified subsidy cuts for many families. The more recent Danish system takes a more holistic approach, taking into account a huge amount of private data and some dozens of algorithms, resulting in a system that could well fall under the EU's own AI law definition of a social scoring system, which is prohibited. In the cases of India and Serbia, intransparency, problems with data integrity, automation bias and increased surveillance have also led to severe human rights violations.

Additional information

Live Stream https://streaming.media.ccc.de/38c3/yell
Type Talk 40 (30min +10 Q&A)
Language English

More sessions

12/27/24
Aaron Schlitt
Stage YELL
Exploring the security of the new iPhone Mirroring feature as well as the current threat model of the iOS ecosystem
12/27/24
captain-maramo
Stage YELL
Das neue Gesetz über die Selbstbestimmung in Bezug auf den Geschlechtseintrag (SBGG) ist da und Menschen können endlich unkompliziert ihren Geschlechtseintrag und ihre Vornamen ändern lassen. Doch der Weg dahin ist nicht einfach. Kommt mit auf eine Roadshow gespickt mit Tipps und Erfahrungen, damit ihr eurer Ziel einfacher erreicht.
12/27/24
WillCrash
Stage YELL
In a world of centralized internet control, building your own mesh network isn't just a technical challenge—it's digital independence. This beginner-friendly guide walks through creating resilient mesh networks using accessible hardware like LoRa and ESP devices. From antenna selection to node placement strategy, learn how to build networks that operate independently of traditional infrastructure.
12/27/24
Swantje Lange
Stage YELL
End-users in cellular networks are at risk of connecting to fake base stations, and we show that mitigations pushed in 5G are insufficient.
12/27/24
derMicha
Stage YELL
Im Rahmen eines vom Prototype Fund geförderten Projektes entstand zusammen mit 4 Schulen die Open Source Software BinBa. Diese Software wurde in enger Zusammenarbeit mit den Schulen konzipiert, umgesetzt und in Betrieb genommen. In dem Talk soll der Weg über die Finanzierung mit Hilfe des Prototyp Funds, die Softwareentwicklung zusammen mit den LehrerInnen und SchülerInnen also auch die Inbetriebnahme beleuchtet werden.
12/27/24
RoteHilfe
Stage YELL
Staatliche Repression aufgrund der Teilnahme an Demonstrationen oder wegen anderer politischer Tätigkeiten gehören zur leidigen Erfahrung von Aktivist*innen. Wir geben Tipps und diskutieren, wie man mit einigen, typisch auftretenden Situationen bzw. Repressionsmaßnahmen umgehen kann.
12/27/24
Alvar C.H. Freude
Stage YELL
Wenn Sicherheitsforscher und Hacker Datenlecks direkt dem dafür Verantwortlichen melden, setzen sich u.U. strafrechtlichem Risiko aus oder werden auch mal schlicht ignoriert. Stattdessen kann es in der Praxis aber auch sinnvoll sein, die Möglichkeiten der DS-GVO und die Befugnisse der Datenschutz-Aufsichtsbehörden zu nutzen, um Sicherheitslücken schnell zu schließen.