Yapay zekayı ırkçı yaptılar, Hollanda'da fişleme skandalı

Hollanda'da çifte vatandaşlığı bulunan ve isimleri “kulağa yabancı gelen” on binlerce insanın, yapay zeka tarafından “vergi suçlusu” olarak kodlandığı ortaya çıktı. İnsanların evlerini kaybedip, borç batağına girmesine yol açan "ırkçı yazılım" skandalı büyürken, Hollanda hükümeti ise henüz soruşturma bile başlatmadı.

Son Güncelleme:

Hollanda hükümetinin kamu hizmetlerini hızlandırmak için yapay zekayı kullanması büyük bir krize yol açtı. Ülkede yapay zekanın kamu hizmetlerinde kullanımına 2020 yılında başlandı. Yapay zekaya yüklenen algoritmalar ise vergi kaçıranları belirlemeye başladı ancak vergi kaçırdığı gerekçesiyle ceza kesilen insanların yapay zeka tarafından yanlış teşhis edildiği ortaya çıktı. Avrupa Birliği'ne (AB) yakınlığıyla bilinen The Parliament yayın organının gözler önüne serdiği bilgilere göre hükümet yetkilileri yapay zekaya “adı ve soyadı kulağa yabancı gelenler”, “çifte vatandaşlığı bulunanlar”, “azınlıklar” gibi ırkçı algoritmalar yükledi. On binlerce insanın bu yanlış algoritma sistemi dolayısıyla haksız yere para cezasına çarptırıldığı ve cezalandırılanlar arasında çok sayıda Türk olduğu da ifade edildi.

Hollanda'da yapay zekanın ırkçı algoritmalarla on binlerce suçsuz insanı cezalandırması Avrupa Birliği'nin de gündeminde. 

AB CEZA VEREBİLİR

Hollanda'da yapay zeka temelli ırkçılık skandalı nedeniyle çok sayıda ailede “yıkım yaşandığı"  belirtiliyor. Yapay zekanın hem vergi kaçırma hem de çocuk yardımı desteklerine ilişkin ırkçı bir ayrım yapması dolayısıyla binlerce ailenin borç içinde kaldığı ve evlerini bile kaybettiği altı çizilirken; Hollanda'da “4. Mark Rutte Kabinesi” olarak ifade edilen hükümetin çöküşünde etkin olduğu ifade edilen skandal aynı zamanda Avrupa Birliği'nin merceğinde bulunuyor.

RESMİ AÇIKLAMA İSTENDİ

Avrupa Birliği de; ülkede yaşanan skandal üzerine, Hollanda hükümetinden ırkçı algoritmanın göçmen memurları, kolluk güçleri, ordu ya da okullarda kullanılıp kullanılmadığı yönünde resmi açıklama istemiş durumda. Brüksel merkezli sivil toplum kuruluşu Avrupa Dijital Haklar Derneği uzmanlarından Chloe Berthelemy ise yaşanan skandalın ardından, “Avrupa'da azınlıklara karşı son dönemde artan ırkçılık yapay zekadaki algoritmalar dolayısıyla giderek kontrol dışına çıkmış ve daha şiddetli hale gelmiş durumda” açıklamasında bulundu.

AZINLIKLAR FİŞLENDİ Mİ?

Hollanda merkezli insan hakları izleme örgütlerinden AP ise kamu kurumlarında yapay zekanın ırkçı şekilde kodlanmasının 2023 yılı boyunca devam ettiğini iddia etti.  Avrupa Komisyonu'nun 2022 yılındaki çalışmasına göre yapay zekanın ayrımcı algoritmasına ilişkin 27 AB üyesi ülkeden Komisyona kadar intikal eden 686 resmi şikayet bulunuldu. 2020 yılında yayınlanan Hollanda Hükümet Şeffaflık Raporu'nda da yapay zekanın kamu çalışanları tarafından ırkçı şekilde kodlanıp kullanıldığı yönündeki uyarıların 2016 yılından bu yana yapıldığı ifade edildi. Raporda ülke genelinde belirli azınlık gruplarının algoritmaların sürekli hedefinde olduğuna da dikkat çekilmekte. 

Avrupa'daki azınlıkların yapay zeka algoritmalarında "potansiyel suçlu" olarak kodlanması karşısında hükümetlerin gerekli önlemleri almadığı ifade edilmekte.

HÜKÜMETLER SESSİZ 

2023 yılında Hollanda merkezli bağımsız araştırmacı gazetecilik platformu Lighthouse Reports'un yayınladığı çalışmaya göre benzer şekilde ayrımcı algoritmalarla vatandaşlarına cezai yaptırım uygulayan ülkeler arasında Danimarka, Fransa, İspanya ve Sırbistan da bulunuyor. Bu ülkelerde alt gelir grubuna dahil insanların “suç potansiyeli yüksek gruplar” olarak kodlandığı iddiasına yer verilirken, Hollanda'da olduğu gibi konu hakkında bir soruşturma başlatılmış da değil.

1.4 MİLYON AİLE ETKİLENDİ

Hollanda'daki ayrımcılık skandalına ilişkin hazırlanan raporlara göre ülkedeki 1.4 milyon aile yapay zeka tarafından “potansiyel suçlu” olarak algılandı. Vergi ve çocuk yardımlarına ilişkin cezai yaptırım uygulanan ailelerin yüzde 71'i ya doğrudan göçmen ya da göçmenlerin birinci kuşağındaki aileler durumunda. Yüzde 44'lik bir kesim ise alt gelir grubuna dahil. Uzmanlar yapay zekanın ayrımcı algoritmalarındaki en büyük tehlikelerden birisinin de “görünmez bir ırkçı tutuma sahip olmasından kaynaklandığını” ortaya koyuyorlar.

Kaynak: Web Özel

Sonraki Haber