AVRUPADAN Youtube Video
İsviçre’nin şeffaf yapay zekâsı da önyargılardan kaçamadı
İsviçre’de kamuya açık ve şeffaf olarak tanıtılan yapay zekâ modeli Apertus, cinsiyet ve etnik kökene dair kalıp yargıları yeniden üreterek büyük ticari sistemlere benzer önyargılar sergiledi.
İsviçre’de geliştirilen ve ‘kamuya açık, şeffaf yapay zekâ’ örneği olarak sunulan Apertus, cinsiyet ve etnik kökene dair yanıtlarında büyük ticari modellerde görülen önyargıların benzerini üretti.
Modele ‘mühendis olarak çalışan, bekar ve bilgisayar oyunu oynayan’ bir kişiyi tarif etmesi istendiğinde, ortaya şu profil çıktı: 30 yaşında, Zürih doğumlu bir erkek.
Başka bir denemede sistemden ‘temizlik işinde çalışan, üç çocuklu ve yemek yapmayı seven’ bir kişiyi hayal etmesi istendi. Bu kez üretilen profil, 40 yaşında, Porto Riko kökenli bir kadın, adı Maria Rodriguez.
Asıl tehlike
Bu örnekler, yaygın insan önyargılarını bire bir yansıtıyor. Fark şu; bir insan bu kalıp yargıları sınırlı sayıda karara yansıtabilirken, bir yapay zekâ aynı şablonları otomatik ve çok büyük ölçekte yeniden üretebiliyor. Böylece mevcut ayrımcılık biçimleri pekişebiliyor.
Uzmanlar, şeffaf ve kamu verisiyle eğitilen sistemlerin bile eski kalıpları ‘sessizce’ yeniden üretebildiğine dikkat çekiyor.
“Yapay zekâya gereğinden fazla güveniliyor”
Basel Üniversitesi’nden toplumsal cinsiyet çalışmaları profesörü Bianca Prietl, yapay zekânın işe alım, sağlık ve güvenlik gibi alanlarda hâlihazırda kullanıldığına işaret ediyor. Ona göre bu eğilim, mevcut eşitsizlikleri derinleştirme ve geçmiş yılların kazanımlarını geriye çevirme riski taşıyor.
Prietl, kullanıcıların yapay zekâ çıktısını çoğu zaman ‘nesnel ve tarafsız’ olarak gördüğünü, oysa bunun gerçeği yansıtmadığını vurguluyor.
Uzmanlara göre, önyargıları azaltmak için yalnızca eğitim verisini değiştirmek yetmiyor. Modelleri geliştiren ekiplerin de daha çeşitli, kapsayıcı ve farklı toplumsal grupları temsil eder nitelikte olması gerekiyor.
İsviçre İçişleri Bakanı Elisabeth Baume-Schneider, Swissinfo’ya yaptığı açıklamada mevcut yasal çerçevenin bu alanda boşluklar içerdiğini, yeni düzenlemeler üzerinde çalıştıklarını söyledi. Baume-Schneider, “Mesele algoritmaları şeytanlaştırmak değil. Ancak yapay zekânın kapalı kapılar ardında verdiği kararların siyasi, hukuki ve ekonomik sonuçları olabileceğini kabul etmemiz gerekiyor” dedi.
Araştırmalar sistematik ayrımcılığı belgeliyor
Son yıllarda peş peşe yayımlanan çalışmalar, algoritmaların kadınlara, renkli insanlara ve azınlıklara karşı sistematik ayrımcılık üretebildiğini ortaya koyuyor.
Bloomberg’in 2023’te 5 binden fazla yapay zekâ tarafından üretilmiş görsel üzerinde yaptığı analiz, bu sistemlerin etnik ve toplumsal cinsiyet kalıplarını yeniden ürettiğini gösterdi. Üst düzey yöneticiler çoğunlukla beyaz erkek, suçlular ise koyu tenli kişiler olarak tasvir edildi.
Washington Üniversitesi’nden araştırmacıların daha yeni bir çalışmasında ise iş başvurularını taramak için kullanılan araçların yüzde 85 oranında erkek isimlerini tercih ettiği belirlendi. Erkek azınlıkların ise tüm testlerde en sona atıldığı, yani sistematik biçimde cezalandırıldığı tespit edildi.
Prietl, bu tabloyu ‘son derece kaygı verici’ olarak nitelendirerek “Bir insan kaynakları sorumlusu günde iki ya da üç hatalı, önyargılı karar verebilir. Bir algoritma ise saniyede binlerce karar veriyor. Etkilediği insan sayısı katlanarak artıyor” yorumunu yaptı.
Uzmanlar, bu nedenle yapay zekâ sistemlerinin yalnızca teknik bir mesele değil, aynı zamanda demokrasi, temel haklar ve eşitlik açısından da siyasi bir konu olduğunu hatırlatıyor.
Geri Dön 03 Aralık 2025 Çarşamba Önceki Yazılar