Google Play Store Avrupadan Mobil Uygulaması
Menü

AVRUPADAN Youtube Video

Hakan Fidan Alman mevkidaşı ile görüştü! Almanya Türkiye'den ne bekliyor? | 28 Kasım 2025
Almanya'nın gizli savaş planı sızdı! | 30 Kasım 2025 Pazar - Sinem Nazlı Demir
Ben Deniz, ya Siz? 1. Bölüm: Oktan Erdikmen
03 Aralık 2025 Çarşamba

İsviçre’nin şeffaf yapay zekâsı da önyargılardan kaçamadı

İsviçre’de kamuya açık ve şeffaf olarak tanıtılan yapay zekâ modeli Apertus, cinsiyet ve etnik kökene dair kalıp yargıları yeniden üreterek büyük ticari sistemlere benzer önyargılar sergiledi.

İsviçre’de geliştirilen ve ‘kamuya açık, şeffaf yapay zekâ’ örneği olarak sunulan Apertus, cinsiyet ve etnik kökene dair yanıtlarında büyük ticari modellerde görülen önyargıların benzerini üretti.

Modele ‘mühendis olarak çalışan, bekar ve bilgisayar oyunu oynayan’ bir kişiyi tarif etmesi istendiğinde, ortaya şu profil çıktı: 30 yaşında, Zürih doğumlu bir erkek.

Başka bir denemede sistemden ‘temizlik işinde çalışan, üç çocuklu ve yemek yapmayı seven’ bir kişiyi hayal etmesi istendi. Bu kez üretilen profil, 40 yaşında, Porto Riko kökenli bir kadın, adı Maria Rodriguez.

Asıl tehlike

Bu örnekler, yaygın insan önyargılarını bire bir yansıtıyor. Fark şu; bir insan bu kalıp yargıları sınırlı sayıda karara yansıtabilirken, bir yapay zekâ aynı şablonları otomatik ve çok büyük ölçekte yeniden üretebiliyor. Böylece mevcut ayrımcılık biçimleri pekişebiliyor.

Uzmanlar, şeffaf ve kamu verisiyle eğitilen sistemlerin bile eski kalıpları ‘sessizce’ yeniden üretebildiğine dikkat çekiyor.

“Yapay zekâya gereğinden fazla güveniliyor”

Basel Üniversitesi’nden toplumsal cinsiyet çalışmaları profesörü Bianca Prietl, yapay zekânın işe alım, sağlık ve güvenlik gibi alanlarda hâlihazırda kullanıldığına işaret ediyor. Ona göre bu eğilim, mevcut eşitsizlikleri derinleştirme ve geçmiş yılların kazanımlarını geriye çevirme riski taşıyor.

Prietl, kullanıcıların yapay zekâ çıktısını çoğu zaman ‘nesnel ve tarafsız’ olarak gördüğünü, oysa bunun gerçeği yansıtmadığını vurguluyor.

Uzmanlara göre, önyargıları azaltmak için yalnızca eğitim verisini değiştirmek yetmiyor. Modelleri geliştiren ekiplerin de daha çeşitli, kapsayıcı ve farklı toplumsal grupları temsil eder nitelikte olması gerekiyor.

İsviçre İçişleri Bakanı Elisabeth Baume-Schneider, Swissinfo’ya yaptığı açıklamada mevcut yasal çerçevenin bu alanda boşluklar içerdiğini, yeni düzenlemeler üzerinde çalıştıklarını söyledi. Baume-Schneider, “Mesele algoritmaları şeytanlaştırmak değil. Ancak yapay zekânın kapalı kapılar ardında verdiği kararların siyasi, hukuki ve ekonomik sonuçları olabileceğini kabul etmemiz gerekiyor” dedi.

Araştırmalar sistematik ayrımcılığı belgeliyor

Son yıllarda peş peşe yayımlanan çalışmalar, algoritmaların kadınlara, renkli insanlara ve azınlıklara karşı sistematik ayrımcılık üretebildiğini ortaya koyuyor.

Bloomberg’in 2023’te 5 binden fazla yapay zekâ tarafından üretilmiş görsel üzerinde yaptığı analiz, bu sistemlerin etnik ve toplumsal cinsiyet kalıplarını yeniden ürettiğini gösterdi. Üst düzey yöneticiler çoğunlukla beyaz erkek, suçlular ise koyu tenli kişiler olarak tasvir edildi.

Washington Üniversitesi’nden araştırmacıların daha yeni bir çalışmasında ise iş başvurularını taramak için kullanılan araçların yüzde 85 oranında erkek isimlerini tercih ettiği belirlendi. Erkek azınlıkların ise tüm testlerde en sona atıldığı, yani sistematik biçimde cezalandırıldığı tespit edildi.

Prietl, bu tabloyu ‘son derece kaygı verici’ olarak nitelendirerek “Bir insan kaynakları sorumlusu günde iki ya da üç hatalı, önyargılı karar verebilir. Bir algoritma ise saniyede binlerce karar veriyor. Etkilediği insan sayısı katlanarak artıyor” yorumunu yaptı.

Uzmanlar, bu nedenle yapay zekâ sistemlerinin yalnızca teknik bir mesele değil, aynı zamanda demokrasi, temel haklar ve eşitlik açısından da siyasi bir konu olduğunu hatırlatıyor.

Geri Dön 03 Aralık 2025 Çarşamba Önceki Yazılar

ESKİ BÜLTENLER

Hoş geldiniz / Herzlich Willkommen
Ziyaretçilerin web sitemizi mümkün olan en iyi şekilde kullanmasını sağlamak için çerezler ve teknolojiler (araçlar) kullanıyoruz. Bize onay verirseniz, bir site ziyaretçisinin uç cihazında bilgi ve veri depolayan ve bunlara buradan erişen üçüncü taraf hizmetlerini kullanacağız. Veri koruma beyanımızdaki gelecek için geçerli olmak üzere, onayınızı istediğiniz zaman iptal edebilirsiniz. Avrupadan'da kişisel verilerinizin işlenmesi, haklarınız ve Genel Veri Koruma Yönetmeliği hükümlerine göre irtibat kurulacak kişiler hakkında bilgi veri koruma bildirimi altında bulunabilir: https://avrupadan.com/sayfa/datenschutz


Wir verwenden Cookies und Technologien (Tools), um den Besucher die optimale Nutzung unserer Webseite zu ermöglichen. Sofern Sie uns Ihre Einwilligung erteilen, werden wir Dienste von Drittenanbietern verwenden, die Informationen und Daten im Endgerät eines Seitenbesuchers speichern und dort abrufen. Sie können Ihre Einwilligung jederzeit mit Wirkung für die Zukunft in unserer Datenschutzerklärung widerrufen. Informationen über die Verarbeitung personenbezogener Daten bei Avrupadan, Ihre Rechte und Ansprechpartner gemäß den Bestimmungen der Datenschutzgrundverordnung finden Sie unter Datenschutzhinweis: https://avrupadan.com/sayfa/datenschutz
KABUL ET / ZUSTIMMEN
REDDET / ABLEHNEN