Önyargı
Kamuoyu, YZ'nin tarafsız olmadığı ve tam olarak nesnel olamayacağı hakkında bilinçlendirilmelidir. YZ sistemlerinin neden olabileceği veya artırabileceği yanlılıkların (bias) önüne geçebilmek için kullanılan şirketler ve kurumlar, veri setleri, geliştiren ekibin profili ve kullanılan algoritmalar hakkında şeffaf olmalıdır.
YZ tabanlı karar sistemlerinin insan karar vericilere göre daha nesnel olduğu varsayılır. YZ’nin kararlarının nesnel hesaplamalara dayandığı, bilgisayarlar zaman zaman hatalı karar verseler bile söz konusu hataların teknik bir sorundan kaynaklandığı düşünülür. Bilgisayarların kararlarının da ön yargılı (bias) olabileceği ihtimali göz ardı edilir. Nitekim yaygın kanı ön yargının insani bir özellik olduğu ve sayısal doğrularla hareket eden makinelerin ön yargısız kararlar verdiğidir.
Ancak tam da ön yargının insanı bir özellik olmasından dolayı ön yargı, YZ'nin (özellikle derin öğrenme sistemlerinin) içsel bir özelliğidir ve YZ etiği tartışmalarında en çok üzerinde durulan konularından biridir. YZ sistemlerinde ön yargı başlıca iki nedenden kaynaklanabilir.
Geliştiricilerden Kaynaklı Ön Yargılar
Teknolojiyi geliştiren aktörlerin değer yargıları, geliştirilmesinde rol aldıkları teknolojiyi şekillendirir. Teknoloji, iyi ya da kötü olmadığı gibi tarafsız da değildir. Teknoloji, onun şekillenmesinde etkili olan ve belirli tarihsel koşullar altında hareket eden aktörlerin çıkarlarını ve değer yargılarını içerir. Örneğin, YZ sistemlerinin geliştirilmesinde etkili olan uzmanlar, ağırlıkla beyaz erkeklerden oluşur. Teknoloji sektöründe çalışan kişilerin eğitimleri, sosyal geçmişleri, ilgi alanları, rol modelleri ve yaşam tarzları birbirine yakındır. Bu da ister istemez bir sınırlılığa ve çeşitli ön yargıların modellerin içine sızmasına neden olur. Herkes gibi YZ modellerini tasarlayanlar da hata yapabilir. Ama daha da önemlisi dünyaya belirli bir sosyal geçmişin ve profesyonel ortamın kültürel merceklerinden bakar. Bu nedenle, belirli hesaplama hedeflerinin peşinden gitmenin veya belirli parametreleri ve değişkenleri seçmenin sonuçlarını genellikle görmezden gelirler veya hafife alırlar.
Bir eğitim seti oluşturmak, neredeyse sonsuz derecede karmaşık ve çeşitli ilişkiler içeren bir dünyayı soyutlamayı gerektirir. Problemin çerçevesinin çizilmesi, sistemin hedeflerinin belirlenmesi tarafsız bir eylem değildir. Örneğin, bir kredi kartı şirketinin müşterilerin kredi itibarını tahmin eden bir sistem geliştirirken verdiği kararlar sistemin gelişimine yön verir. Çünkü en başta kredi itibarının ne olduğu sorusunu yanıtlanması ve bu yanıtın sayısallaştırılması gerekir. Şirketin hedefi nedir? Kârını mı yoksa geri ödenebilen kredi miktarını mı en üst düzeye çıkaracaktır? Şirketin istediği kârını artırmaksa, algoritma da buna en uygun fonksiyonu modelleyecektir. Hedef, geri ödenebilen kredi miktarını artırmaksa başka bir modelleme gündeme gelecektir.
Veriden Kaynaklı Ön Yargılar
Ön yargı, YZ sistemlerinin eğitimlerinde kullanılan verilerden ve seçilen öz niteliklerden de kaynaklanabilir. Derin öğrenme sistemleri, geniş bir eğitim veri setinden genelleme yapabilecek ve eğitim veri setinde yer almayan yeni gözlemleri doğru bir şekilde sınıflandırabilecek şekilde tasarlanırlar. Başka bir deyişle, derin öğrenme sistemleri, yeni örneklerde (yeni başvuru sahiplerinin özgeçmişlerindeki kelime grupları gibi) hangi veri noktalarının aranacağına karar vermek için belirli örneklerden (geçmiş iş başvuru sahiplerinin özgeçmişleri gibi) öğrenerek bir tür tümevarım gerçekleştirebilir. Bu gibi durumlarda, ön yargı terimi, bu tahmin edici genelleme süreci sırasında ortaya çıkabilecek bir hata türünü, yani sistemin yeni örneklerle karşılaştığında sergilediği sistematik veya tutarlı bir şekilde tekrarlanan bir sınıflandırma hatasını ifade eder.
Algoritmanın eğitildiği veri gerçekliğin zayıf bir temsiliyse veya mevcut toplumsal önyargıları barındırıyorsa algoritma da yanlı çıktılar üretecektir. Örneğin, krediler için risk puanlaması yapan bir YZ modeli, modelini eğitirken çoğunlukla erkeklerin onaylanmış kredilerini içeren bir veri setinden yararlanmışsa, erkeklerin daha risksiz müşteriler olduğuna meyilli olacaktır.
Verinin ön yargılara etkisi hakkındaki bir diğer ünlü örnek de Amazon’un iş başvurusu yapan adayların özgeçmişini değerlendirdiği otomasyon sistemidir. 2015 yılında şirket, iş başvurularının cinsiyetçi bir şekilde değerlendirildiğini fark etmiştir. Çünkü sistem, eğitim sürecinde ağırlıklı olarak erkek adayların öz geçmişleriyle eğitilmiş ve bunun sonucunda erkekleri daha tercih edilebilir adaylar olarak belirlemiştir. Bu nedenle, içinde kadın kelimesi geçen (“kadın satranç takımı kaptanı” gibi) özgeçmişler cezalandırılmış, aşağı sıralara itilmiştir.
Ön Yargıya Karşı Ne Yapılabilir?
Ön yargı, bilgisayar bilimcilerin farkında olduğu ve üzerinde çalıştığı önemli konulardan biridir. YZ geliştirme ekiplerinin daha çeşitli kesimlerden oluşmasını sağlamak (örneğin farklı cinsiyet ve etnik kökenden kişileri çalışmalara dahil etmek) veya YZ sistemlerinin eğitiminde kullanılan veri setlerininin seçiminde daha özenli olmak ön yargıyla mücadeleye katkıda bulunabilir. Fakat YZ sistemlerindeki ön yargı sorununun çözümü kolay değildir.
Birincisi, "çöp girer, çöp çıkar” sözü kusurlu istatistiksel modellerin ve girdi verilerinin çıktılarının da kusurlu olacağını ifade eder. Aslında YZ modellerinin girdileri ve çıktıları bizzat toplumun kendisidir. Bu nedenle, “çöp girer, çöp çıkar” yerine “toplum girer, toplum çıkar” daha yerinde bir ifade olabilir. Veri yanlılığını üreten “çöp”, makine tarafından okunabilen dijital izlere dönüşen asimetrik sosyal ilişkiler, kültür ve uygulamalar demeti olan toplumdan başka bir şey değildir.
İkincisi, YZ sistemlerini baştan sona ve farklı yeni bağlamları göz önünde bulundurarak tasarlamanın maliyetli olmasıdır. Algoritmaları tasarlarken nitelikli işgücü kullanmak, eğitim verisi bulmak, algoritmanın özelliklerini belirlemek, test etmek, iyileştirmek ve modeli uygulamak için para gerekir. Bu maddi gereklilikler, bilgisayar bilimcilerin problemleri çözmeye çalışırken farklı bağlamlarda farklı görevleri yerine getirebilecek sistemler tasarlama (soyutlama) yaklaşımı ile birleşince belirli bir bağlama uygun olarak geliştirilen bir algoritmayı farklı bir bağlamda olduğu gibi veya değiştirerek kullanma gibi bir eğilim ortaya çıkmaktadır. Fakat bu yaklaşım özellikle toplumsal sorunların çözümü için uygulandığında yeni sorunlara neden olur. Belirli bir yer için tasarlanmış bir sistem farklı toplulukların farklı adalet anlayışları nedeniyle başka bir yerde doğrudan uygulanamayabilir. Aynı şekilde belirli bir problem alanına yönelik tasarlanan bir sistem farklı bir problem alanı için yetersiz veya yanlış olabilir. Çünkü belirli bir bağlama göre oluşturulmuş standartlar ve algoritmanın ilgilendiği etik konular yeni uygulamada sorunlara neden olabilir.
Üçüncüsü, adalet kodlanamaz ve adaletin ne olduğu politik bir karardır. Adalet konusu, felsefe, sosyal bilimler ve hukukta yıllardır tartışılmaktadır ve şimdi de bilgisayar biliminin gündemindedir. Ama bilgisayar biliminin yükü daha fazladır; kendisinden adaleti matematiksel terimlerle açıklaması da beklenmektedir.

Yandaki tabloda başlıca sorunlardan biri yanlış pozitiflerle yanlış negatifler arasındaki dengeyi bulabilmektir. Yanlış pozitifte, gerçekte negatif olan bir olgunun pozitif olduğunu tahmin etmişsinizdir (Birinin suçlu olduğunu tahmin ettiniz, ama gerçekte suçsuzdu). Yanlış negatifte ise gerçekte pozitif olan bir olgunun negatif olduğunu tahmin etmişsinizdir (Suçlu olan birine suçlu değil demek). Yani insanları haksız yere suçlama ihtimali de var, suçluları fark edemeyerek toplum güvenliğini tehlikeye atma ihtimali de. Algoritma, toplumun iyiliği için arada sırada suçsuz insanları mağdur etmeli midir (yanlış pozitif)? Yine bir denge kurmaya çalışsak bile insanların adalet hakkındaki düşüncelerinin de zaman içinde değiştiğini unutmamak gerekiyor.
Özetle, ön yargı çeşitli teknik çözümlerle kısmen iyileştirilebilir olsa da YZ sistemlerine içsel bir olgudur. Sistemlerin optimizasyon ölçütleri ve istatistiksel eşitliğin ötesinde değerlendirilmesi ve matematik ve mühendislik çerçevelerinin nerede sorunlara yol açtığının anlaşılması gerekmektedir. Bu aynı zamanda YZ sistemlerinin verilerle, çalışanlarla, çevreyle ve kullanımından hayatları etkilenecek bireylerle nasıl etkileşime girdiğini anlamak ve YZ'nin nerede kullanılmaması (!) gerektiğine karar verebilmek anlamına gelmektedir.
En önemlisi de toplum YZ'nin tarafsız olmadığı ve tam olarak nesnel olamayacağı hakkında bilinçlendirilmelidir. YZ sistemlerinin neden olabileceği veya artırabileceği ön yargılarla mücadele edebilmek için YZ sistemlerini geliştiren şirketlerin veri setleri, geliştiren ekibin profili ve kullanılan algoritmalar hakkında şeffaf olması sağlanmalıdır.