Açıklanabilirlik

Yapay Zekâ sitesinden

Açıklanabilir Yapay Zekâ’nın Tanımı ve Önemi

Açıklanabilir Yapay Zekâ (AYZ - Explainable Artificial Intelligence/XAI) terimi, karmaşık yapay zekâ sistemlerinin karar verme gerekçelerinin insan tarafından anlaşılabilir çıktılar kümesine dönüştürülmesini ifade eder. Bu tür çıktılar, kural kümelerinden girdi görüntülerinin ısı haritalarına kadar değişebilir ve örneğin görseller için genellikle bir YZ modelinin karar vermek için kullandığı görsel bölümlerini belirtir.

Kullanıcı dostu olma ve şeffaflık gibi AYZ ile ilgili terimler onlarca yıldır tartışılsa da derin öğrenmeye dayalı YZ algoritmalarının hızlı gelişmesiyle birlikte, daha karmaşık açıklanabilirlik yöntemlerine ve bununla ilgili terimlerin daha net tanımlarına ihtiyaç duyulmuştur. Bu gereksinimin arkasındaki neden, derin sinir ağlarının içsel yapısıyla güçlü bir şekilde ilişkilidir. Bu tür ağlar, çok sayıda veriyi birçok iterasyonda işleyerek ağ ağırlıklarını (girdiye dayalı olarak ağın amacını gerçekleştiren ağ parametreleri) değiştiren algoritmalar temelinde eğitilir. Parametre sayısı genellikle milyonlardan milyarlara kadar değişmektedir.

AYZ'nin Amaçları

Yukarıda bahsedilen nedenlerden ötürü, derin sinir ağlarının davranışını insanlar tarafından açıklamak neredeyse imkansızdır. İçsel karar verme kuralları insan anlayışına kapalı olan bu tür açıklanması zor (veya neredeyse imkansız) YZ modelleri, kara kutu modelleri olarak adlandırılır. YZ günlük hayatımızda giderek daha etkili hale geldikçe, finans, sağlık hizmetleri ve otonom sürüş gibi kritik alanlarda kullanılan uygulamaların sayısı artmaktadır. Bu durum, hem kullanıcıların hem de geliştiricilerin YZ tarafından verilen kararların altında yatan gerekçeleri açıklamak istemesi nedeniyle AYZ'ye olan ihtiyacı daha da önemli hale getirmektedir.

Kimlerin Neden AYZ'ye İhtiyacı Var?

AYZ özellikle üç grup için önemlidir[1]:

  1. YZ sistemini kullanan kişiler
  2. YZ kararlarından etkilenen kişiler
  3. YZ algoritmalarının geliştiricileri

Birinci gruba örnek olarak, otomatik olarak oluşturulan tanı raporları öneren bir YZ sistemini kullanan tıp doktorları verilebilir. Alan uzmanı olarak bir tıp doktoru, genellikle daha ileri incelemeler yapmak için tanının arkasındaki gerekçeyi anlamak isteyecektir. İkinci grup, yukarıdaki senaryoda hasta olan veya YZ tabanlı bir karar verme sistemi tarafından kredisi reddedilen kişi gibi YZ uygulamasının son kullanıcılarından oluşur. Bu kullanıcılar da kararın hayatlarını doğrudan etkilemesi nedeniyle gerekçesini anlamak isteyeceklerdir. Son olarak, üçüncü gruptaki YZ sistemlerinin geliştiricileri, modellerinin sağlamlığını artırmak ve zayıf yönlerini tespit etmek için davranışlarını anlamak isteyeceklerdir. Geliştiriciler tarafından bir diğer kullanım senaryosu ise verilerdeki ön yargıyı tespit etmek ve nasıl ortadan kaldırılacağını bilmektir.

Düzenleme ve Politika

DARPA'nın AYZ Programı

2017'de önerilen program, 2017-2021 yılları arasında gerçekleştirilmiştir. Programın temel amacı, "daha açıklanabilir modeller üreten" ve "insan kullanıcıların ortaya çıkan yapay zekâlı ortakları anlamasını, uygun şekilde güvenmesini ve etkili bir şekilde yönetmesini sağlayan" makine öğrenimi teknikleri geliştirmekti. Program temel olarak açıklanabilir öğreniciler geliştirmeye, açıklanabilirliği iyileştirmek için insan psikolojisini anlamaya ve AYZ tekniklerini değerlendirmeye odaklanmıştır. Çeşitli araştırma gruplarının katılımı ve değerlendirme prosedürlerine katkıda bulunan birçok kullanıcı ile yapılan çalışmalarla, AYZ hakkında önemli iç görüler elde edilmiştir (Ayrıntılı bilgi için bkz[2]).

Küresel Düzenlemeler

Avrupa Birliği Yaklaşım

AB'nin AYZ konusundaki düzenlemeleri, YZ sistemlerinin güvenilir ve güvenli olmasını sağlayan, AB'nin temel haklar değerlerine bağlı yasal bir çerçeveye olan bağlılığını yansıtmaktadır[3]. AB'nin 2018 YZ stratejisinde vurgulanan yaklaşımı, başlangıçta vatandaş haklarını korurken inovasyona vurgu yapmış, YZ şeffaflığını, hesap verebilirliğini ve insan gözetimini savunmuştur. Genel Veri Koruma Yönetmeliği (GDPR), otomatik sistemler tarafından alınan kararlar için bir "açıklama hakkı" kavramını ortaya koymuş, ancak uygulanması belirsizliği ve pratik uygulanabilirliği konusunda tartışmalara yol açmıştır.

2019'da Yapay Zekâ Üzerine Yüksek Düzeyli Uzman Grubu'nun (HLEG) Güvenilir YZ için Etik Yönergeleri, kullanıcı güveni için temel olan "açıklanabilirlik" kavramını daha da geliştirmiş, teknik açıklanabilirlik ile YZ sistemlerinin amaçlarının ve kararlarının daha geniş anlaşılması arasında ayrım yapmıştır.

12 Temmuz 2024 tarihinde AB Resmi Gazetesi'nde yayımlanan ve 1 Ağustos 2024 tarihinde yürürlüğe giren Avrupa Birliği Yapay Zekâ Yasası (EU AI Act), açıklanabilirlik ve şeffaflık ilkelerini ön planda tutarak, yapay zekâ sistemlerinin güvenli ve etik bir şekilde kullanılmasını hedefleyen kapsamlı bir düzenlemedir. Yasa, AI sistemlerini risk seviyelerine göre sınıflandırarak yüksek riskli uygulamalarda açıklama yükümlülükleri getirmektedir. Örneğin, kredi değerlendirmeleri veya sağlık teşhis sistemleri gibi kritik alanlarda kullanılan yüksek riskli modellerin, karar alma süreçlerinin şeffaf olması ve açıklanabilirlik mekanizmalarının sağlanması gerekmektedir. Bu bağlamda, yasa yalnızca sistemin çıktısını değil, aynı zamanda karar süreçlerini ve kullanılan verilerin model üzerindeki etkisini de açıklayabilmeyi zorunlu kılar. EU AI Act, açıklanabilirliği artırmak için geliştiricilere raporlama, risk değerlendirme ve insan denetimi gibi sorumluluklar yükleyerek, bireylerin yapay zekâ kararlarına güven duymasını sağlamayı amaçlamaktadır[4] [5].

ABD Düzenlemeleri

AYZ'nin önemi, ABD başkanı tarafından Ekim 2023'te imzalanan "Yapay Zekâ Üzerine Yürütme Emri"nde de vurgulanmış, iki ana alana odaklanılmıştır: YZ modellerinin şeffaflığı ve açıklanabilirliği. Düzenleyici kurumlar, kuruluşlar tarafından kullanılan YZ modellerinin şeffaf olmasını sağlamaya odaklanmaktadır; bu, bu modellerin iç işleyişlerinin ve veri işleme yöntemlerinin açık ve anlaşılır olması gerektiği anlamına gelir.

Birleşik Krallık Perspektifi

İlk YZ Güvenlik Zirvesi Kasım 2023'te BK'da gerçekleşmiş, 28 ülkeden yetkililer, YZ endüstrisi liderleri ve önde gelen araştırmacılar bir araya gelerek YZ teknolojilerinin geliştirilmesi ve denetlenmesine odaklanmıştır. Zirve sonrası yayınlanan bildirgede[6] AYZ'nin gerekliliği şöyle belirtilmiştir: "YZ sistemlerinin potansiyel etkisini mevcut forumlarda ve diğer ilgili girişimlerde inceleme ve ele alma yönündeki uluslararası çabaları ve insan haklarının korunması, şeffaflık ve açıklanabilirlik, adillik, hesap verebilirlik, düzenleme, güvenlik, uygun insan gözetimi, etik, ön yargı azaltma, gizlilik ve veri korumasının ele alınması gerektiğinin tanınmasını memnuniyetle karşılıyoruz.”

AYZ AÇIKLAMA TİPLERİ

Sayısal Açıklamalar

Sayısal çıktıların tipik bir örneği özellik öneminin (feature importance) belirlenmesidir. Makine öğrenimi ve yapay zekâ bağlamında özellik önemi, bir yemek tarifindeki hangi malzemelerin yemeğin başarısı için en kritik olduğunu anlamaya benzer. Bir pasta yaptığınızı düşünün. Un ve yumurta gibi belirli malzemeler temeldir - bunlar "önemlilik" derecesi yüksektir çünkü bunların değiştirilmesi pastanın sonucunu önemli ölçüde etkiler.

Evinizi satmak istediğinizi ve piyasa fiyatını tahmin eden bir uygulama kullandığınızı düşünün. Bu uygulama evinizin büyüklüğü, yaşı, konumu, yatak odası ve banyo sayısı gibi ayrıntıları dikkate alır. Bu bilgileri analiz ettikten sonra, uygulama size tahmini fiyatı ve her ayrıntının bu fiyatı basit sayılarla nasıl etkilediğini söyler.

Kural Tabanlı Açıklamalar

Yoga duruşlarınızı fotoğraflar aracılığıyla değerlendiren bir fitness uygulaması örneğinde olduğu gibi, uygulama karmaşık bir algoritma kullanarak postürünüzü, hizalamanızı ve formunuzu analiz eder. Uygulama, analizi 1'den 10'a kadar bir ölçekte basit bir sayısal puana dönüştürür ve "Puanınız yedi, çünkü daha iyi denge için kollarınızın daha düz ve ayaklarınızın daha geniş olması gerekiyor" gibi kural tabanlı açıklamalar sunar.

Metinsel Açıklamalar

Sosyal medyada maksimum etkileşim için fotoğraf paylaşmanın en iyi zamanını tahmin eden bir uygulama örneğinde, karmaşık bir makine öğrenimi modeli takipçilerin en aktif olduğu zamanlar ve hangi içerik türünün daha fazla beğeni aldığı gibi örüntüleri analiz eder. Uygulama, verileri analiz ettikten sonra "Takipçileriniz hafta sonları akşam saatlerinde en aktif durumda. Açık hava aktiviteleriyle ilgili fotoğraflar %20 daha fazla beğeni alıyor. Buna dayanarak, en iyi etkileşim için doğa yürüyüşü fotoğraflarınızı bu Cumartesi akşam 19:00'da paylaşmanızı öneriyoruz" gibi anlaşılır metinsel açıklamalar sunar.

Görsel Açıklamalar

Örnek 1

Uyku düzeniniz, fiziksel aktiviteniz, kalp atış hızınız ve günlük programınıza dayanarak stres seviyenizi tahmin eden bir sağlık uygulaması, karmaşık veri analizini görsel bir grafikle sunar. Bu grafik, farklı faktörleri temsil etmek için renkleri ve boyutları kullanır: uyku için mavi, fiziksel aktivite için yeşil, kalp atış hızı için kırmızı ve programınız için sarı. Her faktörün stres seviyeniz üzerindeki etkisi, grafikteki renkli bölümünün büyüklüğüyle gösterilir.

Örnek 2

İçeriklerine göre fotoğraflarınızı otomatik olarak kategorilere ayıran bir fotoğraf yönetim uygulaması, görüntüleri analiz etmek için karmaşık bir makine öğrenimi modeli kullanır. Uygulama bir fotoğrafı neden belirli bir şekilde kategorize ettiğini göstermek için, kararını etkileyen görüntü alanlarını vurgular. Örneğin, bir fotoğrafı manzara olarak kategorize ederken gökyüzünü ve dağları vurgulayabilir.

Karma Açıklamalar

Evinizdeki malzemelere göre tarifler öneren akıllı bir mutfak uygulaması örneğinde, uygulama önerisini karma bir yaklaşımla açıklar:

• Görsel olarak: mutfak dolabında tanınan malzemeleri vurgulayarak

• Metinsel olarak: malzemeleri listeleyerek ve tarifi neden iyi bir seçim olduğunu açıklayarak

• Sayısal olarak: tarifin tercihlerinize ve malzeme mevcudiyetine uygunluğunu gösteren bir puan sunarak

Teknik Yaklaşımlar Ve Algoritmalar

AYZ, kritik uygulamalarda kara kutu tabanlı makine öğrenimi algoritmalarının artan kullanımı nedeniyle son dönemde öne çıkan bir alan olduğundan, hem teknik detaylar hem de AYZ algoritmalarının sınıflandırılması konusunda çok sayıda yayın bulunmaktadır. Son zamanlarda birçok yayın, AYZ metodolojileri için bir sınıflandırma sistemi önermiştir, ancak bunlara dayanarak ortak bir hiyerarşi oluşturmak oldukça karmaşık bir görevdir. Bu nedenle, AYZ algoritmalarının farklı özelliklerini ele alan çok yönlü bir sınıflandırma oluşturmak anlamlı bir yaklaşımdır. Aşağıda, önerilen araştırma ve öneriler temelinde[7], bu çok yönlü sınıflandırmanın çeşitli bölümlerini ve alt sınıfları özetlenmiştir.

İşlev Tabanlı Yaklaşımlar

• Yerel Bozunum ile (Pertürbasyonlarla) Açıklama: ML modelinin giriş verilerini bozarak verilerdeki en anlamlı özellikleri bulmaya çalışır

• Yapıyı Kullanma: ML modellerinin içsel özelliklerini davranışlarını açıklamak için kullanır

• Meta Açıklamalar: Diğer açıklama yöntemlerinin çıktılarını birleştirerek modeli daha iyi anlamayı sağlar

• Mimarinin Değiştirilmesi: ML modellerinin karmaşık mimari yapılarını basitleştirerek anlaşılırlığı artırır

• Örnekler: Test edilen verilerden seçilen ve modelin davranışını açıklayan örneklerdir

Sonuç Tabanlı Yaklaşımlar

Sonuç tabanlı yaklaşımlar üç temel kategoride incelenir:

Özellik Önemi Derecelendirilmesi: Bu yaklaşım, sonuçların hangi giriş verisi özellikleri ile ilişkili olduğunu belirler. Önceki bölümlerde belirtildiği gibi, birçok AYZ algoritması özelliklerin önem derecesini puanlayarak sonuç üretir.

Vekil Modeller: Bu modeller, belirli bir ML modelinin giriş-çıkış çiftlerini kullanarak vekil model eğitir. Bu çiftler, modelin davranışını açıklamak amacıyla kullanıldığından, doğru sonuçlar vermese bile açıklama amaçlı kullanılırlar. Vekil modeller genellikle yüksek derecede yorumlanabilir olup, açıklamaların çıkarılmasını kolaylaştırır.

Temsili Örneklemeler: Bu yöntemde, bir modelin eğitim setindeki veriler, güvenilirliği yüksek veya düşük olarak sınıflandırılarak seçilir ve açıklanabilirlik için temsili örnekler olarak kullanılır.

Kavramsal Yaklaşımlar

Kavramsal yaklaşımlar üç ana boyutta ele alınır:

Evre: AYZ algoritmaları, ante-hoc veya post-hoc olarak sınıflandırılır. Ante-hoc yöntemler, modelin eğitim süreci sırasında açıklamalar oluştururken, post-hoc yöntemler yalnızca daha önce eğitilmiş modeller üzerinde çalışır.

Uygulanabilirlik: AYZ algoritmaları, modelden bağımsız veya modele özgü olarak iki şekilde sınıflandırılır. Modelden bağımsız yöntemler tüm modellere uygulanabilirken, modele özgü yöntemler yalnızca belirli model türleriyle çalışır.

Kapsam: AYZ algoritmaları yerel veya evrensel olarak ikiye ayrılır. Evrensel yöntemler tüm veri noktalarını kapsayan genel açıklamalar sağlarken, yerel yöntemler belirli veri örnekleriyle sınırlı açıklamalar sunar.

Karma Yaklaşımlar

Karma yaklaşımlar, yukarıda belirtilen kavramların hibrit versiyonlarını kullanarak daha kapsamlı bir sınıflandırma hiyerarşisi oluşturur. Bu yaklaşım, farklı yöntemlerin güçlü yanlarını birleştirerek daha etkili açıklamalar sunmayı hedefler.

Kaynaklar

  1. Xu, Feiyu, ve diğerleri. "Explainable AI: A brief survey on history, research areas, approaches and challenges."
  2. Gunning, David, ve diğerleri. "DARPA's explainable AI (XAI) program: A retrospective."
  3. Nannini, Luca, Agathe Balayn, ve Adam Leon Smith. "Explainability in AI policies: a critical review"
  4. European Commission, "Proposal for a Regulation on Artificial Intelligence," ec.europa.eu
  5. Artificial Intelligence Act Initiative, "AI Act Explained," artificialintelligenceact.eu
  6. https://www.gov.uk/government/publications/ai-safety-summit-2023-the-bletchley-declaration/
  7. Speith, Timo. "A review of taxonomies of explainable artificial intelligence (XAI) methods."