Açıklanabilir Yapay Zeka

Yapay Zekâ sitesinden

Explainable AI

Tanım

Karmaşık yapay zekâ/makine öğrenimi modellerinin karar verme süreçlerini, modelin nasıl sonuca ulaştığını görselleştirme veya matematiksel olarak açıklayan modellerin genel adıdır.

Açıklama

2010’ların ortalarında derin öğrenme gibi karmaşık modellerin “kara kutu” (black box) olması eleştirileriyle gündeme geldi.Özellikle regülasyonlar ve etik kaygılar arttıkça, modellerin iç işleyişini anlaşılır kılmak için XAI yöntemleri geliştirilmeye başlandı.

DARPA (Defense Advanced Research Projects Agency) tarafından 2016’da başlatılan “XAI Programı”, kavramın geniş kitlelerde tanınmasını hızlandırdı.

LIME (Local Interpretable Model-Agnostic Explanations) algoritması, herhangi bir makine öğrenimi modelinin kararlarını yerel düzeyde açıklamaya çalışır.

bkz. YZ İlkeleri - Açıklanabilirlik