Zarar Vermemek
YZ sistemleri, kullanım öncesinde veya sonrasında kamu çıkarlarını hedefleyen, bağımsız gözetim kuruluşları tarafında izlenmeli; olumsuzluklara karşı ulusal veya uluslararası kuruluşlar tarafından (gerekli durumlarda söz konusu sistem veya ürünün tamamen yasaklanmasını içeren) yaptırımlar uygulanmalıdır.
Bireysel, toplumsal ve çevresel zararların araştırılması, tespiti ve çözümü hakkındaki sorumluluk ulusal ve uluslararası düzenleyici kurumlara yüklenmemeli, teknoloji şirketlerine zarar vermediklerini kanıtlama yükümlülüğü getirilmelidir.
YZ sistemlerinin gündelik hayatta kullanımının öneminin artmasıyla birlikte,bu sistemlerden kaynaklı sorunlar daha görünür oldu. Bu nedenle, YZ sistemlerinin bireylere, toplumlara ve çevreye zarar vermeyecek şekilde tasarlanması ve kullanılmasının üzerinde durulmaya başlandı.
Zarar Vermeme ilkesinin hayata geçirilebilmesi için birinci olarak, YZ sistemlerinden kaynaklı doğrudan zararların önüne geçilmesi gerekmektedir. YZ sistemleri, insanlara fiziksel, duygusal veya psikolojik zarar verebilecek şekilde tasarlanmamalı veya kullanılmamalıdır. Otonom araçlar veya robotik sistemler, yaralanma veya ölüme yol açabilecek kazaları veya hataları en aza indirerek, kullanıcıların ve çevredekilerin güvenliğine öncelik vermelidir. Ancak güvenlik, sadece tasarım ve geliştirme aşamasıyla ilgili değildir. Şirketlerin ürünleri hakkındaki abartılı iddiaları, kamuoyunun ilgili sistem veya ürünler hakkında yanlış bir kanıya kapılmasına neden olabilir. Örneğin, Tesla ve otonom sürüş teknolojisi hakkındaki abartılı reklam, haber ve bizzat Musk'ın yazdıkları; tüketicileri aldatmış ve kazalara neden olmuştur. Tesla araçlarını satın alanlar; Musk'ın abartılı iddialarına nedeniyle, kullanım kılavuzunda öyle yazmamasına karşın aracın kontrolünü tamamen Tesla'ya bırakmışlardır[1][2].
İkincisi, YZ sistemlerinin mevcut sistemler ve sosyal bağlamlarla nasıl etkileşime girebileceği mutlaka göz önünde bulundurulmalıdır. Belirli bir alandaki etkileyici sonuçların farklı alanlarda istenmeyen sonuçlara neden olabileceği unutulmamalıdır.
Üçüncüsü, verilerin korunması ve mahremiyettir. Mevcut YZ yaklaşımlarının temelinde veri vardır. Verinin toplanması, eğitim amacıyla kullanımı, başka veri setleri ile birleştirilmesi, paylaşılması vb hassas süreçlerdir. Bunun yanında YZ sistemleri, insanların itibarına, finansal güvenliğine veya kişisel güvenliğine zarar verebilecek yetkisiz erişim, sızıntı veya kötüye kullanıma karşı sıkı önlemler almalı, kişisel ve hassas verileri sorumlu bir şekilde ele almalıdır.
Dördüncüsü, sosyal medya algoritmaları, reklam sistemleri, sohbet robotları gibi YZ sistemlerinin kullanıcıların kararlarını etkilemeyi hedefleyebildiğinin unutulmaması gerektiğidir. Bu sistemler, çoğu zaman kullanıcıların zaaflarından yararlanırlar. YZ sistemleri, yanlış bilginin yayılmasını önlemek veya bireylerin zihinsel refahına zarar verebilecek bağımlılık davranışlarını teşvik etmeyecek biçimde tasarlanmalıdır.
Beşincisi, YZ sistemlerinin şeffaf olması gerekliliği, böylece kullanıcıların söz konusu sistemlerin işleyişini ve potansiyel risklerini anlayabilmeleridir. Bu sayede, hesap verebilirlik için gerekli koşullar sağlanabilir ve zararlı etkiler, hızlı bir şekilde tespit edilip ele alınabilir.
Altıncısı, mevcut YZ sistemlerinin çıktılarının nedensel ifadeler içerse de, öğrenme mekanizmalarının veri içindeki korelasyonlara dayanması ve nedensellik içermemesidir. Nedensel çıktılar, özellikle büyük dil modellerini daha ikna edici kılmakta ve kararlarına olan kullanıcı güvenini artırmaktadır. Kullanıcıların mağduriyet yaşamaması için, bu sistemlerin halihazırda sadece verilerin istatiksel ilişkileri üzerinden eğitildiği konusunda kullanıcılar bilgilendirilmeli ve aldıkları kararların sorgulanmadan kabul edilmesinin önüne geçilmelidir.
YZ sistemleri, kullanım öncesinde veya sonrasında kamu çıkarlarını hedefleyen, bağımsız gözetim kuruluşları tarafında izlenmeli; olumsuzluklara karşı ulusal veya uluslararası kuruluşlar tarafından (gerekli durumlarda söz konusu sistem veya ürünün tamamen yasaklanmasını içeren) yaptırımlar uygulanmalıdır. Musk, 2022’deki bir konuşmasında ABD ve Avrupa arasındaki farkı şöyle açıklıyordu: “ABD’de bazı şeyler varsayılan olarak yasaldır, Avrupa’da ise varsayılan olarak yasa dışıdır.” Ama tam da bu nedenle, düzenlemenin daha sıkı olduğu AB’de, ABD’deki gibi sorunlar yaşanmadı. AB, otonom araçları en başta sıkı tuttu ve Tesla’nın otomatik pilotlu araçlarının Avrupa’daki satışına hemen izin vermedi[3].
Ancak bireysel, toplumsal ve çevresel zararların araştırılması, tespiti ve çözümü hakkındaki sorumluluk ulusal ve uluslararası düzenleyici kurumlara yüklenmemeli; teknoloji şirketlerine zarar vermediklerini kanıtlama yükümlülüğü getirilmelidir.
Araştırmacı gazetecilik ve bağımsız araştırmalar, teknolojinin hesap verebilirliği açısından kritik öneme sahiptir. Şeffaf olmayan sistemler hakkında yapılan araştırmalar, reel ve potansiyel zararlara ilişkin kanıtlar ortaya koyar, çok önemli riskleri ve sorunları görünür hale getirir. Fakat, bu tarz denetimler ve benzeri hesap verebilirlik çerçeveleri, zararların belirlenmesi ve ele alınması sorumluluğunu şirketin dışında konumlandırarak doğrudan teknoloji şirketlerinin avantajına bir durum yaratabilir ve yeterli değildir.
Ekonomik süreçlerde, iletişimde ve iş gücü piyasasında yaygın ve öngörülemez etkilere sahip olan teknolojik sistemlerin açıklarının ve olası zararlarının, sadece araştırmacı gazetecilik ve bağımsız araştırmalar yoluyla bulunması, sonrasında bu teknolojiyi üreten şirketlerin ‘pardon’ diyerek sorumluluktan sıyrılabileceği kısır bir döngü yaratmaktadır.
Olası zararların önüne geçebilmek için (gıda ve ilaç piyasasının düzenlenmesinde olduğu gibi) teknoloji üreten şirketler, yasalara uyduklarını göstermekle yükümlü olmalıdır. Bunun için, her durumda kullanımının yasaklanması gereken türler ve uygulama alanlarını belirleyen kesin ayrımlara ve yasak bölgeler gibi yapısal sınırlamalara ihtiyaç vardır. Örneğin, bir çok şehirde yüz tanımaya ilişkin yasaklar getirilmiştir.
Yüz tanıma gibi duygu tanıma teknolojilerinin de hiçbir zaman ama özellikle de iş yerlerinde kullanılmaması gerekir. Çünkü, bilimselliğinin tartışmalı olması bir yana, bu teknolojilere eşlik eden ayrımcı etkilerle ilgili endişeler de henüz giderilememiştir.
Kaynaklar
- ↑ https://www.nytimes.com/2023/01/17/magazine/tesla-autopilot-self-driving-elon-musk.html
- ↑ https://www.trthaber.com/haber/guncel/tesla-otopilot-arizasi-nedeniyle-iki-milyon-araci-geri-cagiriyor-820554.html
- ↑ https://slate.com/technology/2023/02/tesla-recall-full-self-driving-nhtsa-musk-regulation.html