Sosyal Ağ ve Kitle

Yapay zekâ: Sosyal etki alanı ve etik problemler

    0

    Veri bilimi uzmanı Iain Brown yapay zekâ üzerine çalışan kişilerin yapay zekâ etiği üzerine düşünürken kendilerine şu üç soruyu sormaları gerektiğini öne sürüyor: “Yapay zekâ algoritmanızın tam anlamıyla ne yaptığını biliyor musunuz, bunu kullanıcılarınıza açıklayabilir misiniz ve açıkladığınızda yaptıklarınızdan mutlu olurlar mı? Cevap bunlardan herhangi birine ‘hayır’ ise, yeniden düşünme zamanı.” 1950’li yıllardan bugüne dek, yapay zekâ zaman zaman popülerleşip zaman zaman popüleritesini yitirse de, özellikle son 20 yılda artan veri dolaşımı ile bu sistemlerin yazılımcılar ve teknoloji şirketleri tarafından kullanımı arttı.

    Büyük veri setleri ile eğitildiğinde iyi performans sergileyen yapay zekâ yazılımları e-ticaret, ulaşım, eğitim, sağlık, güvenlik ve savunma sanayi gibi birçok alanda faaliyet göstermeye başladı. Bu sistemlerin geliştirilmesinde birincil odak teknolojinin sergilediği performans yetkinliği olsa da, son yıllarda “sorumluluk, ön yargı, adalet, güvenlik, şeffaflık ve sürdürülebilirlik” eksenlerinde endişeler arttı. Sosyal medya platformları, mobil uygulamalar, arama motorları, sanal asistanlar ve güvenlik sistemleri yapay zekânın kullanıcıların gündelik hayatı içerisine dahil olduğu alanlar arasında yer alıyor.

    Google Çeviri uygulamasının cinsiyet ayrımı gözetmeyen bir dilden cinsiyete dayalı bir dile çeviri yaparken cinsiyetçi bir dil kullanması (Türkçe “O bir doktor” cümlesinin İngilizce’ye “He is a doctor” olarak çevrilmesi); Çin’de üretilen bir yüz tanıma sisteminde mavi yakalı ve görece mutsuz görünen kişilerin beyaz yakalı kişilere göre suçluluk oranının daha yüksek bulunması; Facebook’un 2016 ABD genel seçimlerine müdahale etmesi gibi olaylar gözleri teknoloji şirketlerine ve bu şirketlerde geliştirilen yapay zekâ algoritmalarına çevirdi.

    Peki, yapay zekâ sistemlerinde sorumluluk, ön yargı, adalet, güvenlik ve şeffaflık kavramları ne anlama geliyor?

    Sorumluluk kime ait?

    Yapay zekâ sistemlerinde oluşan problemli ve hatalı sonuçlarda sorumluluğun hangi aktöre ait olduğu yanıtlanması gereken önemli sorular arasında yer alıyor. Özellikle otonom teknolojilerde sınırlı güce sahip insan faktörü üzerinden mücadeleye giren “sorumluluk” kavramı, teknoloji ile insan arasındaki karar mekanizması sınırını belirsizleştiriyor.

    Tıp alanında teşhis ve tahmin üzerine doktorlara destek veren yapay zekâ yazılımları, hangi hastanın kalp ritminde bozukluk olduğu ya da hangi hastanın kanserli hücre taşıma riskine sahip olduğu konusunda analizler yaparak doktorlara teşhislerinde verimlilik kazandırmayı hedefliyor. Yapay zekâ algoritmalarının analizine paralel bir karar verip vermemek doktorun tercihine kalsa da, olası bir istenmeyen sonuçla karşılaşıldığında hasta ile ilgili sorumluluğun kime ait olduğu gri bir alan olarak karşımıza çıkıyor. Yapay zekâ sistemlerinde sorumluluk alanının belirsizleştiği bir diğer uygulama ise Tesla’nın otonom araçları. Otonom sürüş teknolojisine sahip bu araçlarda yaşanan ölümcül kazalarda bir suçlu aramamız gerektiğinde hangi aktöre yöneleceğimiz henüz cevaplanamamış sorular arasında.

    Algoritmik karar mekanizmaları

    Veri dolaşımı ve kullanımının çoğalması ile birlikte kamusal ve özel alanlarda yapay zekâ sistemlerinin kullanımında yüksek oranda bir artış yaşandı. Kişisel bilgiler ve çevrim içi davranış verileri depolanarak, kullanıcıların beğenileri, satın alma alışkanlıkları, ihtiyaçları ve hatta bir sonraki adımları tahmin edilebiliyor. Öneriye dayalı çevrim içi sistemler kullanıcıları bireysel kullanım düzeyinde tatmin etse de, yapay zekâ sistemlerinin işe alım, hukuki yargı süreçleri ve polis birimlerinin suçlu tespiti gibi kritik alanlarda kullanımı ile birlikte problemli durumlar ortaya çıkıyor.

    Tarihsel eşitsizlikleri ve stereotipik yargıları güçlendiren algoritmik karar mekanizmaları, toplumsal ön yargıları sistemlerin içerisine gömerek sürdürme riskini barındırıyor. Yüz tanıma sistemlerinde beyaz tenli erkekleri %99 oranında başarı ile tespit eden algoritmaların, koyu ten rengine sahip kadınları tespit etmede %35’e varan bir hata oranında çalışması algoritmik karar ve uygulama mekanizmalarında temsiliyet konusunda taraflı süreçlere işaret ediyor.

    İlginizi çekebilir:
    Twitter kullanıcılarının yüzde 10'u tüm tweetlerin yüzde 80'ini atıyor

    Yapay zekâ sistemlerinin üretildiği alanlarda toplumsal cinsiyet ve etnik köken bakımından farklılıklarda gözlemlenen sınırlılık, algoritmik sınıflandırma ve tahmin aşamalarına da benzer türde bir “sınırlılık ve yanlılık” olarak yansıyor.

    Şeffaf sistemler mi kara kutular mı?

    Yapay zekâ sistemleri, teknolojik gereklilikler ve insan faktörünü hem üretim hem de kullanım aşamalarında bir araya getirerek insan-makine ilişkisine farklı bir boyut kazandırıyor. Tam da bu nedenle, yapay zekâ toplumsal yaşamdan ve düzenden ayrı düşünülemiyor, aksine birbirinin içine geçen ve birbirinden beslenen bir ilişki doğuruyor.

    Özellikle son yıllarda kullanımı artan derin öğrenme metodunun karmaşık görevlerde sergilediği iyi performans, algoritmik şeffaflık ve yazılımcının algoritma üzerindeki rolü karşısında belirsizlik yaratıyor. Duygu analizi, metin analizi, görsel tanıma, video algılama gibi çözümler için kullanılabilen derin öğrenme (DL) metodu ile geliştirilen bir algoritmada, yazılımcı veriyi ve modeli oluşturduktan sonra alınacak çıktılar tamamen algoritmaya bağlı oluyor ve algoritmanın herhangi bir kararı hangi parametrelere ne kadar önem vererek aldığı yüzde yüz bilinemiyor. Böylece, yazılımcı algoritmanın kontrolü üzerindeki yetkisini kaybederken; kullanıcılar için de bir bilinmezlik duvarı inşa ediliyor. Bu durum yapay zekâ sistemlerinde güven ve şeffaflık ilkelerini zedelerken; algoritmanın, yazılımcının ve şirketin sorumluluğu ekseninde de soru işaretleri oluşturuyor. Brown’ın sorusunun iki ana maddesi ise bu noktada cevapsız kalıyor: Yapay zekâ algoritmanızın tam anlamıyla ne yaptığını biliyor musunuz ve bunu kullanıcılarınıza açıklayabilir misiniz?

    Araştırmacılar, akademisyenler ve aktivistler yapay zekâ sistemlerinin yükselişi ile birlikte ön yargılı, kötü amaçlı ve aldatıcı uygulamalar karşısında endişelerini dile getirdikçe, teknolojiyi üreten şirketler araştırma, geliştirme ve uygulama aşamalarında etik ilkeler geliştirmeye başladı. Fakat, bu düzenlemeleri somut adımlarla uygulayan teknoloji şirketlerinin sayısı az. Teknolojinin gelişimini desteklerken, bunu sorumluluk, ön yargı, adalet, güvenlik ve şeffaflık adımlarına dikkat ederek ve somut prensipler aracılığıyla uygulamak kritik öneme sahip.

    Yapay zekâ sistemleri büyük veride hızlı ve etkin işlem gücü bakımından umut vadediyor olsa da, bu alanda yapılacak geliştirmelerin toplumsal zeminle uyum içerisinde olması için teknolojinin içerisinde yer aldığı sosyal katmanlar ile birlikte değerlendirilmesi gerekiyor. Bu amaç doğrultusunda, Türkiye’de yapay zekâ sistemlerinin sosyal ve kültürel etkilerini, etik problemlerini anlamayı, analiz etmeyi ve ortaya çıkararak çözümler üretmeyi hedefleyen AI Social disiplinlerarası bir platform olarak ortaya çıkıyor. Sosyal sorumluluğu yüksek, şeffaf ve sürdürülebilir bir gelecek inşa etmek için yapay zekâ sistemlerini üreten ve geliştiren kişiler ile sosyal bilimcileri bir araya getirmeyi amaçlayan AI Social, yapay zekânın sosyal etkilerini anlamak için araştırma projeleri yürütüyor, yapay zekânın toplum ve kültür ile ilişkisi üzerine makaleler yayınlıyor ve bu alanda faaliyet gösteren girişimlere sosyal ve etik prensipler geliştirmeleri üzerine danışmanlık veriyor. AI Social yapay zekâ alanında uzman akademisyenler, mühendisler, yazılımcılar ve bu alanda çalışan girişimler ile yapay zekânın sosyal boyutlarını inceleyen sosyal bilimcileri bir araya getirerek daha sorumlu, daha şeffaf ve daha sürdürülebilir bir gelecek inşa etmeyi hedefliyor.

    Yapay zekâ sistemlerini şeffaf ve sorumlu geliştirmek için atılacak birincil önemli adım ise soru sormak.

    Büşra Kılıç
    Büşra, Marmara Üniversitesi Sosyoloji lisans bölümünden mezun olduktan sonra, İstanbul Bilgi Üniversitesi Medya ve İletişim Sistemleri bölümünde yüksek lisans eğitimine başladı. Lisans eğitiminden bu yana moda, iletişim, yapay zekâ, pazarlama gibi farklı alanlar içerisinde çalışarak, bu disiplinlerin birbiri ile ilişkisini gözlemleme fırsatı buldu. Yüksek lisans eğitiminde özellikle yapay zekâ alanına eğilerek, bu alandaki sosyal problemleri Medya ve İletişim teorileri bağlamında analiz etti. Yapay zekâ alanında sürdürdüğü disiplinlerarası çalışmalara, 2020 yılında kurduğu AI Social girişimi ile devam ederek yapay zekânın sosyal ve kültürel etki alanı ile etik problemleri üzerine çalışmalar yapmaktadır.