Twitter Etik Çalışma Grubu’nun sonu: Öngörülemez sorunlar, öngörülebilir politikalar

4 Kasım 2022 itibariyle, Twitter’da Rumman Chowdhury ve Ariadna Font Llitjós öncülüğünde çalışan Yapay Zekâ ile Öğrenme: Etik, Şeffaflık ve Hesap Verebilirlik (META) grubu çalışanlarının işine son verildi. Toplumsal fayda gözeten, sorumlu yapay zekâ pratiklerini, şirket içi veri ve kodlara kısmen hakim bir şekilde ve sektörün içinden gelen beklentiler çerçevesinde çalışan, kurgulayan ve öneren bu önemli inisiyatif artık işlevsiz. Şirketlerdeki etik çalışma gruplarının sektörden bağımsız ne denli sürdürülebilir ve kurumsal itibar sağlama pratiklerinin ötesinde çalıştığı başlı başına bir soru işareti olabilir. Oysa META çalışma grubu, sadece bir sene içerisinde, bu tip olası kaygıları tek başına ortadan kaldırabilecek kadar anlamlı ve sayısız projeye imza atmıştı.

Yine Twitter bünyesinde kasım ayı itibariyle tartışılmakta olan konunun başat ortak meselesi Elon Musk. Toplamda 3700 Twitter çalışanının işine son verilme kararını, finansal kayıpları öne sürerek savunan Elon Musk, halihazırda tartışmaya açık bir figür. Dijital platformlarda çalışanların ya da başka ülkelerde bu platformlar için dijital emek harcayanların hakları ve emeğin dönüşümü mühim konular olsa da bu yazı META çalışma grubu ile ilgili.

Yapay zekâ mekanizmaları nasıl ve ne tür etik kaygılar oluşturmakta? META çalışma grubu neden adil dijital platformlar meselesi için önemli bir inisiyatifti? Son olarak, etik kaygıların finansal kaygılar temelli göz ardı edilmesi, Elon Musk ve benzeri teknoloji güç öznelerine özel bir mesele mi, yoksa dijitalleşme ve pratiklerine içkin bir sorun mu?

Yapay zekâ mekanizmaları ve etik kaygılar

Teknolojik bir ürün ve hatta altyapı olarak düşünülebilecek algoritmaların ve onların içkin olduğu tasarım ve yazılımların önyargılı ve etik dışı olabileceği kulağa garip gelebilir. Özellikle yapay zekâ ile öğrenme (machine learning) temelinde tasarlanan yapıların orta ve uzun vadede güvenilir, tarafsız ve verimli sonuçlar doğuracağı düşünülebilir. Ancak, teknoloji ve özellikle dijital iletişim teknolojileri, değer ve normlar açısından nötr bir yapı olarak düşünülmemeli. Örneğin, ilgili iletişim teknolojileri, bilginin veya temsillerin dolaşım mekanizmalarını tasarlarken, hangi kelime veya görsellerin nasıl anlamlandırılması gerektiğini öngören bir algoritma içerebilir. Bu algoritma bir kullanıcının kullandığı kelimeler veya görüntüsünden duygu tahminleri yapmak üzerine tasarlanmış olabilir. Ya da bir cümle içerisindeki kişi veya kurum adlarını otomatik olarak toplayan bir algoritma kurgulanabilir.

Peki bu algoritmalar kültürel bazı kodları olan duygu dışavurumunu bazı gruplar için önyargılı bir şekilde değerlendirebilir mi? Ya da kişilerin isimlerini otomatik olarak toplarken, kültürel veya toplumsal cinsiyet bazlı önyargılar temelinde bir tespit edememe ve dışlama hali oluşabilir mi? Bu iki sorunun da cevabı evet. Kate Crawford’un da belirttiği gibi yapay zekâ mekanizmaları çoğu zaman tasarımcılarının değer normlarını yansıtıyor. Algoritmayı şekillendirecek veri setlerini ve kodları tasarlarken, toplumsal ve bireysel önyargılar, normlar bu tasarıma nüfuz edebiliyor.

Burada algoritma ve yapay zekâ ile öğrenme kavramlarına bir açıklık getirmek şart. Programlama kuralları belli bir amaç etrafında kurgulandığı zaman bir algoritma formunu alır. Örneğin, bazı kelimeler nefret söyleminin bir parçası olarak kodlanır ve ilgili algoritmanın işlevi bu kodlar çerçevesinde bazı ifadeleri nefret söylemi olasılığı skoru vererek değerlendirir. Algoritmaların test aşamasında alınan sonuçlar da tasarımcıları tarafından değerlendirilir ve gerekli beklentiler ve kural değişiklikleri uygulanır. Yapay zekâ ile öğrenme de bu noktada şekillenir ve algoritma daha iyi çıktı sağlayabilmesi adına, gerekli kural değişiklikleri ve önceki veri setleri bazında kısmen veya tamamen yazılımcılar tarafından eğitilir.

Özellikle nefret söylemi söz konusu olduğunda, farklı grupların sosyal gelenek ve normlarına hakim olmayan yazılımcılar eliyle tasarlanmış bazı deneysel algoritmalarda, siyah bireylerin söylemlerini “nefret söylemi” olarak tanıma olasılığının daha fazla olduğu görülebiliyor. Bu tip algoritmaların, nefret söylemi ile mücadeleyi en azından şu ana kadar şiar edinmiş Twitter gibi platformların iş yükünü ve finansal bütçe gereksinimini hafifletebileceği açık. Ancak eldeki algoritmalar ırkçı önyargıları yansıttığı sürece, bu tip çok boyutlu karar mekanizmaları bireysel müdahale ve emeği hâlâ gerekli kılmakta.

Hangi içeriğin, kelimelerin ya da görsellerin algoritmik süzgeçler üzerinden daha fazla dolaşım yarattığı ve yaratacağı buradaki diğer temel meselelerden biri. Bu içeriklerin son raddede finansal kaygılar temelinde mi, yoksa hakları ve çıkarları zedelenmeye daha açık grupların seslerini önceleme amacıyla, yani kapsayıcılık temelinde mi daha fazla dolaşıma girdiği veya kısıtlandığı aslında algoritmik bir norm. Çoğu büyük teknoloji şirketinin verileri finansal çıkar ve ekonomik sürdürülebilirlik normları üzerinden topladığı ve kullandığı söylenebilir. Ancak özellikle küresel bir kamusal alan olarak düşünülebilecek Twitter gibi platformların, sadece finansal kaygı ve dolaşım-uğruna-dolaşım normuyla kurgulanması demokratik kültür, sağlıklı seçim süreçleri, nefret söyleminin kullanımı ve yayılımı gibi birçok öngörülebilir ya da öngörülemez etik sorunsallar doğurabilir. Dijital alanlara dair etik tartışmalar da bunu gözeterek, ilgili platformun fonksiyonu ve ne tür bir alan olduğu temelinde hususi bir tartışma olarak şekillenebilir.

META Çalışma Grubu’nun önemi: Dijital okuryazarlık kapasite artırımı

Etik açıdan değerlendirilmiş, sosyal fayda gözeten, açıklanabilir ve şeffaf mekanizmaların dijital platformların bünyesinde ne denli çalışılabileceği başlı başına bir soru işareti. İlgili araştırmacı ve çalışanların finansal ve şirket itibarı ile ilgili kısıtlardan ne derece etkilendikleri ve çalışmalarını finansal bağlar gözetilince ne denli özgür bir şekilde icra edebilecekleri sorgulanmalı.

Fakat bir yandan da genellikle birçok araştırmacının çalışma şekillerini kısıtlayan kara kutu sorunundan, yani algoritmaların nasıl çalıştığına vakıf olmama halinden muzdarip olmamaları META çalışma grubu özelinde çok değerliydi. İlgili dijital platformların uzun vadeli plan ve projelerine vakıf olmaları ve bunların çevresinde sorunsallar ortaya koyabilmeleri de göz önüne alınmalı.

Twitter bağlamı düşünülünce, anlaşılır şekilde, META grubunun en temel çalışma alanlarından biri dijital okuryazarlık beceri ve kapasite artırımı üzerineydi. Dijital okuryazarlık, dijital platformların nasıl çalıştığını anlama ve örneğin yanlış bilgi ya da bilgi çarpıtmayı tespit edebilme becerisi dışında aynı zamanda bilgi kirliliği ya da bilgi dışlayıcı pratiklere olabildiğince maruz kalınmadığı yapısal bir kapasite artırımı meselesi. Platformların hangi algoritmalar bazında oluşturulduğu, ne tür bilgi dolaşımlarına daha fazla olanak sağladığı ve ne tip içerikleri dışladığı da bu kapasite tartışmasının bir parçası. Twitter da bilgi, içerik, haber, siyasi propaganda ve promosyon paylaşımı ve tartışmalarının sadece başat değil aynı zamanda da tekelleşen kamusal alanı. Buna dair sorunsallardan biri de hangi siyasi içeriklerin, algoritmik olarak bireylerin Twitter ekranlarında daha fazla dolaşıma girdiği (algorithmic amplification) ile ilgili. Twitter ekranındaki kişiselleştirilmiş sıralama, ilgili içeriğin özellikleri, sosyal bağlantı değeri ve kullanıcı etkinlikleri temelinde bazı içeriklerin öncelenmesi yoluyla gerçekleşir. META grubu öncülüğünde yapılan çalışmalardan birinde, Amerika Birleşik Devletleri özelinde, siyasi spektrumda daha çok sağ siyasete yakın içeriklerin daha fazla dolaşıma girdiği görülüyor. Değindiğim gibi, dijital okuryazarlık kapasite artırımı da sadece kişiselleştirilmiş sıralamayı yeniden kurgulamak üzerinden değil, bu tip çalışma ve tartışmaların kamusal alanda tartışılabiliyor olması üzerinden de desteklenebilir. 

İkincil olarak, algoritmalar tarafından gerçekleşen ırk ya da toplumsal cinsiyet temelli ayrımcı sonuçlar da META çalışma grubunun meselelerinden biriydi. Birebir çeviri sağlayan ya da konuşmanın gidişatı ya da konuşmacının duygularını tahmin eden mekanizmaların, sadece bazı evrensel kültür ve bağlamlar üzerinden değerlendirilmesini önlemek adına yapılan çalışmalar buna bir örnek olabilir. Aynı zamanda, Twitter üzerinde paylaşılan fotoğrafların nasıl otomatik olarak kırpıldığı, hangi kısımların algoritma tarafından fotoğrafın merkezi olarak tespit edildiği ve hangi bireylerin ve özelliklerin dışlandığı üzerine yapılan çalışma da kayda değer.

Son olarak, META grubunun araştırma, tasarım ve tartışmalarını kamuya açık bir şekilde yayınlamasının notunu düşmek ve bunun sadece şeffaflık değeri üzerinden tartışılmaması gerektiğini belirtmek şart. Her teknolojik araçta olduğu gibi, ilgili platform veya dijital alana anlam kazandıran ve değer atfeden kullanıcılardır. Kullanıcıların geri bildirimlerini de göz önüne alan META çalışma grubu bu açıdan da efektif bir dönüştürücü görevi görmekteydi. Ek olarak, dijital okuryazarlık kapasite artırımı kullanıcı deneyimlerinin çeşitlendirilmesini ve kullanıcıya maruz kaldığı içerikle ilgili karar sahibi olma kontrolü sağlanmasını da gerekli kılıyor.

Dijital platformlar ve dijital kapitalizmin yayılmacılığı

Peki, etik kaygıların finansal kaygılar gözetilerek tamamen ya da kısmen yok sayılması, Elon Musk ve benzeri teknoloji güç öznelerine özel bir mesele mi, yoksa dijitalleşme ve pratiklerine içkin bir sorun mu? Birey üzerinden kurgulanan ahlaki sorun hikâyeleri bir yerde bağlamını kaybedebilir. Veri bazlı dijital platformlar, dijital kapitalizmin dönüştürücü ve metalaştırıcı pratiklerini içselleştirmiş alanlar olarak düşünülebilir. Kanaatimce, sorunlar her zaman öngörülebilir olmasa da bazı öngörülebilir kapitalist yayılmacı politikalar üzerinden meseleyi kurgulayabiliriz.

Bu bağlamda teknoloji şirketlerinin “veriye” yaklaşımı, aksi takdirde durağan ve bol miktarda bulunacak olan “petrol” gibi doğal bir kaynağa benzerken, ilgili algoritmalar ve mekanizmalar vasıtasıyla onu “sermayeye” dönüştürmeye hazır hale getirmektedir. Bir sermaye biçimi ve kâr kaynağı olarak işlev gördüğünden, şirketler, etik sonuçlarına bakmaksızın daha fazla veri üretmeye ve veri bazlı mekanizma tasarlamaya motive oluyor.

Yakın zamanda ortaya konulan veri ilişkileri kavramını da bu açıdan değerli buluyorum. Veri odaklı platformlara yönelik bu özel yaklaşım, Marksist üretim ilişkileri kavramını ödünç almakta ve gündelik hayatın verileştirilmesinin belirli toplumsal ilişkileri (örneğin metalaştırıcı, sömürücü) nasıl ima ettiğini ve aynı zamanda meşrulaştırdığını araştırmaktadır. Verileştirmeden (datafication) kasıt da kamuya çok açık olmayan ya da çok görünür olmayan aksiyonların, bilgilerin ve tercihlerin toplanabilir ve görülebilir veri setlerine dönüştürülmesi. “Veri ilişkileri” nosyonunun, dijital platformların, veri güdümlü platformları yalnızca finansal gelir elde eden alanlara dönüştürmekle kalmayıp aynı zamanda diğer birçok farklı alanı da veriye bağımlı girişimlere dönüştüren kapitalist bir yayılmacılığın özneleri olduğunu keşfetmek ve formüle etmek adına kullanışlı bir yaklaşım olduğunu düşünüyorum.

Neticede, asıl soru, sadece Twitter özelinde yaşanacak dönüşümün ne denli etik sorunsallara yol açacağı değil, farklı dijital platformlar ve veriler bazında nasıl dönüşeceğidir. Bununla beraber, verileştirme pratiklerinin birçok olası faydasını ve yarattığı fırsatları da göz ardı etmemek gerekiyor. Anti-teknoloji tavrını benimsemediğimiz sürece, her platform kendi özelinde, kendine içkin değer, fırsat ve sorunlar barındıracaktır. Etik tartışma dediğimiz şey de zaten, bireyler, kurumlar veya platformlar için bu değer, fırsat ve sorunları sistematik ve tutarlı bir şekilde değerlendirmek ve karşılaştırmak demek.

Subscribe
Bildir
guest
0 Yorum
Inline Feedbacks
View all comments
İlginizi çekebilir