Çevrimiçi nefret söylemi genellikle olumsuz, nefret dolu ve istismarcı yorumlara yol açtığı gibi, bazen gerçek ortamda da yansımasını göstererek suça ve kitlesel tepkilere, fiziksel şiddete ve nefret suçlarına zemin hazırlayabiliyor. Nefret söyleminin toplumsal kutuplaşmayı tetikleyen ve bireylerin haklarını ihlal eden söylemleri güçlendirme kapasitesi, etik bir sorun teşkil ediyor. Özellikle dijital şiddetin ve ayrımcılığın azınlık topluluklarına yönelik kalıcı zararlar verdiği düşünüldüğünde; etik sorumluluk yalnızca nefret söylemini tespit etmeyi değil, aynı zamanda bu tür içeriklerin yayılmasını engelleyecek etkili çözümler geliştirmeyi gerektirir.
Nefret söylemine karşı mücadele araçları
Nefret söylemi hem bireyler hem de genel olarak toplum üzerindeki derin etkileri nedeniyle büyük bir tehdit oluşturuyor. Bireysel düzeyde sonuçlar, stres ve sosyal geri çekilmeden ruhsal sağlık sorunlarına kadar geniş bir yelpazeye yayılırken; toplumsal düzeyde dijital şiddet, kamuoyunun olaylara tepki verme biçimini değiştirir ve özellikle kamu söylemi üzerinde ciddi etkiler yaratır.
Nefret söylemi mağdurlarının ve gözlemcilerinin giderek kamusal alandan geri çekilmeleri, “sessizlik etkisi” olarak bilinir. Özellikle aşırı sağ gruplar, bu dinamiği kullanarak siyasi ve sosyal çeşitliliği zayıflatmak amacıyla nefret söylemlerini kullanırlar; çevrimiçi kampanyalar ve dezenformasyon yoluyla demokratik kurumları istikrarsızlaştırmayı amaçladıklarını gösterirler. Bu gruplar, sosyal medya platformlarını kullanarak taraftarlarını mobilize eder, komplo teorileri yayar ve azınlıklar ile marjinal topluluklara saldırırlar.
Center for Strategic and International Studies (CSIS) tarafından yapılan araştırmalar, dünya genelinde aşırı sağ grupların sosyal medyayı kullanarak siyasi ve dini azınlıklara yönelik nefret söylemleri yaydığını ortaya koymaktadır. Bu gruplar, tespit edilmekten kaçınmak için genellikle ince taktikler kullanırken, azınlıklara ve diğer siyasi rakiplere karşı şiddeti kışkırtırlar.
Nefret söylemiyle başa çıkmak veya ona karşılık vermek için çeşitli stratejiler mevcut. Nefret yorumlarını görmezden gelmek, silmek veya bildirmek gibi seçeneklerin yanı sıra, onlara objektif bir şekilde yanıt vermek ya da nefret söylemini yayanları engellemek de önemlidir. Ayrıca, destek hizmetlerinden yararlanmak da etkili bir strateji olabilir. Bunun başlıca örneklerinden biri, Almanya’da nefret söylemi ve dijital şiddetle mücadele eden kâr amacı gütmeyen kuruluş HateAid’dir.
HateAid, nefret söylemi mağdurlarına hukuki destek sağlamanın yanı sıra, dijital şiddet konusunda eğitimler vererek ve mağdurlara nefret yorumlarına karşı kendilerini savunmaları için araçlar sunarak önemli bir rol oynuyor. Nefret içeriklerinin, özellikle dijital alanda genellikle kalıcı olarak erişilebilir durumda olduğu göz önünde bulundurulursa, bu tür destek hizmetlerine erişimin sağlanması nefret söylemiyle mücadele konusunda önem taşıyor.
Nefret söylemini hem engelleyebilen hem de üreten bir araç: Yapay zekâ
Sosyal medya platformlarının mevcut içerik denetleme uygulamaları da nefret söylemini kontrol etmekte yetersiz kalıyor. Sosyal medya gönderilerindeki nefret söylemini tespit etmek için birçok farklı yapay zekâ modeli geliştirilmiş olsa da, bu modellerin hem hesaplama açısından verimli hâle getirilmesi hem de gönderinin bağlamını dikkate alabilmeleri, yani gerçekten nefret söylemi içerip içermediğini belirlemeleri oldukça zor. Bu soruna karşı geliştirilen BiCapsHate modeli, her biri nefret söyleminin farklı özelliklerini yakalamaya adanmış, gelişmiş derin sinir ağı katmanlarından oluşuyor. Modelin bir derin öğrenme katmanı, ilgili bir sosyal medya gönderisinin dilini sayısal bir değere çeviriyor ve bu diziyi hem ileri hem de geri yönde değerlendiriyor. Bu sayede yapay zekâ, sosyal medya gönderisinin arkasındaki bağlamı “anlayabiliyor” ve gönderinin nefret dolu olup olmadığını daha doğru bir sonuçla belirleyebiliyor.
Nefret söylemine karşı yapay zekâ araçları kullanılarak mücadele yöntemleri tartışılırken yapay zekâ, aynı zamanda nefret söyleminin yaygınlaşmasına da sebep olabilir. Antisemitik, İslamofobik, ırkçı ve yabancı düşmanlığı içeren içeriklerin “yapay zekâ tarafından daha da güçlendirilebileceği” ihtimalinden “derin bir endişe” duyuluyor. Yapay zekâ, bu tür gelişmeleri önlemek adına çevrimiçi tartışma ve iletişim akışlarındaki tehlikeli kalıpları erken aşamada tanıyacak biçimde eğitilerek nefret söylemine karşı önemli bir rol oynayabilir. Tehdit oluşturan davranış kalıplarını erken tanıyabilen yapay zekâ sistemleri, dijital alanları daha güvenli hâle getirebilir ve nefret mesajlarının yayılmasını engelleyebilir.
Facebook, YouTube ve X (Twitter) gibi platformlar, ağlarındaki nefret söyleminin yayılmasını durdurmaya yardımcı olması için yapay zekâ teknolojisini bu yönde eğitmeye odaklanıyor. Amaç, karmaşık algoritmaların, ırkçı veya şiddet içeren söylemleri insanlardan daha hızlı ve daha doğru bir biçimde tespit etmesini sağlamak.
Yapay zekânın ırksal önyargıları
İnsanlar tarafından oluşturulan veri setleriyle eğitilen yapay zekâ sistemlerinin ırksal ve etnik önyargıları pekiştirme potansiyeli, etik açıdan ciddi bir sorun oluşturuyor. Algoritmaların tarafsız olmadığı ve sosyal bağlamla uyum içinde hareket ettiği vurgulanmalı. Bu, insan hakları ve adil temsil açısından büyük bir risk taşıyor.
Yeni yapılan iki çalışma, nefret söylemini tespit etmek için eğitilen yapay zekânın aslında ırksal önyargıyı artırabileceğini gösteriyor. Bir çalışmada, araştırmacılar, nefret söylemini tanımak üzere eğitilen başlıca yapay zekâ modellerinin, Afroamerikalılar tarafından yazılan tweetleri 1,5 kat daha fazla, Afroamerikalı İngilizcesi ile yazılmış tweetleri ise 2,2 kat daha fazla saldırgan veya nefret dolu olarak işaretleme eğiliminde olduğunu buldular.
Bir başka çalışmada ise, nefret söylemi incelemesi için kullanılan beş yaygın akademik veri setinde (toplamda yaklaşık 155 bin 800 Twitter gönderisi) siyahlara yönelik yaygın ırksal önyargıya dair benzer kanıtlar bulundu.
Bu durum, büyük ölçüde, neyin saldırgan olarak kabul edildiğinin sosyal bağlama bağlı olmasından kaynaklanmaktadır. Bazı ortamlarda hakaret olarak kabul edilen terimler (örneğin; “negro” ya da “queer”) başka ortamlarda hakaret olmayabilir. Ancak algoritmalar ve bu algoritmaların işlerini nasıl yapacaklarını öğreten test verilerini derecelendiren içerik denetleyicileri, genellikle inceledikleri yorumların bağlamını, doğal olarak, bilemiyorlar.
Doğal dil işleme; yapay zekânın, insanların sahip olduğu önyargıları nasıl pekiştirebileceğini gösteriyor. Ayrıca, bu algoritmaları besleyen test verilerinin baştan itibaren gizli önyargılara da sahip olduğunu kanıtlıyor.
University of Washington’da bilgisayar bilimi ve mühendisliği alanında doktora öğrencisi olan Maarten Sap ve meslektaşları, platformda önemli siyasi tartışmalar yapıldığı için, Twitter’da saldırgan olarak işaretlenen içerikleri incelemeye başladı. İlk olarak, insanlar tarafından “nefret söylemi”, “saldırgan” veya “istismarcı” olarak etiketlenen 100 binden fazla tweet içeren iki yaygın akademik veri seti topladılar. Sonuçlar şaşırtıcıydı. Afroamerikalı kullanıcılar tarafından yazılan tweetlerin “saldırgan” olarak işaretlenme olasılığı, ortalama 1,5 kat daha fazlaydı. Araştırmacılar, daha sonra bu test verilerini doğal dil işleme kullanarak çalışan daha büyük bir algoritmik model ile 56 milyon tweet üzerinde uyguladılar ve bu önyargıların daha da pekiştiğini gördüler.
Araştırmalarını bir adım daha ileri götüren Sap ve ekibi ilginç bir şey yapmaya karar verdi. Aynı verileri etiketleyen çalışanları, tweetin saldırgan olup olmadığına karar verirken kullanıcının lehçesi ve ırkı hakkında düşünmeleri için teşvik ettiler. Sonuçlar, moderatörler tweet atan kişi hakkında daha fazla bilgi sahibi olduğunda, ilgili tweetin “potansiyel saldırgan” olarak etiketleme olasılıklarının önemli ölçüde azaldığını gösterdi. Toplamda, siyahilerin konuşma kalıplarıyla ilişkilendirilen tweetlere karşı ırksal önyargı %11 azaldı.
Cornell Üniversitesi’nden araştırmacı Thomas Davidson, Sap’in çalışmasına çok benzer bir çalışma yürüttü. Davidson ve meslektaşları, Sap’in kullandığı veri setlerini ve üç başka veri seti içeren modelleri eğiterek ırksal önyargıları test etti. Araştırmacılar, test edilen tüm veri setlerinde Afroamerikalılara karşı “önemli ölçüde ırksal önyargı” buldu.
Yapay zekânın denetimi için devreye giren insan faktörü
Nefret söylemini işaretlemek için kullanılan otomatik sistemler, hatalı sonuçlar verebilir. En modern, en sofistike modele sahip olunsa bile verinin önyargılı olduğunu unutmamak gerek, çünkü neyin nefret söylemi olup olmadığına insanlar karar veriyor.
Sosyal medya platformlarının nefret söylemini engellemek için yapay zekâ kullanımında karşılaştıkları güçlükler ve bu teknolojilerin ırksal önyargıları daha da derinleştirmesi, etik bir tartışmayı gerektiriyor. Bu platformlar, insan haklarıyla uyumlu algoritmalar geliştirmek için daha fazla sorumluluk almalı ve şeffaflık sağlamalı.
Avrupa Konseyi, yapay zekânın kullanımıyla ilgili insan haklarını korumak için benimsenebilecek 10 öneri sunuyor. Bu öneriler arasında öne çıkanlar şöyle:
- Üye ülkeler tarafından, kamu otoritelerinin yapay zekâ sistemleri üzerinde insan haklarına dönük etki değerlendirmesi gerçekleştirebilecekleri bir yasal çerçevenin oluşturulması,
- Kamuya danışarak yapay zekâ sistemlerinin değerlendirilmesi; üye devletlerin, insan hakları standartlarının özel şirketler (sosyal medya şirketleri gibi) tarafından uygulanmasını kolaylaştırma yükümlülüğü,
- Yapay zekânın, etnik ve dini azınlıklar gibi nefret söyleminden orantısız şekilde etkilenen gruplara özel dikkat gösteren şeffaf ve bağımsız bir denetime tabi tutulması,
- İnsan haklarına, özellikle ifade özgürlüğüne dikkat edilmesi,
- Yapay zekânın her zaman insan kontrolünde kalması kuralı ve yapay zekânın işleyişinden kaynaklanan insan hakları ihlalleri mağdurlarına etkili bir yasal başvuru hakkı sağlanması.
Ayrıca, yapay zekâ okuryazarlığının teşvik edilmesi; bu bağlamda, yapay zekâ sistemlerinin uygulanmasında doğrudan veya dolaylı olarak yer alan kişilere insan hakları eğitimi ve kapasite geliştirme imkânlarının sunulması için bir alan yaratılması önerilmektedir.
Avrupa Konseyi’nin önerdiği gibi; yapay zekâ her ne kadar nefret söylemiyle mücadele etme kapasitesine sahip olsa da, sistemlerin önyargılı ve etik dışı uygulamalara karşı sürekli olarak gözden geçirilmesi ve insan haklarına uygun hâle getirilmesi gerekiyor.