Yapay zekâ destekli dezenformasyon olarak tanımlanabilecek deepfake (Whyte, 2020: 213) hayatın pek çok alanına yönelik riskler barındırıyor. Bunlardan en sıklıkla bahsedileni, doğrudan siyasal alana yönelik olanları. Otoriter liderler tarafından seçimlerde bizzat bu teknolojilerin kullanılması, 2024 Hindistan seçimlerinde olduğu gibi “deepfake demokrasisi” olarak adlandırılmaya başlanmış durumda ve bu konuda küresel teknoloji platformlarının önlemler aldığı iddiaları da doğru değil (Sharma, 2024).
Sahte videoların gazetecilik ve demokrasi için zararlı etkilerinin tartışıldığı bir çalışma (Dan, 2021) bunların siyasi adaylarda görüldüğü gibi ilgili kişinin itibarını zedelemekle de kalmayarak, ayrıca neyin gerçek olup neyin olmadığı konusunda kafa karışıklığına yol açarak, genel olarak toplumsal ve siyasal aktörlere olan güvensizliği artırabileceğini savunuyor. Gerçekten de siyasal risk seçimlerle de sınırlı değil. Deepfake teknolojisinin otoriter yönetimlerin sivil toplumu gözetleme, kriminalize etme ve taciz etme girişimlerine dahil edilerek nasıl silah hâline getirildiğini ve gazetecilere, insan hakları savunucularına ve sivil toplum liderlerine yönelik devam eden çevrimiçi ve çevrimdışı cinsiyet temelli saldırıların nasıl artırıldığını, teknolojiyi insan hakları vb. olumlu amaçlar için kullanmada akademik ve pratik olarak çalışan Sam Gregory (2022: 713) ayrıntılı bir biçimde ortaya koyuyor. İngiltere özelinde sol eğilimli medya, deepfake, otonom araçlar ve silahlar, mahremiyet, yüz tanıma ve algoritmik önyargı ve ayrımcılık gibi konularla ilgili etik kaygıların yanısıra otomasyon sonucu iş kaybına ilişkin endişeleri vurguluyor (Brennen ve Nielsen, 2018).
Deepfake’in çok yönlü karakteri nedeniyle, bu konudaki araştırmalarda da farklı yaklaşımlar bulunmaktadır. Bu farklılıklar, aynı zamanda çalışılan disiplinden, teorik öncüllerden ve araştırma metodolojisinden de kaynaklanmaktadır. Literatürde deepfake’in sanatsal yaratıcılık ve hiciv gibi olumlu kullanımlarının yanısıra; ahlak, etik, hakikat epistemolojisi ve yurttaşlık, insan hakları, kadın hakları karşıtlığı gibi konularda pek çok riskin altı çizilmiştir. Bu yazıda, literatürdeki bu tartışmaları özetle değerlendirerek, yeğlediğim perspektifi öne çıkaracağım. Aynı zamanda, deepfake’in belirsiz yapısı nedeniyle ortaya çıkan düzenleme korkusu ya da tehditleri küçümseme eğiliminde kullanılan söylemleri sıralayarak (“deepfake o kadar da çok değil”, “o kadar da etkili değil”, “yeni değil, zaten vardı”, “sadece olumsuz değil”, “şimdinin meselesi değil, ama belki gelecekte”, “sonuçta izleyici bilir” gibi farklı şekillerde karşımıza çıkabiliyor bunlar) eleştirel kavramsallaştırma ve çözüm önerilerinin altını çizmeye çalışacağım.
Deepfake’in karmaşık ve çok katmanlı doğası
Girişte de belirtildiği gibi, deepfake’in çok yönlü karakteri, çeşitli iletişim süreçlerine sirayet etmesi ve üretim ve içerik, dağıtım ve alımlama süreçlerinin iç içe geçmesi nedeniyle basitçe kavranması zor. Graham Meikle (2023) deepfake süreçlerini remiks ve manipülasyon olarak iki başlık altında ele alır: Remiks boyutuyla deepfake; sanat, yaratıcılık, eğitim, hiciv ve eğlence ile ilişkilendirilebilirken, dezenformasyon ve rıza dışı pornoda görüldüğü gibi manipülasyon için de kullanılmaktadır. Gregory ve Cizek tarafından hazırlanan, yetmişten fazla deepfake örneğini analiz eden bir kolektif rapor, bunların bazılarının hiciv, sanat veya aktivizm örnekleri iken, diğerlerinde komedinin güçlüleri yüceltmek ve marjinalleştirilmiş topluluklara saldırmak için kullanıldığını gösteriyor. Rapordan, yayılıp insanlara zarar verdikten sonra, “sadece şaka!” ifadesinde görüldüğü gibi, bunu yaparken de kendilerini hicivle savunduklarını öğreniyoruz.
Deepfake ve medya temsili: Gazetecilik nasıl anlatıyor?
Deepfake teknolojisinin boyutlarını ve yaratılan riskleri öğrendiğimiz kanallardan birisi de haberler. Platformlar çağında zaten hayatta kalma sınavı veren haberciliğin deepfake meselesini temsiline ilişkin çok sayıda araştırma bulunuyor. Deepfake’i konu alan ana akım haberlerin anlatısına dair bir analizde (Yadlin-Segal, 2021), tekno-distopik bir gelecek hayal eden ve sosyal medya içerik düzenlemesini teşvik eden üç perspektif keşfedilmiştir.
Bunlardan ilki, kadınlara ve çocuklara yönelik bir tehdit olarak konumlandıran bakış açısıdır. İkincisi, gerçeklik ve hakikate odaklanmıştır. Üçüncü bakış açısı ise hakikat sonrası dijital çağda sosyopolitik eşik bekçileri olarak gazetecilere olan güvenin yeniden tesis edilmesi üzerinedir.
Bu son anlatı, haberler üzerine yapılan bir başka araştırmada daha (Wahl-Jorgensen ve Carlson, 2021) benzer şekilde karşımıza çıkıyor. Bu araştırma, gazetecilerin demokrasiyi tehdit eden deepfake’lerle ilgili distopik senaryolara karşı doğrulanmış profesyonel içeriklerini hakikatin savunucusu olarak sunduklarını göstermektedir. Yaratıcı, yenilikçi veya sanatsal yönler, örneklemin azınlığını oluştururken, analiz edilen içeriğin çoğunluğu teknolojinin silah hâline getirildiği kötümser bir çerçeveyi benimsemiştir. Yazarlara göre ise, genellikle gelecekte neler olabileceğine dayanan varsayımlar, bilginin doğruluğunu değerlendiremeyen vatandaşların cehaletini ve naifliğini varsaymaktadır. Benzer biçimde Moran ve Shaikh (2022), gazetecilerin anlatısına ilişkin temkinli bir okumaya sahip görünmekte ve onların izleyicilerin yapay zekâ tarafından üretilen içeriği ayırdetme ve değerlendirme kabiliyetleri konusunda sınırlı ve sığ bir görüşe sahip olduklarını savlamaktadırlar (s. 1767).
İzleyici gözünden deepfake: Sorgulama ve epistemik yara
Doğrudan izleyicilerle gerçekleştirilen araştırmalara baktığımızda deepfake videoların öyle hiç de sorgulanmadan kabul edilmediği sonucuna varan araştırmaları görebiliyoruz (örneğin Hameleers ve diğerleri, 2023). Birleşik Krallık’ta izleyicilerle yapılan bir araştırmada Vaccari ve Chadwick (2020) de, aldatıcı siyasi deepfake’lerin katılımcılarını yanlış yönlendirdiğine dair kanıt bulamamış olsalar da, bu videoların izleyicilerin kafasını karıştırabileceğini ve tüm haberlere karşı güvensizlik ve sinizme yol açabileceğini kabul etmektedir; ki bu durum da yurttaşlık kültürü açısından yeterince endişe vericidir.
Deepfake videoların ahlaki, etik sorunlar, kişisel verilerin korunması veya fikri mülkiyet hakları alanlarında yol açtığı hak ihlallerinin ötesinde epistemolojik konulara odaklanan bir eleştiri kaynağı da bulunmaktadır: Yanlış yönlendirilme ve aldatılmanın ardından deneyimlenen “epistemik yaralanma” (Watson, 2021: 71’den alıntılayan Matthews ve Kidd, 2024), izlediklerimiz konusunda sürekli şüpheci ve kuşkucu olmamıza yol açmaktadır (Fallis, 2020). İnsan hakları, kadın hakları aktivizmi gibi olumlu kullanımlarından farklı olarak, burada gördüğümüz şey, videoların artık kanıt veya tanıklık olarak görülmediği bir “kriz” (Rini, 2017) durumudur. O zaman sormak gerekir: “Her izlediğimiz yalan olabilir” diye gerçekten bir hak ihlalini gösteren bir videoya da kayıtsızca bakmak, demokrasi ve yurttaşlık açısından kaygı verici değil midir?
Deepfake’e eleştirel bakış: Her zaman kara tablo değil
Yukarıda da görüldüğü gibi, bunlara rağmen literatürde konuya çok negatif bakmayan, izleyicinin aktifliği tezine dayanan yaklaşımların yanısıra, araştırma metodolojisine ve teorik öncüllere bağlı olarak, ya da araştırılan gruba bağlı olarak deepfake teknolojisinin iddia edildiği kadar zararlı bir etkiye sahip olmadığı, en azından şu anda olmadığı veya diğer teknolojilerden daha fazla zararlı olmadığı sonucunu çıkaran çalışmalar da bulunmaktadır. Jacobsen ve Simpson’a (2023) göre, erkek egemen görme biçimleri yeni bir şey değildir ve cinsiyetçilik deepfake ile başlamamıştır; yeni olan, bunun giderek artan bir şekilde algoritmik olarak üretilmesi ve farklı biçimlerde (örneğin bedenler ve yüzler birbirinin yerine geçebilir hâle geliyor) sürdürülmesidir. Görsel dezenformasyon konusunda doğrulama üzerine çalışanlarla yapılan derinlemesine görüşmelere dayananan bir araştırma (Weikmann ve Lecheler, 2023) insan dışı bir aktör olarak deepfake’lerin etkisinin sınırlı olduğu ve çoğunlukla bugünden ziyade gelecekteki bir zorluk veya sorun olarak görüldüğü sonucuna varmaktadır. Araştırmaya katılanlar da bunun yerine, bağlamından koparılmış videolar gibi diğer yanlış ve yanıltıcı görüntü biçimlerini daha yıkıcı veya daha büyük bir mesele olarak görmektedir.
Toplumsal cinsiyet merceğinden deepfake: Görünmeyen yüzeyler
Oysa konuya toplumsal cinsiyet duyarlılığı ile baktığımızda, bu konunun hiç de kolayca gözardı edilemeyecek bir boyutta olduğunu anlayabiliriz. Haberlerde görseller ve yapay zekâ üzerine yapılan çalışmalar, önyargı ve eşitsizlik meselesini doğrulamaktadır.
Örneğin, yapay zekâ tarafından üretilen 84 görüntünün analiz sonuçları (Thomas ve Thomson, 2023) eşit olmayan bir cinsiyet dağılımını ve yapay zekânın mevcut önyargıları nasıl sürdürdüğünü ortaya koymaktadır. İki Amerikan gazetesinin çevrimiçi baskılarında yayınlanan büyük veriyle ilgili görüntüler, zaten erkek egemen olan sektörü neredeyse tamamen bir erkek dünyası olarak göstermektedir (Pentzold vd. 2019). Deepfake durumunda konu daha da çetrefil bir karaktere bürünüyor. Britanya özelinde yayınlanan bir rapor (Adjer ve diğerleri, 2019) kadınları hedef alan deepfake örneklerinin nasıl artış gösterdiğini istatistikler ve örneklerle gösteriyor. Toplumsal cinsiyet, iletişim ve kadının insan hakları üzerine derledikleri kitapta Margaret Gallagher ve Aimée Vega Montiel (2023) dijital teknoloji ve platformların mahremiyete yönelik toplumsal cinsiyet temelli tehditleri nasıl sürekli olarak arttırdığını ortaya koymaktadır. Yazarlar, deepfake’i de çevrimiçi taciz, doxing, siber-mizojini, rıza dışı pornografi veya “intikam pornosu” (Franks, 2017’den alıntı) gibi görüntü temelli istismar türü olarak teknoloji tarafından kolaylaştırılmış toplumsal cinsiyete dayalı şiddete dahil ederler. Bu şiddet türünde en fazla risk altında olanlar, mahrem görüntüleri rıza dışı yayınlanan, kimlikleri hedef gösterilen “marjinalleştirilmiş” kişilerdir (kadınlar, LGBTQ+ bireyler, siyahlar, yerliler gibi, Dunn, 2020’den alıntı).
Chandell Gosse ve Jacquelyn Burkell (2020) deepfake teknolojisi, rıza dışı pornografi, cinsel imgeler ve haberlerle ilgili araştırmalarında, haber medyasının deepfake sorunlarını dört şekilde tartıştığını aktarıyor:
- Deepfake ürünler kolayca üretilip dağıtılmaktadır,
- Yanlış inançlar yaratmaktadır,
- Siyasi süreci baltalamaktadır,
- Rıza dışı cinsel içerik üretmek için kullanılmaktadır.
Yazarlara göre, dezenformasyon, seçimlerin aksaması ve ulusal güvenliğe yönelik tehditler gibi konulara, deepfake videoların rıza dışı cinsel içerik oluşturmak ve dağıtmak için kullanılmasının zararlarından daha fazla odaklanılmıştır. Ahmet A. Sabancı da (2024) çok konuşulan deepfake’in politik risklerindense, kadın ve gençlere yönelik sınırsız tehlike ve tehditlere odaklanılması gerektiğinin altını çiziyor. Kendisi, siyasilerin sürdürdükleri yalanların ve propagandaların etkili olması sebebiyle deepfake’e ihtiyaç bile duymadıklarını savunuyor. Gerçekten de Türkiye’de 2023 seçimlerinde Cumhurbaşkanı Erdoğan’ın İstanbul’da seçim mitinginde 1.5 milyon kişilik kalabalığa gösterdiği, Kemal Kılıçdaroğlu’nun seçim kampanya videosu ile PKK lideri Murat Karayılan’ın videosunun montajlandığı görüntüde de görüldüğü gibi ve doğrulama kanallarınca da teyid edildiği gibi, yapılan aslında bir cheap fake idi, deep fake değil. Duygu Karataş’ın (2023) da vurguladığı gibi cheapfake videolar da daha az medya okuryazarlığı olanları hedefleyerek demokratik siyaset ve katılıma önemli tehditler oluşturabilir.
Dolayısıyla, hem cheapfake ve hem de deepfake videoların etkilerini gözardı etmeden hazırlıklı olmakta yarar var. Peki nasıl? Ne yapmak lazım? Yapay zekâ destekli dezenformasyon ve deepfake krizine çözümler nelerdir?
Çözüm önerileri ve gelecek tartışmaları
Deepfake kültürünün zararlarını önlemek için başka zararlara yol açmadan düzenlemenin gerekli olabileceğini (Cover, 2022), şirketlerin kârı için paylaşılan mesajların algoritmik dolaşımını düzenlemenin, sansür ya da ifade özgürlüğüne saldırı olmadığından hareketle düzenleme gereğini savunanların (Meikle: 153-154) yanısıra, düzenlemenin sakıncalarına işaret ederek demokratik direncin inşa edilmesi ve kamu baskısı oluşturulması gibi öneriler de geliştiriliyor (Whyte, 2020: 213).
Burada çok önemli olan şu: Mesele teknik boyutlarına rağmen, aslında sosyo kültürel bir meseledir ve bu nedenle teknik yöntemlerle de çözülmesi zordur. (Jacobsen. 2024; Taylor, 2017; Dencik vd., 2019). Jacquelyn Burkell ve Chandell Gosse (2019) de sosyo kültürel ve materyal doğasının altını çizdiği çalışmalarında deepfake videoların hem gerçek, hem de gerçek olmayan sofistike teknolojisi ve metafizik doğasının birçok teknik, yasal ve düzenleyici çözümden etkilenmez hâle gelişinden ve hedef alınan kişilere verdiği zararı tanımlamanın da benzer şekilde zorluğundan söz eder.
Algoritmik moderasyonun çözüm olarak benimsenmesi durumunda ise marjinalleştirilmiş kişilerin ve aktivistlerin demokrasi yanlısı söylemlerinin de sansürlenebileceği tehlikesine işaret edenler bulunmaktadır (Dayei ve Downey 2024). Buna göre, şu anda algoritmik moderasyon nefret söylemini güvenilir bir şekilde tespit edememektedir: Bu nedenle, demokratik zararları demokratik faydalarından daha ağır basabileceğinden, moderasyon uygulamasının çok dikkatli bir şekilde değerlendirilmesi tavsiye ediliyor ve platformların moderasyonu yerine, ırkçılık karşıtı, feminist ve demokratik teoriler doğrultusunda yeni algoritmik moderasyonu değerlendirmesi öneriliyor. Deepfake karşıtı önlemlerin, belgesel yapımında olduğu gibi yaratıcı endüstrilere zarar verebileceğinin altını çizenler de bu konuda bir medya okuryazarlığı gündemi geliştirmenin ve kamu farkındalığını artırmanın gereğine işaret ediyor (Hight, 2022). Burada deneysel, dışavurumcu kullanımlar ile cinsel, siyasi veya başka türlü görsel ve işitsel manipülasyon ve istismar biçimleri arasında bir çizgi çizme sorumluluğumuz olduğunu söyleyenlere (Paris ve Donovan, 2020) kulak vererek ayrıca eleştirel yapay zekâ (YZ) ve veri okuryazarlığının (McCosker, 2022) çözümlerden birisi olabileceği düşünülebilir. 2023 yılında gerçekleştirilen “Doğrulama ve Yapay Zekâ” konulu yuvarlak masa toplantısında, Türkiye’deki önde gelen doğrulama platformlarının temsilcileri, küresel teknoloji şirketleri ve akademisyenlerin geliştirdiği çeşitli önerilerden birisi de okuryazarlıktır (Koçer, 2024).
Medya, bilgi ve dijital okuryazarlığını daha geniş bir şekilde kavramsallaştırarak yurttaş katılımı için eleştirel yapay zekâ ve veri okuryazarlığı uygulamalarıyla ilişkilendirme girişimleri de vardır. Böylesi bir okuryazarlık ise, sıklıkla, Aristea Fotopoulou (2021)’nun da belirttiği gibi, teknik bir okuryazarlık olmayıp, mutlaka eşitsizlik ve adalet temalarıyla ilişkilendirilmelidir: Bu eksende sürdürülecek çalışmalar, gazeteciler ve akademisyenlerle de sınırlı olmayıp sivil topluma yönelmeli ve eleştirel veri okuryazarlığı; eylemlilik, bağlam farkındalığı ve sosyal sorumluluk sağlayacak şekilde geliştirilmelidir. Jonathan Gray, Carolin Gerlitz ve Liliana Bounegru (2018) da veri altyapısı okuryazarlığı üzerine çalışmalarında yeni mobilizasyon, müdahale ve aktivizm biçimlerinin önünün açıldığını savunmuşlardır. Veriye dayalı ayrımcılıkla mücadele için farkındalık ve mekanizmaların, etik yolların oluşturulması gerektiğini savunanlar, eşitsizlikler, ayrımcılık ve belirli grupların dışlanmasına karşı bir sosyal adalet gündemiyle bağlantılı olarak veri adaletini öneriyor (Taylor, 2017; Dencik vd., 2019).
Halihazırda yapılanlara baktığımızda, örneğin UNESCO’nun yapay zekâ hakkında haber yapmak üzerine gazetecilik eğitimcileri için hazırladığı el kitabında (2023) deepfake meselesi özel olarak işlenerek demokratik kültüre zararının altı çiziliyor ve bununla mücadele edilmesi gerekliliğinden söz ediliyor. Her ne kadar ayrımcılık ve adalet meselesi, Avrupa Komisyonu’nda (2019) güvenilir yapay zekâ için yayınlanan etik kılavuzlarda bahsi geçse de, basın meslek örgütleri tarafından çeşitli ülkelerde etik kılavuzlar geliştirilmesi sözkonusu ise de (Pocino, 2021), hâlâ adalet temelli yaklaşımların ağırlığını artırdığını söylemek güç. Son yıllarda az sayıda olsa da örnekleri görülmeye başlanan daha çok hak eksenli ve adalet perspektifi benimseyerek yapılacak çalışmalara ihtiyaç var. Böyle bir perspektiften yapılacak eğitim çalışmaları için üretilen malzemelere örnek olarak <A+> İttifakı (2020) verilebilir. Toplumsal cinsiyet eşitliğini teknoloji ve yeniliklerden yardım alarak geliştirmek için geleceğe dönük çalışmalar yapan bu küresel, çok disiplinli, feminist grup, akademisyen, aktivist ve teknologlardan oluşuyor. Eğitimciler ve öğrenciler için bir insan hakları ve toplumsal cinsiyet eşitliği araç seti, eşitlik, önyargı, kesişimsellik konularını inceleyen modüller ile atölye materyalleri sağlıyor. Kendisi bir iyi pratik örneği olan çalışma, kanımızca, başka iyi pratiklerin gelişmesinin de yolunu açabilir.
Sonuç olarak, bu yazıda, literatürdeki konuyla ilgili tartışmaları özetle değerlendirerek adalet ve hak odaklı yaklaşımları öne çıkarmaya çalıştım. Aynı zamanda deepfake’in belirsiz yapısı nedeniyle ortaya çıkan söylemlere karşı ve konuyu teknik bir meseleye indirgeme çabalarında karşı eleştirel kavramsallaştırma ve çözüm önerilerinin altını çizmeye çalıştım. Görüntüler ve videolar asla “nesnel” olmasa da ve gerçeklik iktidar ilişkileri ağları içinde inşa edilse de hakikat sonrası dünyada hakikate ulaşmanın bir ideal olarak kalması gerektiğine inanma eğilimindeyim. Bu noktada siyasi ve toplumsal kullanım arasında bir tercih yapmak durumunda da değiliz: Hepsi önemli, birbiriyle ilişkili ve acil. Buradan hareketle siyasi olarak seçimler vb. mekanizmaları manipüle ederek sınırlı demokratik haklarımızı daha da sınırlandırmada, toplumsal olarak var olan eşitsizlikleri artırma ve derinleştirmede deepfake videoların potansiyel kullanımına karşı hazırlıklı olmalıyız. Özellikle cinsel içerikli ve pornografik deepfake videolar sonradan kaldırılsalar bile, hedefledikleri kadınlara verdikleri zararları asla ortadan kaldırmayacaktır (Gosse ve Burkell, 2020). Sosyal, siyasal ve kültürel bağlamı vurgulayan literatürü takip ederek (Weikmann ve Lecheler, 2023; Burkell ve Gosse, 2019) konuya yaklaştığımızda otoriter liderlerin tetikçi medyası ve hukuksuzluklarla ve trollerle birleşerek başta kadınlara, LGBTQI topluluklara ve eleştirel düşünenlere, eyleyenlere zarar verme potansiyeline sahip olduğunu söylemek gerekir. Dezenformasyon önleme kisvesi altında eleştirel düşüncenin cezalandırıldığı bir ülkede, konunun adaleti sağlayacak şekilde düzenlenmesi de zorluklar içeriyor. Nitelikli bir kamu hizmeti yayıncılığının ve ana akım medyanın da olmadığı bir yerde hak perspektifi ve eleştirel düşünceyi savunanlarla ittifak oluşturma büyük önem taşıyor.
Kaynakça
- <A+> Alliance. 2020. Affirmative action for algorithms: Artificial intelligence, machine learning, & gender. https://aplusalliance.org/wp-content/uploads/2022/07/aplus-declaration-2.pd
- Adjer, H., Patrini, G., Cavalli, F., Cullen, L. 2019. The state of deepfakes: Landscape, threats, and impact. https://regmedia.co.uk/2019/10/08/deepfake_report.pdf
- Aitamurto, Tanja vd. 2022. Examining augmented reality in journalism: Presence, knowledge gain, and perceived visual authenticity. new media & society, Vol. 24 (6). 1281–1302
- Brennen, J. Scott, Philip N. Howard, Rasmus Kleis Nielsen. 2018. An Industry-Led Debate: How UK Media Cover Artificial Intelligence.
- Burkell, Jacquelyn ve Chandell Gosse. 2019. Nothing new here: Emphasizing the social and cultural context of deepfakes. First Monday.
- Cover, Rob 2022. Deepfake culture: the emergence of audio-video deception as an object of social anxiety and regulation, Continuum, DOI: 10.1080/10304312.2022.2084039
- Dan, Viorela 2021. Fake Videos: Challenges for Journalism and Democracy Emanating From Deepfakes and Cheapfakes. Journalism & Mass Communication Quarterly Vol. 98(3) 643-5
- Dayei, Oh, John Downey 2024. Does algorithmic content moderation promote democratic discourse? Radical democratic critique of toxic language AI. Information, Communication & Society, DOI: 10.1080/1369118X.2024.2346531
- Dencik, Lina, Arne Hintz, Joanna Redden, Emiliano Treré 2019. Exploring Data Justice: Conceptions, Applications and Directions, Information, Communication & Society, 22:7, 873-881, DOI: 10.1080/1369118X.2019.1606268
- Fallis, D. 2020. The Epistemic Threat of Deepfakes, Philosophy and Technology, 34(4): 623–643.
- Gosse, Chandell, Jacquelyn Burkell 2020. Politics and porn: how news media characterizes problems presented by deepfakes, Critical Studies in Media Communication, 37:5. 497-511, DOI: 10.1080/15295036.2020.1832697
- Gray, Jonathan, Carolin Gerlitz ve Liliana Bounegru. 2018. Data infrastructure literacy. Big Data & Society. July–December: 1–13 DOI: 10.1177/2053951718786316
- Gregory, Sam. 2023. Fortify the Truth: How to Defend Human Rights in an Age of Deepfakes and Generative AI. Journal of Human Rights Practice, 2023, 15, 702–714 https://doi.org/10.1093/jhuman/huad035
- Gregory, Sam. 2022. Deepfakes, misinformation and disinformation and authenticity infrastructure responses: Impacts on frontline witnessing, distant witnessing, and civic journalism. Journalism Vol. 23(3) 708–729
- Gregory, Sam ve Katerina Cizek. n.d.a. Just Joking! Deepfakes, Satire, and the Politics of Synthetic Media. https://cocreationstudio.mit.edu/just-joking/
- Hameleers, Michael, Toni G. L. A. van der Meer, Tom Dobber. 2023. They Would Never Say Anything Like This! Reasons To Doubt Political Deepfakes European Journal of Communication 1–15
- Hight, Craig 2022. Deepfakes and documentary practice in an age of misinformation, Continuum, 36:3, 393-410, DOI: 10.1080/10304312.2021.2003756
- Jacobsen, Benjamin N. 2024. Deepfakes and the promise of algorithmic detectability European Journal of Cultural Studies. 1–17
- Jacobsen, Benjamin N., Jill Simpson 2023. The tensions of deepfakes, Information, Communication & Society, DOI: 10.1080/1369118X.2023.2234980
- Karataş, Duygu. 2023. How Opposition works. On the upcoming Elections in Turkey. Blog. Transformation of Popular. 11.5.
- Koçer, Suncem. 2024. Yapay Zeka ve Doğrulama. Artificial Intelligence and Fact-checking. Reflektif Journal of Social Sciences Vol. 5(1), 103-114.
- Matthews, Taylor, Ian James Kidd 2024. The Ethics and epistemology of Deepfakes. Fox Carl ve Joe Saunders ed, The Routledge Handbook of Philosophy and Media Ethics. Routledge.
- McCosker, Anthony 2022 Making sense of deepfakes: Socializing AI and building data literacy on GitHub and YouTube. new media & society. 1–18 DOI: 10.1177/14614448221093943
- Meikle, Graham. Deepfakes. 2023. Cambridge: Polity Press.
- Moran, R. E., Shaikh, S. J. 2022. Robots in the news and newsrooms: Unpacking metajournalistic discourse on the use of artificial intelligence in journalism. Digital Journalism, 10(10), 1756-1774. https://doi.org/10.1080/21670811.2022.2085129
- Paris, B., Donovan, J. 2020. Deepfakes and cheapfakes: The manipulation of audio and visual evidence [Data & Society Report]. https://datasociety.net/library/deepfakes-andcheap-fakes
- Pentzold, Christian, Cornelia Brantner ve Lena Fölsche. 2019. Imagining big data: Illustrations of “big data” in US news articles, 2010–2016 new media & society, Vol. 21(1) 139–167
- Rini, R 2020. Deepfakes and the Epistemic Backstop, Philosopher’s Imprint, 20: 24.
- Sabancı, Ahmet A 2024. Deepfake’in gerçek tehlikesi. NewsLabTurkey. 5 Şubat. https://www.newslabturkey.org/2024/02/05/deepfakein-gercek-tehlikesi/
- Shade, Leslie Regan. 2023. From Media Reform to Data Justice Situating Women’s Rights as Human Rights. The Handbook of Gender, Communication, and Women’s Human Rights. (Ed.) Margaret Gallagher and Aimée Vega Montiel.Wiley pub.
- Sharma, Yashraj 2024. Deepfake democracy: Behind the AI trickery shaping India’s 2024 election. Al Jazeera English. 20 February. accessed 26.3.2025.
- Simon, Felix M., Luisa Fernanda Isaza-Ibarra. 2023. AI in the News Reshaping the Information Ecosystem? Oxford Internet Institute, University of Oxford. http://dx.doi.org/10.5287/ora-dx865edma
- Simon, Felix M. 2022. Uneasy Bedfellows: AI in the News, Platform Companies and the Issue of Journalistic Autonomy, Digital Journalism, 10:10, 1832-1854, DOI:10.1080/21670811.2022.2063150
- Taylor, Linnet. 2017. What is data justice? The case for connecting digital rights and freedoms globally Big Data & Society: 1–14
- Thomas Ryan J., T. J. Thomson 2023. What Does a Journalist Look like? Visualizing Journalistic Roles through AI, Digital Journalism, DOI:10.1080/21670811.2023.2229883
- UNESCO 2023. Reporting on artificial intelligence: a handbook for journalism educators.
- Vaccari, C., Chadwick, A. 2020. Deepfakes and disinformation: Exploring the impact of synthetic political video on deception, uncertainty, and trust in news. Social Media & Society, 6(1), 1–13. https://doi.org/10.1177/2056305120903408
- Wahl-Jorgensen, Karin, Matt Carlson 2021. Conjecturing Fearful Futures: Journalistic Discourses on Deepfakes, Journalism Practice, 15:6, 803-820, DOI: 10.1080/17512786.2021.1908838
- Watson, L. 2021. Epistemic Rights and Why We Need Them (London: Routledge).
- Weikmann, Teresa ve Sophie Lecheler. 2023. Visual disinformation in a digital age: A literature synthesis and research agenda. new media & society.Vol. 25(12) 3696– 3713
- Weikmann, Teresa ve Sophie Lecheler 2023. Cutting through the Hype: Understanding the Implications of Deepfakes for the Fact-Checking Actor-Network, Digital Journalism, DOI: 10.1080/21670811.2023.2194665
- Whyte, Christopher 2020. Deepfake news: AI-enabled disinformation as a multi-level public policy challenge, Journal of Cyber Policy, 5:2, 199-217, DOI:10.1080/23738871.2020.1797135
- WITNESS. n.d.a. Deepfakes, Synthetic Media and Generative AI. WITNESS website. https://gen-ai.witness.org (erişim 3. 7. 2023).
Yadlin-Segal, Aya. 2021. Whose dystopia is it anyway? Deepfakes and social media regulation Convergence: The International Journal of Research into New Media Technologies Vol. 27(1) 36–51