NewsLabTurkey Ne Okuyor’dan Herkese Merhaba!
Bu hafta “Ne Okuduk” bölümümüzde Google ile ilgili yanlış hesaplamalar, Reuters’in 2019 dijital medya raporu, Yeni Zelanda gazetecilerinin nefreti yaymadan haberleştirmek için seçtiği yöntem ve daha fazlası var.
“Haftanın Odağı”na ise “deepfakes” teknolojisini aldım. Sıklıkla politikacılar üzerinden duyduğumuz ve “fake news”in güncellenmiş versiyonu olarak görülen bu teknolojinin arkasında yatan geçmişi ve hakkında yapılan tartışmaları derledim.
Şimdilik benden bu kadar. Görüş ve önerilerinizi her zaman bekliyorum.
Haftaya görüşmek üzere!
—Ahmet A. Sabancı
Bu Hafta Ne Okuduk?
GOOGLE HABERLERDEN 4.7 MİLYAR DOLAR KAZANMIYOR: Geçtiğimiz pazar günü (9 Haziran) New York Times ilginç bir haber yayınladı. Bu habere göre, Google’ın 2018 yılında Google News üzerinden elde ettiği gelir 4.7 milyar dolardı. Fakat haber yayınlandıktan kısa bir süre sonra, bu rakamın ve kaynağının pek de güvenilir olmadığı ortaya çıktı.
Haberin temelinde yer alan rakam News Media Alliance isimli bir organizasyonun yaptığı çalışmanın sonuçlarından birisi. Ne var ki, birçok kişinin değindiği gibi, çalışmada bu rakamın elde edilme şekli fazlasıyla sorunlu ve çalışma gerçeği yansıtmıyor.
Google’ın 2008 yılındaki başkan yardımcısı Marissa Mayer, Google News’in Google için değerinin yaklaşık 100 milyon dolar olduğunu söylemiş. Çalışmanın 2018 rakamını bulmak için izlediği yol ise sadece “Eğer 2008’de değeri buysa, 10 yıl sonra tahminen bu kadar olmuştur” demek.
Buradaki temel sorun Google News’in hiçbir şekilde reklam içermeyen bir uygulama olması. Mayer’in 2008’de söylediği rakam ise News’in Google’ın gelir getiren uygulamalarına tahminen yönlendirdiği kullanıcı sayısı üzerinden yapılan bir hesaplama. Yani o bile tamamen gerçek değil.
Medya lobiciliğinde, özellikle geleneksel medya kanadından gelen kurumlar böyle hataları umursamıyor. Çünkü tek amaçları Google ve Facebook ile kavga edip onları birer öcüye dönüştürmek. Oysa bu hareketleri tam tersi bir etki yaratıyor ve gazetecileri kötü gösteren bir profil çiziyor.
REUTERS ENSTİTÜSÜ 2019 RAPORUNU YAYINLADI: Geçtiğimiz yıl dijital medyada olan bitenleri, okurun dijital medyayla ilişkisini ve birçok kapsamlı veriyi toplayıp analiz eden Reuters Institute Digital News Report 2019 yayınlandı.
Raporda hemen her ülke ile ilgili kapsamlı analizlere ve verilere ulaşmak, bununla birlikte dünya genelinde geçtiğimiz yıl öne çıkan trendleri görmek mümkün. Geçtiğimiz yıl öne çıkan büyük trendler ise haberlere olan güvende azalma ve insanların daha kapalı gruplara yönelmeye başlamış olması.
Ayrıca abonelikler konusunu merak edenler için ilgi çekici bir veri de var: Ortalama bir okur yalnızca tek bir dijital haber sitesine abone oluyor. Yani okurlar habere para vermek istediklerinde buna değecek tek bir platform seçiyorlar.
Raporda Türkiye ile ilgili kısım da oldukça ayrıntılı bir tablo sunuyor. YouTube’un haber için en çok kullanılan platform olması ve WhatsApp ve Facebook gruplarını haber için en çok kullanan ülke olmamız önemli noktalardan bazıları. Raporun özellikle Türkiye bölümünün kapsamlı bir Türkçe özetini teyit.org’dan okuyabilirsiniz.
NEFRETİ YAYMADAN HABERLEŞTİRMEK MÜMKÜN MÜ?: Christchurch, Yeni Zelanda’da mart ayında gerçekleşen ırkçı katliamın davası geçtiğimiz günlerde başladı. Yeni Zelandalı medyanın ise önemli bir sorunu vardı: Bu suçu işleyen kişinin fikirlerini yaymasına izin vermeden davayı nasıl haberleştirebiliriz?
Bu aslında çok önemli bir soru. Çünkü çoğu zaman nefret suçları, ırkçı saldırılar ve terör saldırılarında gazeteciler önemli bir hataya düşebiliyor ve ellerine geçen her şeyi yayınlayabiliyorlar. Bunun bir hata olmasının sebebi ise aslında bu saldırıların altında yatan temel hedefin zaten bu olması. Medyanın ilgisini kendilerine ve fikirlerine çekerek yayılmasını sağlamak için bu saldırıların yapıldığını unutmamamız gerekiyor.
Bu konuda Yeni Zelanda basını ortak bir çalışma planı oluşturdu ve hepsi bu planda belirlenen şekilde haberlerini yapmaya karar verdi. Planda davayı tecrübeli gazetecilerin takip etmesi gerektiği, her türlü ırkçı sembol ve söylemin haber dışı bırakılması ve saldırganın manifestosunun paylaşılmaması gibi maddeler var. Özetle, haberlerde zanlının bu suçu işleyerek yaymak istediği fikirlerin hiçbirine yer verilmeyecek.
NYT KOD EĞİTİMİNİ HERKESE AÇTI: Gazetecilerin kodlama öğrenmesi gerekir mi sorusu bir süredir tartışılan bir konu. Her gazeteci meslek hayatında kodlama bilgisine ihtiyaç duymayabilir ama özellikle verileri işleyerek çalışma üreten gazeteciler için kodlama bilgisi önemli.
Eğer bu konuda kendinizi ya da ekibinizi eğitmek istiyorsanız artık güzel bir kaynak daha var. New York Times, kendi gazetecilerine kodlama eğitimi vermek için kullandığı materyalleri ve eğitim planını herkese açık hâle getirdi. Bu materyalleri dilediğiniz gibi kullanıp kendinizi kodlama konusunda geliştirebilirsiniz.
Eğer görsel hikâye anlatıcılığı size daha çok hitap ediyorsa, o tarafta da güzel bir haber var. Financial Times haberlerinde kullandığı şablonları herkesin kullanımına açmış.
ULUSLARARASI BASIN ÇİN’i YANLIŞ ANLIYOR: Farklı bir ülkeden gelip de bir ülke hakkında gazetecilik yapmak zor bir iş. O ülkedeki koşulları, insanları ve kültürü anlayamazsanız yaptığınız iş de mevcut durumdan kopuk ve gerçekten uzak kalabilir. Bunun yanında bir de o ülke hakkındaki ön yargılarınızı haberlerinize yansıtma riskiniz var.
Çin ve 1989’daki Tiananment olayları üzerine yapılan haberler de bunun bir örneği. Özellikle Batı medyası bu konuda tamamen klişelere ve otoriter ülkeler ile orada yaşayan insanlar hakkındaki ön yargılarına dayanan ve bu ön yargıları onaylamaya yönelik haberler yapıyor. Columbia Journalism Review bu konuyla ilgili kapsamlı bir dosya hazırlamış ve özellikle Çinli gazetecilere bu haberlerin sorunlarını ve nasıl daha iyi yapılabileceğini sormuş. Her ne kadar Çin özelinde olsa da, başka bir ülke hakkında haber yapmak konusunda ders olabilecek nitelikte tavsiyeler içeriyor. Bunların arasında sokaktan geçen herhangi biriyle röportaj yapmak yerine röportaj verecek kişileri tanımak, röportaj yerini hazırlamak, o ülkenin gazetecilerini açık bir zihinle dinlemek ve eleştiriler karşısında mütevazı kalmak var. Odağın daima otoriter güçlerin insanları manipüle etmek için kullandıkları taktiklerde olmasının gerektiği; muhabirlerin insanların “beyinlerinin yıkanmış olduğuna” inandıklarında bunu ıskaladıkları belirtiliyor. Röportaj verenlere güvenli bir ortam sunmamak ve bağlamla ilgili soru sormak için çaba sarf etmemek ise düşülmemesi gereken hatalar arasında.
Haftanın Odağı: “Deepfakes”
Sahte haberler hemen her gün gündemde. Her ne kadar artık konu giderek birçok farklı şeyi kapsayan bir şeye dönüşmüş ve “yalan haber” kavramı binbir farklı anlamda kullanılmaya başlanmış olsa da, üzerine konuşup tartışmaktan da uzak kalamıyoruz.
Yakın zamanda bu sahte haberler başlığı altına yeni bir madde daha girdi. “Deepfakes” dediğimiz bu kavram, makine öğrenmesi ile bir yazılıma insan yüzünü ve sesini öğretip ardından istediğinizi söyletebildiğiniz videolar üretmeniz anlamına geliyor. Bu teknoloji ortaya çıktığında, ilk olarak pornografik filmlere başkalarının yüzlerini koymak akıl edildi. Şimdilerde ise ağırlıkla politikacıları ve ünlüleri istenildiği gibi konuşturmak tercih ediliyor.
Bunun en son örneği de geçtiğimiz hafta bir sanatçının “deepfakes” yöntemini kullanarak Zuckerberg’e geleceği kontrol etmek istediğini söyletmesiydi. Bunun ardından bu konudaki tartışmalar, önceki haftalarda ABD’li politikacı Nancy Pelosi’nin “cheapfakes” (daha basit yollarla videonun manipüle edildiği versiyonu) videosu ile zaten hararetlenen tartışmaları iyice kızıştırdı.
Bu teknoloji her ne kadar sürekli kötü örnekleri ve potansiyel kıyamet senaryoları ile anılıyor olsa da, birçok iyi yönde kullanımı da mümkün. “Deepfakes”, aynı videonun farklı dilde versiyonlarını yaratmak, hayatta olmayan sanatçıları tekrar canlandırmak gibi amaçlarla da kullanılabilir. Ne yazık ki haberlerde sıklıkla negatif örnekleri konuşuyoruz.
Özellikle propaganda amaçlı kullanımında asıl sorun teknolojiden çok kitlenin sorgulama kabiliyeti. Pelosi örneğindeki gibi montajlandığı kolayca anlaşılabilecek bir videonun ilgi çekmesinin sebebi teknoloji değil, kitlenin o bilgiyi sorgulamadan kabul etmeye eğilimli olmasıydı.
“Deepfakes” konusundaki endişelerde haklılık payı olsa da, tıpkı sahte haberler ve devamında gelen süreç gibi burada da soğukkanlı davranmak ve “dünyanın sonu geldi” düşüncesine kapılmamakta fayda var. Henüz sahte haber ve benzeri konuların gerçekte ne kadar etkili veya çok olduğunu bile tam olarak bilemiyorken, “deepfakes” üzerinden bu kadar panik yapmamak gerektiğine inanıyorum.
Bu hafta odağımızda “deepfakes” ve konuya dair tartışmalar var. Hem kavramı ve teknolojiyi tanımayanlar için kısa geçmişini anlatan yazıları hem de güncel tartışmaları derlememizde bulabilirsiniz.
- We Are Truly Fucked: Everyone Is Making AI-Generated Fake Porn Now — Samantha Cole
- Deepfakes Were Created As a Way to Own Women’s Bodies—We Can’t Forget That — Samantha Cole
- Artificial Intelligence Is Now Fighting Fake Porn — Louise Matsakis
- Researchers Can Make People Say Anything in Videos by Rewriting Their Words — Samantha Cole
- How could deepfakes impact the 2020 U.S. elections? — Nicholas Diakopoulos ve Deborah Johnson
- Deepfake Salvador Dalí takes selfies with museum visitors — Dami Lee
- Fighting The Reality Of Deepfakes — Rubina Madan Fillion
- The universe of people trying to deceive journalists keeps expanding, and newsrooms aren’t ready — Heather Bryant
- Reporting in a Machine Reality: Deepfakes, misinformation, and what journalists can do about them — Nicholas Diakopoulos
- Deepfakes Are Getting Better, But They’re Still Easy To Spot — Gregory Barber