Haber Odası

Dijital gazetecilikte Büyük Veri

0

Sosyal ağların yaygınlaşmasıyla çeşitli şekil ve miktarda veri sürekli olarak ortaya çıkmaya başladı. Genel itibariyle Büyük Veri olarak adlandırılan bu fenomen, her sektörde olduğu gibi gazetecilikte de türlü yeniliklere kapı açıyor. Bu yeniliklerle, gazetecilik pratikleri ve araştırmaları, yalnızca yapısal değil teorik olarak da önemli ölçüde dönüşümlere sahne olmakta. Dijitalizasyon ile dönüşen gazeteciliğin akademik yankılarını incelediğimiz serimizin ikinci yazısında özelde gazeteciliğin ve genelde sosyal bilimlerin Büyük Veri ile olan ilişkisine bakıyoruz.

Büyük Veri nedir?

Büyük Veri, hakkındaki değişen spekülatif ifadelerin ve ucu açık kullanımların ötesinde, henüz bilimsel açıdan kabul görmüş kavramsal bir tanıma sahip değil. ABD’nin Princeton Üniversitesi’nde sosyoloji profesörü Matthew Salganik’in 2017 yılında yayımlanan Bit by Bit: Social Research in the Digital Age kitabına göre Büyük Veri hakkındaki tanımların ortak noktası 3V olarak da ifade edilen üç özelliğe dayanıyor. Buna göre Büyük Veri, çağımızda oldukça hacimli bir şekilde (Volume), farklı çeşitlilikte (Variety) ve sürekli bir hızda (Velocity) veri üretimine deniyor. Fakat Salganik’e göre 3V yaklaşımı Büyük Veri’nin anlaşılması konusunda iyi bir başlangıç değil. Bunun yerine, Büyük Veri’nin bir konsept olarak oturtulması için 5W yaklaşımı benimsenmeli; yani Kim (Who), Ne (What), Nerede (Where), Ne zaman (When) ve Neden (Why) soruları sorulmalı. Bununla beraber, Salganik’e göre Büyük Veri’nin anlaşılması için en önemli soru ise Neden (Why) sorusu.

Dijitalizasyondan önceki analog dönemde veriler çoğunlukla araştırma amacıyla, yine araştırmacılar tarafından sınırlı şekillerde oluşturuluyordu. Ama dijital çağda, devasa miktarda veri, şirketler ve devletler tarafından hizmet ve kâr sağlamak ya da yasaları işletmek gibi türlü nedenlerle oluşturulmakta. Salganik’e göre araştırma dışı amaçlarla üretilen veriler bilimsel araştırma yapmak için de tasarlanabilir ve işlenebilir. Bu gelişme, sosyal bilimler için oldukça önemli bir dönüm noktası olmakla beraber, Büyük Veri noktasında hem pratik hem de teorik zemin ihtiyaçlarını da gündeme getiriyor.

Gazetecilik ve Büyük Veri: Pratik yaklaşımlar

Büyük Veri etrafındaki teorik tartışmalardan önce, gazetecilik alanına sunduğu pratikleri ele almak güncel tartışmalara ışık tutmak adına daha iyi olabilir. Zira dijitalizasyonun sektörleri hızla dönüştürdüğü günümüzde, birçok alanda olduğu gibi gazetecilikte de pratik teoriden önde gidiyor. 2014 yılında yayımlanan Dijital Gazetecilik ve Büyük Veri adlı makalesinde Seth Lewis de bu konuya parmak basıyor. Lewis’e göre bu konuda ilk bakılması gereken, Büyük Veri noktasındaki gelişmelerin gazetecilik pratiklerine nasıl yansıyacağı.

Büyük Veri ile beraber ilerleyen bilgi edinme yöntemlerinin nicelleşmesi (quantification) sürecinde, gazetecilik çalışmalarına, önceden pek de kullanılmayan, veri tabanı, algoritmalar, bilişimsel (computational) yöntemler gibi kavramlar dahil oluyor. Lewis bu gelişmeleri iyi ya da kötü olarak nitelemekten kaçınarak ortada belirli potansiyelin olduğunu fakat sonuçlarının sadece bu sürecin nasıl yürütüldüğüne göre şekilleneceğini belirtiyor. Yazarın Büyük Veri konusundaki tutumu ise umut ile karışık temkin olarak özetlenebilir.

Lewis umutlanmakta haksız değil. Martha L. Stone tarafından 2014 yılında hazırlanan “Big Data for Media” adlı endüstri raporu gazeteler, televizyon, dergi ve internet tabanlı yayıncılar için Büyük Veri’nin potansiyelini şöyle listeliyor:

  • Daha doğru tüketici ve müşteri hedeflemesi için kitle analitikleri
  • Gazetecilik için kullanılabilecek kamu ve özel kaynaklı veri tabanlarının analizi için gerekli araçlar
  • Sosyal medyada yüksek miktarda video ve diğer içerikleri yönetmek ve bulmak için gerekli araçlar
  • Reklamcılık için uygun hedef ve mesaj belirlemede gerekli araçlar
  • Kullanışlı içerikler ile ilgi çekici içeriklerin ayrımı için gerekli araçlar

Belirtilen yöntemler ışığında Büyük Veri’den faydalanan şirketlerin örneklerine rastlamak mümkün. The Huffington Post, Büyük Veri’yi kullanıcının deneyimini zenginleştirecek hikâye önerileri, başlık optimizasyonu, yorum yönetimi ve reklam ayarlamaları gibi konularda hâlihazırda kullanmakta. BuzzFeed, sosyal medyada viral potansiyeli olan olayları tahmin etmek için makina öğrenmesini kullanıyor. The Financial Times, ise kayıtlı üyelerinin verilerini masa üstü ve mobil gibi platformlarda ürün sunumu ve ilgi çekebilecek hikâyelerin okurun tercihleri doğrultusunda belirlenmesi gibi amaçlarla kullanıyor. Büyük Veri kullanımı ve nicelleşmenin çarpıcı örneklerinden biri olan The Associated Press, şirketin finansal durumu hakkındaki rutin raporlama işlerini her ay otomatik olarak binlerce haber üreten taşeron algoritmalara devretmiş vaziyette. Anlaşılacağı üzere veri ile entegre bir gazetecilik anlayışı gittikçe daha merkezileşen bir hâl alıyor.

Gazetecilik ve Büyük Veri: Teorik yaklaşımlar

Tüm bu pratik gelişmelerin arkasından gelen, yer yer kritik olmak üzere, teorik yaklaşımlar da mevcut. Lewis’e göre Büyük Veri kavramı genel itibariyle teknolojik olmanın ötesinde sosyal ve kültürel bir fenomen. Bıraktığımız dijital izlerle oluşan büyük miktarda veriyi organize etmek, incelemek ve görselleştirmek artık mümkün olmakla beraber, belirli bazı görüşler ise algoritma ve otomasyon etkisinin gittikçe daha fazla hissedildiği günümüz dünyasında Büyük Veri’nin ayrı bir boyut kazandırdığı mahremiyet, gözetim, etik, manipülasyon ve güç dengesizliği gibi konularda endişelerini dile getiriyor. Lewis’e göre Büyük Veri tartışılırken gazetecilik pratiklerine etkisine yönelik oluşan gereğinden fazla iyimserliği dengeleyecek eleştiriler bir sistematiğe bağlanarak geliştirilmeli. Oscar Westelund ve Lewis bu noktada 4E olarak adlandırdıkları dört adet kavramsal başlama noktası ortaya atıyor: Epistemoloji, Ehliyet, Ekonomi ve Etik. Bu bağlamda, Büyük Veri’nin açtığı pratik saha, gazeteciliğin bilgiyi ele alış ve edinim şeklini (epistemolojisini), pratiğini (ehliyetini), kaynak yaratma (ekonomisini) ve değer üretme (etiğini) yollarını temel biçimde değiştirdi. İşte bu süreçte Lewis, gazetecilik ve medya çalışmalarının nicelleşmesi ve bilişimsel-algoritmik yöntemlerin artması sürecinde gazetecilik disiplini ile Büyük Veri arasındaki ilişkiye yönelik eleştirilerin bu dört ana başlık altında toplanması gerektiğini savunuyor.

Bu noktada ampirik çalışmalar da ortaya çıkıyor. Matt Carlson’ın 2015 tarihli “The Robotic Reporter” adlı çalışması buna bir örnek. Çalışma, Büyük Veri’nin gazetecilikteki rolünün bir habercilik geliştirme aracı olmaktan haber içeriğini üretmeye kaydığını iddia ediyor ve bu durumu “otomatik gazetecilik” adıyla kavramlaştırıyor. Buna göre “otomatik gazetecilik”, ilk yazım süreci dışında herhangi bir şekilde insan müdahalesine uğramamış algoritmik süreçlerin Büyük Veri ile haber metinlerini belirli anlatılara dönüştürecek şekilde üretimini ifade ediyor. Algoritmaların internette hangi içerikleri tüketeceğimiz konusundaki gittikçe artan rolleri sadece sosyal ağlarda değil gazetecilikte de karşımıza çıkıyor.

Lewis’e göre verinin, kodun ve bilgisayar programcılığının bilginin elde edilmesi ve analizi için kullanılabilecek yeni yöntemler olarak yükselişi, gazetecilik ve haberciliğin akademik çalışılmasında da yeni yollar geliştirilmesi gerektiği anlamına geliyor. Lewis’e göre bu noktada iki baskın araştırma şekli var: Gazetecilerin kim oldukları ve nasıl çalıştıklarının analizleri ile ilgilenen, gazetecilik pratiklerine, rutinlerine, organizasyonlarına ve çalışma sistemlerine odaklanan sosyolojik boyutu öne çıkarırken; ikincisi, gazetecilerin ne ürettiğini ve dünyayı nasıl yansıttıklarının analizlerini yaparak var olan gazetecilik kalıpları, temaları ve çerçeveleri ile normatif olarak ilgileniyor. Bu çalışma alanlarını sahiplenecek genel bilimsel disiplin ise sosyal bilimlerden başkası değil. 

Dijital gazetecilik bünyesinde Büyük Veri konusu aslında gerek teorik gerekse pratik olarak sosyal bilimlerde de etkisini hissettirmekte olan nicelleşme (quantification) kapsamında incelenebilir. Bu noktada, Lewis’in de belirttiği üzere, pratikte verinin büyümesi ve analizin nicelleşmesi ile sosyal bilimlere de sirayet eden makina öğrenmesi, doğal dil işlemi vb. gibi teknik bilgi gerektiren yöntemler ortaya çıkarken, sosyal bilim teorisyenleri bu yöntemlerin hipotez testleri ve bilimsel ilerleme gibi konularda ne gibi alanlar açabileceğini tartışıyor. Öyle ki, petabaytlarca veri ile artık çıplak dış gerçekliğin analizinin tamamıyla mümkün olacağı ve artık “teorinin sonu”na geldiğimizi ifade edenler bile mevcut. Fakat, bu ekstrem noktaların dışında, özelde gazetecilik, genelde ise sosyal bilimlerin Büyük Veri ile nicelleşmesine yönelik tartışmalar henüz tam anlamıyla kabul görmüş bir teorik çerçeveye oturtulmuş değil.

Ali İhsan Akbaş
Lisans eğitimini Boğaziçi Üniversitesi'nin Siyaset Bilimi ve Uluslararası İlişkiler bölümünde, yüksek lisansını Uppsala Üniversitesi'nde Dijital Medya ve Toplum programında tamamladı. Halihazırda Bilkent Üniversitesi'nde Siyaset Bilimi doktorası yapıyor. Dijitalleşme ile beraber internetin politik ve sosyal süreçlere etkileri üzerinde çalışıyor.

Trump haberlerinin zararları, Patreon, gazeteciliğin değişimi

Önceki içerik

The Guardian uzun videolarının sayısını ikiye katladıktan sonra YouTube’da 1 milyon aboneye ulaştı

Sonraki içerik