Her hafta birileri ekran görüntüsünü paylaşıyor: “Onaylandı — %98 yapay zeka üretimi.” Her hafta bu çerçeveleme insanları yanıltıyor.

Bu yazı, FakeRadar dahil sorumlu yapay zeka tespit araçlarının neden karar değil sinyal bildirdiğini ve bu ayrımın neden önemli olduğunu açıklıyor.

Karar Problemi

Karar ikilidir: suçlu ya da masum, gerçek ya da sahte. Sinyal ise olasılıksaldır: bir hipotezin doğruluğunu artırır ya da azaltır. Bunlar temelden farklı şeylerdir.

Güncel yapay zeka tespit teknolojisi güvenilir bir biçimde karar üretememektedir. Bunun temel nedeni şudur: hem gerçek hem de yapay zeka üretimi görsellerin uzayı devasa, örtüşen ve sürekli değişen bir yapıya sahiptir. “%94 yapay zeka üretimi” puanı, bu görselin %94 ihtimalle yapay zeka üretimi olduğu anlamına gelmez. Modelin bu görsel için 0 ile 1 arasındaki çıktısının 0,94 olduğu anlamına gelir. Bunlar aynı şey değildir.

Sinyaller Gerçekte Nedir?

FakeRadar bir görseli analiz ettiğinde birden fazla bağımsız adli kontrol yapar:

1. Hive AI deepfake sınıflandırıcısı Milyonlarca gerçek ve yapay zeka üretimi görsel üzerinde eğitilmiş sinir ağı. Görselin bir yapay zeka modeli tarafından üretildiğine veya önemli ölçüde manipüle edildiğine dair bir olasılık çıktısı verir. “Puana” en yakın olandır — ancak bu, sınıflandırıcı çıktısıdır, gerçek zemin olasılığı değil.

2. Hata Seviyesi Analizi (ELA) Bir görselin farklı bölgelerindeki JPEG sıkıştırma geçmişi farklılıklarını tespit eder. Çevrelerinden farklı geçmişe sahip bölgeler, birleştirme, klonlama veya yapıştırma işaretine işaret edebilir. ELA rehberimizi okuyun.

3. FFT (Hızlı Fourier Dönüşümü) frekans analizi Görselin uzamsal frekans desenlerini analiz eder. Yapay zeka üretimi görseller genellikle kamera ile çekilen fotoğraflardan farklı karakteristik frekans imzaları sergiler — ızgara tipi periyodisite veya yüksek frekanslı gürültünün yokluğu gibi.

4. C2PA içerik kimlik bilgisi doğrulaması Görselin kriptografik bir köken kaydı taşıyıp taşımadığını ve bu kaydın geçerli olup olmadığını kontrol eder. C2PA rehberimizi okuyun.

5. EXIF meta veri incelemesi Kamera meta verilerinin (marka, model, GPS, zaman damgası, yazılım imzası) varlığını, makullüğünü ve tutarlılığını kontrol eder. Yapay zeka araçları genellikle EXIF’siz ya da “Stable Diffusion” veya “DALL-E” gibi yazılım alanlarıyla dosya üretir.

Bu sinyallerin her biri bağımsız ve kusurludur. Değerleri yakınsamadan gelir.

Yakınsama Neden Önemlidir?

Üç senaryo düşünün:

Senaryo A: Hive 0,92 puan verdi. ELA tekdüze desen gösteriyor. FFT doğal gürültü yok. EXIF “Midjourney tarafından oluşturuldu” diyor. C2PA yok. → Beş sinyal aynı yönü işaret ediyor. Güven yüksek.

Senaryo B: Hive 0,88 puan verdi. ELA bazı parlak yamalar gösteriyor. EXIF mevcut ve makul. C2PA geçerli bir Canon kamera sertifikası gösteriyor. → Çelişkili sinyaller. Sınıflandırıcı bayrak kaldırıyor ama köken meşru. Bu görsel tamamen üretilmemiş ama yapay zeka ile düzenlenmiş olabilir (örneğin yüz değiştirme).

Senaryo C: Hive 0,31 puan verdi. ELA tekdüze. FFT doğal görünüyor. EXIF mevcut. C2PA geçerli. → Sinyaller çoğunlukla gerçeği işaret ediyor. Düşük güvenilirlikli manipülasyon bayrağı.

Her üç durumda da tek bir modelden tek bir sayı sizi yanıltırdı. Çok sinyalli görünüm, üzerine akıl yürütebileceğiniz bir şey sunar.

Temel Oran Problemi

Neredeyse hiçbir tespit aracının size söylemediği bir şey: önceki olasılığınız büyük önem taşır.

Bir dezenformasyon araştırmacısından gelen ve bir Telegram kanalında deepfake satan bir yerden bulduğu bir görseli inceliyorsanız, bunun yapay zeka üretimi olma öncülünüz zaten çok yüksektir — diyelim ki %70. Sınıflandırıcıdan 0,80 sinyali aldığınızda bu inancınızı anlamlı biçimde yukarı günceller.

Bir arkadaşınızın son yürüyüş gezisinde çektiği fotoğrafı inceliyorsanız, öncülünüz çok düşüktür — diyelim ki %2. 0,80 sınıflandırıcı puanı bile birden fazla sinyalden gelen olağanüstü kanıt olmaksızın bu öncülü geçersiz kılmamalıdır.

Bu, adli bilimlere uygulanmış Bayesçi akıl yürütmedir. Eğitimli analistlerin düşünce biçimidir ve sorumlu tespit araçlarının kararlar yerine sinyalleri neden ön plana çıkardığının nedenidir.

Bilinen Hata Modları

Yanlış pozitifler (gerçek görseller yapay zeka olarak işaretlendi):

  • Yoğun biçimde işlenmiş fotoğraflar (HDR, cilt rötuşu, yoğun doygunluk)
  • Çizimler, dijital sanat ve 3B render — bunlar yapay zeka üretimi değil ama benzer frekans özellikleri taşıyor
  • Birden fazla kez yeniden kaydedilen yapay zeka üretimi görsel ekran görüntüleri
  • Film veya video oyunlarındaki CGI görseller

Yanlış negatifler (yapay zeka görselleri işaretlenmedi):

  • Basılıp yeniden fotoğraflanan yapay zeka üretimi görseller (kamera gürültüsünü yeniden kazandırır)
  • Sosyal medya sıkıştırmasından geçmiş yapay zeka üretimi görseller
  • Dedektörlerin eğitilmediği eski modeller
  • Farklı iz desenleri üreten yeni mimariler

Her iki hata türü de nadir değildir. Bu, belirli bir araçtaki bir kusur değildir — görevin temel zorluğunu yansıtır.

Tespit Sonuçlarını Sorumlu Biçimde Kullanmak

  1. Yüksek güvenilirlikli çok sinyalli yakınsamayı güçlü bir gösterge olarak değerlendirin, kanıt olarak değil. Orijinal kaynağa ulaşın, yayın bağlamını kontrol edin ve bağımsız doğrulama arayın.
  2. Düşük güvenilirlikli veya tek sinyalli sonuçları belirsiz kabul edin. 0,55’lik bir sınıflandırıcı puanı, modelin şanstan biraz üzerinde olduğu anlamına gelir.
  3. Öncülünüzü göz önünde bulundurun. Bu görselin nereden geldiği hakkında ne biliyorsunuz?
  4. Yalnızca bir araç sonucuna dayanarak “yapay zeka ile onaylanan sahte” yayımlamayın. Bu gazetecilik değil — araç çıktısıdır.
  5. Sinyal yokluğunun özgünlüğü doğruladığını unutmayın. Birçok gelişmiş manipülasyon tespit edilebilir iz bırakmaz.

FakeRadar Bu Dili Neden Kullanıyor?

FakeRadar’ın sonuç sayfaları kasıtlı olarak “bu sahte” yerine “sinyaller tespit edildi” diyor. Dürüst belirsizlik iletişiminin mesleki ve etik bir gereklilik olduğuna inanıyoruz.

“%94 sahte — doğrulandı” diyen araçlar, “birden fazla göstergede yüksek güvenilirlikli yapay zeka üretimi sinyalleri tespit edildi” diyenlerden daha doğru değildir. Sadece daha güvenilir seslendirilir — ve bu güven, temel bilim tarafından desteklenmemektedir.

Tespitin amacı insan yargısını desteklemektir, onun yerini almak değil.


Tam sinyal şeffaflığıyla bir görsel analiz edin — FakeRadar’ı ücretsiz deneyin.