2022 yılında FBI, uzaktan çalışan pozisyonlarına başvuran adayların deepfake video kullandığını açıkladı. O tarihten bu yana bu tür vakalar %1.300 artış gösterdi. Şirketler; mühendislik, finans ve güvenlik clearance gerektiren rollere gerçekte hiç karşılaşmadıkları kişileri işe aldıklarını fark ettikten sonra ciddi güvenlik açıklarıyla yüz yüze geldi. Bu yazıda deepfake iş görüşmesi dolandırıcılığının nasıl çalıştığını, tespit yöntemlerini ve şirketlerin kendini nasıl koruyabileceğini ele alıyoruz.

Gerçek Vakalar ve Boyutu

Deepfake iş görüşmesi dolandırıcılığı artık teorik bir tehdit değil. Belgelenmiş örnekler:

  • 2022, ABD: FBI, IT ve yazılım geliştirme rollerine başvuran adayların canlı deepfake video kullanarak görüşmeleri geçtiğini duyurdu. Amaç: şirketin iç ağlarına erişim kazanmak.
  • 2024, Hong Kong: Bir çalışan, sahte bir CFO ve yönetim kurulu üyeleriyle gerçekleştirdiğini düşündüğü video konferans sırasında 25 milyon dolar transfer etti. Toplantıdaki herkes deepfake’ti.
  • 2025, Kuzey Kore bağlantılı vakalar: Batılı teknoloji şirketlerinin uzak çalışan pozisyonlarına sistematik biçimde deepfake adaylar yerleştirildiği ortaya çıktı; amaç hem gelir elde etmek hem de kurumsal ağlara sızmak.

Bu vakalar deepfake tehditinin yalnızca bireysel dolandırıcılık değil, devlet destekli siber saldırı boyutuna ulaştığını gösteriyor.

Deepfake Video Nasıl Üretilir?

Bir görüşmecinin neyle karşılaştığını anlamak için teknolojinin nasıl çalıştığını bilmek gerekir.

Yüz Değiştirme (Face Swap)

DeepFaceLive, Rope, FaceFusion gibi araçlar gerçek zamanlı yüz değiştirme yapabilir. Kişi kameraya bakarak konuşurken yazılım, yüzünü önceden seçilmiş başka bir kimliğin yüzüyle anlık olarak değiştirir. Kalite, GPU gücüne ve modelin eğitim veri kümesine bağlıdır.

Tam Sentetik Video

Runway, Sora veya HeyGen gibi araçlar sıfırdan video üretir. Saldırgan gerçek bir kişinin fotoğraflarını besler; model bu kişinin “konuşan” videosunu oluşturur. Sonuç genellikle yüz değiştirmeden daha sorunsuz görünür.

Ses Klonlama

Video deepfake’in eşlikçisi genellikle klonlanmış sestir. ElevenLabs, Resemble AI veya açık kaynak araçlarla birkaç dakikalık ses örneğinden ikna edici bir ses kopyası üretilebilir. Bu, aksan tutarsızlığı gibi ipuçlarını da ortadan kaldırır.

Görüşmeci için Görsel İpuçları

Deneyimli bir görüşmeci gerçek zamanlı deepfake videoyu bazı işaretlerden fark edebilir. Ancak bu işaretler hızla azalıyor; birkaç yıl önce açık olan ipuçları artık çok daha az belirgin.

Dikkat Edilecek Görsel Belirtiler

İpucuAçıklama
Yüz sınırı titremesiSaç, kulak ve boyun bölgesinde titreşim ya da bulanıklık
Göz kırpma anormallikleriÇok seyrek veya mekanik göz kırpma
Işık uyuşmazlığıYüzdeki ışık yönü arka planla örtüşmüyor
Dişlerde bozulmaKonuşma sırasında diş kenarlarında titreme veya kaybolma
Arka plan tutarsızlıklarıKafa hareketi sırasında arka plan nesnelerinde bozulma
Dudak senkron gecikmesiSes ile dudak hareketi arasında küçük ama belirgin gecikme
Aşırı pürüzsüz ciltDoğal cilt dokusunun yokluğu; yüz neredeyse plastik görünür

Davranışsal İpuçları

  • Yüzünü kameradan çekindikleri sorulara ani tepki: ekran donması, “bağlantı problemi”
  • Yan profil çekimi yapmaktan kaçınma; yalnızca düz bakış
  • Beklenmedik sorularda uzun duraksamalar (modelin işlem süresi)
  • Fiziksel jest ile ses içeriği arasında tutarsızlık

Teknik Tespit Yöntemleri

Gözlemsel tespitin ötesinde, teknik araçlar çok daha güvenilir sonuçlar verir.

Video Çerçeve Analizi

Görüşme kaydının bir karesi alınıp yapay zeka görsel detektörüne yüklenmesi hâlâ en hızlı yöntemlerden biridir. Yüz değiştirme yazılımları karakteristik artefaktlar bırakır:

  • ELA (Error Level Analysis): Yüz bölgesi ile arka plan farklı sıkıştırma geçmişleri taşıyorsa ELA haritası yüz sınırında belirgin bir tutarsızlık gösterir
  • FFT Analizi: Yüz bölgesinde grid artefaktları veya anormal frekans bantları
  • Temporal tutarsızlık: Ardışık kareler arasında piksel düzeyinde uyumsuzluklar

Canlı Zorluklar (Liveness Checks)

Gerçek zamanlı tespitin en güvenilir yolu adaydan beklenmedik fiziksel hareketler yapmasını istemek:

  • Bir elinizi yüzünüzün önünden geçirin
  • Profilinizi gösterin (sağ ve sol)
  • Gözlüğünüzü çıkarıp takın
  • Bir kağıda rastgele bir sayı yazıp kameraya tutun

Deepfake yazılımları ani ve beklenmedik hareketlerde hata yapar; profilden öne dönüş genellikle bozulmaya yol açar.

Metadata ve Bağlantı Analizi

  • IP adresi başvurudaki konumla eşleşiyor mu?
  • VPN veya veri merkezi IP’si mi kullanılıyor?
  • Kamera/mikrofon cihaz kimliği gerçek bir donanıma mı işaret ediyor?

Şirketlerin Korunma Yolları

Bireysel görüşmecinin dikkatine bırakmak yeterli değil. Kurumsal düzeyde alınması gereken önlemler:

İşe alım sürecinde:

  • Video görüşmeden önce resmi kimlik belgesi doğrulaması (kimliği kameraya tutma, sonrasında dijital doğrulama)
  • Görüşmeyi kaydet ve sonradan adli analiz yap
  • Teklif aşamasında fiziksel ya da noterce onaylı kimlik doğrulaması zorunlu kıl

Teknik önlemler:

  • Kurumsal video konferans sistemlerine deepfake algılama entegrasyonu
  • Ağ erişimini aşamalı olarak ver; yeni çalışanlar ilk 30 gün sınırlı yetkiyle başlasın
  • Anormal ağ davranışı için erken uyarı sistemi

Farkındalık:

  • İK ekibini deepfake ipuçları konusunda düzenli eğit
  • Görüşmecilere “bu kadar iyi görünüyor mu gerçek olamaz” sezgisine kulak vermeyi öğret

FakeRadar ile Video Analizi

FakeRadar, görüşme videolarından alınan kareleri birden fazla analiz katmanından geçirir:

  1. Hive AI sınıflandırması: Yüz değiştirme ve sentetik yüz tespiti için büyük veri kümesinde eğitilmiş model
  2. ELA haritası: Yüz bölgesi ile geri kalan görüntü arasındaki sıkıştırma uyumsuzluklarını görselleştirir
  3. FFT spektrum analizi: Görüntünün frekans imzasını inceler, grid artefaktlarını ve anormal bantları tespit eder
  4. EXIF metadata: Cihaz bilgisi ve yazılım imzası kontrolü

Bir görüşme kaydından şüpheleniyorsanız, video dosyasını ya da temsili bir kareyi FakeRadar’a yükleyin ve adli analiz raporunu birkaç saniyede alın.

Sonuç

Deepfake iş görüşmesi dolandırıcılığı hem daha yaygın hem de daha ikna edici hale geliyor. Görsel ipuçları azalıyor, araçlar daha erişilebilir oluyor. Bu tehditten korunmanın tek yolu; insan gözlemini teknik doğrulama ile desteklemek ve süreçleri buna göre tasarlamaktır.

Şüphe duyduğunuz bir görsel veya video karesi için FakeRadar’ı ücretsiz kullanın. Adli raporlar kurumsal güvenlik değerlendirmelerinizde belge olarak kullanılabilir.