• BIST 9975.06
  • Altın 2962.961
  • Dolar 35.2472
  • Euro 36.7735
  • Lefkoşa 16 °C
  • Mağusa 16 °C
  • Girne 17 °C
  • Güzelyurt 14 °C
  • İskele 16 °C
  • İstanbul 12 °C
  • Ankara 9 °C

Deepfake" tehlikesi büyüyor: Fotoğraf karesinden video üretmek artık çok kolay

Yapay zeka artık fotoğrafları canlandırarak videoya dönüştürebiliyor. Midjourney, geliştirdiği V5.2 versiyonuyla birlikte fotoğrafta fırça yardımıyla belirtilen bölgelere hareket kazandırarak video üretiyor.
Deepfake" tehlikesi büyüyor: Fotoğraf karesinden video üretmek artık çok kolay

Yapay zeka son 1 yıl içerisinde hayatımızın her alanına entegre olmuş durumda. 

ChatGPT, Bing, Bard ve Baidu gibi birçok yapay zeka sohbet asistanıyla birlikte kullanıcılar arama motorlarından ziyade sorularını yapay zekaya sormaya başladı.

ChatGPT'nin Dall-E'sine benzeyen Midjourney, V5.1 sürümünde yapay zekaya verilen komutlar dahilinde görseller oluşturabiliyordu.

Şirket V5.2 versiyonuyla birlikte artık yapay zekanın fotoğrafları videoya dönüştürdüğünü ortaya koydu.

FOTOĞRAFLARI VİDEOYA DÖNÜŞTÜRÜYOR

Midjourney'in pazarlama danışmanı Rory Flynn'ın sosyal medya plaformu X'te paylaştığı bir videoda bu özelliğin kullanılmaya başlandığını gözler önüne serdi.

Paylaşılan videoda alan derinliği bulunan bir kuş fotoğrafı yer alıyor. Midjourney ile hareket ettirilmek istenen bölgelerin seçilmesiyle birlikte kuşun ve seçilen yerlerin hareket etmeye başladığı görüldü.

DEEPFAKE VİDEO

Bilindiği üzere yapay zekanın gelişmesiyle birlikte "deep fake"  yani gerçek gibi gözüken aslında yapay zeka tarafından oluşturulan videoların da sayısı çoğalıyor.

Ancak deep fake oluşturulacak içerik için bir video altyapısının bulunması gerekiyordu.

Örnek olarak; bir kişinin yakın plan çekim konuşması herhangi bir ünlünün sesi ve yüzüyle değiştirilerek deep fake videolar oluşturulabiliyordu.

Midjourney ise bu durum biraz farklı bir boyuta taşıyarak deep fake videolar üretmek için fotoğrafın olması yeterli oluyor.

  • Yorumlar 0
  • Facebook Yorumları 0
UYARI: Küfür, hakaret, rencide edici cümleler veya imalar, inançlara saldırı içeren, imla kuralları ile yazılmamış,
Türkçe karakter kullanılmayan ve büyük harflerle yazılmış yorumlar onaylanmamaktadır.
Bu habere henüz yorum eklenmemiştir.
Diğer Haberler