Yapay zekâyla oluşturulan sahte görseller ve sesler “yeni nesil silah” niteliği taşıyor

Yapay zekâyla üretilmiş fotoğraflar, taklit sesler ve deepfake videolar, savaş alanlarından seçim meydanlarına kadar dünyanın dört bir yanında “bilgi manipülasyonunun ve dolandırıcılığın en etkili ve tehlikeli” araçları haline geliyor.

Yapay zekâ tehdit tespit platformu Sensity AI şirketinin araştırmalarına göre, Rusya-Ukrayna Savaşı’nda Ukraynalı siyasetçiler ve askerler, deepfake videolarla “teslim olmaya çağıran” ya da “savaş suçu işlediğini itiraf eden” kişiler gibi gösteriliyor.

Tayvan’da seçim dönemlerinde, politikacıların sahte konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri gibi Çin kaynaklı yapay zekâ içerikleri sosyal medyada yayılarak karşıt görüşlü adaylar hedef alınıyor.

Japonya’da ise yapay zekâyla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurgular halkta panik yaratmak için kullanılıyor.

Bu tür olaylar, yapay zekâ araçlarının bilinçsizce ve kontrolsüzce “yeni nesil silahlar” olarak kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.

“Yapay zekâ ürünlerini tanımak imkansız hale geldi”

Sensity AI’nin kurucu ortağı Francesco Cavalli, yapay zekâyla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin değerlendirmelerde bulundu.

Cavalli, yapay zekâ araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.

Yapay zekâyla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.

Cavalli, “Yapay zekâ içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekâyla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi.” dedi.

Yapay zekâyla manipülasyon

Halihazırda yapay zekâyla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.

Yapay zekâ kullanarak Dışişleri Bakanı Marco Rubio‘yu taklit eden bir dolandırıcı, ABD’li siyasiler tarafından sıkça kullanılan “Signal” isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.

Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu dile getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını ifade etti.

Midjourney ve Runway gibi araçlar geliştikçe gerçekle yapayı tutarlı şekilde ayırt etmekte zorlaşıyor.

Cavalli konuya ilişkin, “Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor.” diye konuştu.

“Seçim müdahalesinde kullanılan yapay zekâ üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zekâ üretimi savaş görüntülerini belgeledik.” diyen Cavalli, bu görsellerin genellikle sahte haber siteleri, sosyal medyadaki reklamlarla yayıldığını anlattı.

Cavalli, Çin, Japonya, Tayvan’da yapay zekâ kullanımına ilişkin şirketinin incelediği vakalara atıfta bulunarak, “Tüm bu örneklerde, yapay zekâ destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır.” değerlendirmesinde bulundu.

Proaktif denetim ve işbirliği şart

Teknoloji şirketleri ve platformlara yapay zekâ tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.

Platformların ise bu konuya odaklandığı ancak çoğunun “yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı” ifade ediliyor.

Cavalli, “Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart.” dedi.

Yapay zekâyla üretilen içeriklerin “etiketlenmesinin” doğru yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:

“Yapay zekâyla oluşturulmuş içerik kendiliğinden zararlı değil, kullanım şekli ve yeri önemli. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı.”

“Görmek artık inanmak demek olmayacak”

Sensity’nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekâyla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor.

Bu analizlerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.

Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı.

İnsanların yapay zekâyla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, “Görmek artık inanmak demek olmayacak.” ifadesini kullandı. (AA)

 

Related Posts

NASA’nın yeni hayali: Ay’a nükleer reaktör kurmak!

NASA, gelecekte Ay’a yerleşme planlarını desteklemek için Ay’da bir nükleer rektör kurmayı planlıyor. Peki ama henüz Ay’a insan bile gönderemeyen NASA, bunu nasıl başaracak?

Saçımız ve tırnaklarımız, yaz aylarında gerçekten daha mı hızlı uzuyor?

Halk arasındaki genel inanış, saçımızın ve tırnaklarımızın yaz aylarında daha hızlı uzadığı yönünde. Peki ama bunun gerçeklik payı var mı?

Otomotiv devi araçlarını apar topar geri çağırdı

Hyundai, elektrikli otomobil kullanıcılarını ilgilendiren önemli bir açıklama yaptı. Şirket, 2025 model Ioniq 5 serisine ait bazı araçlarda tespit edilen teknik bir sorun nedeniyle geri çağırma süreci başlattığını duyurdu. Geri çağırma kapsamında araç sahiplerine yangın riskine karşı dikkatli olmaları yönünde uyarıda bulunuldu.

Tesla’ya bir kötü haber daha: Artık kimse güvenmiyor

Elon Musk’ın göz bebeği olan şirketi Tesla, tüketici gözünde büyük bir güven kaybı yaşıyor. Son araştırma, Tesla’ya duyulan güvenin sadece 1 ayda ne kadar düştüğünü gözler önüne seriyor.

Nevşehir’de Porsche Çarpıştı, İki Sürücü Yaralandı

Nevşehir’de meydana gelen kazada, iki Porsche marka otomobil çarpıştı. Takla atan araç kaldırımda dururken, 2 sürücü yaralandı. Olay yerine sağlık ve güvenlik ekipleri sevk edildi.

Arnavutköy’de Elektrik Direğine Çarpan Otomobilde İki Yaralı

Arnavutköy’de sürücüsünün direksiyon hakimiyetini kaybetmesi sonucu bir otomobil, refüjdeki elektrik direğine çarptı. Kazada 1’i çocuk 2 kişi yaralandı, yol bir süre trafiğe kapandı.