Ankara Haberleri - DİLARA KARATAŞ - Yapay zekayla üretilmiş fotoğraflar, taklit sesler ve deepfake videolar, savaş alanlarından seçim meydanlarına kadar dünyanın dört bir yanında bilgi manipülasyonunun ve dolandırıcılığın en etkili ve tehlikeli araçları haline geliyor.Yapay zeka tehdit tespit platformu sensity AI şirketinin araştırmalarına göre, Rusya-Ukrayna Savaşı'nda Ukraynalı siyasetçiler ve askerler, deepfake videolarla teslim olmaya çağıran ya da savaş suçu işlediğini itiraf eden kişiler gibi gösteriliyor.Tayvan'da seçim dönemlerinde, politikacıların sahte konuşmaları, uydurma skandalları ve gafa benzeyen sahneleri gibi Çin kaynaklı yapay zeka içerikleri sosyal medyada yayılarak karşıt görüşlü adaylar hedef alınıyor.Japonya'da ise yapay zekayla üretilmiş sahte doğal afet görüntüleri, nükleer kaza veya sel felaketi gibi kurgular halkta panik yaratmak için kullanılıyor.Bu tür olaylar, yapay zeka araçlarının bilinçsizce ve kontrolsüzce yeni nesil silahlar olarak kullanılması durumunda doğurabileceği tehlikeleri bir kez daha gündeme getiriyor.- Yapay zeka ürünlerini tanımak imkansız hale geldiSensity AI'nin kurucu ortağı Francesco Cavalli, yapay zekayla oluşturulan görseller, videolar ve seslerin etki ve tehlikelerine ilişkin AA muhabirine değerlendirmelerde bulundu.Cavalli, yapay zeka araçları geliştikçe neyin gerçek neyin olmadığını anlamanın daha zorlaştığını söyledi.Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor.Cavalli, Yapay zeka içerikleri, özellikle düşük çözünürlüklü veya sıkıştırılmış formatlarda insan gözüyle tespitten kaçabiliyor. Yapay zekayla oluşturulmuş sesler insan için artık tanınması imkansız hale geldi. dedi.- Yapay zekayla manipülasyonHalihazırda yapay zekayla taklit edilen seslerin bu alandaki en yüksek riski oluşturduğu belirtiliyor.Yapay zeka kullanarak Dışişleri Bakanı Marco Rubio'yu taklit eden bir dolandırıcı, ABD'li siyasiler tarafından sıkça kullanılan Signal isimli mesajlaşma uygulamasında Rubio adına sahte bir hesap oluşturarak üç farklı ülkenin dışişleri bakanları, bir Kongre üyesi ve bir vali ile temas kurdu.Seslerin kullanımın kolay ve tespitinin de gecikmeli olduğunu dile getiren Cavalli, taklit seslerin telefonda konuşulan kişinin güvenilen biri olduğuna inandırmak için kullanıldığını ifade etti.Midjourney ve Runway gibi araçlar geliştikçe gerçekle yapayı tutarlı şekilde ayırt etmekte zorlaşıyor.Cavalli konuya ilişkin, Üretici araçlar geliştikçe, eğitimli gözler bile kolayca kandırılabiliyor. diye konuştu.Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş görüntülerini belgeledik. diyen Cavalli, bu görsellerin genellikle sahte haber siteleri, sosyal medyadaki reklamlarla yayıldığını anlattı.Cavalli, Çin, Japonya, Tayvan'da yapay zeka kullanımına ilişkin şirketinin incelediği vakalara atıfta bulunarak, Tüm bu örneklerde, yapay zeka destekli propaganda sadece deneysel bir tehdit değil, algıyı manipüle etmek, toplumları istikrarsızlaştırmak ve yumuşak güç uygulamak için çeşitli çatışmalarda aktif olarak kullanılan küresel bir silahtır. değerlendirmesinde bulundu.- Proaktif denetim ve işbirliği şartTeknoloji şirketleri ve platformlara yapay zeka tabanlı görsel dezenformasyonla mücadele konusunda harekete geçmeleri yönünde çağrılar yapılıyor.Platformların ise bu konuya odaklandığı ancak çoğunun yapay medyayı geniş ölçekte tespit edebilecek sağlam adli inceleme sistemlerine sahip olmadığı ifade ediliyor.Cavalli, Bazıları dolandırıcılık kampanyalarından bilinçli şekilde kar ediyor. Ancak dış baskı olunca müdahale ediyor. Tespit teknolojisi sağlayıcılar, platformlar ve düzenleyiciler arasında daha güçlü işbirliği şart. dedi.Yapay zekayla üretilen içeriklerin etiketlenmesinin doğru yol olmadığını düşündüğünü aktaran Cavalli, şunları söyledi:Yapay zekayla oluşturulmuş içerik kendiliğinden zararlı değil, kullanım şekli ve yeri önemli. Örneğin, sosyal medya platformlarının, deepfake dolandırıcılık reklamları için ağlarını denetimsiz kullandırmasına ağır yaptırımlar uygulanmalı. Kullanıcı şikayetlerine dayanmak yerine, proaktif önlemler almaları zorunlu olmalı.- Görmek artık inanmak demek olmayacakSensity'nin geliştirdiği sistemler yüz manipülasyonun belirlenmesi, tamamen yapay zekayla üretilmiş görsellerin tespiti, taklit ses analizi ve adli incelemeyi kapsayan dört aşamalı bir analiz sürecinden geçiyor.Bu analizlerin raporları ise resmi soruşturmalarda ve mahkemelerde kullanılabiliyor.Cavalli, görsel medyaya olan güvenin gittikçe azaldığına işaret ederek bu konuda farkındalığın artması gerektiğini vurguladı.İnsanların yapay zekayla üretilen görsel ve seslerin risklerine karşı eğitilmesi, şirketlerin, gazetecilerin ve araştırmacıların adli araçlarla donatılması gerektiğinin altını çizen Cavalli, Görmek artık inanmak demek olmayacak. ifadesini kullandı.
Yerel Haberler
Yayınlanma: 18 Ağustos 2025 - 11:08
Yapay zekayla oluşturulan sahte görseller ve sesler yeni nesil silah niteliği taşıyor
Ankara - Yapay zekayla üretilen içerikleri anlamak için yüzde tutarsız ışıklandırma, aşırı pürüzsüz cilt dokusu, videolarda yapay göz kırpma ya da ağız hareketlerine bakılması tavsiye ediliyor - Yapay zeka tehdit tespit platformu Sensity AI kurucu ortağı Francesco Cavalli: - Seçim müdahalesinde kullanılan yapay zeka üretimi medya, dolandırıcılık platformlarını tanıtan sahte basın toplantıları yapan politikacılar ve kamuoyunu manipüle etmek için paylaşılan yapay zeka üretimi savaş görüntülerini belgeledik
Yerel Haberler
18 Ağustos 2025 - 11:08

# Çin# deepfake# dolandırıcı# fotoğraf# Görüntü# Japonya# medya# savaş# SEÇİM# sensity AI# silah# taklit ses# Tayvan# yapay zeka
EDİTÖR

Anadolu Ajansı haberleri, son dakika gelişmeleri. Bu haber Anadolu Ajansı tarafından servis edilmiştir. Anadolu Ajansı tarafından geçilen tüm...
İlginizi Çekebilir