Sahil Park
Doğa Veteriner Kliniği
SON DAKİKA
20:39 Kontrolden çıkan otomobil önce motosiklete ardından park halindeki araçlara...20:36 Kütahya İl Müftülüğünden açıklama: "Almanya’daki görevlimizin salimen bulun...20:28 Polis adım adım takibe aldı, DEAŞ’ın Afganistan kolu Horasan grubuna katılm...20:27 Bartın’da uyuşturucu operasyonu: 1 gözaltı20:23 Körfezin İncileri derbiye hazır20:09 A Milli Takım’da Galler mesaisi sürüyor20:08 Ankara’da kafede alacak verecek kavgası kanlı bitti: 1 yaralı20:08 Kütahya Şehir Hastanesi’nde diyabet tarama standı20:06 Kütahya 30 Ağustos OSB Yönetim Kurulu Toplantısı gerçekleştirildi20:06 Kütahya Belediyesi’nden şehit aileleri ve gaziler için anlamlı iş birliği19:52 Ergan Dağı Kayak Merkezinde hedef 12 ay boyunca misafir ağırlamak19:51 Aldattığını iddia ettiği eşini kemerle boğarak öldüren şahıs tutuklandı19:42 Belediye Başkanı ve yardımcılarının adlarını kullanarak vatandaşları doland...19:38 Yunanistan’ın hava savunma sistemi geliştirmek için İsrail’le görüştüğü idd...19:37 Mardin’de 5 Iraklının öldürülmesi davasında 2 sanığa 5’er kez ağırlaştırılm...19:32 Cumhurbaşkanı Erdoğan, MHP Genel Başkanı Bahçeli ile görüştü19:31 Kütahya’da ’Türkiye-Macaristan Kültür Yılı’ kapsamında sergi ve sempozyum d...19:28 Kazada ağır yaralanan motosiklet sürücüsü 12 günlük yaşam mücadelesini kayb...19:25 Muş’ta hafif ticari araç ile kamyon çarpıştı: 3 yaralı18:53 Cizre’de 4 tırın karıştığı kazada 1 kişi yaralandı
Teknoloji 13 Kasım 2024 - 10:21 Yorum: 0

Adli Bilişim Uzmanı Tuncer: ’’Deepfake ile ünlülerin veya sıradan insanların yapmadıklarını ve söylemediklerini yaptırmak mümkün’’

Fırat Üniversitesi Teknoloji Fakültesi Adli Bilişim Uzmanı Doç. Dr. Türker Tuncer, son dönemlerde artan yapay zeka dolandırıcılığına ilişkin, ’’Kişisel güvenlik tehditlerinde ünlülerin ya da sıradan bireylerin yapmadıklarını yapabilen ve ür...

Adli Bilişim Uzmanı Tuncer: ’’Deepfake ile ünlülerin veya sıradan insanların yapmadıklarını ve söylemediklerini yaptırmak mümkün’’

Fırat Üniversitesi Teknoloji Fakültesi Adli Bilişim Uzmanı Doç. Dr. Türker Tuncer, son dönemlerde artan yapay zeka dolandırıcılığına ilişkin, ’’Kişisel güvenlik tehditlerinde ünlülerin ya da sıradan bireylerin yapmadıklarını yapabilen ve üretebilen yapay zeka teknolojilerinden bahsetmekteyiz. Bu teknolojileri 15-20 dolar karşılığında üretebilen modeller mevcuttur. Bu modelleri kullanarak kişilerin itibarlarını zedeleyecek sistemler geliştirilmektedir’’ dedi.
Fırat Üniversitesi Teknoloji Fakültesi Adli Bilişim Uzmanı Doç. Dr. Türker Tuncer, yapay zeka dolandırıcılığı hakkında açıklamalarda bulundu. Yapay zekanın getirdiği faydaların yanı sıra zararlarının da olduğunu aktaran Tuncer, yapay zeka dolandırıcılığına karşı vatandaşların bilinçlendirilmesi ve cezaların caydırıcı olmasıyla birlikte bu dolandırıcılık olaylarının önüne geçilebileceğini söyledi. Son yıllarda yapay zeka teknolojilerinin hızla ilerlemekte olduğunu belirten Doç. Dr. Tuncer, “Bu teknolojiler günlük hayatımızda birçok alanda kullanılmaktadır. Bu teknolojilerin kullanıldığı alanlar ise sosyal medyadan tutun da günlük işlerimizi kolaylaştıracak birçok işte de biz yapay zekadan faydalanmaktayız. Özellikle LLM’lerin ortaya çıkması ile birlikte yapay zekanın birçok faydasını görmekteyiz. Ancak LLM teknolojilerinde ve diğer yapay zeka tekniklerinde var olan üretme yetenekleri ile birlikte Deepfake adı verilen bir saldırı da karşımıza çıkmaktadır. Deepfake saldırıları söylenmeyeni söyleyen, yazılmayanı yazan ve hiç olmayan sahneleri oluşturan bir teknoloji anlamına gelmektedir. Bu durum güvenliğimizi üç başlıkta tehdit etmektedir. Bunlar; kişisel güvenlik tehditleri, kurumsal güvenlik tehditleri ve ulusal güvenlik tehditleri olarak sıralanmaktadır. Kişisel güvenlik tehditlerinde ünlülerin ya da sıradan bireylerin yapmadıklarını yapabilen ve üretebilen yapay zeka teknolojilerinden bahsetmekteyiz. Bu teknolojileri 15-20 dolar karşılığında üretebilen modeller mevcuttur. Bu modelleri kullanarak kişilerin itibarlarını zedeleyecek sistemler geliştirilmektedir. Ayrıca 2022’de Çin’de gerçekleşen bir olayda 622 bin dolarlık bir dolandırıcılık Deepfake kullanılarak meydana gelmiştir. Kurumsal güvenlik tehditlerine geldiğimiz zaman ise kurumsal güvenlik tehditleri açısından Deepfake yöntemleri daha zararlı olarak görülmektedir. 2023 raporlarına göre tüm kurumların yaklaşık yüzde 40’ı Deepfake ataklarına maruz kalmıştır. Ulusal güvenlik tehditlerinde ise özellikle seçim zamanlarında yapılan Deepfake atakları dikkat çekmektedir. Özellikle ABD seçimlerinde yer alan Cambridge Analytica veri skandalı, Deepfake ataklarından en çok bilinenlerinin başında gelmektedir. Şimdi alınacak yöntemlerde ise farkındalık eğitimini güçlendirmeliyiz. Güçlü kimlik doğrulama yöntemleri kullanmalıyız, toplumu bilinçlendirmeliyiz ve yasal düzenlemeler yapmalıyız. TCK’da bununla ilgili bir yasal düzenleme yapılırsa daha da caydırıcı olacağını düşünmekteyiz’’ diye konuştu.

’’Yapay zekanın getirdiği faydaların yanı sıra zararları da mevcuttur’’
Türkiye’de bu işi yapabilmek için artık adli bilişim mühendisliği olduğunun altını çizen Tuncer, ’’Adli bilişim mühendisleri Fırat Üniversitesinde ilk ve tek olarak yetiştirilmektedir. Özellikle verdiğimiz yapay zeka ve siber güvenlik eğitimleriyle birlikte biz adli bilişim mühendislerini Deepfake’e karşı daha da donanımlı yetiştirmeye çalışıyoruz. Deepfake ataklarından korunmak için her kurumun adli bilişim mühendislerini bünyelerinde barındırmaları gerekir. Biz bu süreçte adli bilişim mühendislerini Deepfake’e karşı beyaz şapkalı hackerler olarak yetiştirerek, Deepfake problemleri ve saldırılarını çözmeye çalışmaktayız. Yapay zekanın getirdiği faydaların yanı sıra zararları da mevcuttur. Yapay zekanın üretim teknolojisinde kullanılan modeller var. Siz bir soru sorduğunuz zaman modeller size hem metin hem de resim üretebilmektedir. Video üreten yapay zeka teknolojileri de var. Video yapay zeka teknikleri 15 saniye ile 1 dakika arasında videolar üretebilmektedir. Deepfake tehdidinde bir video 15 saniyeden daha kısaysa Deepfake ile üretilmiş olma olasılığından şüpheleniyoruz. Bunun yanı sıra biz bununla baş edebilecek yapay zeka yöntemleri de geliştiriyoruz. Fizik kurallarına aykırı bir şekilde bu yapay zeka modelleri videolar ve resimler üretebiliyorlar. Bu üretilen resimlerle biz ne yapıyoruz; eğer fizik kurallarına aykırıysa bunu çeşitli yapay zeka çeşitleriyle tespit edebiliyoruz. Ayrıca kurumların da kullanması gereken yöntemler var. Bu yöntemlerden bir tanesi filigran yöntemleridir. Eğer bir kurum kendi videosunu yayınlamak istiyorsa görünür veya görünmez damgalama yöntemleri kullanabilir. Bu damgalama yöntemleri genelde şifreli yayınlarda kullanılıyor. Bunu kurumlara da yaygınlaştırmamız gerekiyor’’ diye konuştu.

Adli Bilişim Uzmanı Tuncer: ’’Deepfake ile ünlülerin veya sıradan insanların yapmadıklarını ve söylemediklerini yaptırmak mümkün’’Adli Bilişim Uzmanı Tuncer: ’’Deepfake ile ünlülerin veya sıradan insanların yapmadıklarını ve söylemediklerini yaptırmak mümkün’’
Haber Kaynağı: İhlas Haber Ajansı
İHA İhlas Haber Ajansı tarafından geçilen tüm Haberler, bu bölümde Malatya Güncel Haber editörlerinin hiçbir editoryal müdahalesi olmadan otomatik olarak ajans kanallarından geldiği şekliyle yer almaktadır. Girilen Haberler alanında yer alan haberlerin hepsinin hukuki muhatabı haberi geçen ajanslardır.
HABERE YORUM KAT
UYARI! Suç teşkil edecek, yasadışı, tehditkar, rahatsız edici, hakaret ve küfür içeren, aşağılayıcı, küçük düşürücü, kaba, ahlaka aykırı, kişilik haklarına zarar verici ya da benzeri niteliklerde içeriklerden doğan her türlü mali, hukuki, cezai, idari sorumluluk içeriği gönderilen, yorumlar/yorumcuya aittir.
Hiç bir şekilde Malatyaguncel.com sorumlu değildir.
İHA tarafından geçilen tüm haberler, bu bölümde malatyaguncel.com editörlerinin hiçbir editoryal müdahalesi olmadan otomatik olarak ajans kanallarından geldiği şekliyle yer almaktadır. Bu alanda yer alan haberlerin hepsinin hukuki muhatabı haberi geçen İHA ajansıdır.
Malatya Haber
Malatya Haber
Malatya Haber
Malatya Güncel Haber
casino siteleri