Dünya nüfusunun yaklaşık dörtte biri 2024 yılında sandık başına gidecek. Dezenformasyon ve yapay zeka dayanaklı hilelerin seçim sonuçlarını etkilemek için kullanılabileceğine dair kaygılar artıyor. Uzmanlar deepfake örneklerinin yaygınlaşmasının sonuçlarından çekiniyor. Dijital güvenlik şirketi ESET deepfake konusunu masaya yatırdı, bunun kitlesel bir aldatma silahı olup olmadığını inceledi.
Yaklaşık iki milyar seçmen bu yıl tercih ettikleri temsilcilerine ve siyasi önderlerine oy vermek üzere seçim merkezlerine gidecek. Ortalarında ABD, İngiltere ve Hindistan’ın da bulunduğu çok sayıda ülkede (Avrupa Parlamentosu için de) kıymetli seçimler yapılacağından, bu durum önümüzdeki birkaç yıl ve sonrasında jeopolitiğin siyasi görünümünü ve istikametini değiştirme potansiyeline sahip. Gerçek insanların geçersiz manzaraları, ses ve görüntü klipleri yaygınlaştıkça yapay zeka dayanaklı bir dezenformasyon ihtimali giderek artan bir telaşa neden oluyor.
Sahte haberler, 2016’da Beyaz Saray yarışı sırasında büyük bir kıssa haline geldiğinden beri seçim ile ilgili manşetlere hakim oldu. Bundan sekiz yıl sonra, tartışmasız daha büyük bir tehdit var; uzmanları bile kandırabilecek dezenformasyon ve derin sahteciliklerin bir kombinasyonu. Arjantin’deki seçimler öncesinde sirkülasyona sokulan bir dizi fotoğraf ve görüntü ile ABD Lideri Joe Biden’ın üzerinde oynanmış bir ses kaydı da dahil olmak üzere, yapay zeka tarafından üretilen seçim temalı içeriğin son örneklerinin, daha büyük ölçekte olabileceklerin habercisi olma ihtimali yüksek.
Dünya Ekonomik Forumu riske dikkat çekti
Yanlış bilgilendirme ve dezenformasyon Dünya Ekonomik Forumu (WEF) tarafından önümüzdeki devrin en kıymetli global riski olarak belirlendi. Deepfake’lerle ilgili sorun, yapay zeka takviyeli teknolojinin artık ucuz, erişilebilir ve büyük ölçekte ziyan verebilecek kadar güçlü hale gelmesi olarak tanımlanıyor. Bu da siber hatalıların, makûs niyetli siyasi aktörlerin ve hacktivistlerin ikna edici dezenformasyon kampanyaları ve daha süreksiz, tek seferlik dolandırıcılıklar başlatma hünerlerini artırıyor.
WEF’in raporuna nazaran sentetik içerik önümüzdeki iki yıl içinde bireyleri manipüle edecek, ekonomilere ziyan verecek ve toplumları çeşitli formlarda parçalayacak. ChatGPT ve çarçabuk erişilebilen üretken yapay zeka (GenAI) üzere araçların, daha geniş bir yelpazedeki bireylerin deepfake teknolojisi tarafından yönlendirilen dezenformasyon kampanyalarının oluşturulmasına katılmasını mümkün kılması değerli bir zorluğu oluşturuyor.
Bir seçim sürecinde deepfake, seçmenlerin belli bir adaya olan itimadını sarsmak için kullanılabilir. Şayet bir siyasi parti ya da adayın destekçileri düzmece ses ya da görüntülerle uygun bir formda yönlendirilebilirse, bu rakip kümeler için bir yarar olacaktır. Bu zorluğun temelinde kolay bir gerçek yatıyor: Beşerler bilgiyi işlerken niceliğe ve kolay anlaşılırlığa bedel verme eğilimindedir. Emsal bir ileti içeren ne kadar çok içerik görürsek ve bunları anlamak ne kadar kolay olursa, bunlara inanma bahtımız da o kadar yüksek olur. Buna bir de deepfake’lerin gerçek içerikten ayırt edilmesinin giderek zorlaştığı gerçeğini eklediğinizde, elinizde potansiyel bir demokratik felaket reçetesi var demektir.
Teknoloji firmaları bu hususta ne yapıyor?
Hem YouTube hem de Facebook’un, yakın vakitte yapılan bir seçimi etkilemeyi amaçlayan birtakım deepfake’lere cevap vermekte yavaş davrandığı söyleniyor. Bu durum, toplumsal medya şirketlerinin seçim manipülasyonu teşebbüslerini engellemelerini gerektiren yeni bir AB maddesine (Dijital Hizmetler Yasası) karşın gerçekleşti.
OpenAI ise DALL-E 3 tarafından üretilen imgeler için Coalition for Content Provenance and Authenticity’nin (C2PA) dijital kimlik bilgilerini uygulayacağını açıkladı. Meta ve Google tarafından da denenen kriptografik filigran teknolojisi, düzmece manzara üretmeyi zorlaştırmak için tasarlandı. Lakin bunlar hala bebek adımları ve seçim ateşi tüm dünyayı sararken tehdide karşı teknolojik müdahalenin çok az ve çok geç olacağına dair haklı telaşlar var. Bilhassa de WhatsApp kümeleri ya da robocall’lar üzere nispeten kapalı ağlarda yayıldığında, geçersiz ses ya da görüntüleri süratli bir biçimde takip etmek ve çürütmek sıkıntı olacaktır.
Kaynak: (BYZHA) Beyaz Haber Ajansı
EĞİTİM
11 Aralık 2024SPOR
11 Aralık 2024SAĞLIK
11 Aralık 2024TEKNOLOJİ
11 Aralık 2024EĞİTİM
11 Aralık 2024EKONOMİ
11 Aralık 2024SPOR
11 Aralık 2024Veri politikasındaki amaçlarla sınırlı ve mevzuata uygun şekilde çerez konumlandırmaktayız. Detaylar için veri politikamızı inceleyebilirsiniz.