Yapay zeka ile üretilen içeriklerin giderek yaygınlaşması, bir kadro güvenlik ihlallerinin ortaya çıkmasına neden oldu. Örneğin yapay zeka ile oluşturulmuş bir ses taklidinin karşı tarafı güç duruma düşürebilme ihtimali çok yüksek görünüyor.
Tam da bu noktada Google, OpenAI ve Meta üzere yapay zeka ile ilgili çalışmalar yürüten şirketler bununla ilgili yeni bir karar aldı.
YAPAY ZEKA İLE ÜRETİLEN İÇERİKLERE FİLİGRAN EKLENECEK
Biden idaresi, OpenAI, Alphabet ve Meta dahil olmak üzere önde gelen yapay zeka şirketlerinin, teknolojiyi daha inançlı hale getirmeye yardımcı olmak için yapay zeka tarafından üretilen içeriğin filigranlanması üzere tedbirleri uygulamak üzere Beyaz Saray’a istekli taahhütlerde bulunduğunu söyledi.
Aralarında Anthropic, Inflection, Amazon ve OpenAI ortağı Microsoft’un da bulunduğu şirketler, sistemleri piyasaya sürmeden evvel kapsamlı bir formda test etme ve riskleri nasıl azaltacakları ve siber güvenliğe nasıl yatırım yapacakları konusunda bilgi paylaşma kelamı verdi.
Bu atak, Biden idaresinin yatırım ve tüketici popülaritesinde bir patlama yaşayan teknolojiyi düzenleme eforu için bir çıkar olarak görülüyor.
HÜKÜMETLER ULUSAL GÜVENLİK SORUNU OLARAK GÖRÜYOR
ChatGPT’nin insan sesi çıkaran düzyazısı üzere yeni içerikler oluşturmak için bilgileri kullanan üretken yapay zeka bu yıl çılgınca tanınan hale geldiğinden, dünyanın dört bir yanındaki yasa koyucular, ortaya çıkan teknolojinin ulusal güvenlik ve iktisat için tehlikelerini nasıl azaltacaklarını düşünmeye başladılar.
Reuters’in aktardığı bilgilere nazaran, ABD Senatosu Çoğunluk Lideri Chuck Schumer Haziran ayında yapay zekanın geliştirilmesi ve garanti altına alınması için “kapsamlı mevzuat” davetinde bulundu.
Kongre, siyasi reklamların imaj yahut öbür içerikleri oluşturmak için yapay zeka kullanılıp kullanılmadığını açıklamasını mecburî kılacak bir yasa tasarısını pahalandırıyor.
TEKNOLOJİ ŞİRKETLERİ YENİ BİR SİSTEM ÜZERİNDE ÇALIŞACAKLAR
Yedi şirketin yöneticilerini Cuma günü Beyaz Saray’da ağırlayacak olan Lider Joe Biden, yapay zeka teknolojisine ait bir idari buyruk ve iki partili mevzuat geliştirmek için de çalışıyor.
Çabanın bir modülü olarak, yedi şirket, kullanıcıların teknolojinin ne vakit kullanıldığını bilmeleri için metin, manzara, ses ve yapay zeka tarafından üretilen görüntülere kadar her türlü içeriği “filigranlamak” için bir sistem geliştirmeyi taahhüt etti.
FLİGRANLAR YZ ESERLERİNİ TESPİT ETMEKTE KOLAYLIK SAĞLAYACAK
İçeriğe teknik bir halde yerleştirilen bu filigran, muhtemelen kullanıcıların, örneğin gerçekleşmemiş bir şiddeti gösteren, daha güzel bir dolandırıcılık oluşturan yahut bir siyasetçinin fotoğrafını çarpıtarak kişiyi makûs bir duruma düşüren derin uydurma imgeleri yahut sesleri tespit etmesini kolaylaştıracaktır. Filigranın bilgi paylaşımında nasıl bariz olacağı bilinmiyor.
Şirketler ayrıyeten yapay zeka geliştikçe kullanıcıların kapalılığını muhafazaya ve teknolojinin önyargısız olmasını ve savunmasız kümelere karşı ayrımcılık yapmak için kullanılmamasını sağlamaya odaklanma kelamı verdi.
Diğer taahhütler ortasında tıbbi araştırma ve iklim değişikliğini hafifletme üzere bilimsel meselelere yapay zeka tahlilleri geliştirmek de yer alıyor.