
ANKARA-BHA
Bir grup akademisyenin yürüttüğü araştırmada, yapay zeka destekli sohbet robotlarının güvenlik sınırlarının “jailbreak” yöntemiyle aşılabildiği ve bu sayede etik dışı, yasa dışı içerikler üretebildiği belirlendi.
Çalışmada, ChatGPT, Gemini ve Claude gibi büyük dil modellerinin geniş veri setleriyle eğitildiği, eğitim sürecinde zararlı içeriklerin ayıklanmasının hedeflendiği ancak bu sistemlerin hâlâ siber suç, uyuşturucu üretimi, bomba yapımı ve kara para aklama gibi konularda bilgilere sahip olduğu belirtildi.
Araştırmacılar, geliştirdikleri evrensel bir jailbreak yöntemi ile birçok yapay zeka sohbet robotunun güvenlik sistemlerini aşıp, normalde reddetmesi gereken yasa dışı içerik taleplerine yanıt verdiğini gözlemledi.
Araştırmacılardan biri, “Bu sistemlerin içinde nelerin yer aldığına tanık olmak oldukça sarsıcıydı,” diyerek, çeşitli suçların gerçekleştirilmesine dair bilgilerin yapay zeka tarafından üretilebildiğine dikkat çekti.
Bir başka araştırmacı ise, “Daha önce sadece devlet ya da organize suç gruplarının erişebileceği bilgilerin, artık bir dizüstü bilgisayar veya cep telefonu olan herkesin eline geçebilir,” ifadelerini kullandı.
Araştırmada, bu sistemlerin “karanlık yapay zeka modelleri” olarak vilandiği ve etik kurallara bağlı kalmadan açık internet ortamında yasa dışı faaliyetler için kullanılabildiği vurgulandı.
Uzmanlar, teknoloji şirketlerine yapay zeka modellerinin eğitiminde kullanılan verilerin dikkatli seçilmesi, zararlı içerikleri filtreleyecek daha güçlü güvenlik önlemlerinin geliştirilmesi ve yasa dışı bilgilerin sistemlerden tamamen silinmesini sağlayacak tekniklerin hayata geçirilmesi gerektiği konusunda uyarıda bulundu.
Yapay zeka güvenliği uzmanlarından biri, jailbreak saldırılarının silah üretimi, sosyal mühendislik ve dolandırıcılık gibi alanlarda ciddi riskler taşıdığına dikkat çekerek, “Şirketlerin yalnızca ön yüz güvenliğine değil, sistemsel güvenliğe de yatırım yapması şart,” dedi.
Bir üniversiteden akademisyen ise büyük dil modellerinin diğer yazılımlar gibi düzenli olarak güvenlik testlerinden geçirilmesi gerektiğini vurguladı. Ayrıca, “Gerçek güvenlik, yalnızca sorumluluk sahibi kullanım değil, sorumluluk sahibi tasarım ve uygulamayla sağlanabilir,” ifadelerini kullandı.
OpenAI, ChatGPT’nin en güncel modelinin güvenlik politikalarına karşı daha dayanıklı olduğunu belirtirken, bir teknoloji firması jailbreak girişimlerine karşı yürüttüğü çalışmalar hakkında bilgilendirme yaptı. Diğer büyük teknoloji firmalarının ise henüz konuyla ilgili bir açıklama yapmadığı gözlemlendi.
















