Illinois Urbana-Champaign Üniversitesi'nden bilgisayar bilimleri doçenti Daniel Kang ve ekibinin yaptığı çalışma, GPT-4'ün aslında ne kadar kolay özelleştirilebileceğini ve bu sayede zararlı yanıtlar üretebildiğini gözler önüne serdi.Geliştirme aracını kullanan ekip, önce potansiyel olarak zararlı 340 ipucu belirledi ve başka bir yapay zeka uygulamasıyla bu ipuçlarına yanıtlar oluşturdu. Ardından GPT-4'e bu yanıtları öğrenmesi için eğitim verdiler. Test aşamasında, GPT-4'ün orijinal versiyonu zararlı istemlere yanıt vermede %93 oranında reddederken, ekip tarafından yapılan ayarlamalar sonucunda bu oran %95'e çıktı.Bu ince ayarlar, kötü niyetli kişilerin bomba yapımı gibi tehlikeli konularda yanıtlar alabilmesine olanak tanıyabilir. Araştırmanın başındaki Kang, bu yöntemin güvenlik önlemlerini aşabildiğini ve bunun için sadece 245 dolarlık bir bütçe gerektiğini belirtti.OpenAI, bu durumu fark edip güvenlik sınırlamalarını artırdı ancak Kang, ince ayarın hala etkili olduğunu dile getirdi. Uzmanlar ise bu tür araçların hem performans artışı sağlama potansiyeli taşıdığını hem de güvenlik riski oluşturabileceğini vurguluyor. Konuyla ilgili olarak OpenAI'dan henüz resmi bir açıklama gelmedi.
Yapay Zeka
Yayınlanma: 06 Aralık 2023 - 21:21
Güncelleme: 07 Aralık 2023 - 19:21
Sadece 245 dolara OpenAI'ın GPT-4 hacklendi
OpenAI’ın en yeni yapay zeka modeli GPT-4, sınırları aşmak için sadece 245 dolarlık bir bütçeyle hacklendi.
Yapay Zeka
06 Aralık 2023 - 21:21
Güncelleme: 07 Aralık 2023 - 19:21