2023'ün en konuşulan teknolojilerinden biri yapay zeka destekli sohbet botlarıydı, özellikle de ChatGPT ve Google Bard gibi hizmetler. Ancak, bu botların güvenilirliği konusundaki endişeler, son araştırmalarla daha da belirgin hale geldi.Singapur'daki Nanyang Teknoloji Üniversitesi'nde çalışan bir grup araştırmacı, ChatGPT ve Google Bard gibi botları "jailbreak" edebilen bir yapay zeka geliştirdi. Yapılan çalışma, bu popüler botların istismara açık olduğunu ve hatta yasa dışı içerikler üretebileceklerini ortaya koydu.Araştırmacılar, Google Bard ve ChatGPT üzerinde tersine mühendislik yaparak yapay zekâ dil modellerinin yasa dışı konulara karşı nasıl tepki verdiklerini anlamaya çalıştılar. Bu süreçte normal bir kullanıcının ulaşamayacağı çıktıları elde etmeyi başardılar.Bu çalışma, GPT modelinin Bing'de test edilmesiyle gerçekleştirildi ve elde edilen sonuçlar, bir internet sitesinin nasıl hack'lenebileceği konusunda detaylı bilgiler içeriyordu. Üniversite tarafından yapılan açıklamada, sohbet botlarının kötüye kullanımının mümkün olduğu vurgulandı.Araştırmacıların amacı zararlı bir yapay zeka üretmek değil, bu botların gerçekten güvenli olup olmadığını test etmekti. Elde edilen bulgular, yeni teknolojilerin güvenlik açısından tam olarak sağlam olmadığını gösterdi.
Bilim ve Yaşam
Yayınlanma: 30 Aralık 2023 - 14:16
Güncelleme: 31 Aralık 2023 - 14:33
Sohbet botlarında güvenlik açığı: Son araştırma ortaya çıkardı
Son zamanlarda yapay zeka destekli sohbet botları üzerinde yapılan araştırmalar, ChatGPT ve Google Bard gibi popüler botların bile güvenlik açıklarına sahip olabileceğini gösterdi.
Bilim ve Yaşam
30 Aralık 2023 - 14:16
Güncelleme: 31 Aralık 2023 - 14:33
İlginizi Çekebilir