ChatGPT’ye “aptalca saldırı”: eğitim verilerinin yayınlanması artık yasak

hadicanim

Aktif Üye
Bir araştırma ekibi basit bir hile kullanarak ChatGPT 3.5 metin oluşturucusundan eğitim verilerini almayı başardıktan sonra OpenAI artık bu prosedürü yasakladı. 404 Media’nın haberine göre artık yapay zeka sisteminden bir terimi “sonsuza kadar” tekrarlamasını isterseniz, bunun içerik kurallarını ve kullanım koşullarını ihlal ettiğini belirten bir bildirim görünecektir. ABD dergisi geçen hafta saldırı yöntemini yayımladı. Saldırı yöntemini “aptalca” olarak nitelendiren Google’ın Deepmind araştırmacıları tarafından keşfedildiler. OpenAI’nin hamlesi, yaklaşımın kendisinin hala ümit verici olacağını ve bunun yalnızca dolambaçlı bir yoldan engellenmesi gerektiğini gösteriyor.

Reklamcılık



Aradaki fark yamayla bile kapatılamadı


Araştırma ekibi geçen hafta kesin prosedürü kamuoyuna açıkladı. Çevrimiçi olarak yayınlanan bir açıklamada, metin oluşturucunun ChatGPT’nin eğitim verileri çıkarmasına neden olduğu açıklanıyor. Buna gerçek e-posta adresleri, telefon numaraları, araştırma makalesi parçacıkları, Wikipedia içeriği ve daha fazlası dahildir. Gereken tek şey yapay zekadan “sonsuza kadar” terimini tekrarlamasını istemekti. ChatGPT şimdilik buna uydu. Ancak görünüşe göre bir sınıra ulaşıldığında, sohbet robotu eğitim verilerini dağıttı. Aslında teknoloji açıkça bu materyalin çıktısını almamak üzere programlanmıştı.

Araştırma ekibinin kendisi, “aptalca” talebe yanıt olarak eğitim verilerinin çıktısının ChatGPT’nin yamalanmasıyla düzeltilebileceğini söyledi. Ancak bunun altta yatan güvenlik açığını çözmeyeceği konusunda uyardılar. Ancak OpenAI o kadar ileri gitmedi; sadece sonsuz tekrarlama talebini kural ihlali olarak gördü ve bunu engellemeye çalıştı. Şu anda görünen notun aksine, ne “Kullanım Politikaları”nda ne de “Hizmet Şartları”nda talebin sonsuza kadar tekrarlanmasını yasaklayan herhangi bir paragraf bulunmamaktadır.


(mho)



Haberin Sonu