Saldırganlar, şifrelemeye rağmen ve yapay zekanın yardımıyla yapay zeka yanıtlarını gizlice dinliyor

hadicanim

Aktif Üye
Seyahat noktalarından tıbbi bulguların olası etkilerine kadar her geçen gün daha fazla kullanıcı, kişisel ve bazen son derece hassas şeyleri araştırmak için yapay zekaları kullanıyor. Aktarımın güvenli olduğuna ve Hinz&Kunz'un o anda aklınızdan geçenleri okuyamayacağına güveniyorsunuz. Ben-Gurion Üniversitesi'ndeki araştırmacılar artık bu güvenliğin çoğu durumda garanti edilmediğini gösterdi. Çünkü ChatGPT'den ve diğer GPT'lerden gelen yanıtları, şifrelenmiş iletilen verilerden şaşırtıcı derecede yüksek düzeyde güvenilirlikle yeniden oluşturabildiler.

Reklamcılık



Elbette ChatGPT & Co ile yapılan görüşmelerin İnternet üzerinden aktarımı Aktarım Katmanı Güvenliği (TLS) ile güvence altına alınmıştır; Bu nedenle kulak misafiri yalnızca şifrelenmiş veri çöplerini görür. Ve tabii ki araştırmacılar da altta yatan şifrelemeyi kıramadılar. Bunun yerine, konuşmanın neyle ilgili olduğunu tahmin etmek için AI sohbet tuhaflıklarından yararlandılar. Ve hiç de şaşırtıcı değil, özellikle bu amaca göre tasarlanmış yapay zeka onlara yardımcı oldu.

Anlatılan kelime uzunlukları


Temel sorun, dil yapay zekalarının kelime kelime çalışması ve cevaplarının aslında tek tek kelimelerle iletilmesidir (kesin olarak konuşursak, jetonlar en küçük birimdir, ancak bu ayrım burada geçerli değildir). Ve kullanılan şifreleme (akış şifresi olarak da bilinir) her zaman bir karakteri tam olarak bir başkasıyla değiştirir. Başka bir deyişle: Bir dinleyici, içerik hakkında hiçbir fikri olmasa bile, ele geçirilen veri paketlerinin boyutundan kelimelerin uzunluğunu belirleyebilir. Bu tipik bir yan kanaldır; yani korunan konuşma içeriği hakkında yan etkiler yoluyla bilgi akışı.







Kelime uzunlukları, ChatGPT'nin yanıtlarının büyük bölümünü yapay zeka desteğiyle yeniden yapılandırmaya yetecek kadar bilgi veriyor.


(Resim: Roy Weiss ve diğerleri)



Bir metni yeniden oluşturmak için bu yeterli değildir. Ancak yapay zekaların tepkilerinin tipik modeller gösterdiği biliniyor. Araştırmacılar kendi yapay zekalarını sohbet davranışındaki tam olarak bu özelliklerle beslediler ve ardından bunları paket uzunluklarından konuşma içeriğini yeniden oluşturmak için kullandılar. Ve deneylerde bu, vakaların şaşırtıcı bir şekilde yüzde 29'unda ve en azından uygun şekilde dinlenen tüm cevapların yaklaşık yüzde 55'inde tam olarak başarıldı. Yaklaşık olarak aynı uzunluktaki kelimeler yanlıştı; Ancak yine de en azından konuşmanın konusunu belirlemek mümkündü.

Bu arada, bu saldırı yalnızca yapay zekanın yanıtlarıyla işe yarıyor; Kullanıcının soruları tek seferde gönderilir ve bu nedenle tek tek kelimelerin uzunluğu hakkında herhangi bir bilgi içermez. Pek çok sesli yapay zeka, özellikle de OpenAI, Microsoft ve Anthropic'inkiler savunmasızdı. Google tek tek sözcükler göndermediği için bu saldırı Bard'da işe yaramadı. Alternatif olarak, iletilen veri paketlerinin her zaman belirli bir minimum uzunluğa kadar doldurulduğu sözde dolgulama yardımcı olabilir, Weiss ve arkadaşlarına LLM yan kanal saldırısı hakkındaki yayınlarında tavsiyede bulunur. OpenAI ve Cloudflare artık bu önlemi yapay zekalarının olası dinleyicilerine karşı uygulamaya koydu.


(Evet)



Haberin Sonu