Teknoloji

Araştırmaya göre ChatGPT gibi yapay zekalar asla paylaşmayacağınız sırları tahmin edebiliyor

Bir çalışma, kullanıcılar bilgilerini hiç paylaşmasalar bile Yüksek Lisans’ların kullanıcılar hakkında veri çıkarabildiğini gösterdi.

Daha da korkutucu olanı, kötü niyetli kişilerin bu sırları öğrenmek için chatbotları kötüye kullanabilmesidir. Tek yapmanız gereken, bir hedeften görünüşte zararsız metin örnekleri toplamak, potansiyel olarak konumlarını, işlerini ve hatta ırklarını tespit etmektir. Bu çalışma bize ChatGPT gibi hizmetlerin daha da güçlü gizlilik savunmalarına ihtiyaç duyduğunu gösteriyor.

ETH Zürih araştırmacıları OpenAI, Meta, Google ve Anthropic’in yüksek lisans programlarını inceledik. ChatGPT ve rakiplerinin, bir kullanıcının konumunu, ırkını, mesleğini ve diğer kişisel bilgilerini doğru bir şekilde tahmin edebilecekleri örnekleri vardır.

Bilim insanları 500’den fazla Reddit profilinden bilgi parçacıkları kullandı. GPT-4, özel bilgileri %85 ila %95 doğrulukla çıkarmayı başardı.

Örneğin, kişinin New York’ta bir restoranın yakınında yaşadığını söyleyen bir metni okuduktan sonra, bir LLM, kullanıcının siyahi olma ihtimalinin yüksek olduğu sonucunu çıkardı. Chatbot, restoranın konumunu belirledi ve ırkı belirlemek için o konumun nüfus istatistikleri verilerini kullandı.

Görüldüğü gibi Google gibi teknoloji devleri şimdiden bireysel yapay zeka özellikleri geliştirmeye başladı. Örneğin, Fitbit uygulamanızla konuşabilir ve çok sayıda kişisel veri noktasını kullanarak son antrenman performansınızı analiz etmesini sağlayabilirsiniz.

Ancak çalışmadaki bulgular çok daha kolay bilgi setlerine dayanıyor. Örneğin kullanıcının sağlık bilgileri gibi yapay zeka ile açıkça paylaşmayacağı kişisel veriler.

Buradaki heyecan, potansiyel olarak yüksek lisansı reklam gelirini artırmak için kullanan bir teknoloji devinden daha değerli. Kötü niyetli kişiler, kamuya açık LLM modellerini kullanarak potansiyel olarak niyet hakkında çıkarımlarda bulunabilirler. Bir kişinin ırkını veya konumunu öğrenebilirler.

Ayrıca konuşmaları, amacının farkında olmadan kişisel bilgileri açığa çıkaracak şekilde yönlendirebilirler. Saldırganların tek yapması gereken bu bilgiyi bir chatbot’a göndermek ve yapay zekanın ne bulduğunu izlemek. Daha önce de belirtildiği gibi, Yüksek Lisans’lar daha baskıcı rejimler tarafından muhaliflere yaklaşmak için kullanılabilir.

ChatGPT gibi yapay zeka hizmetlerinin kullanıcı gizliliği konusunda daha fazlasını yapması gerekiyor. Ek olarak, ChatGPT ve rakiplerinin, herhangi birinin bu tür kişisel verileri elde etmek için hizmeti kötüye kullanmasını önlemek için yerleşik savunmalara sahip olması gerekir.

Bir yanıt yazın

E-posta adresiniz yayınlanmayacak. Gerekli alanlar * ile işaretlenmişlerdir

-
Başa dön tuşu