Reklam
Artificial IntelligenceMachine Learning

AI sahte yüz üreteçleri, üzerinde eğitildikleri gerçek yüzleri ortaya çıkarmak için geri sarılabilir

Çalışma, bazı ciddi gizlilik endişelerini gündeme getiriyor. Nvidia’nın öğrenme ve algı araştırmaları başkan yardımcısı Jan Kautz, “AI topluluğu, eğitimli derin sinir ağı modellerini paylaşırken yanıltıcı bir güvenlik duygusuna sahip” diyor.

Teoride bu tür bir saldırı, biyometrik veya tıbbi veriler gibi bir bireye bağlı diğer verilere uygulanabilir. Öte yandan Webster, tekniğin insanlar tarafından verilerinin bir yapay zekayı eğitmek için rızaları olmadan kullanılıp kullanılmadığını kontrol etmek için de kullanılabileceğine dikkat çekiyor.

Bir sanatçı, çalışmalarının ticari bir araçta bir GAN’ı eğitmek için kullanılıp kullanılmadığını kontrol edebilir ve şöyle diyor: “Telif hakkı ihlali kanıtı için bizimki gibi bir yöntem kullanabilirsiniz.”

İşlem, GAN’ların en başta özel verileri ifşa etmemesini sağlamak için de kullanılabilir. GAN, yayınlamadan önce araştırmacılar tarafından geliştirilen aynı tekniği kullanarak, eğitim verilerinde yaratımlarının gerçek örneklere benzeyip benzemediğini kontrol edebilir.

Ancak bu, eğitim verilerini elde edebileceğinizi varsayar, diyor Kautz. O ve Nvidia’daki meslektaşları, yüzlerin ve diğer nesnelerin görüntüleri, tıbbi veriler ve daha fazlası dahil olmak üzere, eğitim verilerine erişim gerektirmeyen özel verileri ifşa etmenin farklı bir yolunu buldular.

Bunun yerine, eğitilmiş bir modelin maruz kaldığı verileri yeniden oluşturabilen bir algoritma geliştirdiler. Modelin geçtiği adımları tersine çevirmek bu verileri işlerken. Eğitimli bir görüntü tanıma ağı alın: bir görüntüde ne olduğunu belirlemek için ağ, onu bir dizi yapay nöron katmanından geçirir, her katman soyut kenarlardan şekillere ve daha tanınabilir özelliklere kadar farklı düzeylerde bilgi çıkarır.

Kautz’un ekibi, bu adımların ortasında bir modeli kesintiye uğratabileceklerini ve yönünü tersine çevirebileceklerini, modelin dahili verilerinden girdi görüntüsünü yeniden yaratabileceklerini buldu. Tekniği çeşitli yaygın görüntü tanıma modelleri ve GAN’lar üzerinde test ettiler. Bir testte, en iyi bilinen görüntü tanıma veri kümelerinden biri olan ImageNet’ten görüntüleri doğru bir şekilde yeniden oluşturabileceklerini gösterdiler.

ImageNet’ten alınan görüntüler (üstte), ImageNet’te eğitilmiş bir modelin geri sarılmasıyla oluşturulan bu görüntülerin yeniden yaratılması (altta)

Webster’ın çalışması gibi, yeniden yaratılan görüntüler de gerçeklere çok benziyor. Kautz, “Nihai kalite bizi şaşırttı” diyor.

Araştırmacılar, bu tür bir saldırının sadece varsayımsal olmadığını savunuyorlar. Akıllı telefonlar ve diğer küçük cihazlar daha fazla AI kullanmaya başlıyor. Pil ve bellek kısıtlamaları nedeniyle, AI modelleri bazen cihazın kendisinde yalnızca yarı işlenir ve yarı yürütülen model, bölünmüş bilgi işlem olarak bilinen bir yaklaşım olan son bilgi işlem krizi için buluta gönderilir. Kautz, çoğu araştırmacı, bölünmüş hesaplamanın bir kişinin telefonundan herhangi bir özel veriyi açığa çıkarmayacağını varsayıyor, çünkü yalnızca AI modeli paylaşılıyor, diyor. Ancak saldırısı durumun böyle olmadığını gösteriyor.

Kautz ve meslektaşları şimdi modellerin özel verileri sızdırmasını önlemenin yollarını bulmaya çalışıyor. Güvenlik açıklarını en aza indirebilmek için riskleri anlamak istedik, diyor.

Çok farklı teknikler kullanmalarına rağmen, kendi işinin ve Webster’ın birbirini iyi tamamladığını düşünüyor. Webster’ın ekibi, bir modelin çıktısında özel verilerin bulunabileceğini gösterdi; Kautz’un ekibi, girdiyi yeniden oluşturarak, özel verilerin tersine çevrilerek açığa çıkarılabileceğini gösterdi. Kautz, “Saldırıları nasıl önleyeceğinizi daha iyi anlamak için her iki yönü de keşfetmek önemlidir” diyor.


Source link

Başa dön tuşu

Reklam Engelleyici Algılandı

Lütfen reklam engelleyiciyi devre dışı bırakarak bizi desteklemeyi düşünün