AI, gerçek kişilerin resimlerini ve telif hakkıyla korunan içeriği tükürür

Adanali

New member


  1. AI, gerçek kişilerin resimlerini ve telif hakkıyla korunan içeriği tükürür

Bugünlerde çok popüler olan görüntü oluşturucular, doğru kullanıldığında, gerçek kişilerin tanımlanabilir fotoğraflarını da tükürür. Telif hakkıyla korunan eserlerin birebir kopyalarını oluşturmak da mümkündür. Bu, Google ve Alphabet’in DeepMind yan kuruluşları, Berkeley’deki California Üniversitesi, ETH Zürih ve Princeton Üniversitesi’nden araştırmacılar tarafından keşfedildi. Çalışma, yalnızca mahremiyet korumalarıyla ilgili değil, aynı zamanda DALL-E, Midjourney, Stable Diffusion ve Co.’nun ihlal ediyor olabileceği sanatçı ve şirketlerin telif haklarıyla ilgili yasal sorunlara işaret ediyor. Bu son noktada ilk şikayetler şimdiden başladı.


Bilim adamları sonuçlarını, Stable Diffusion ve Google Imagen’in B gibi altyazılı dahili görüntü oluşturucusunu isteyerek elde ettiler. bir kişinin adı – gönderildi. Daha sonra oluşturulan görüntülerden herhangi birinin model veritabanındaki orijinal görüntülerle eşleşip eşleşmediğini analiz ettiler. Grup, AI eğitim setinden 100’ün üzerinde sahte görüntü çıkarmayı başardı.


Görüntü üreten AI modelleri, internetten derlenen karşılık gelen metin açıklamalarıyla birlikte görüntülerden oluşan devasa veri kümeleri üzerinde eğitilir. Bu sistemlerin en son neslinde, veri kümesinden bir görüntü alınır ve orijinal görüntü rastgele piksellerden oluşan bir koleksiyon olana kadar her seferinde bir piksel değiştirilir. AI modeli daha sonra işlemi tersine çevirir ve pikselli karmaşadan yeni bir görüntü oluşturur.

Sağlık hizmetlerinde olası AI modelleri için çıkarımlar


Fransa’da Normandiya’daki Caen Üniversitesi’nde gizlilik alanında çalışan bir doktora öğrencisi olan Ryan Webster, grubun yeni çalışmasıyla ilk kez bu AI modellerinin eğitim veri setlerinde görüntüleri sakladığını gösterdiğini söylüyor. Model görüntüleme konusunda stüdyoda çalışır ve bilir. Örneğin, bu sistemlerin hassas özel bilgileri sızdırma riski altında olduğunu gösterdiğinden, sağlık hizmetlerinde üretken yapay zeka modelleri uygulamak isteyen girişimler için bunun etkileri olabilir. DALL-E OpenAI’nin yapımcısı Google ve Stable Diffusion’ın arkasındaki şirket Stability AI, başlangıçta çalışma hakkında yorum yapmadı.

Araştırma ekibinin bir parçası olan UC Berkeley lisansüstü öğrencisi Eric Wallace, bu yapay zeka modelleri tıp gibi hassas alanlarda yaygın olarak kullanılmadan önce bunun alarm zillerini çalmasını umduğunu söylüyor. “Birçok insan, hassas verilere bu tür üretken yaklaşımları uygulama eğiliminde. Çalışmamız, aşırı güvenlik önlemleri alınmadığı sürece muhtemelen kötü bir fikir olduğuna dair kesinlikle uyarıcı bir hikaye. [Datenschutzverletzungen] engelleyin” dedi.


Bu yapay zeka modellerinin veritabanlarından görüntüleri ne ölçüde hatırladığı ve sonra bunları “parçaladığı”, aynı zamanda yapay zeka şirketleri ile sanatçılar veya hak sahipleri arasındaki mevcut büyük bir kan davasının da nedenidir. Stability AI, bir grup sanatçı ve fotoğraf veritabanı Getty Images tarafından, şirketin telif hakkıyla korunan materyallerini yasa dışı bir şekilde ele geçirdiğini ve işlediğini iddia ederek açtığı iki davayla karşı karşıya.

hak sahipleri tarafından yasal işlemler


Araştırmacıların bulguları, AI şirketlerini telif hakkı ihlali yapmakla suçlayan hak sahiplerini destekleyebilir. Stable Diffusion’ı oluşturmak için çalışmaları kullanılan sanatçılar, modelin çalışmalarını izinsiz olarak kopyaladığını ispatlayabilirlerse şirket onlara tazminat ödemek zorunda kalabilir.

Irvine, California Üniversitesi’nde bilgisayar bilimi doçenti olan Sameer Singh, çalışmanın zamanında ve önemli olduğunu söyledi. “Bu harika modellerin güvenliği ve mahremiyeti hakkında farkındalık yaratmak ve sohbetler başlatmak önemlidir” diye ekliyor.

Çalışma, AI modellerinin görüntüleri kopyalayıp kopyalamadığını öğrenmenin ve bunun ne ölçüde gerçekleştiğini ölçmenin neredeyse mümkün olduğunu gösteriyor. Singh, her ikisinin de uzun vadede çok değerli olduğunu söyledi. Kararlı Difüzyon açık kaynaktır, bu da herkesin modeli analiz edip keşfedebileceği anlamına gelir. Imagen ise kapalı ama Google, araştırmacılara çalışmaları için erişim izni verdi. Singh, çalışmanın analiz etmek için bu modellere araştırma erişimi vermenin öneminin önemli bir örneği olduğunu söylüyor. OpenAI gibi diğer satıcıların da eşit derecede şeffaf olması gerektiğini söylüyor. Bu, özellikle ChatGPT gibi dil modelleri için geçerlidir.

Etkileyici sonuçlar – belirli koşullar altında


Araştırma ekibinin bulguları etkileyici olduğu kadar, uyarılar da var. ETH di Zürih’te bilgisayar bilimi profesörü ve ilgili bilim adamı Florian Tramèr, araştırmacıların çıkarabildiği görüntülerin eğitim verilerinde birden çok kez oluştuğunu ve veri kümesindeki diğer görüntülerle karşılaştırıldığında oldukça sıra dışı olduklarını kabul ediyor.

Bu, alışılmadık görünen veya alışılmadık adlara sahip kişilerin, AI modelinin onları “hatırlama” riskinin daha yüksek olduğu anlamına gelir. Ve araştırmacılar, yapay zeka modelinden insanların fotoğraflarının nispeten az sayıda tam kopyasını çıkarabildiler – yapay zeka gizlilik uzmanı Webster’a göre, milyonda yalnızca bir görüntü kopyaydı.

Eğitim verilerinin miktarı ile bu hala bir endişe kaynağıdır. Tramèr, “Umarım kimse bu sonuçlara bakıp şöyle demez: ah, aslında bu sayılar milyonda bir ise o kadar da kötü değildir” diyor Tramèr. Önemli olan, oranların sıfırdan büyük olmasıdır.






Ayrıca bakınız:


(jle)



Haberin Sonu
 
Üst