XAI: GROK'ın sistem sistemi manipüle edildi

ahmetbeyler

New member
XAI AI modeli, Güney Afrika'da “beyaz soykırım” iddiasıyla Çarşamba günü birkaç saat boyunca yanlış bilgi yaydı. Elon Musk'un şirketinin açıkladığı gibi, sistem tarafından “yetkisiz bir değişiklik” tetiklendi. Xai, daha iyi koruyucu önlemler ve daha fazla şeffaflık yoluyla diğer şeylerin yanı sıra GitHub'daki sistem istemini yayınlayarak gelişmeyi övdü.



Kullanıcılar, chatbot için farklı isteklerde bozukluğu buldular. Yanlış ifadeler soruya herhangi bir bağlantı olmadan ortaya çıktı. Birkaç saat sonra sorun çözüldü ve Grok sorulara tekrar cevap verdi.



İç yönergelerin ihlali


Bir beyanda Xai, “iç yönergeler ve temel değerler” ihlalinden bahsediyor. Şirket, yetkisiz bir kişinin -prompt sistemine geniş bir erişime sahip olmasının ve başlangıçta fark edilmeyebilmesinin mümkün olduğunu söylemedi.



Bununla birlikte, 7/24 izleme ekibi ile, bir şeyin tekrarlanmadığından emin olmak istersiniz. Bu, değişiklikleri tanımak için mevcut otomatik mekanizmaları entegre eder. Buna ek olarak, çalışanların önerileri revizyon olmadan değiştiremeyecek şekilde ek sınavlar olmalıdır.



Şubat 2024'te benzer kaza




Xai tarafından GitHub'da farklı varyantlarda yayınlanan sistemin istemi, kullanıcı isteklerini yönetmesi gerektiği için AI'ya teknik talimatlar içerir. İçerik üzerindeki bir etki orada belirlenemez. Yayınla, Grok'a olan güveni artırmak istiyorsunuz, yazıyor Xai.

Zaten Şubat 2024'te, Openai'nin eski bir çalışanı sistem isteminde değişiklikler yaptığında benzer bir kaza oldu. Bunlar, Grok'u Elon Musk ve Donald Trump'ın yanlış bilgilerin yayılmasını suçladığını görmezden geldi.


(MKI)




Ne yazık ki, bu bağlantı artık geçerli değil.

Boşa harcanan eşyalara olan bağlantılar, 7 günlük daha büyükse veya çok sık çağrılmışsa gerçekleşmez.


Bu makaleyi okumak için bir Haberler+ paketine ihtiyacınız var. Şimdi yükümlülük olmadan bir hafta deneyin – yükümlülük olmadan!
 
Üst