Zephyrnet Logosu

Stanford, güvenlik ve maliyet konusunda "halüsinasyon gören" Alpaca AI modelini otlaklara gönderir

Tarih:

Meta'nın LLaMA sistemine dayalı küçük bir AI dil modeli olan Alpaca'nın web demosu, güvenlik ve maliyet endişeleri nedeniyle Stanford Üniversitesi'ndeki araştırmacılar tarafından çevrimdışına alındı.

Yüzlerce veya on milyarlarca parametre içeren büyük dil modellerine erişim genellikle onları eğitmek ve çalıştırmak için gereken kaynaklara sahip şirketlerle sınırlıdır. Meta, LLaMA sisteminin kodunu, dil modellerinin neden toksik ve yanlış metin ürettiğine dair araştırmayı teşvik etmek amacıyla seçkin araştırmacılarla paylaşmayı planladı. Meta, araştırmacıların devasa donanım sistemleri edinmelerini gerektirmeden bunu yapabileceğini umuyordu.

Stanford Üniversitesi'ndeki bir grup bilgisayar bilimcisi, inşa edilmesinin 600 dolardan daha ucuza mal olduğu bildirilen yedi milyar parametreli açık kaynaklı bir model olan Alpaca'yı geliştirmek için LLaMA'da ince ayar yaptı. Kod geçen hafta yayınlandı ve bazı geliştiricilerin dikkatini çekmeyi başardıktan sonra koşu Raspberry Pi bilgisayarlarında ve hatta piksel 6 akıllı telefon. 

Stanford'un araştırmacıları "GPT-3.5 (text-davinci-003), ChatGPT, Claude ve Bing Chat gibi talimat takip eden modeller giderek daha güçlü hale geldi" belirtilen.

“Artık birçok kullanıcı bu modellerle düzenli olarak etkileşime giriyor ve hatta onları iş için kullanıyor. Bununla birlikte, yaygın kullanımlarına rağmen, talimat-takip eden modellerin hala birçok eksikliği vardır: yanlış bilgi üretebilir, sosyal klişeleri yayabilir ve zehirli bir dil üretebilirler.

"Bu acil sorunların ele alınmasında maksimum ilerleme sağlamak için, akademik camianın dahil olması önemlidir. Ne yazık ki, OpenAI'nin text-davinci-003'ü gibi kapalı kaynak modellerine yetenek olarak yaklaşan hiçbir açık kaynak modeli olmadığı için, akademideki talimat takip modelleri üzerine araştırma yapmak zor oldu.”

Alpaka, Openal'ın text-davinci-50,000'üne daha çok benzemesi için modeli belirli talimatları takip etmeye yönlendiren 003 metin örneğiyle ince ayar yaptı.

Ancak, herkesin modelle etkileşime girmesine izin veren bir Alpaka demosu çalıştıran web sayfası, güvenlik sorunları ve modeli çevrimiçi barındırmanın artan maliyetleri nedeniyle başlatıldıktan kısa bir süre sonra kapatıldı.

"Bir demo yayınlamanın asıl amacı, araştırmamızı erişilebilir bir şekilde yaymaktı. Bu amaca büyük ölçüde ulaştığımızı düşünüyoruz ve barındırma maliyetleri ve içerik filtrelerimizin yetersizlikleri göz önüne alındığında, demoyu kaldırmaya karar verdik." Stanford Üniversitesi'nin İnsan Merkezli Yapay Zeka enstitüsünü temsil eden sözcüsü, doğruladı Kayıt yaptığı açıklamada.

Diğer tüm dil modelleri gibi, Alpaca da genellikle halüsinasyon olarak tanımlanan bir özellik olan yanlış bilgi üretmeye eğilimlidir. Rahatsız edici metin başka bir yaygın çıktıdır.

Araştırmacılar, "Özellikle halüsinasyon, text-davinci-003 ile karşılaştırıldığında bile Alpaka için yaygın bir başarısızlık modu gibi görünüyor" dedi. Bazı örneklerde model, Tanzanya'nın başkentini doğru hatırlayamayarak yanlış teknik bilgi üretmiştir. 

Web demosu yayından kaldırılmış olsa da, modelde nasıl ince ayar yapılacağını açıklayan veri kümesi ve kod şu adreste mevcut durumda: GitHub. Araştırmacılar, modelin ağırlıklarıyla ilgili ayrıntıları da yayınlamayı planladıklarını söyledi. 

"Alpaka muhtemelen hem temel dil modeliyle hem de talimat ayarlama verileriyle ilişkili birçok başka sınırlama içeriyor. Bununla birlikte, önemli eksiklikleri incelemek için bir temel teşkil eden nispeten hafif bir model sağladığı için eserin toplum için yararlı olacağına inanıyoruz” dediler. 

"Kullanıcıları, web demosunda işaretleyerek yeni hata türlerini belirlememize yardımcı olmaya teşvik ediyoruz. Genel olarak, Alpaka'nın piyasaya sürülmesinin talimat takip eden modeller ve bunların insani değerlerle uyumu konusunda daha fazla araştırma yapılmasını kolaylaştıracağını umuyoruz." ®

spot_img

En Son İstihbarat

spot_img