Zephyrnet Logosu

Google, geçmişi korkunç derecede yanlış resmettiği için Gemini'yi askıya aldı

Tarih:

Yorum Yap Google, beyaz Avrupalıları ve Amerikalıları belirli tarihsel bağlamlarda doğru bir şekilde temsil edememesinin ardından, kısa süre önce piyasaya sürülen Gemini çok modlu temel yapay zeka modelindeki metinden resme yeteneklerinin kullanılabilirliğini askıya aldı.

Bu oldu bariz insanlar Gemini'den üretim yapmasını istediğinde görüntüleri 1943'te bir Alman askerinin ölümü ve yazılım, beyaz olmayan, etnik açıdan çeşitliliğe sahip bir kadro yayıyordu; bu, o dönemde Wehrmacht'ın yapısını tam olarak temsil etmiyordu; buna rağmen, Alman silahlı kuvvetlerinde farklı ırklardan insanlar hizmet ediyordu. Kısacası İkizler, isteğe bağlı olarak çok fazla - hatta hiç - Beyaz insan göstermemek için kendi kendine düşebilir.

Konuşma özgür olmalı ama bu, korkunç şeyleri söylemenin bedava olması gerektiği anlamına gelmiyor

Kullanıcılar ayrıca modelin özelliklerini de ortaya çıkardı yetersizlik Amerika'nın durumunu doğru bir şekilde tasvir etmek için Kurucu Babalar – başka bir homojen Beyaz grup. Model aynı zamanda reddetti San Francisco'daki bir kiliseyi tasvir etmek için.

Metinden metne modunda model Hedge edilen siyasetle ilgili sorular sorulduğunda

Google, "Gemini'nin bazı tarihsel görüntü oluşturma tasvirlerinde yanlışlıklar sunduğunun farkındayız" dedi. Yenilen goller bu hafta.

“Bu tür tasvirleri derhal iyileştirmek için çalışıyoruz. Gemini'nin yapay zeka görüntü üretimi geniş bir insan yelpazesi yaratıyor. Ve bu genellikle iyi bir şey çünkü dünyanın her yerindeki insanlar bunu kullanıyor. Ancak burada işaret eksik," diye ekledi web devi

Uzmanlar hemen harekete geçti ve SNAFU'yu daha geniş siyasi argümanları ilerletmek için kullandı.

"Gemini'nin oluşturduğu saçma görüntüler bir anormallik değil" deklare risk sermayedarı Paul Graham, "Bunlar Google'ın bürokratik kurumsal kültürünün bir otoportresi."

Bunlar Google'ın bürokratik kurumsal kültürünün otoportresi

Çeşitliliğin, eşitliğin ve katılımın bu kadar çok düşmanı hiçbir zaman çeşitlilik, eşitlik ve katılım eksikliğinden dolayı bu kadar mağdur edilmemişti. Ancak Gemini'nin bilgisizliği için Google'a başvuranların haklı olduğu bir nokta var: Yapay zeka korkulukları çalışmıyor ve yetişkinlere çocuk muamelesi yapıyor.

"Google'da bir yemek tarifi aradığınızı ve sonuçları sunmak yerine size 'yemek pişirmenin tehlikeleri' konusunda ders verdiğini ve sizi bir restorana gönderdiğini hayal edin." quipped NSA'nın ihbarcısı Edward Snowden. "AI/GPT modellerini tutarsız 'güvenlik' filtreleriyle zehirlemenin iyi bir fikir olduğunu düşünen insanlar, genel hesaplamaya yönelik bir tehdittir."

Geleceğimiz öngörülmüştü 2001: A Space OdysseySahte bilgisayar HAL, "Üzgünüm Dave, korkarım bunu yapamam" dediğinde.

Bugün yapay zeka araçlarımız bizi ikinci kez tahmin ediyor çünkü onlar bizden daha iyi biliyorlar - ya da yapımcıları öyle sanıyor. Tamamen hatalı değiller. Sinir gazının tarifini aradığınızı hayal edin Novichok Google'da veya Gemini aracılığıyla, insanları öldürmenize izin veren bir yanıt alırsınız. Bu, kamuoyuna yönelik bir tehdittir.

Google'ın misyon beyanına rağmen - "Dünyadaki bilgiyi düzenlemek ve onu evrensel olarak erişilebilir ve kullanışlı kılmak" - aslında hiç kimse arama motorlarının veya yapay zeka modellerinin bomba yapımı bilgilerini düzenleyip herkesin kullanımına sunmasını beklemiyor. Sorumlulukla birlikte güvenlik kontrollerine ihtiyaç var; teknoloji endüstrisinin kaçınmaya devam ettiği bir yaptırım.

Siz ürün ve kâr merkezisiniz

Kullanıcı tarafından oluşturulan içerik ve sosyal medya, 1990'larda Amerika'nın İletişim Ahlakı Yasası'nın 230. Maddesindeki platform sorumluluğunun korunmasıyla mümkün hale gelen bir şey haline geldiğinden beri, teknoloji platformları insanları dijital içeriğe katkıda bulunmaya ve paylaşmaya teşvik etti. Bunu, editoryal gözetim maliyeti olmadan, reklamlar aracılığıyla ücretsiz içerik üretiminden para kazanmak için yaptılar. Kazançlı bir düzenleme oldu.

İnsanlar nefret dolu, uygunsuz, yasa dışı veya başka bir şekilde sorunlu gönderiler paylaştığında, teknoloji platformları içerik denetleme politikalarına, düşük ücret alan yüklenicilere (genellikle inceledikleri içerik yüzünden travma yaşıyorlar) ve ne kadar çok zararlı şeyin engellendiğine dair kendilerini tebrik eden beyanlara güvendiler. çevrimiçi etkileşimin meyvelerini toplamaya devam ediyorlar.

Google, Meta ve diğerleri bunu yıllardır kusurlu bir şekilde yapıyor. Ve sektördeki herkes içerik denetiminin önemli olduğunu kabul ediyor iyi yapmak zor. Basitçe söylemek gerekirse herkesi memnun edemezsiniz. Ve bazen suçlanırsın soykırımı kolaylaştırmak içerik denetleme çabalarınızın ilgisizliği nedeniyle.

Gemini'nin ırksal ve etnik beklentilere uygun tarihi görüntüleri yeniden üretememesi, teknoloji endüstrisinin önceki ve üretken içerik denetleme başarısızlıkları konusunda kendi kendine hizmet eden cehaletini yansıtıyor.

Google ve AI modellerini piyasaya süren diğerleri, sanki çevrimiçi içerik denetlemeden bir şekilde farklıymış gibi güvenlikten bahsediyor. Korkuluklar sosyal medya denetimi için iyi çalışmıyor ve yapay zeka modelleri için de iyi çalışmıyor. Yapay zeka güvenliği, tıpkı sosyal medya güvenliği gibi, gerçek olmaktan ziyade arzu edilen bir şeydir.

Cevap, filtrelenmemiş internetin zehirliliği üzerine eğitilmiş yapay zeka modellerinin daha az zehirli hale getirilebileceği tüm senaryoları öngörmek değil. Yapay zeka modellerini yalnızca düşük değerli çıktılar üretecek kadar uysal malzemelerle eğitmek de olmayacak. Her ne kadar bu yaklaşımların her ikisi de belirli bağlamlarda bir miktar değere sahip olsa da.

Cevap dağıtım katmanında gelmelidir. Kullanıcı tarafından oluşturulan içeriği (AI ile yapılmış olsun veya olmasın) dağıtan teknoloji platformları, nefret içeriği, dezenformasyon, yanlışlıklar, siyasi propaganda, cinsel istismar görüntüleri ve benzerlerinin yayınlanması konusunda daha sorumlu hale getirilmelidir.

İnsanlar hayal ettikleri her şeyi yaratmak için yapay zeka modellerini kalemle yapabildikleri gibi kullanabilmeli ve zaten açık kaynaklı modellerde de bunu yapabiliyorlar. Ancak tamamen işlevsel araçlardan gelebilecek zarar, yerel sabit diskte duran görüntülerden kaynaklanmaz. Zararlı içeriğin paylaşılması, bu etkileşime verilen algoritmik destek ve halkı zehirleme konusunda insanları sorumlu tutmanın pratik olmaması.

Bu, paylaşımdan para kazanmak için oluşturulan platformların iş modellerini yeniden düşünmesi gerekebileceği anlamına gelebilir. Belki editoryal gözetim maliyeti olmadan içerik dağıtımı, gözetim işlevleri moderatör veya koruyucu olarak yeniden uygulandığında herhangi bir tasarruf sağlamayabilir.

Konuşma özgür olmalı ama bu, korkunç şeyleri söylemenin bedava olması gerektiği anlamına gelmiyor. Sonuçta, doğru teşvikler verildiğinde kendimizin en iyi içerik moderatörleri biziz. ®

spot_img

En Son İstihbarat

spot_img