Zephyrnet Logosu

Beyinden Esinlenen Bu Yapay Zeka, Bir Çocuk Gibi, Mantığını Açıklayabiliyor

Tarih:

Çocuklar doğa bilimcileridir. Dünyayı gözlemlerler, hipotezler oluştururlar ve bunları test ederler. Sonunda (bazen sevimli derecede komik) mantıklarını açıklamayı öğrenirler.

AI, pek değil. Hiç şüphe yok ki, derin öğrenme (genel anlamda beyne dayalı bir tür makine öğrenimi) teknolojiyi çarpıcı biçimde değiştiriyor. Aşırı hava koşullarını tahmin etmekten yeni ilaçlar tasarlamaya veya ölümcül kanserleri teşhis etmeye kadar yapay zeka giderek daha fazla entegre ediliyor. bilimin sınırları.

Ancak derin öğrenmenin çok büyük bir dezavantajı var: Algoritmalar cevaplarını doğrulayamıyor. Genellikle "kara kutu" sorunu olarak adlandırılan bu şeffaflık, tıp gibi yüksek riskli durumlarda bunların kullanımını engellemektedir. Hastalar, hayatlarını değiştirecek bir hastalık tanısı aldıklarında açıklama isterler. Şimdilik, derin öğrenmeye dayalı algoritmalar (yüksek teşhis doğruluğuna sahip olsalar bile) bu bilgiyi sağlayamıyor.

Kara kutuyu açmak için Teksas Üniversitesi Güneybatı Tıp Merkezi'nden bir ekip ilham almak için insan zihninden yararlandı. İçinde Bir çalışma in Doğa Hesaplamalı Bilimbeyin ağları çalışmalarından elde edilen ilkeleri, açıklanabilir yapı taşlarına dayanan daha geleneksel bir yapay zeka yaklaşımıyla birleştirdiler.

Ortaya çıkan yapay zeka biraz çocuk gibi davranıyor. Farklı türdeki bilgileri “merkezlere” yoğunlaştırır. Her merkez daha sonra insanların okuyabileceği kodlama yönergelerine dönüştürülür; programcılar için algoritmanın verilerde bulduğu kalıplarla ilgili sonuçlarını sade İngilizce olarak açıklayan CliffsNotes. Ayrıca denemek için tamamen çalıştırılabilir programlama kodu da oluşturabilir.

"Derinlemesine ayrıştırma" olarak adlandırılan yapay zeka, zor matematik problemleri ve görüntü tanıma gibi çeşitli görevlerle karşı karşıya kaldığında bir bilim insanı gibi çalışıyor. Yapay zeka, verileri tarayarak, bunları insan tasarımından daha iyi performans gösterebilecek adım adım algoritmalara dönüştürüyor.

"Derin damıtma, insan uzmanlığını tamamlayan genelleştirilebilir ilkeleri keşfedebilir." yazdı takım kendi makalesinde.

Kağıt İnce

Yapay zeka bazen gerçek dünyada hata yapar. Robotaksiyi ele alalım. Geçen yıl, bazıları defalarca San Francisco mahallesinde mahsur kaldı; yerel halkın başına bela oldu ama yine de kıkırdadılar. Daha da önemlisi, sürücüsüz araçlar trafiği ve ambulansları engelledi ve bir vakada yayalara ciddi şekilde zarar verdi.

Sağlık hizmetleri ve bilimsel araştırmalarda da tehlikeler yüksek olabilir.

Araştırmada yer almayan Beyrut Amerikan Üniversitesi'nden Dr. Joseph Bakarji, bu yüksek riskli alanlara gelince, algoritmaların "hataya karşı düşük tolerans gerektirdiğini" söyledi. yazdı çalışmayla ilgili bir tamamlayıcı yazıda.

Çoğu derin öğrenme algoritmasının önündeki engel, açıklanamaz olmalarıdır. Çok katmanlı ağlar olarak yapılandırılmışlardır. Ağ, tonlarca ham bilgi alarak ve sayısız geri bildirim alarak, sonunda doğru yanıtlar üretecek şekilde bağlantılarını ayarlar.

Bu süreç derin öğrenmenin kalbinde yer alır. Ancak yeterli veri olmadığında veya görev çok karmaşık olduğunda zorluk yaşar.

Ekip, 2021'de bir yapay zeka geliştirdi bu farklı bir yaklaşım aldı. “Sembolik” akıl yürütme olarak adlandırılan sinir ağı, verileri gözlemleyerek açık kuralları ve deneyimleri kodlar.

Derin öğrenmeyle karşılaştırıldığında sembolik modellerin yorumlanması insanlar için daha kolaydır. Yapay zekayı, her biri bir nesneyi veya konsepti temsil eden bir dizi Lego bloğu olarak düşünün. Yaratıcı yollarla bir araya gelebilirler ancak bağlantılar net bir dizi kurala tabidir.

Yapay zeka kendi başına güçlü ama kırılgandır. Yapı taşlarını bulmak büyük ölçüde önceki bilgilere dayanır. Önceden deneyimi olmayan yeni bir durumla karşı karşıya kaldığında kalıpların dışında düşünemez ve kırılır.

İşte sinir bilimi tam da burada devreye giriyor. Ekip, farklı beyin bölgelerinin birlikte nasıl çalıştığını gösteren modeller olan konektomlardan ilham aldı. Bu bağlantıyı sembolik akıl yürütmeyle birleştirerek sağlam, açıklanabilir temellere sahip, ancak aynı zamanda yeni sorunlarla karşılaşıldığında esnek bir şekilde uyum sağlayabilen bir yapay zeka oluşturdular.

Çeşitli testlerde “nöro-bilişsel” model, muhakeme gerektiren görevlerde diğer derin sinir ağlarını geride bıraktı.

Ancak bunu açıklamak için veri ve mühendislik algoritmaları anlamlı olabilir mi?

İnsan Dokunuşu

Bilimsel keşfin en zor kısımlarından biri gürültülü verileri gözlemlemek ve bir sonuca varmaktır. Bu süreç, yeni materyallere ve ilaçlara, biyolojinin daha derin anlaşılmasına ve fiziksel dünyamız hakkında içgörülere yol açan şeydir. Çoğu zaman bu, yıllar süren, tekrarlayan bir süreçtir.

Yapay zeka işleri hızlandırabilir ve potansiyel olarak insan aklından kaçan kalıpları bulabilir. Örneğin, derin öğrenme özellikle protein yapılarının tahmininde faydalı olmuştur, ancak bu yapıları tahmin etmeye yönelik mantığın anlaşılması zordur.

"İnsanların genellikle yaptığı gibi gözlemleri basit ve kapsamlı kurallara ayıran öğrenme algoritmaları tasarlayabilir miyiz?" Bakarji'yi yazdı.

Yeni çalışma, ekibin mevcut nörobilişsel modelini aldı ve ona ek bir yetenek kazandırdı: Kod yazma yeteneği.

Derin damıtma adı verilen yapay zeka, her yapay nöronun belirli bir kavramı ve onun diğerleriyle bağlantısını kodladığı benzer kavramları bir arada gruplandırıyor. Örneğin bir nöron kedi kavramını öğrenebilir ve onun köpekten farklı olduğunu bilebilir. Başka bir tür, yeni bir resimle (mesela bir kaplanla) mücadele edildiğinde, onun bir kediye mi yoksa köpeğe mi daha çok benzediğini belirlemek için değişkenliği ele alır.

Bu yapay nöronlar daha sonra bir hiyerarşiye göre istiflenir. Sistem, her katmanda kavramları giderek farklılaştırıyor ve sonunda bir çözüm buluyor.

Yapay zekanın mümkün olduğu kadar çok veriyi işlemesi yerine, eğitim adım adım yapılıyor; neredeyse yeni yürümeye başlayan bir çocuğa eğitim veriyormuş gibi. Bu, yeni sorunları yavaş yavaş çözerken yapay zekanın mantığını değerlendirmeyi mümkün kılar.

Bakarji, standart sinir ağı eğitimiyle karşılaştırıldığında yapay zekanın kendi kendini açıklama özelliğinin yerleşik olduğunu açıkladı.

Bir testte ekip, klasik bir video oyunu olan Conway's Game of Life ile yapay zekaya meydan okudu. İlk olarak 1970'lerde geliştirilen oyun, dijital bir hücreyi belirli kurallar dizisine göre çeşitli desenlere dönüştürmekle ilgilidir (kendiniz deneyin) okuyun). Simüle edilmiş oyun verileri üzerine eğitilen yapay zeka, potansiyel sonuçları tahmin edebildi ve mantığını insan tarafından okunabilen yönergelere veya bilgisayar programlama koduna dönüştürebildi.

Yapay zeka ayrıca görüntülerdeki çizgileri tespit etmek ve zor matematik problemlerini çözmek gibi çeşitli başka görevlerde de iyi çalıştı. Bazı durumlarda, yerleşik yöntemlerden daha iyi performans gösteren yaratıcı bilgisayar kodları üretti ve bunun nedenini açıklayabildi.

Derin damıtma, basit parçaların son derece karmaşık sistemlere yol açtığı fiziksel ve biyolojik bilimler için bir destek olabilir. Yöntemin potansiyel bir uygulaması, DNA işlevlerini çözen araştırmacılar için ortak bilim insanı olarak kullanılmasıdır. DNA'mızın büyük bir kısmı "karanlık madde"dir, dolayısıyla ne gibi bir role (varsa) sahip olduğunu bilmiyoruz. Açıklanabilir bir yapay zeka, genetik dizileri potansiyel olarak parçalayabilir ve genetikçilerin yıkıcı kalıtsal hastalıklara neden olan nadir mutasyonları tanımlamasına yardımcı olabilir.

Araştırmanın dışında ekip, daha güçlü yapay zeka-insan işbirliği ihtimalinden heyecan duyuyor.

"Nörosembolik yaklaşımlar ekip, potansiyel olarak daha insan benzeri makine öğrenimi yeteneklerine izin verebilir" diye yazdı.

Bakarji de aynı fikirde. Yeni çalışma "teknik ilerlemelerin ötesine geçerek bugün karşılaştığımız etik ve toplumsal zorluklara değiniyor." Açıklanabilirlik bir korkuluk görevi görerek yapay zeka sistemlerinin eğitilirken insani değerlerle senkronize olmasına yardımcı olabilir. Tıbbi bakım gibi yüksek riskli uygulamalarda güven oluşturabilir.

Şimdilik algoritma, kavramlara bölünebilen problemleri çözerken en iyi şekilde çalışıyor. Video akışları gibi sürekli verilerle baş edemez.

Bakarji, bunun derin damıtmanın bir sonraki adımı olduğunu yazdı. "Bilimsel hesaplama ve teorik araştırmalarda yeni olanaklar açacak."

Resim Kredi: 7AV 7AV / Unsplash 

spot_img

En Son İstihbarat

spot_img