Zephyrnet Logosu

Yapay Zekada Hafıza Duvarını Kırmak

Tarih:

Teknolojik inovasyonun uzun süredir devam eden yayında, yapay zeka (AI) çok büyük görünüyor. İnsan davranışını taklit etme arayışında teknoloji, enerji, tarım, imalat, lojistik, sağlık, inşaat, ulaşım ve neredeyse akla gelebilecek tüm diğer sektörlere dokunuyor - dördüncü Sanayi Devrimi'ni hızlı bir şekilde takip etmeyi vaat eden belirleyici bir rol. Ve endüstri kehanetleri haklıysa, AI büyümesi patlayıcı olmaktan utanılacak bir şey olmayacak.

Her ikisi de önemli AI etkinleştiricileri olan Nesnelerin İnterneti (IoT) ve 4G/5G'nin 75 yılına kadar cihaz bağlantılarının yüzde 2025'inden fazlasını oluşturması bekleniyor. AI'nın vaadinin merkezinde yer alan devasa miktarda veriyi işlemek için 30'dan fazla veri dünya çapında milyarlarca bağlı cihaz, endüstrinin artık önemli bir teknolojinin sınırlarını aşması gerekiyor: bellek.

Kritik Bir Yapay Zeka Darboğazı Olarak Bellek

Hafıza için meydan okuma performansla başlar. Tarihsel olarak, her on yılda bir, bilgisayar performansındaki kazanımlar, bellek hızındaki gelişmeleri 100 kat geride bıraktı ve son 20 yılda bu boşluk büyüdü. Bu eğilimin sonucu, belleğin darboğazlı bilgisayar ve AI performansına sahip olmasıdır.

Endüstri, her biri farklı performans ihtiyaçları için uzmanlaşmış ve her biri farklı ödünleşimler gerektiren, AI yongaları üzerinde bellek sistemleri uygulamak için çeşitli yöntemler geliştirerek yanıt verdi. Önde gelenler arasında:

  • çip üstü bellek en yüksek bant genişliğini ve güç verimliliğini sağlar, ancak kapasite sınırlıdır.
  • HBM (Yüksek Bant Genişliği Belleği) hem çok yüksek bellek bant genişliği hem de yoğunluk sunar.
  • Gddr bant genişliği, güç verimliliği, maliyet ve güvenilirlik arasında iyi dengeler sunar.

2012'den bu yana, AI eğitim kapasitesi 300,000 kat arttı. Bu büyüme Moore yasasını 25,000 kat geride bıraktı, her 3.5 ayda bir ikiye katlandı, Moore yasasının 18 aylık ikiye katlama döngüsüne kıyasla çok yüksek bir hız. Şaşırtıcı son gelişmeler, paralel hesaplama kapasitesine ve Google'ın Tensör İşleme Birimi (TPU) gibi uygulamaya özel yeni silikona atfedildi.

Özel silikon mimarileri ve paralel motorlar, bilgi işlem performansında gelecekteki kazanımları sürdürmenin ve Moore Yasasının yavaşlaması ve güç ölçeklendirmesinin sonuyla mücadele etmenin bir anahtarıdır. Yonga üreticileri, işlemcilerin belirli pazarlar için tasarlanma şeklini yeniden düşünerek, bilgi işlem performansını ölçeklendirmede bir başka büyük sınırlayıcının üstesinden gelmek için genel amaçlı işlemcilerden 100 ila 1,000 kat daha fazla enerji verimliliği ile çalışabilen özel donanımlar geliştirebilir: işlem gücü.

Bellek endüstrisi, kendi adına, daha yüksek veri hızlarında sinyal vererek ve daha yüksek enerji verimliliği ve performansı için HBM gibi yığılmış mimarileri kullanarak ve hesaplamayı verilere daha yakın hale getirerek performansı iyileştirebilir.

AI için bellek ölçeklendirme

Önemli bir zorluk, yapay zeka (AI) uygulamaları için belleği ölçeklendirmektir. Daha iyi ses, jest, yüz tanıma deneyimleri ve daha sürükleyici sanal gerçeklik ve artırılmış gerçeklik etkileşimleri için artan tüketici talebinin önemi artıyor. Bu deneyimleri sunmak, büyük veri analitiğini mümkün kılmak, analitiği kendileri çalıştırmak için yüksek performanslı bilgi işlemden (HPC) daha fazla bilgi işlem yeteneğinin yanı sıra AI ve makine zekasını kullanarak anlamlı içgörüler oluşturan makine öğrenimi süreçleri gerektirir.

Gelişmekte olan makine öğrenimi uygulamaları arasında sınıflandırma ve güvenlik, tıp, gelişmiş sürücü yardımı, insan destekli tasarım, gerçek zamanlı analitik ve endüstriyel otomasyon yer alıyor. 75 yılına kadar veri üreten 2025 milyar IoT bağlantılı cihazla, analiz edilecek veri sıkıntısı olmayacak. Örneğin, yeni bir Airbus A380-1000'deki tek başına kanatlar 10,000'den fazla sensöre sahiptir. Bu verilerin dağları, manyetik sabit sürücülerdeki devasa veri merkezlerinde depolanır, ardından analiz için hesaplama donanımına teslim edilmek üzere CPU içindeki SRAM'a taşınmadan önce DRAM'a aktarılır.

Üstel bir klipte büyüyen depolanan verilerle, soru, diğer tüm bellek sistemlerinin veri akışıyla başa çıkabildiğinden nasıl emin olunacağıdır. AMD'nin yanıtı, hesaplamayı yönlendiren kenarda sekiz küçük yonga ve IO arabirimini ve bellek kapasitesini iki katına çıkararak yonga bant genişliğini ikiye katlayan merkezde büyük bir yonga içeren bir yonga mimarisidir.

AMD ayrıca AI uygulamalarını daha verimli bir şekilde işlemek için bellek bant genişliğini GPU'ya yaklaştırmak için eski bir GDDR5 bellek yongası yapılandırmasından HBM'ye (yüksek bant genişlikli bellek) geçti. HBM, güç tüketimini azaltırken çok daha yüksek bant genişliği sağlar. DRAM ile karşılaştırıldığında, AMD'nin HBM'si, AI uygulamalarının daha verimli bir şekilde işlenmesi için belleği GPU'ya daha yakın hale getirmek için DRAM'den çok daha hızlı bir veri hızı ve çok daha fazla bellek yoğunluğu sunar.

Önümüzdeki on yılda, çok çipli mimarilerden, bellek teknolojisindeki yeniliklerden ve entegrasyondan, agresif 3D yığınlamadan ve modern sistem düzeyinde ara bağlantılardan daha fazla performans iyileştirmesi arayın. Endüstri ayrıca teknoloji ölçeklendirme yoluyla cihazlarda performans artışlarını, hesaplama yoğunluğunu ve gücü artırmaya devam edecek.

Kaynak: https://www.microsi.com/blog/breaking-the-memory-wall-in-ai/

spot_img

En Son İstihbarat

spot_img