Zephyrnet Logosu

AI ile daha büyük donanım ve yazılım resmini görmeniz gerekir

Tarih:

görüntü

Sponsorlu Özellik Araştırmacıların, grafik işlem birimlerinin önemli AI operasyonlarını önemli ölçüde hızlandırmak için kullanılabileceğini göstererek teknoloji dünyasının gözlerini kamaştırmasının üzerinden on buçuk yıl geçti.

Bu farkındalık, işletmelerin hayal gücünü ele geçirmeye devam ediyor. IDC, altyapı söz konusu olduğunda, yapay zeka altyapısını oluşturmak isteyen teknoloji liderleri ve mimarlar için GPU hızlandırmalı bilgi işlem ve HPC benzeri ölçeklendirmenin en önemli hususlar arasında olduğunu bildirdi.

Ancak yapay zekayı gerçek dünya sorunlarına başarıyla uygulayan tüm kuruluşlar için, daha pek çoğu deney veya pilot aşamanın ötesine geçmek için mücadele ediyor. IDC'nin 2021 araştırması yanıt verenlerin üçte birinden daha azının yapay zeka projelerini üretime taşıdığını ve bunların yalnızca üçte birinin "üretimin olgun aşamasına" ulaştığını buldu.

Belirtilen engeller, verilerin işlenmesi ve hazırlanması ile kurumsal ölçekte yapay zekayı desteklemek için altyapının güçlendirilmesi ile ilgili sorunları içerir. IDC, işletmelerin "amaca uygun ve doğru boyutta altyapıya" yatırım yapması gerektiğini söyledi.

Buradaki AI sorunu nedir?

Peki bu kuruluşlar yapay zeka konusunda nerede yanlış yapıyor? Bir faktör, teknoloji liderlerinin ve AI uzmanlarının, diğer bilgi işlem motorlarına, özellikle de saygıdeğer CPU'ya kıyasla GPU'lara çok fazla dikkat ederken daha geniş AI boru hattına bütünsel bir bakış atmakta başarısız olmaları olabilir.

Çünkü nihayetinde mesele CPU'ları, GPU'ları ve ASIC'leri destekleme meselesi değil. Bunun yerine, sizi fikirlerden, verilerden ve model oluşturmadan konuşlandırma ve çıkarıma götürebilecek bir yapay zeka ardışık düzeni oluşturmanın en uygun yolunu bulmakla ilgilidir. Bu da, doğru bilgi işlem motorunu doğru zamanda uygulayabilmeniz için farklı işlemci mimarilerinin ilgili güçlü yanlarını takdir etmek anlamına gelir.

Intel'in Veri Merkezi Yapay Zeka Stratejisi ve Yürütme Kıdemli Direktörü Shardul Brahmbhatt şöyle açıklıyor: “CPU, bulutta mikro hizmetler ve geleneksel bilgi işlem örnekleri için kullanıldı. Ayrıca GPU'lar, medya akışı, oyun oynama gibi paralel bilgi işlem ve yapay zeka iş yükleri için kullanıldı."

Hiper ölçekleyiciler ve diğer bulut oyuncuları dikkatlerini yapay zekaya yönelttikçe, aynı güçleri farklı görevler için kullandıkları açık hale geldi.

GPU'ların paralel hesaplama konusundaki yetenekleri, onları örneğin yapay zeka algoritmalarını eğitmek için son derece uygun hale getirir. Bu arada, CPU'lar, düşük toplu iş, düşük gecikme süreli gerçek zamanlı çıkarım ve bu algoritmaları canlı verileri analiz etmek ve sonuçlar ve tahminler sunmak için kullanma söz konusu olduğunda avantajlıdır.

Yine uyarılar var, diye açıklıyor Brahmbhatt, "Daha fazla toplu çıkarım yapmak istediğiniz yerler var. Ve bu toplu çıkarım aynı zamanda GPU'lar veya ASIC'ler aracılığıyla yapılan bir şeydir."

Boru hattından aşağıya bakmak

Ancak yapay zeka boru hattı, eğitim ve çıkarımın ötesine geçer. Boru hattının sol tarafında, verilerin önceden işlenmesi ve algoritmaların geliştirilmesi gerekir. Genel CPU'nun burada oynayacağı önemli bir rol vardır.

Aslında, Intel'e göre GPU'lar, yapay zeka boru hattındaki toplam işlemci etkinliğinin nispeten küçük bir bölümünü oluşturuyor ve Intel'e göre CPU destekli "veri aşaması" iş yükleri genel olarak üçte ikisini oluşturuyor (Çözüm Özetini okuyabilirsiniz - Intel CPU Teknolojisi ile Çıkarımı Optimize Edin İşte).

Ve Brahmbhatt bize CPU mimarisinin programlanabilirlik dahil başka avantajları olduğunu hatırlatıyor.

"CPU'lar çok geniş bir şekilde kullanıldığından, halihazırda mevcut bir geliştiriciler ve uygulamalar ekosistemi ve ayrıca genel amaçlı bilgi işlem için kullanım kolaylığı ve programlanabilirlik sağlayan araçlar var" diyor.

İkincisi, CPU'lar daha geniş bellek alanına daha hızlı erişim sağlar. Ve sonra üçüncü şey, daha paralel bilgi işlem olan GPU'lara karşı daha yapılandırılmamış bilgi işlem olmasıdır. Bu nedenlerden dolayı CPU'lar, GPU'ları besleyen veri taşıyıcılar olarak çalışır ve böylece Öneri Sistemi modellerinin yanı sıra Grafik Sinir Ağları gibi gelişen iş yüklerine yardımcı olur."

AI geliştirme için açık bir plan

Peki, şirket içinde, bulutta veya her ikisine birden bağlı bir yapay zeka geliştirme işlem hattı planlarken sırasıyla CPU'ların ve GPU'ların rollerini nasıl görmeliyiz?

GPU'lar, işlemlerin yükünü CPU'dan alan bir hızlandırma yöntemi sundukları için yapay zeka geliştirmede devrim yarattı. Ancak bundan, belirli bir iş için en mantıklı seçeneğin bu olduğu sonucu çıkmaz.

Intel platform mimarı Sharath Raghava'nın açıkladığı gibi, “Yapay zeka uygulamaları vektörleştirilmiş hesaplamalara sahiptir. Vektör hesaplamaları paralelleştirilebilir. AI iş yüklerini verimli bir şekilde çalıştırmak için, vektör hesaplamalarının boyutu, yük boşaltma gecikmesi, paralelleştirilebilirlik ve diğer birçok faktör göz önünde bulundurularak CPU ve GPU'ların yeteneklerinden yararlanılabilir”. Ancak, "daha küçük" bir görev için boşaltmanın "maliyetinin" aşırı olacağını ve bunu bir GPU veya hızlandırıcı üzerinde çalıştırmanın mantıklı olmayabileceğini sözlerine devam ediyor.

CPU'lar, AI işini daha hızlı tamamlamalarına olanak tanıyan diğer sistem bileşenleriyle daha yakın entegrasyondan da yararlanabilir. Yapay zeka dağıtımlarından maksimum değer elde etmek, yalnızca modelleri çalıştırmaktan daha fazlasını içerir; aranan içgörü, verimli ön işleme, çıkarım ve son işleme operasyonlarına bağlıdır. Ön işleme, çıkarım oluşturmak için beslenmeden önce verilerin eğitilen modelin girdi beklentileriyle eşleşecek şekilde hazırlanmasını gerektirir. Yararlı bilgiler daha sonra son işleme aşamasında çıkarım sonuçlarından çıkarılır.

Örneğin bir veri merkezi saldırı tespit sistemini (IDS) düşünürsek, bir siber saldırıdan kaynaklanan herhangi bir hasarı zamanında korumak ve önlemek için modelin çıktısına göre hareket etmek önemlidir. Ve tipik olarak, ön işleme ve son işleme adımları, mimari ekosistemin geri kalanıyla daha yakından entegre oldukları için ana sistem CPU'larında gerçekleştirildiklerinde daha verimlidir.

Başlangıç ​​siparişlerinde performans artışı

Peki bu, GPU hızlandırmanın faydalarından tamamen vazgeçmek anlamına mı geliyor? Şart değil. Intel, birkaç yıldır Xeon Ölçeklenebilir CPU'larında yapay zeka hızlandırması geliştiriyor. Ürün yelpazesi, derin öğrenme modellerinde yüksek performanslı çıkarım için Deep Learning Boost'u içerirken, Intel'in Gelişmiş Vektör Uzantıları 512 (AVX 512) ve Vektör Sinir Ağı Uzantıları (VNNI), INT8 çıkarım performansını hızlandırır. Ancak DL Boost, yüksek düzeyde hassasiyet gerektirmeyen eğitim iş yüklerinde performansı artırmak için beyin kayan nokta formatını (BF16) da kullanır.

Intel'in yaklaşmakta olan Xeon Ölçeklenebilir dördüncü nesil CPU'ları, gelişmiş matris çarpımı veya AMX ekleyecektir. Bu, Intel'in hesaplamalarına göre önceki işlemcilerde uygulanan AVX-8 VNNI x512 uzantılarına göre 86 kat daha fazla artış sağlayacak ve 4. Nesil Ölçeklenebilir Intel Xeon işlemcilerin "eğitim iş yüklerini ve DL algoritmalarını bir GPU gibi işlemesini" sağlayacaktır. Ancak aynı hızlandırıcılar, yapay zeka ve yapay zeka olmayan iş yükleri için genel CPU bilgi işlemine de uygulanabilir.

Bu, Intel'in AI ardışık düzenlerinin baştan sona x86 olmasını beklediği anlamına gelmez. Paralelleştirmeden fayda sağlayacak eğitim iş yüklerini tamamen boşaltmak daha mantıklı olduğunda Intel, Habana Gaudi Yapay Zeka Eğitim İşlemcisini sunar. Kıyaslama testleri, bulutta barındırılan karşılaştırılabilir Nvidia GPU tabanlı eğitim bulut sunucularından yüzde 2'a kadar daha iyi fiyat-performans sağlayabilen Amazon EC1 DL40 bulut sunucularını güçlendirdiğini gösteriyor.

Aynı zamanda Intel'in Veri Merkezi GPU Flex Serisi, "daha hafif" ve daha karmaşık yapay zeka modellerinde sunulan farklı uygulamalarla yapay zeka çıkarımı gibi paralelleştirmeden yararlanan iş yüklerine ve operasyonlara yöneliktir. Ponte Vecchio (PVC) kod adlı başka bir Intel® Veri Merkezi GPU'su, kısa bir süre sonra Argonne Ulusal Laboratuvarı'ndaki Aurora süper bilgisayarına güç sağlamaya başlayacak.

Baştan sona gidebilir miyiz?

Potansiyel olarak Intel'in silikonu, farklı bilgi işlem motorları arasında gereksiz yere veri boşaltma ihtiyacını en aza indirirken tüm yapay zeka boru hattını destekleyebilir. Şirketin işlemcileri - GPU veya CPU - aynı zamanda, OneAPI programı aracılığıyla Intel optimizasyonları ile açık kaynak araçlarına ve çerçevelerine dayalı ortak bir yazılım modelini destekler.

Brahmbhatt, Intel'in topluluğa ve açık kaynağa dayalı bir x86 yazılım ekosistemi oluşturma konusundaki mirasından başka bir avantaj olarak bahsediyor. “Intel'in sahip olduğu felsefe … 'ekosistemin benimsemeyi yönlendirmesine izin ver' şeklindedir. Adil ve ekosisteme açık olduğumuzdan emin olmalıyız ve gizli soslarımızdan herhangi birini ekosisteme geri vermeliyiz.

"Temel olarak, geliştiricilerin yapay zeka için CPU ve GPU arasındaki IP farklılaşması konusunda endişelenmelerine gerek kalmamasını sağlamak için ortak bir yazılım yığını kullanıyoruz."

Ortak bir yazılım yığını ile doğru görev için doğru bilgi işlem motorunu kullanmaya odaklanmanın bu birleşimi, kuruluşta daha da önemlidir. İşletmeler, ister bulutta ister şirket içinde olsun, en acil sorunlarından bazılarını çözmelerine yardımcı olması için yapay zekaya güveniyor. Ancak karma iş yükleri, hızlandırıcıda bulunan çekirdeğe dahil olmayan kodu çalıştırmak için tam özellikli yazılımların yanı sıra sistem yığınının bakımını ve yönetimini gerektirir.

Bu nedenle, "Yapay zekayı kurumsal ölçeğe nasıl getiririz" sorusunun yanıtlanması söz konusu olduğunda, yanıt, daha büyük resme bir göz atmaya ve elinizdeki tüm donanım ve yazılım setini kullandığınızdan emin olmaya bağlı olabilir.

Intel'in sponsorluğunda.

spot_img

En Son İstihbarat

spot_img