Zephyrnet Logosu

Yapay Zeka İş Yükleri İçin İşlemci Ödevleri

Tarih:

AI, veri merkezlerinde kullanılan çiplerde ve bunları tasarlamak için kullanılan araçlarda temel değişiklikleri zorluyor, ancak aynı zamanda bu teknolojinin ilerleme hızı ile müşterilerden gelen talepler arasında boşluklar yaratıyor.

Bu değişimler kademeli olarak başladı, ancak ChatGPT ve diğer büyük dil modellerinin piyasaya sürülmesiyle geçen yıl içinde hızlandı ve çoğaldı. Aniden çok daha fazla veri var ve hepsinin daha az güç kullanarak ve sınırlı alana sıkıştırılmış daha fazla işlevsellik ile daha hızlı işlenmesi gerekiyor.

Daha da kötüsü, bu yeni bir teknoloji olduğu için, aynı zamanda neredeyse sürekli bir değişim halindedir. Bu da, görünüşte birbiriyle çelişen bir dizi zor takas yaratıyor. Örneğin, çipler, bu değişiklikleri hesaba katmak için yerleşik esneklik gerektirir, ancak normalde bir ASIC ile ilişkilendirilen performans ve enerji verimliliğinde. Bu tasarımlar ayrıca sıkı bir şekilde entegre edilmiş yazılım gerektirir, ancak algoritmalardaki değişikliklerin neden olduğu güç ve performans etkilerini ölçmek ve bunlara yanıt vermek için yeterli esnekliği gerektirir. Ve tüm bunların tasarım döngüsünde daha erken gerçekleşmesi gerekiyor.

Uygulama mühendisliği bilimcisi Alexander Wakefield, "Veri merkezinde donanım tarafında bir süre geriye giderseniz, Intel bunun geleceğini on yıl önce Altera'yı satın aldıklarında görmüş olabilir" dedi. Synopsus. "Fikir, x86 CPU'nun hemen yanına bir FPGA yapısı koyabileceğimiz ve bunun dünyada devrim yaratacağıydı. Altera için çok para ödediler, onları şirkete dahil ettiler ve sonra hiçbir şey olmadı. FPGA gerçekten bunun için doğru parça mı? Belki değil. Bir şeyi alıp bir tür donanım mantığıyla sentezleyip bir FPGA'ya koyabilmeniz gerçekten harika. Bir yapay zeka gibi ve bir hızlandırıcı. Ama doğru hızlandırıcı mı? Belki değil. NVIDIA doğru anladı ve hisse senedi fiyatı bunu gösterdi. Müşteriler, yazılım tabanlı bir iş yükünü alıp GPU'da binlerce küçük işlem birimi bulunan bir donanıma çekmek istiyor ve GPU'ya hazır çok karmaşık görevler yapmaları gerekiyor.”

PCIe, CXL ve Interface IP Kıdemli Ürün Pazarlama Grubu Direktörü Arif Khan'a göre, üretken yapay zeka devrimi 2017'de "Dikkat Tek İhtiyacınız Olan" adlı ufuk açıcı makalenin yayınlanmasıyla başladı. Ritim. "Bu makale, AI'yı bugün bir ev terimi haline getiren ChatGPT ve DALL-E gibi uygulamaları yönlendiren büyük dil modeli (LLM) uygulamalarının temelini oluşturan dönüştürücü modelini açıkladı. ChatGPT, lansmanından sonraki iki ay içinde 100 milyon kullanıcıya ulaşarak bugüne kadarki diğer tüm uygulamalardan daha hızlı benimsendi. Eğitim modelleri, kullanıcılar bu sistemleri sorguladığında çıkarımlarda bulunulabilmesi için yüz milyarlarca parametre kullanır.

Eğitim, çıkarım, veri madenciliği ve grafik analitiği için AI/ML tasarımlarının farklı ihtiyaçları vardır. "Örneğin," dedi Khan, "eğitim SoC'leri, eğitim sırasında vektör işlemlerini gerçekleştirebilen ve ağırlıkları paylaşabilen TPU'lar/GPU'lar içeren özel mimariler veya özel tasarımlar gerektirir. Çıkarım için hedeflenen tasarımlar, yüksek hacimli sorgulara yanıt vermeli ve daha yüksek bant genişliğine sahip ağ arabirimlerine ihtiyaç duymalıdır.”

Veri merkezlerindeki çipler, fiziksel boyut açısından zaten sınırları zorluyordu. Bu yongalardan bazıları, retikülün boyutunu aştı ve birbirine dikilmesi gerekiyordu. Giderek artan bir şekilde, bu yaklaşımın yerini Z boyutuna doğru itme alıyor.

şirketinde yarı iletken ürünler ürün yönetimi müdürü olan Preeti Gupta, "AMD gibi şirketler, dikey ölçeğe entegre edilmiş 3D-IC tasarımları oluşturma aşamasına fazlasıyla girmiş durumda" dedi. Ansys. "Geçmişte yaptığımız iki boyutlu düzen gibi yan yana değil, yarı iletken kalıpları üst üste koyuyorsunuz. Bu gerçekten maliyeti düşürürken PPA hedeflerini karşılamak için."

Ancak bu, çiplerin nasıl tasarlandığını etkiler ve tasarım sürecini otomatikleştirmek için farklı araçlar, metodolojiler ve akışlar gerektirir. Düzenler, termal etkilerin ve gürültünün yanı sıra farklı malzeme ve yapıların zaman içindeki davranışlarını da dikkate almalıdır. Tüm bunlar, daha tasarım aşamasında işlenmesi, yönetilmesi ve saklanması gereken veri miktarını artırır. Örneğin, tasarım ekipleri işlenecek tüm verileri çeşitli bilgi işlem öğeleri arasında nasıl dağıtır ve ardından yeniden birleştirildiğinde sonuçların doğru olmasını nasıl sağlar? Algoritma değişikliklerinin gerçek iş yüklerini kullanarak donanım performansı ve güç üzerindeki etkilerini anlamak gibi daha fazlası akışta daha erken nasıl yapılabilir?

Gupta, "AI/ML tasarımcıları, algoritmalarını tasarım akışının erken aşamalarında optimize etmek istiyor" dedi. "Ayrıca bunu çok hızlı bir şekilde yapmak istiyorlar - bir gün içinde birden fazla tekrar yapmak istiyorlar. Açıkçası, RTL'nizi tasarladığınızda, onu bir ağ listesine sentezlediniz ve şimdi uzun bir döngü olan algoritmayı değiştirmek istiyorsunuz — tasarım ekipleri bu optimizasyonları şu anda yapsalar en az 10 kat daha fazla üretkenlik elde edebilirler: RTL. Ayrıca bu AI/ML ekipleri, gerçek uygulama iş yüklerini kullanarak tasarım kararlarına rehberlik etmek istiyor. Bu şirketlerin artık gerçek bir uygulama iş yükünü anlamak için çok hızlı erken güç profili oluşturma teknikleri kullandıklarını, yapay zeka algoritmasını değiştirirlerse tepe gücün veya bir di/dt olayının nasıl değişeceğini buluyoruz. Yapay zeka algoritması optimize edilirken günde birkaç kez milyarlarca döngü boyunca döngü başına bir güç dalga formu üretebilmenin gücünü hayal edin. Güç bağlamında AI algoritmalarını optimize etmek için bu hızlı profil oluşturma yaklaşımlarını kullanıyorlar.”

Bunun da ötesinde, performans ve güç hedeflerine ulaşmak ve işlevsel olarak yararlı olmak için tasarımın her yönünün zamanlamasının senkronize edilmesi gerekir. Baş ürün uygulamaları mühendisi Mahmud Ullah, "Tasarımcıların bakış açısına göre, her türlü çip tasarımında zamanlama yapmak her zaman çok önemli olmuştur" dedi. Siemens Digital Industries Yazılımı. Ancak son zamanlarda bunun sadece zamanlamayla ilgili olmadığını gördük. Güç aynı zamanda bir endişe kaynağıdır. Bu bağlamda, veri merkezi yongalarının yanı sıra CPU'lar, GPU'lar, Nesnelerin İnterneti dahil olmak üzere farklı alanlar için yongalar tasarlayan birçok tasarımcı için güç ana endişe kaynağıdır. Ve özellikle veri merkezi yongaları oluşturan mühendislik ekipleri için, gücü tasarım döngülerinin başında ölçmek istiyorlar çünkü güç, günümüzün en önemli kısıtlamalarından biri."

Basitçe söylemek gerekirse, çok daha fazla veri sola kaydırılıyor ve bu, tasarım döngüsünün ön ucunda bir sel yaratıyor.

Ullah, "Asıl mesele, gücü ne kadar doğru tahmin edebileceğinizdir," dedi, "SoC düzeyinde, bunlar neredeyse bir milyar kapıya sahip olabilen büyük tasarımlar. Asıl amaç, bu gücü ne kadar doğru tahmin edebileceğinizi bilmektir. Ve bunu yapmak için, onu ölçebilmenizin tek yolu onu öykünme araçlarında çalıştırmaktır çünkü bu, hangi son uygulamaları çalıştıracağınızı görmenizi sağlar. Yeni bir tür yazılım tasarladığınız ve o yazılımı çalıştırmaya başladığınızda birdenbire çipin çalışmadığını gördüğünüz durumlar olabilir. Bu durumu önlemek için tasarımlarınız için çok erken bir aşamada gerçek uygulamaları çalıştırmak faydalı olacaktır. Veri merkezi tasarımlarında SoC düzeyinde güç tahmini kullanılır. Oradan, mühendislik ekibi büyük tasarımlarını gerçek uygulamalar ve gelen gerçek uyaranlar ile yürütür. Ardından, güçle ilgili sorunları erken aşamada izole eder ve ardından bunları düzeltir ve daha fazla optimizasyon gerçekleştirir."

Cadence'den Khan ayrıca güç tüketiminin bir endişe kaynağı olduğunu belirtti. "Eğitim modelleri son derece güç yoğundur ve bu modelleri çıkarım için sürdürmek sürekli olarak güç tüketmeye devam eder. Eğitim için daha yeni mimariler, vektör operasyonlarını ve veri hareketinin yerini optimize etmek için özel mimarilere dayanmaktadır ve bu alanda çalışan, sürekli artan sayıda girişim vardır. Etkisini, bellek seçimi gibi tasarım kararları açısından görüyoruz: HBM'ye karşı GDDR'ye karşı LPDDR; yonga tabanlı bölümlerin yükselişi ve bir yonga bağlantı arabirimi olarak UCIe'ye yönelik dramatik talep; ve yeni bellek mimarilerini desteklemek için artan CXL dağıtımı.”

Geçmişe bakıldığında, üretken yapay zekanın piyasaya sürülmesinden önce bu çok daha basitti. Belirsizlik seviyesi ve işlenmesi gereken veri miktarı patladı. Dikkate alınması gereken daha birçok seçenek var ve tüm bunların güvenilir ve hızlı bir şekilde yapılması gerekiyor. Ancak en iyi yaklaşım nedir ve bu, gücün yönetilebilir ve performansın yeterli olduğu ve aşırı ısınma olmadan tam geçişte çalışabileceği bir şekilde nasıl tasarlanır ve bölümlere ayrılır?

Synopsys'ten Wakefield, bir işlemci çipinin ve bir yapay zeka çipinin aynı silikon parçası üzerinde mi yoksa aynı alt tabaka üzerinde mi entegre edilmesi gerektiğini sorguluyor. “Aynı tahtaya yerleştirilmeleri gerekiyor mu? Kesinlikle. Zaten oluyor. Bu, güç ihtiyaçlarını artırıyor mu ve bu modellerin boyutlarının büyümeye devam ettiği anlamına mı geliyor? Evet. NVIDIA'nın AI yongalarından biri için alabileceği maliyete bakarsanız, bu önemli. Tek bir silikon parçası için liste fiyatları 30,000 ila 40,000 $ arasındadır. Sorunun bir kısmı, bu şeylerin güç özelliklerine baktığınızda, en yeni NVIDIA GPU'ların 450 ila 500 watt güç kullanmasıdır. Bu şeyi nasıl soğuk tutuyorsun? Silikonun erimesini nasıl önlersiniz? Belirli uygulamalar için güç ihtiyaçlarını azaltırsanız, bunu nasıl verimli bir şekilde yaparsınız? Bu daha sonra gerçek bir sorun haline gelecek. Şu anda çok fazla güç kullanıyor ve insanlar bedelini ödemeye hazır. Ancak AI birçok farklı şeyde daha yaygın hale geldiğinde, o öğeye 500 watt artı soğutma maliyeti harcamak istemezsiniz. Yani belki belirli bir görev için bir kilovattır. Aracınızda, sürücüsüz sisteme giden bir kilovat güç istemezsiniz. Tekerlekleri çalıştıran kilovat gücü istiyorsunuz. AI mimarileri daha iyi hale gelecek. Daha rafine olacaklar, daha özel hale gelecekler. Farklı şirketler kendi içlerinde farklı AI projelerini duyuruyor ve AI'yı IP olarak satan şirketler var.

Üretken yapay zeka için gerekli olacak bilgi işlem beygir gücü miktarı, temelde kendi içinde bir bükülme noktasıdır.

Wakefield, "Bir AI çipi oluşturduğunuzda ve içinde 1,000 AI çekirdeği olduğunda, müşteriler bir sonraki tasarımlarında 2,000 veya 4,000 çekirdek isterler" dedi. “Bundan sonrakinde daha da fazlası olacak. Sonra 3D-IC'lere geçeceğiz ve siz bu küçük parçaları inşa edebilecek, hepsini bir araya getirebilecek ve bunların hepsi birbirine bağlı yığınlar oluşturabileceksiniz. Intel'in Ponte Vecchio'su [artık Intel Veri Merkezi GPU Max Serisi olarak adlandırılıyor], birbirine dikilmiş 30 parçayla bir kredi kartı büyüklüğünde. Doğru verimi elde etmek için, doğru test için, bu ayrı ayrı karoların her biri farklı teknoloji düğümleri olabilir ve belirli parçalarını yeniden şekillendirebilir ve ardından bir ürün oluşturmak için bunları birleştirebilir. Bunun daha fazlasının geleceğini de göreceğiz.”

Verileri taşıma ve yönetme
İster makine öğrenimi, ister derin öğrenme, üretken yapay zeka veya başka bir varyant olsun, bu değişikliklerin çoğunu yönlendiren yapay zekadır. Ancak artan sistem talepleri, bu sistemleri tasarlama becerisini hızla aşıyor, her düzeyde boşluklar yaratıyor ve yeni teknolojilerin geçmişte hiç olmadığı kadar hızlı benimsenmesini sağlıyor.

"Tüm teknoloji ölçekleme eğilimlerine bakarsak, örneğin belleği alırsak, DDR belleğin performansı yaklaşık her beş yılda bir iki katına çıkar," Rambus. "Ancak HBM söz konusu olduğunda, daha hızlı. Her iki ila üç yılda bir HBM hızını iki katına çıkarır. Genel olarak, işlemcilerdeki çekirdek sayısı birkaç yılda bir ikiye katlanacak. Bu yavaşlasa da, tarihsel eğilim buydu. Ardından, özellikle eğitim tarafında yapay zekaya bakıyoruz ve talep birkaç ayda bir ikiye katlanıyor. Bu noktada, 'Vay canına, bu trendlere ayak uydurmak için tek başına silikon üzerinde yapabileceğim hiçbir şey yok' diye düşünmeye başlıyoruz. O zaman herkesin söylediği şey, 'Pekala, eğer bunu tek bir silikon parçasında yapamıyorsam, birçok silikon parçasında yapacağım. Ve sonra daha fazla silikon parçasını birbirine zincirleyeceğim.'”

Bunların hepsi teoride mantıklı. Sorun, görevleri tüm bu işleme motorları arasında bölmek ve sonunda sonuçları bir araya getirmektir.

Woo, "Eklediğiniz her [motor] için her birinin yaptığı iş miktarı düşüyor ve konuşmamız gereken daha fazla [motor] olduğu için yapmamız gereken iletişim miktarı artıyor," dedi Woo. “İletişimin çok pahalı olduğu her zaman böyle olmuştur. Ve bugün, bilgi işlemin iletişime göre ne kadar hızlı olduğuna bakarsanız, bazı senaryolarda işlem neredeyse ücretsiz görünüyor. İletişim, gerçek darboğazınızdır. Bu nedenle, kısmen motorların yapacak bir şeyleri olmasını istediğiniz için, bir sorunu ne kadar çözeceğiniz konusunda gerçekten ne kadar ileri gidebileceğiniz konusunda bir sınır vardır. Ama aynı zamanda darboğaza dönüşecek kadar çok iletişim kurmak da istemiyorsunuz.”

Bu da sorunun sadece bir yüzü. Bu sorunlar her yerde karşımıza çıkıyor.

"Belirli türde pazarlarda insanlar, 'Bu o kadar önemli bir sorun ki, tüm bunları çözmek için özel bir tür iletişim ağı tasarlayacağım' demeye istekli oluyor" dedi. "Bunu, NVIDIA gibi şirketlerin bir şeye sahip olduğu yapay zeka alanında görüyoruz. NVLink, bu onların süper hızlı iletişim mekanizmasıdır. Diğer şirketlerin başka yöntemleri var. Google TPU'nun kendi ağı vardır. Şu anda bu iletişim için optiğe çok fazla ilgi var çünkü silikon fotonik teknolojisinin olgunlaştığını görmeye büyük ilgi var. Duygu şu ki, iletişim sorununun etkisini bir kez azalttığınızda, bilgi işlem motorları yeniden büyük şey haline geliyor. Bu, 'Buna nasıl bakarım ve iletişimin büyük darboğaz olmadığından nasıl emin olurum?' İletişim hakkında düşünmenin bir yolu, sorunları çözmek için yapmamız gereken şeyin neredeyse bu kadar gerekli olduğudur. Ancak kendi başına, bir düğümden diğerine veri iletmek, hesaplamayı gerçekten ilerletmez. Bu sadece hesaplamaya devam etmek için gerekli bir kötülük.”

Daha hileli takaslar
Bir veri merkezi çipindeki tüm PPA gereksinimlerini dengelemek için çok sayıda hareketli parça vardır ve herhangi birindeki iyileştirmeler veya değişiklikler genellikle diğer iki gereksinimden en az birini etkiler.

Wakefield, "Yazılım tarafında, müşteriler sattıkları donanım, silikon ve onunla birlikte sattıkları bir tür kitaplık veya sürücü veya yazılım katmanının bir kombinasyonu olan bir AI hızlandırıcı oluşturuyorlar" dedi. "Son müşterinin umursadığı şey, her ikisinin birlikte toplam performansıdır. Yazılımınız gerçekten kötüyse, AI derleyiciniz de kötüdür ve donanımı kötü kullanır. O zaman müşteri kaybedeceksiniz çünkü daha düşük donanıma ancak daha iyi bir yazılım yığınına sahip olabilecek rekabete karşı duramayacaksınız.”

Bu, ön keşiflere çok daha fazla önem verdi. Wakefield, "Bulut sağlayıcılarından birine gidip bir NVIDIA GPU veya A100 yongası kiralayabilir ve iş yüklerinizi üzerinde çalıştırabilirsiniz" dedi. “Onu çalıştırmak için sizden dakika başına çok fazla ücret alacaklar. Bu çipleri NVIDIA'dan 30,000$'a mı yoksa 40,000$'a mı satın almaktan hoşlanıyorlar? bir parça? Muhtemelen değil. Kendilerini mi inşa edecekler? Muhtemelen. Bunu Amazon ile gördük. AWS'de, Amazon'un çekirdek sürümü olan Graviton alanını kiralayabilirsiniz. Bu onların kendi çekirdeğidir, Intel veya AMD değil, bu nedenle, çeşitli iş yükleri için veri merkezinde muhtemelen aynı tür şeylerin olduğunu göreceksiniz, burada belki biraz daha fazla güç/performans açısından belirli bir şey için en uygun olan özel silikon olabilir. veya aynı 3D-IC'de normal işlemci ve AI çipinin bir karışımı. Belki bu daha mantıklıdır. Ardından, belirli özel uygulamalar için, sürücüsüz arabalar, güvenlik kameraları gibi belirli gömülü tip uygulamalar için doğru güç profili ve performans profili ile ihtiyacınız olan doğru donanım kombinasyonuna sahip özel bir ASIC'yi kesinlikle göreceksiniz. pille iki yıl boyunca çalışan Ring kapı ziliniz.

Bu alandaki en büyük değiş tokuşlardan biri, bellek bant genişliği, kapasite ve maliyet arasındaki ödünleşimdir.

Cadence'de DDR, HBM, flaş/depolama ve MIPI IP ürün pazarlama grubu müdürü Marc Greenberg, "Bu, bant genişliği, kapasite ve maliyet arasında klasik bir 'ikiyi seç' ve bazen 'birini seç'" dedi. "Düşük kapasiteli bir kullanıcı, maliyet açısından en hassas uygulamalar için tek kademeli bir DDR5 arabelleğe alınmamış DIMM (UDIMM) seçebilir. Daha yüksek kapasiteye ulaşmak için, bellek kapasitesini iki katına çıkarmak için çift aşamalı bir UDIMM kullanılabilir - DRAM veri yolunu yavaşlatabilen DRAM veri yolunda biraz daha yüksek yükleme pahasına, ancak kullanılan ekstra bellek dışında önemli bir masraf yoktur. ”

Veri merkezi kullanıcıları genellikle, DIMM başına daha fazla sayıda DRAM kalıbını destekleyerek maksimum kapasitenin daha fazla iki katına çıkarılmasına izin veren, ancak hem eklenen ek bellek hem de kayıt saati sürücüsü (RCD) için ek bir maliyet getiren kayıtlı DIMM'yi seçer. ) her bir DIMM'e eklenen yonga. Greenberg, "Daha da fazla kapasite için, kanala ikinci bir DIMM soketi eklenebilir, bu da DRAM veri yolunda daha fazla yükleme ve bozulmuş sinyal bütünlüğü pahasına gelir, bu da yine bant genişliğini/hızı etkileyebilir," dedi.

Bunun ötesinde, daha yüksek kapasiteli DIMM'ler, 3B istifleme DRAM cihazları tarafından kapasiteyi daha da iki veya dört katına çıkarabilir; bu, yükleme üzerinde çok az etkiye sahiptir, ancak 3D istiflemeyle ilişkili olarak önemli maliyet ekleyebilir. "Ve daha fazla kapasite eklemek için, bir CPU üreticisi paralel olarak ek DIMM kanalları ekleyebilir, bu da bant genişliğini ve kapasiteyi iki katına çıkarır, aynı zamanda CPU üzerindeki DRAM ile ilişkili silikon alanı ve paket pinlerini de iki katına çıkarır. Bu, yeniliğe açık bir alandır ve tartışılan DRAM veriyoluna hem kapasite hem de bant genişliği eklemek için heyecan verici gelişmeler var” diye ekledi.

Gelecekte çip inşa etmek
Wakefield, AI alanında bunun daha fazlasını göreceğimize inanıyor. “Şu anda insanların çipi mümkün olan en hızlı şekilde çıkarması gereken Altına Hücum aşamasındayız. Bugün biraz ekstra güç kullanıyorsa, o kadar da önemli değil. İnsanlar bir AI çipi için büyük miktarda para ödüyorlar. Tükettikleri güç bir faktördür, ancak o kadar da büyük bir sorun değildir. Endüstri biraz olgunlaştıkça, güç kısmının çok daha önemli bir faktör haline geldiğini göreceksiniz. Bu şeylerin erimesini nasıl durdurursunuz? İki kat daha büyük yapabilirsen yaparsın ama şimdi bir kilovat olacak ve bir kilovat silikonu eritiyor.”

Bu maliyet ekler. Gücü ve genel termal ayak izini yönetmek önemlidir. Ayrıca doğru yapmak pahalıdır ve yanlış yapmak daha da kötüdür.

Ansys'den Gupta, "Termal kaçak konusunda endişelenmeli ve gerçek uygulama iş yüklerine bakma ve tasarımcıların bu mimari kararları vermelerine yardımcı olabilme yeteneğine sahip olmalıyız," diye ekledi. “Veri merkezi için tasarlanmış bir AMD GPU'nuz olduğunu ve onlarca farklı termal sensöre sahip olduğunu varsayalım. Termal sensörlerden birine bakıyorsunuz ve sıcaklığını gözlemliyorsunuz. GPU performansının güçle sınırlı olduğunu biliyoruz, ancak bu ne anlama geliyor? Bu, GPU çalışırken ve örneğin bir çocuk GPU'da bir oyun uygulaması çalıştırırken, o kalıp için sıcaklığın yükseldiği anlamına gelir. Termal sensör bu eşiği algılar algılamaz - hadi 100°C diyelim - bu işlemin sıklığını azaltmak mantıklı olacaktır. Çalışabilmesi ve termal kaçak sorununa neden olmaması için o çipi soğutması gerektiğinden, frekans düştüğü anda kullanıcı optimumdan daha az bir deneyim yaşar. Oyunu daha yavaş çalıştırabilirler. Bu nedenle, bu şirketlerin tümü, bu gerçek kullanım durumlarını erkenden anlamaya ve bunları karşılamak için dinamik voltaj ve frekans ölçeklendirmeyi tasarlayabilmeye ve termal sensörleri doğru konumlara yerleştirebilmeye odaklanmıştır. Bir milyar örnekli veri merkezi çipiniz varsa, bir milyar termal sensöre sahip olamazsınız. Peki bu termal sensörleri nereye yerleştiriyorsunuz? Ve tasarımdaki termal veya güç noktaları hangileri?

spot_img

En Son İstihbarat

spot_img