日本a√视频在线,久久青青亚洲国产,亚洲一区欧美二区,免费g片在线观看网站

        <style id="k3y6c"><u id="k3y6c"></u></style>
        <s id="k3y6c"></s>
        <mark id="k3y6c"></mark>
          
          

          <mark id="k3y6c"></mark>

          新聞中心

          EEPW首頁 > 網(wǎng)絡(luò)與存儲 > 業(yè)界動態(tài) > 超越HBM!HBF未來崛起,NAND堆疊成為AI新的存儲驅(qū)動力

          超越HBM!HBF未來崛起,NAND堆疊成為AI新的存儲驅(qū)動力

          作者: 時間:2025-09-19 來源: 收藏

          據(jù)韓媒報道,被韓媒譽為“之父”的韓國科學技術(shù)院(KST)電氣工程系教授金仲浩表示,高帶寬閃存()有望成為下一代時代的關(guān)鍵技術(shù),并將與并行發(fā)展,共同推動各大芯片廠商的性能增長。

          的設(shè)計理念與類似,都利用硅通孔(TSV)連接多層堆疊芯片。不同的是,HBM以DRAM為核心,而則利用NAND閃存進行堆疊,具有“更高容量、更劃算”的優(yōu)勢。Kim Joung-ho指出,雖然NAND比DRAM慢,但其容量通常大10倍以上。有效地堆疊數(shù)百層甚至數(shù)千層,可以滿足模型的海量需求,有可能成為HBM的NAND版本。

          生成式AI模型正在迅速擴展,單個模型的輸入令牌數(shù)量已經(jīng)達到數(shù)百萬,處理需要數(shù)TB的數(shù)據(jù)。在每秒數(shù)千次讀寫作中,內(nèi)存帶寬不足可能會造成瓶頸,從而顯著減慢ChatGPT和Google Gemini等大型語言模型(LLM)的響應(yīng)速度。

          Kim Joung-ho強調(diào),這種限制來自當前的馮·諾依曼架構(gòu)。由于GPU和內(nèi)存是分開設(shè)計的,數(shù)據(jù)傳輸帶寬決定了性能上限?!凹词笹PU大小翻倍,如果帶寬不足,也沒有意義?!?br/>
          他預(yù)測,未來的GPU將同時整合HBM和HBF,形成一個互補的架構(gòu):HBM將作為實時數(shù)據(jù)處理的高速緩存,而HBF將提供大容量,直接存儲完整的AI模型。這將有助于克服內(nèi)存瓶頸,使GPU能夠處理更大、更復(fù)雜的生成式AI,甚至包括長片。Kim Joung-ho表示:“未來,AI將超越文本和圖像,能夠生成長片。所需的內(nèi)存容量將比目前大1000倍以上。



          關(guān)鍵詞: HBM HBF NAND堆疊 AI 存儲

          評論


          相關(guān)推薦

          技術(shù)專區(qū)

          關(guān)閉