日本a√视频在线,久久青青亚洲国产,亚洲一区欧美二区,免费g片在线观看网站

        <style id="k3y6c"><u id="k3y6c"></u></style>
        <s id="k3y6c"></s>
        <mark id="k3y6c"></mark>
          
          

          <mark id="k3y6c"></mark>

          新聞中心

          EEPW首頁 > 智能計算 > 編輯觀點 > 藍海變成紅海?AMD在AI領域向英偉達發(fā)起挑戰(zhàn)!

          藍海變成紅海?AMD在AI領域向英偉達發(fā)起挑戰(zhàn)!

          作者:ZongYu 時間:2023-06-16 來源:EEPW 收藏

          最近今年隨著各種生成式AI的大伙,著實是風光了好一陣子。作為被大眾成為新一代“工業(yè)革命”的生成式AI在現(xiàn)實中雖剛剛進入應用階段,作為AI訓練最優(yōu)秀的硬件生產商的股票可謂是節(jié)節(jié)高升,面對這一片藍海,其他廠商不可能不眼紅于是就在前不久2023613的老對手在數據中心和人工智能首映式上就發(fā)布了全新一代AI芯片,號稱世界上最強的AI處理芯片。

          圖片1.jpg 

          英偉達AI計算平臺H100

           

          在會議開始時, 全球總裁兼 CEO 蘇姿豐表示:今天,我們在數據中心戰(zhàn)略上又向前邁出了重要一步,因為我們擴展了第四代 EPYC 處理器系列,為云和技術計算工作負載提供了新的領先解決方案,并宣布了與最大的云提供商的新公共實例和內部部署。人工智能是塑造下一代計算的決定性技術,也是  最大的戰(zhàn)略增長機會。我們專注于加速 AMD AI 平臺在數據中心的大規(guī)模部署,計劃于今年晚些時候推出我們的 Instinct MI300 加速器,以及為我們的硬件優(yōu)化的企業(yè)級 AI 軟件生態(tài)系統(tǒng)不斷壯大。

          隨后蘇姿豐博士便發(fā)布了三款全新的面對數據中心和AI平臺的芯片,分別是:新一代的 Epyc 處理器,Bergamo 是針對云原生應用的產品線,也是第一款使用 Zen 4c 架構的產品;最新的緩存堆疊 芯片,代號為 Genoa-X,與具有相同內核數的 Intel Xeon 的比較,性能提高了 2.2 倍和 2.9 倍;新款  專用的 MI300X AI 加速器,并表示 MI300X 和 8- Instinct 平臺將在第三季度出樣,并在第四季度推出。我們分別來簡要介紹一下

          正如上文所說,Bergamo 是針對云原生應用的產品線,Bergamo所使用的Zen 4c架構是一種“青春版”,進行了一系列的精簡重新設計了L3快取系統(tǒng),對比完整的Zen 4架構,其芯片面積減少了35%。

          在具體規(guī)模方面, Bergamo Epyc 處理器具有 最高128 個核心和 256 個線程,分布在八個核心復合芯片上。其中每一個CCD芯片之上16Zen 4c,而一顆Bergamo其上最多集成8CCD,因此其最高具備128 核心同時其采用了臺積電5nm工藝制造,共有高達 820 億個晶體管。

          圖片2.jpg 

          AMD Bergamo Epyc 處理器

           

          Meta將作為Bergamo芯片最先一批客戶,Meta計劃為其基礎架構使用Bergamo,它的性能比上一代 Milan 芯片高出 2.5 倍。Meta 還將使用 Bergamo 作為其存儲平臺。

           

          接下來便便是AMD推出的Genoa-X,其針對的場景主要是高性能計算例如流體力學、分子動力學、有限元分析等等對于帶寬要求極高的科學計算應用。為此AMDGenoa-X CPU 在每個芯片計算芯片上堆疊了 64MB SRAM ,因此其三級緩存來到了驚人的1.1GB的大小。得益于如此恐怖的三級緩存大小,Genoa-X 與具有相同內核數的 Intel Xeon 的比較,其對于流體力學的計算能力直接提升了2.2

          圖片3.png 

          AMD Genoa-X

           

          而本次發(fā)布會的重磅內容,自然是AMD面向AI的計算平臺,Instinct MI300 加速器。它的對標對手正是近期大紅大紫的英偉達“地球最強”計算平臺H100系列。AMD Instinct MI300 于去年 月首次發(fā)布,并在 2023 年國際消費電子展上進行了更深入的詳細介紹,這是 AMD 在 AI 和 HPC 市場的重要一步。

           圖片3.jpg

          AMD直面英偉達推出的平臺MI300系列

           

          在本次發(fā)布會之上,蘇姿豐發(fā)布了兩款MI300系列加速器,分別是MI300AMI300X其中,MI300A基礎款,MI300X則是硬件性能更高的大模型優(yōu)化款。

          我們先來看看MI300A的基本情況,AMD表示MI300A是首款AMD面對AI和高性能計算(HPC)推出的APU。它一共擁有13個小芯片,包含95nm制程GPU+CPU,以及46nm制程的小芯片(base dies),包含1460億個晶體管,其中有24Zen 4 CPU核心,1CDNA 3圖形引擎,128GBHBM3內存。九個計算裸片混合了 5nm CPU 和 GPU,它們以 3D 方式堆疊在四個 6nm 基礎裸片之上,這些裸片是處理內存和 I/O 流量以及其他功能的有源中介層對比與上一代產品MI250,性能提升了8倍,效率提升了5倍。

          作為重量級產品的MI300XAMDPPT上打出了十分令人矚目的一行字For LLM——大語言模型專用。AMD表示,MI300X的高帶寬內存(HBM)密度,最高可達英偉達H1002.4倍,高帶寬內存帶寬最高可達H1001.6倍,顯然MI300X能運行比H100更大的AI模型。在發(fā)布會上,蘇姿豐博士還現(xiàn)場運行了Hugging Face falcon-40b-instruct模型,寫了首關于舊金山(這次AMD發(fā)布會地址)的小詩,以此來展示MI300X在本地處理大語言模型的強大算力

          圖片4.png 

          在硬件參數方面,MI300X包含12個小芯片,1530億個晶體管,192GBHBM3內存,內存帶寬達到5.2TB/s,Infinity Fabric帶寬達到896GB/s。這次MI300X所提供的HBM密度是對手英偉達H1002.4HBM帶寬則是1.6。單單從硬件參數上來看,MI300X無疑是已經超過了英偉達的H100成為了這個星球上,最強的LLM訓練硬件,但是有趣的是就在MI300系列發(fā)布的時刻,資本市場的反應卻不是很樂觀

          圖片5.png 

          隨著發(fā)布會的進行,AMD的股票是一跌再跌跌幅最大的時候一度超過了3.61%,而英偉達這邊倒是迎來的一波小小的漲幅。看來對于投資者來說,對于AMD強勢發(fā)布的MI300系列好像并不是很好看。鑒于AMD這幾年來在AI方面的遲緩,再加上MI300X要等到今年年末才有可能被AMD推向市場,這種股價變動,倒也是在意料之中

          不管怎么說,英偉達已經在AI計算領域稱王稱霸了許久現(xiàn)在終于有一個實力“靠譜”的新選手上臺挑戰(zhàn)了,無論結果如何,對于整個市場來說一定是樂于見到的,比起英偉達的一家獨大百家爭鳴才是一個良性的環(huán)境。

             



          關鍵詞: AI計算 AMD 英偉達 GPU

          評論


          相關推薦

          技術專區(qū)

          關閉