在上禮拜的文章中我和大家提到可以多多關注【記憶體族群】,今天我則要和大家好好介紹其中的來龍去脈,首先你要先知道什麼是記憶體(RAM)? 簡單來說就是提供電腦儲存資料,並在短期內能夠快速存取的元件,而依據「儲存資料後是否需要持續供電」這個特性,又可以區分為兩大類別、四種不同類型的記憶體,分別為揮發性記憶體的 DRAM 和 SRAM 以及非揮發性記憶體的 ROM 和 Flash,而我主要和大家討論的就集中在 DRAM 上。
那為什麼在現今 AI 伺服器的浪潮下,有望帶動記憶體需求成長呢 ? 主要是因為記憶體是提供一個快速、臨時的存儲區域,以支援 CPU 的即時操作和執行任務,這比 CPU 不透過記憶體自己去硬碟抓資料的速度快上數百萬倍 ! 所以為了讓未來 AI 伺服器在處理逐漸複雜化的模型或其他需要大量數據的工作時,可以更快速地被載入和處理,就需要越來越多的記憶體並提升它的容量,但是當 AI 的模型參數越來越多、運算速度越來越快,就導致目前一般的記憶體逐漸跟不上 AI 的運算需求,甚至在發展的速度上已經落後超過 40 年,這就是所謂的記憶體之牆。
而根據集邦調查指出,以現階段一般伺服器的 DRAM 普遍配置約為 500~600GB 左右,而 AI 伺服器在單條模組上則多採 64~128GB,平均容量可達 1.2~1.7TB 之間,在未來甚至會推升到 2.2~2.7TB,所以為了打破這道牆就逐漸延伸出了不同於過去平鋪做法的 3D 堆疊架構記憶體【HBM】,以一般的 DRAM 介面位元寬來說大概為 64~128 位元,但 HBM 透過 DRAM 堆疊的方式就將位元寬提升到了 1,024 位元以上 ! 另外這項技術不只可以大幅增加可作業的容量空間還縮小了整體的占用空間,最重要的是它具有較低的功耗,這些改變都完全滿足了大型 AI 模型和高性能計算的需求,像是在 Nvidia A100 GPU 就使用了 HBM2E 記憶體。
總而言之,若是未來 5G、人工智慧都已經是大勢所趨的話,單靠 CPU 與 GPU 聯手已經逐漸不夠用了,那除了要依靠之前一起被炒熱的散熱、網通等等題材之外,還需要的就是我們今天討論的【記憶體族群】,再加上台灣又早已經是美光最大的製造中心之下,未來的潛力不容忽視。而且根據記憶體廠商南亞科(2408-TW)、華邦電(2344-TW)、威剛(3260-TW)皆認為記憶體最壞的時機已過,隨著大廠減產,2023 年底將有機會看到市場供需漸趨平衡,明年市況也可望比今年好轉 ! 不過像跟上的投資朋友們,股價是會事先反應未來的,
加 LINE 讓我告訴你用哪兩點去從這之間找到好股票。
由於字數有限,如果有興趣想知道更多更詳細的產業和技術分析
請準時收看我的每日盤後節目
並持續鎖定我們的相關社團
讓我用 30 年專業的技術和經驗!
幫你找出大飆股
【限時 72 小時】優惠專案
最殺的專案價倒數 24 小時
請把握機會【填表單】https://reurl.cc/mZkr3Y
把你的困擾告訴我
或來電 02-2542-8999
來電諮詢 02-2542-8999
Youtube 頻道 https://www.youtube.com/@rich899/featured
FB 粉絲團 https://www.facebook.com/rich899
LINE 社群 https://page.line.me/rich899
準時接受盤中快訊 + 產業趨勢
文章來源:永誠國際投顧 - 楊少凱分析師
加入《神準贏家 - 楊少凱》
本公司所推薦分析之個別有價證券無不當之財務利益關係 以往之績效不保證未來獲利投資人應獨立判斷 審慎評估並自負投資風險