返回首頁伺服器

AI伺服器是什麼?2025完整解析|架構、廠商、概念股投資指南

24 min 分鐘閱讀
#AI伺服器#GPU伺服器#NVIDIA#概念股#鴻海#廣達#H100#機器學習#深度學習#AI基礎設施

AI伺服器是什麼?2025完整解析|架構、廠商、概念股投資指南

引言:為什麼 AI 伺服器突然變得這麼重要?

ChatGPT 一夕爆紅,背後需要多少運算力?

答案是:數萬張 GPU,24 小時不停運轉。

這就是 AI 伺服器的價值所在。2024 年全球 AI 伺服器市場規模突破 500 億美元,預估 2028 年將達到 2,500 億美元。台灣作為全球 AI 伺服器製造重鎮,相關概念股更是投資人關注焦點。

這篇文章將帶你完整了解:AI 伺服器是什麼、硬體架構如何組成、台灣有哪些重要廠商,以及概念股投資該注意什麼。

如果你對一般伺服器還不熟悉,建議先閱讀《伺服器完整指南:從入門到企業應用

插圖 1:AI 伺服器運算中心場景

一、什麼是 AI 伺服器?

1.1 AI 伺服器定義

AI 伺服器是專為人工智慧工作負載設計的高效能運算設備

跟傳統伺服器最大的不同在於:AI 伺服器的運算核心是 GPU(圖形處理器),而不是 CPU。

為什麼要用 GPU?

因為 AI 模型訓練需要進行大量的「矩陣運算」。CPU 是通才,什麼都能做,但一次只能處理少量運算。GPU 則是專才,專門處理平行運算,可以同時執行數千個運算任務。

打個比方:

  • CPU 像一位頂尖數學家,算得很精準,但一次只能解一題
  • GPU 像一千位普通計算員,每人算簡單的題目,但同時開工

AI 訓練需要的正是後者——大量簡單運算同時進行。

1.2 AI 伺服器與傳統伺服器的差異

比較項目傳統伺服器AI 伺服器
運算核心CPU(Intel Xeon、AMD EPYC)GPU(NVIDIA H100、A100)
記憶體類型DDR4/DDR5HBM(高頻寬記憶體)
記憶體容量64GB - 1TB80GB - 640GB(HBM)
單機功耗500W - 1,500W5,000W - 15,000W
散熱方式氣冷為主液冷/水冷為主
網路頻寬10-100 Gbps400-800 Gbps
單機價格NT$10萬 - 100萬NT$50萬 - 5,000萬
主要用途網站、資料庫、企業應用AI 訓練、推論、大型語言模型

最驚人的差異是功耗。一台配備 8 張 NVIDIA H100 的 AI 伺服器,功耗可達 10-15kW,相當於 10 台傳統伺服器。

這也是為什麼 AI 伺服器的散熱技術如此重要。想了解更多伺服器類型的差異,可參考《伺服器種類全解析:7種常見伺服器類型比較》。

1.3 GPU 伺服器的核心角色

GPU 是 AI 伺服器的心臟。

目前市場上,NVIDIA 獨佔超過 90% 的 AI GPU 市場。主要產品線包括:

GPU 型號發布時間HBM 容量運算效能適用場景
A100202040/80GB312 TFLOPS中型 AI 訓練
H100202280GB989 TFLOPS大型語言模型
H2002024141GB989 TFLOPS超大模型訓練
B2002024192GB2,250 TFLOPS下一代 AI 應用

H100 是目前最主流的 AI 訓練晶片,單張售價約 25,000-40,000 美元(約 NT$80-130 萬)。

一台高階 AI 伺服器可能配備 8 張 H100,光 GPU 成本就超過 NT$600 萬。


二、AI 伺服器硬體架構

了解 AI 伺服器,必須認識它的硬體組成。

2.1 GPU:NVIDIA H100、H200、B200 介紹

NVIDIA H100(Hopper 架構)

H100 是 2022 年發布的旗艦 AI GPU,專為大型語言模型(LLM)訓練設計:

  • 800 億個電晶體
  • 80GB HBM3 記憶體
  • 3.35 TB/s 記憶體頻寬
  • 支援 FP8 精度,AI 訓練效能較 A100 提升 3 倍

NVIDIA H200

H200 是 H100 的升級版,主要提升記憶體:

  • 141GB HBM3e 記憶體(比 H100 多 76%)
  • 4.8 TB/s 記憶體頻寬
  • 適合超大型模型(如 GPT-4 等級)

NVIDIA B200(Blackwell 架構)

2024 年發布的最新架構:

  • 2,080 億個電晶體
  • 192GB HBM3e 記憶體
  • 運算效能較 H100 提升 2.5 倍
  • 預計 2025 年大量出貨

2.2 AI 伺服器架構圖解析

一台典型的 8-GPU AI 伺服器架構:

┌─────────────────────────────────────────────────────────┐
│                    AI 伺服器架構                         │
├─────────────────────────────────────────────────────────┤
│  ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐  │
│  │GPU 1│ │GPU 2│ │GPU 3│ │GPU 4│ │GPU 5│ │GPU 6│ │GPU 7│ │GPU 8│  │
│  └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘  │
│     │       │       │       │       │       │       │       │      │
│     └───────┴───────┴───────┼───────┴───────┴───────┴───────┘      │
│                             │                                       │
│                      ┌──────┴──────┐                                │
│                      │   NVSwitch   │  ← GPU 間高速互連             │
│                      └──────┬──────┘                                │
│                             │                                       │
│     ┌───────────────────────┼───────────────────────┐              │
│     │                       │                       │              │
│  ┌──┴──┐              ┌─────┴─────┐              ┌──┴──┐          │
│  │CPU 1│              │  記憶體    │              │CPU 2│          │
│  └─────┘              │(DDR5 2TB) │              └─────┘          │
│                       └───────────┘                                │
│                             │                                       │
│                    ┌────────┴────────┐                             │
│                    │   InfiniBand    │  ← 伺服器間高速網路          │
│                    │   (400 Gbps)    │                             │
│                    └─────────────────┘                             │
└─────────────────────────────────────────────────────────┘

關鍵組件說明:

  • GPU:8 張 GPU 是目前主流配置
  • NVSwitch:NVIDIA 專利技術,讓 GPU 間可高速通訊
  • CPU:負責控制與資料預處理
  • HBM:每張 GPU 自帶高頻寬記憶體
  • InfiniBand:連接多台伺服器形成叢集

2.3 高速網路互連:NVLink、InfiniBand

AI 訓練需要多張 GPU、多台伺服器協同運算,網路速度決定了整體效能

NVLink(GPU 間互連)

  • NVIDIA 專利技術
  • NVLink 4.0 單向頻寬達 900 GB/s
  • 讓同一台伺服器內的 GPU 可以快速交換資料

InfiniBand(伺服器間互連)

  • 目前主流是 400 Gbps(NDR)
  • 下一代 800 Gbps(XDR)已在部署中
  • 相較傳統乙太網路延遲更低、頻寬更高

為什麼網路這麼重要?

訓練 GPT-4 等級的模型,需要數千張 GPU 同時運算。如果 GPU 之間的通訊太慢,大家都在等資料,效率就會大打折扣。

2.4 散熱與電源需求

AI 伺服器最大的挑戰之一是散熱

單張 H100 GPU 的 TDP(熱設計功耗)是 700W。一台 8-GPU 伺服器,光 GPU 就產生 5,600W 的熱量,加上 CPU、記憶體、電源轉換損耗,總功耗可達 10-15kW。

傳統氣冷已經無法應付,因此液冷成為標配:

散熱方式散熱能力適用功耗成本
氣冷一般< 3kW/機櫃
直接液冷(DLC)優秀3-30kW/機櫃
浸沒式冷卻極佳> 30kW/機櫃

想深入了解散熱技術與投資機會?請閱讀《AI伺服器散熱概念股:水冷、液冷技術與投資機會

插圖 2:AI 伺服器硬體架構示意

想導入 AI 伺服器但不知從何下手?

根據 McKinsey 調查,75% 的企業在 AI 基礎設施規劃上遇到困難,主因是缺乏專業架構評估。

CloudInsight 如何幫助你?

  • 需求評估:釐清你需要的是訓練還是推論,需要多少運算力
  • 架構設計:設計符合預算與需求的 AI 基礎設施
  • 供應商比較:評估雲端 vs 自建,各廠商方案優缺點
  • 成本優化:避免過度配置,找到最佳性價比方案

你可能面臨的問題:

  • 不確定需要買多少 GPU
  • 雲端租用 vs 自建哪個划算
  • 散熱、電力等機房條件是否足夠
  • 如何規劃擴充路徑

👉 預約免費架構諮詢,讓專家幫你評估


三、AI 伺服器廠商總覽

全球 AI 伺服器市場,台灣廠商扮演關鍵角色。

3.1 國際品牌:Dell、HP、Supermicro

Dell Technologies

  • 產品線:PowerEdge XE9680(8-GPU 配置)
  • 優點:完整的企業支援、全球服務網絡
  • 適合:大型企業、金融機構

HPE(Hewlett Packard Enterprise)

  • 產品線:ProLiant DL380a Gen11
  • 優點:混合雲整合、AI 軟體套件
  • 適合:需要整合解決方案的企業

Supermicro(超微)

  • 產品線:GPU SuperServer
  • 優點:高度客製化、價格競爭力
  • 適合:雲端服務商、研究機構

這些品牌的 AI 伺服器,大部分都是由台灣 ODM 廠商代工製造。

3.2 台灣 ODM 廠商:鴻海、廣達、緯創、英業達

台灣是全球 AI 伺服器的製造重鎮,市佔率超過 90%。

廠商股票代號主要客戶AI 伺服器布局2024 年動態
鴻海2317AWS、Microsoft、NVIDIAGB200 主力供應商AI 伺服器營收年增 200%+
廣達2382Google、MetaAI 營收占比最高(40%+)擴建墨西哥產能
緯創3231Dell、HP液冷技術領先主攻液冷伺服器
英業達2356HP穩健成長擴大 AI 比重至 20%

鴻海(2317)

鴻海是 NVIDIA GB200 伺服器的主力代工廠。GB200 是 NVIDIA 2024 年發布的最新 AI 伺服器,採用 Blackwell GPU,單機櫃可達 120kW 功耗。

鴻海的優勢在於垂直整合能力,從機構件、散熱到組裝一條龍。

廣達(2382)

廣達是 Google、Meta 等雲端巨頭的主要供應商,AI 伺服器營收占比在台灣 ODM 中最高。

2024 年廣達 AI 伺服器出貨量年增超過 100%,是受惠 AI 浪潮最明顯的廠商之一。

緯創(3231)

緯創主攻液冷伺服器技術,在散熱解決方案上具有領先優勢。隨著 AI 伺服器功耗持續上升,液冷技術的重要性也跟著提升。

3.3 台灣品牌廠商:華碩、技嘉

除了代工廠,台灣也有自有品牌的 AI 伺服器廠商:

華碩(2357)

  • 產品線:ESC 系列 GPU 伺服器
  • 優勢:本地支援完整、中小企業友善
  • 適合:台灣企業、學術研究機構

技嘉(2376)

  • 產品線:G 系列 GPU 伺服器
  • 優勢:性價比高、客製彈性大
  • 適合:新創公司、中型企業

想了解更多台灣伺服器廠商?請參考《台灣伺服器廠商排名:品牌比較與選購建議

插圖 3:台灣 AI 伺服器供應鏈圖

四、AI 伺服器概念股投資指南

AI 伺服器熱潮帶動相關概念股大漲。但投資前,你需要了解產業鏈結構。

4.1 AI 伺服器產業鏈解析

AI 伺服器產業鏈可分為三層:

上游:零組件供應商

  • GPU 晶片:NVIDIA(獨佔)
  • CPU:Intel、AMD
  • 記憶體:三星、SK 海力士、美光
  • 散熱:雙鴻、奇鋐、建準
  • 電源:台達電、光寶科

中游:伺服器組裝廠

  • ODM:鴻海、廣達、緯創、英業達
  • 品牌廠:華碩、技嘉

下游:終端客戶

  • 雲端服務商:Google、AWS、Microsoft、Meta
  • 企業客戶:金融、製造、電信

投資邏輯:上游零組件毛利較高,中游組裝廠營收成長較快

4.2 核心概念股:組裝、散熱、電源

組裝代工廠

公司代號2024 營收成長AI 占比投資亮點
鴻海2317+15%10%+GB200 主力供應商
廣達2382+25%40%+AI 營收占比最高
緯創3231+20%15%+液冷技術領先
英業達2356+10%10%+穩健成長

散熱概念股

AI 伺服器功耗飆升,散熱廠商直接受惠:

公司代號主要產品AI 伺服器布局
雙鴻3324熱導管、均熱板H100 散熱模組供應商
奇鋐3017散熱模組GPU 散熱方案
建準2421散熱風扇液冷系統風扇

電源概念股

高功耗伺服器需要高瓦數電源供應器:

公司代號主要產品AI 伺服器布局
台達電2308高效率電源資料中心電源領導者
光寶科2301伺服器電源電源供應器大廠
群光2385電源模組伺服器電源供應

4.3 AI 伺服器概念股推薦清單

以下是 2025 年值得關注的 AI 伺服器概念股(依產業鏈分類):

Tier 1:核心受惠股

  • 廣達(2382):AI 營收占比最高
  • 鴻海(2317):GB200 主力供應商
  • 雙鴻(3324):散熱模組龍頭

Tier 2:穩健成長股

  • 緯創(3231):液冷技術優勢
  • 台達電(2308):電源供應龍頭
  • 奇鋐(3017):散熱模組

Tier 3:潛力股

  • 勤誠(8210):液冷機櫃
  • 川湖(2059):伺服器滑軌
  • 健策(3653):散熱導管

4.4 投資風險提醒

AI 概念股雖然前景看好,但仍有風險:

產業風險

  • NVIDIA 訂單集中:台廠高度依賴 NVIDIA 訂單,若 NVIDIA 市佔下滑將受影響
  • 技術迭代快:AI 晶片每 1-2 年更新,廠商需持續跟進
  • 產能過剩風險:若 AI 需求不如預期,可能面臨庫存壓力

個股風險

  • 毛利率壓力:ODM 代工毛利率普遍偏低(5-8%)
  • 客戶集中度:部分廠商營收高度集中於少數客戶
  • 股價已反映預期:部分個股 2024 年漲幅已大

投資建議

  • 分散布局:不要重押單一個股
  • 關注毛利率:選擇有技術門檻、毛利較高的廠商
  • 長期持有:AI 是長期趨勢,短期波動難免

想了解伺服器的價格與成本?請參考《伺服器價格指南:從入門到企業級完整報價

插圖 4:AI 伺服器概念股產業鏈圖

五、2025 年 AI 伺服器趨勢

AI 伺服器產業正在快速演進,以下是 2025 年的關鍵趨勢。

5.1 液冷散熱成為標配

過去液冷是高階選配,現在正成為標準配備。

原因很簡單:氣冷已經不夠用了

散熱方式可處理功耗2024 年占比2027 年預估
氣冷< 500W/GPU70%30%
直接液冷500-1000W/GPU25%55%
浸沒式冷卻> 1000W/GPU5%15%

NVIDIA GB200 單 GPU 功耗達 1,200W,傳統氣冷根本無法處理。因此,液冷散熱相關廠商(雙鴻、奇鋐、勤誠)將持續受惠。

5.2 邊緣 AI 伺服器興起

不是所有 AI 運算都需要在資料中心進行。

邊緣 AI 伺服器讓運算更靠近終端,優勢包括:

  • 降低延遲:自動駕駛、工業自動化需要即時反應
  • 節省頻寬:不需要把所有資料傳回雲端
  • 隱私保護:敏感資料不離開本地

邊緣 AI 伺服器通常體積較小、功耗較低,適合工廠、零售店、醫院等場景。

5.3 AI 推論需求爆發

AI 應用分為兩個階段:

  • 訓練(Training):建立模型,需要大量 GPU
  • 推論(Inference):使用模型,需求量更大

目前市場焦點在訓練,但推論需求正在快速成長

為什麼?因為每次你用 ChatGPT 對話、用 AI 生成圖片,都是在進行「推論」運算。隨著 AI 應用普及,推論需求將遠超過訓練。

這意味著:

  • 推論專用 GPU(如 NVIDIA L4、L40S)需求增加
  • 中小型 AI 伺服器市場擴大
  • 雲端 AI 服務商持續擴建基礎設施

想了解 AI 如何應用在你的企業?

IDC 預測,2027 年全球企業 AI 支出將達到 5,000 億美元,年複合成長率 27%。

CloudInsight 的 AI 導入服務

  • AI 應用評估:分析你的業務場景,找出 AI 能創造價值的地方
  • 技術選型:評估雲端 AI 服務 vs 自建,選擇最適合的方案
  • 概念驗證(PoC):小規模測試,驗證 AI 可行性
  • 正式導入:協助規劃架構、採購、部署

常見 AI 應用場景

  • 客服聊天機器人
  • 文件智慧處理
  • 預測性維護
  • 品質檢測自動化

👉 預約免費 AI 導入諮詢,讓專家幫你找到切入點


六、常見問題 FAQ

Q1:AI 伺服器價格多少?

AI 伺服器價格範圍很大:

  • 入門級(單 GPU):NT$50-100萬
  • 中階(4 GPU):NT$200-500萬
  • 高階(8 GPU H100):NT$1,000-3,000萬
  • 頂級(GB200 機櫃):NT$5,000萬+

主要成本在 GPU,單張 H100 約 NT$80-130 萬。

Q2:AI 伺服器用途有哪些?

主要應用包括:

  • 大型語言模型訓練:ChatGPT、Claude 等 LLM
  • 影像辨識:自動駕駛、醫療影像分析
  • 推薦系統:電商、串流平台的個人化推薦
  • 科學研究:蛋白質結構預測、氣候模擬
  • 生成式 AI:AI 繪圖、影片生成

Q3:AI 伺服器龍頭是誰?

依領域不同:

  • GPU 晶片:NVIDIA 獨霸(市佔 90%+)
  • 伺服器組裝:鴻海、廣達為台灣龍頭
  • 品牌伺服器:Dell、HPE 為國際龍頭

Q4:AI 伺服器概念股有哪些?

主要包括:

  • 組裝廠:鴻海(2317)、廣達(2382)、緯創(3231)
  • 散熱廠:雙鴻(3324)、奇鋐(3017)
  • 電源廠:台達電(2308)、光寶科(2301)
  • 其他零組件:川湖(2059)、勤誠(8210)

Q5:一般企業需要 AI 伺服器嗎?

不一定。

大多數企業可以使用雲端 AI 服務(AWS、GCP、Azure),不需要自己買 AI 伺服器。

自建 AI 伺服器適合:

  • 有大量持續性 AI 運算需求
  • 資料隱私要求高
  • 有專業 IT 團隊維護

七、下一步行動

AI 伺服器是推動 AI 革命的基礎設施。

不管你是:

  • 投資人:想布局 AI 概念股
  • 企業主管:考慮導入 AI 應用
  • IT 人員:需要規劃 AI 基礎設施

了解 AI 伺服器都是必要的功課。

還有疑問?讓專家來幫你

CloudInsight 團隊擁有豐富的雲端與 AI 基礎設施經驗,服務過金融、製造、電商等產業客戶。

我們可以幫你:

  • 評估是否需要 AI 伺服器
  • 比較雲端租用 vs 自建的成本
  • 設計適合你的 AI 架構
  • 規劃導入路徑與時程

諮詢完全免費

不管你最後決定怎麼做,我們都樂意提供專業意見。沒有推銷、沒有壓力。

👉 預約免費諮詢,讓專家幫你評估最適合的方案

我們會在 24 小時內回覆你。


延伸閱讀


參考資料

  1. NVIDIA, "H100 Tensor Core GPU Datasheet" (2024)
  2. IDC, "Worldwide AI Server Market Forecast 2024-2028"
  3. 台灣證券交易所, 各上市公司年報與法說會資料
  4. McKinsey, "The State of AI in 2024"
  5. Gartner, "AI Infrastructure Market Guide 2024"

需要專業的雲端建議?

無論您正在評估雲平台、優化現有架構,或尋找節費方案,我們都能提供協助

預約免費諮詢

相關文章