AI伺服器是什麼?2025完整解析|架構、廠商、概念股投資指南
AI伺服器是什麼?2025完整解析|架構、廠商、概念股投資指南
引言:為什麼 AI 伺服器突然變得這麼重要?
ChatGPT 一夕爆紅,背後需要多少運算力?
答案是:數萬張 GPU,24 小時不停運轉。
這就是 AI 伺服器的價值所在。2024 年全球 AI 伺服器市場規模突破 500 億美元,預估 2028 年將達到 2,500 億美元。台灣作為全球 AI 伺服器製造重鎮,相關概念股更是投資人關注焦點。
這篇文章將帶你完整了解:AI 伺服器是什麼、硬體架構如何組成、台灣有哪些重要廠商,以及概念股投資該注意什麼。
如果你對一般伺服器還不熟悉,建議先閱讀《伺服器完整指南:從入門到企業應用》

一、什麼是 AI 伺服器?
1.1 AI 伺服器定義
AI 伺服器是專為人工智慧工作負載設計的高效能運算設備。
跟傳統伺服器最大的不同在於:AI 伺服器的運算核心是 GPU(圖形處理器),而不是 CPU。
為什麼要用 GPU?
因為 AI 模型訓練需要進行大量的「矩陣運算」。CPU 是通才,什麼都能做,但一次只能處理少量運算。GPU 則是專才,專門處理平行運算,可以同時執行數千個運算任務。
打個比方:
- CPU 像一位頂尖數學家,算得很精準,但一次只能解一題
- GPU 像一千位普通計算員,每人算簡單的題目,但同時開工
AI 訓練需要的正是後者——大量簡單運算同時進行。
1.2 AI 伺服器與傳統伺服器的差異
| 比較項目 | 傳統伺服器 | AI 伺服器 |
|---|---|---|
| 運算核心 | CPU(Intel Xeon、AMD EPYC) | GPU(NVIDIA H100、A100) |
| 記憶體類型 | DDR4/DDR5 | HBM(高頻寬記憶體) |
| 記憶體容量 | 64GB - 1TB | 80GB - 640GB(HBM) |
| 單機功耗 | 500W - 1,500W | 5,000W - 15,000W |
| 散熱方式 | 氣冷為主 | 液冷/水冷為主 |
| 網路頻寬 | 10-100 Gbps | 400-800 Gbps |
| 單機價格 | NT$10萬 - 100萬 | NT$50萬 - 5,000萬 |
| 主要用途 | 網站、資料庫、企業應用 | AI 訓練、推論、大型語言模型 |
最驚人的差異是功耗。一台配備 8 張 NVIDIA H100 的 AI 伺服器,功耗可達 10-15kW,相當於 10 台傳統伺服器。
這也是為什麼 AI 伺服器的散熱技術如此重要。想了解更多伺服器類型的差異,可參考《伺服器種類全解析:7種常見伺服器類型比較》。
1.3 GPU 伺服器的核心角色
GPU 是 AI 伺服器的心臟。
目前市場上,NVIDIA 獨佔超過 90% 的 AI GPU 市場。主要產品線包括:
| GPU 型號 | 發布時間 | HBM 容量 | 運算效能 | 適用場景 |
|---|---|---|---|---|
| A100 | 2020 | 40/80GB | 312 TFLOPS | 中型 AI 訓練 |
| H100 | 2022 | 80GB | 989 TFLOPS | 大型語言模型 |
| H200 | 2024 | 141GB | 989 TFLOPS | 超大模型訓練 |
| B200 | 2024 | 192GB | 2,250 TFLOPS | 下一代 AI 應用 |
H100 是目前最主流的 AI 訓練晶片,單張售價約 25,000-40,000 美元(約 NT$80-130 萬)。
一台高階 AI 伺服器可能配備 8 張 H100,光 GPU 成本就超過 NT$600 萬。
二、AI 伺服器硬體架構
了解 AI 伺服器,必須認識它的硬體組成。
2.1 GPU:NVIDIA H100、H200、B200 介紹
NVIDIA H100(Hopper 架構)
H100 是 2022 年發布的旗艦 AI GPU,專為大型語言模型(LLM)訓練設計:
- 800 億個電晶體
- 80GB HBM3 記憶體
- 3.35 TB/s 記憶體頻寬
- 支援 FP8 精度,AI 訓練效能較 A100 提升 3 倍
NVIDIA H200
H200 是 H100 的升級版,主要提升記憶體:
- 141GB HBM3e 記憶體(比 H100 多 76%)
- 4.8 TB/s 記憶體頻寬
- 適合超大型模型(如 GPT-4 等級)
NVIDIA B200(Blackwell 架構)
2024 年發布的最新架構:
- 2,080 億個電晶體
- 192GB HBM3e 記憶體
- 運算效能較 H100 提升 2.5 倍
- 預計 2025 年大量出貨
2.2 AI 伺服器架構圖解析
一台典型的 8-GPU AI 伺服器架構:
┌─────────────────────────────────────────────────────────┐
│ AI 伺服器架構 │
├─────────────────────────────────────────────────────────┤
│ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ ┌─────┐ │
│ │GPU 1│ │GPU 2│ │GPU 3│ │GPU 4│ │GPU 5│ │GPU 6│ │GPU 7│ │GPU 8│ │
│ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ └──┬──┘ │
│ │ │ │ │ │ │ │ │ │
│ └───────┴───────┴───────┼───────┴───────┴───────┴───────┘ │
│ │ │
│ ┌──────┴──────┐ │
│ │ NVSwitch │ ← GPU 間高速互連 │
│ └──────┬──────┘ │
│ │ │
│ ┌───────────────────────┼───────────────────────┐ │
│ │ │ │ │
│ ┌──┴──┐ ┌─────┴─────┐ ┌──┴──┐ │
│ │CPU 1│ │ 記憶體 │ │CPU 2│ │
│ └─────┘ │(DDR5 2TB) │ └─────┘ │
│ └───────────┘ │
│ │ │
│ ┌────────┴────────┐ │
│ │ InfiniBand │ ← 伺服器間高速網路 │
│ │ (400 Gbps) │ │
│ └─────────────────┘ │
└─────────────────────────────────────────────────────────┘
關鍵組件說明:
- GPU:8 張 GPU 是目前主流配置
- NVSwitch:NVIDIA 專利技術,讓 GPU 間可高速通訊
- CPU:負責控制與資料預處理
- HBM:每張 GPU 自帶高頻寬記憶體
- InfiniBand:連接多台伺服器形成叢集
2.3 高速網路互連:NVLink、InfiniBand
AI 訓練需要多張 GPU、多台伺服器協同運算,網路速度決定了整體效能。
NVLink(GPU 間互連)
- NVIDIA 專利技術
- NVLink 4.0 單向頻寬達 900 GB/s
- 讓同一台伺服器內的 GPU 可以快速交換資料
InfiniBand(伺服器間互連)
- 目前主流是 400 Gbps(NDR)
- 下一代 800 Gbps(XDR)已在部署中
- 相較傳統乙太網路延遲更低、頻寬更高
為什麼網路這麼重要?
訓練 GPT-4 等級的模型,需要數千張 GPU 同時運算。如果 GPU 之間的通訊太慢,大家都在等資料,效率就會大打折扣。
2.4 散熱與電源需求
AI 伺服器最大的挑戰之一是散熱。
單張 H100 GPU 的 TDP(熱設計功耗)是 700W。一台 8-GPU 伺服器,光 GPU 就產生 5,600W 的熱量,加上 CPU、記憶體、電源轉換損耗,總功耗可達 10-15kW。
傳統氣冷已經無法應付,因此液冷成為標配:
| 散熱方式 | 散熱能力 | 適用功耗 | 成本 |
|---|---|---|---|
| 氣冷 | 一般 | < 3kW/機櫃 | 低 |
| 直接液冷(DLC) | 優秀 | 3-30kW/機櫃 | 中 |
| 浸沒式冷卻 | 極佳 | > 30kW/機櫃 | 高 |
想深入了解散熱技術與投資機會?請閱讀《AI伺服器散熱概念股:水冷、液冷技術與投資機會》

想導入 AI 伺服器但不知從何下手?
根據 McKinsey 調查,75% 的企業在 AI 基礎設施規劃上遇到困難,主因是缺乏專業架構評估。
CloudInsight 如何幫助你?
- 需求評估:釐清你需要的是訓練還是推論,需要多少運算力
- 架構設計:設計符合預算與需求的 AI 基礎設施
- 供應商比較:評估雲端 vs 自建,各廠商方案優缺點
- 成本優化:避免過度配置,找到最佳性價比方案
你可能面臨的問題:
- 不確定需要買多少 GPU
- 雲端租用 vs 自建哪個划算
- 散熱、電力等機房條件是否足夠
- 如何規劃擴充路徑
三、AI 伺服器廠商總覽
全球 AI 伺服器市場,台灣廠商扮演關鍵角色。
3.1 國際品牌:Dell、HP、Supermicro
Dell Technologies
- 產品線:PowerEdge XE9680(8-GPU 配置)
- 優點:完整的企業支援、全球服務網絡
- 適合:大型企業、金融機構
HPE(Hewlett Packard Enterprise)
- 產品線:ProLiant DL380a Gen11
- 優點:混合雲整合、AI 軟體套件
- 適合:需要整合解決方案的企業
Supermicro(超微)
- 產品線:GPU SuperServer
- 優點:高度客製化、價格競爭力
- 適合:雲端服務商、研究機構
這些品牌的 AI 伺服器,大部分都是由台灣 ODM 廠商代工製造。
3.2 台灣 ODM 廠商:鴻海、廣達、緯創、英業達
台灣是全球 AI 伺服器的製造重鎮,市佔率超過 90%。
| 廠商 | 股票代號 | 主要客戶 | AI 伺服器布局 | 2024 年動態 |
|---|---|---|---|---|
| 鴻海 | 2317 | AWS、Microsoft、NVIDIA | GB200 主力供應商 | AI 伺服器營收年增 200%+ |
| 廣達 | 2382 | Google、Meta | AI 營收占比最高(40%+) | 擴建墨西哥產能 |
| 緯創 | 3231 | Dell、HP | 液冷技術領先 | 主攻液冷伺服器 |
| 英業達 | 2356 | HP | 穩健成長 | 擴大 AI 比重至 20% |
鴻海(2317)
鴻海是 NVIDIA GB200 伺服器的主力代工廠。GB200 是 NVIDIA 2024 年發布的最新 AI 伺服器,採用 Blackwell GPU,單機櫃可達 120kW 功耗。
鴻海的優勢在於垂直整合能力,從機構件、散熱到組裝一條龍。
廣達(2382)
廣達是 Google、Meta 等雲端巨頭的主要供應商,AI 伺服器營收占比在台灣 ODM 中最高。
2024 年廣達 AI 伺服器出貨量年增超過 100%,是受惠 AI 浪潮最明顯的廠商之一。
緯創(3231)
緯創主攻液冷伺服器技術,在散熱解決方案上具有領先優勢。隨著 AI 伺服器功耗持續上升,液冷技術的重要性也跟著提升。
3.3 台灣品牌廠商:華碩、技嘉
除了代工廠,台灣也有自有品牌的 AI 伺服器廠商:
華碩(2357)
- 產品線:ESC 系列 GPU 伺服器
- 優勢:本地支援完整、中小企業友善
- 適合:台灣企業、學術研究機構
技嘉(2376)
- 產品線:G 系列 GPU 伺服器
- 優勢:性價比高、客製彈性大
- 適合:新創公司、中型企業
想了解更多台灣伺服器廠商?請參考《台灣伺服器廠商排名:品牌比較與選購建議》

四、AI 伺服器概念股投資指南
AI 伺服器熱潮帶動相關概念股大漲。但投資前,你需要了解產業鏈結構。
4.1 AI 伺服器產業鏈解析
AI 伺服器產業鏈可分為三層:
上游:零組件供應商
- GPU 晶片:NVIDIA(獨佔)
- CPU:Intel、AMD
- 記憶體:三星、SK 海力士、美光
- 散熱:雙鴻、奇鋐、建準
- 電源:台達電、光寶科
中游:伺服器組裝廠
- ODM:鴻海、廣達、緯創、英業達
- 品牌廠:華碩、技嘉
下游:終端客戶
- 雲端服務商:Google、AWS、Microsoft、Meta
- 企業客戶:金融、製造、電信
投資邏輯:上游零組件毛利較高,中游組裝廠營收成長較快。
4.2 核心概念股:組裝、散熱、電源
組裝代工廠
| 公司 | 代號 | 2024 營收成長 | AI 占比 | 投資亮點 |
|---|---|---|---|---|
| 鴻海 | 2317 | +15% | 10%+ | GB200 主力供應商 |
| 廣達 | 2382 | +25% | 40%+ | AI 營收占比最高 |
| 緯創 | 3231 | +20% | 15%+ | 液冷技術領先 |
| 英業達 | 2356 | +10% | 10%+ | 穩健成長 |
散熱概念股
AI 伺服器功耗飆升,散熱廠商直接受惠:
| 公司 | 代號 | 主要產品 | AI 伺服器布局 |
|---|---|---|---|
| 雙鴻 | 3324 | 熱導管、均熱板 | H100 散熱模組供應商 |
| 奇鋐 | 3017 | 散熱模組 | GPU 散熱方案 |
| 建準 | 2421 | 散熱風扇 | 液冷系統風扇 |
電源概念股
高功耗伺服器需要高瓦數電源供應器:
| 公司 | 代號 | 主要產品 | AI 伺服器布局 |
|---|---|---|---|
| 台達電 | 2308 | 高效率電源 | 資料中心電源領導者 |
| 光寶科 | 2301 | 伺服器電源 | 電源供應器大廠 |
| 群光 | 2385 | 電源模組 | 伺服器電源供應 |
4.3 AI 伺服器概念股推薦清單
以下是 2025 年值得關注的 AI 伺服器概念股(依產業鏈分類):
Tier 1:核心受惠股
- 廣達(2382):AI 營收占比最高
- 鴻海(2317):GB200 主力供應商
- 雙鴻(3324):散熱模組龍頭
Tier 2:穩健成長股
- 緯創(3231):液冷技術優勢
- 台達電(2308):電源供應龍頭
- 奇鋐(3017):散熱模組
Tier 3:潛力股
- 勤誠(8210):液冷機櫃
- 川湖(2059):伺服器滑軌
- 健策(3653):散熱導管
4.4 投資風險提醒
AI 概念股雖然前景看好,但仍有風險:
產業風險
- NVIDIA 訂單集中:台廠高度依賴 NVIDIA 訂單,若 NVIDIA 市佔下滑將受影響
- 技術迭代快:AI 晶片每 1-2 年更新,廠商需持續跟進
- 產能過剩風險:若 AI 需求不如預期,可能面臨庫存壓力
個股風險
- 毛利率壓力:ODM 代工毛利率普遍偏低(5-8%)
- 客戶集中度:部分廠商營收高度集中於少數客戶
- 股價已反映預期:部分個股 2024 年漲幅已大
投資建議
- 分散布局:不要重押單一個股
- 關注毛利率:選擇有技術門檻、毛利較高的廠商
- 長期持有:AI 是長期趨勢,短期波動難免
想了解伺服器的價格與成本?請參考《伺服器價格指南:從入門到企業級完整報價》

五、2025 年 AI 伺服器趨勢
AI 伺服器產業正在快速演進,以下是 2025 年的關鍵趨勢。
5.1 液冷散熱成為標配
過去液冷是高階選配,現在正成為標準配備。
原因很簡單:氣冷已經不夠用了。
| 散熱方式 | 可處理功耗 | 2024 年占比 | 2027 年預估 |
|---|---|---|---|
| 氣冷 | < 500W/GPU | 70% | 30% |
| 直接液冷 | 500-1000W/GPU | 25% | 55% |
| 浸沒式冷卻 | > 1000W/GPU | 5% | 15% |
NVIDIA GB200 單 GPU 功耗達 1,200W,傳統氣冷根本無法處理。因此,液冷散熱相關廠商(雙鴻、奇鋐、勤誠)將持續受惠。
5.2 邊緣 AI 伺服器興起
不是所有 AI 運算都需要在資料中心進行。
邊緣 AI 伺服器讓運算更靠近終端,優勢包括:
- 降低延遲:自動駕駛、工業自動化需要即時反應
- 節省頻寬:不需要把所有資料傳回雲端
- 隱私保護:敏感資料不離開本地
邊緣 AI 伺服器通常體積較小、功耗較低,適合工廠、零售店、醫院等場景。
5.3 AI 推論需求爆發
AI 應用分為兩個階段:
- 訓練(Training):建立模型,需要大量 GPU
- 推論(Inference):使用模型,需求量更大
目前市場焦點在訓練,但推論需求正在快速成長。
為什麼?因為每次你用 ChatGPT 對話、用 AI 生成圖片,都是在進行「推論」運算。隨著 AI 應用普及,推論需求將遠超過訓練。
這意味著:
- 推論專用 GPU(如 NVIDIA L4、L40S)需求增加
- 中小型 AI 伺服器市場擴大
- 雲端 AI 服務商持續擴建基礎設施
想了解 AI 如何應用在你的企業?
IDC 預測,2027 年全球企業 AI 支出將達到 5,000 億美元,年複合成長率 27%。
CloudInsight 的 AI 導入服務
- AI 應用評估:分析你的業務場景,找出 AI 能創造價值的地方
- 技術選型:評估雲端 AI 服務 vs 自建,選擇最適合的方案
- 概念驗證(PoC):小規模測試,驗證 AI 可行性
- 正式導入:協助規劃架構、採購、部署
常見 AI 應用場景
- 客服聊天機器人
- 文件智慧處理
- 預測性維護
- 品質檢測自動化
六、常見問題 FAQ
Q1:AI 伺服器價格多少?
AI 伺服器價格範圍很大:
- 入門級(單 GPU):NT$50-100萬
- 中階(4 GPU):NT$200-500萬
- 高階(8 GPU H100):NT$1,000-3,000萬
- 頂級(GB200 機櫃):NT$5,000萬+
主要成本在 GPU,單張 H100 約 NT$80-130 萬。
Q2:AI 伺服器用途有哪些?
主要應用包括:
- 大型語言模型訓練:ChatGPT、Claude 等 LLM
- 影像辨識:自動駕駛、醫療影像分析
- 推薦系統:電商、串流平台的個人化推薦
- 科學研究:蛋白質結構預測、氣候模擬
- 生成式 AI:AI 繪圖、影片生成
Q3:AI 伺服器龍頭是誰?
依領域不同:
- GPU 晶片:NVIDIA 獨霸(市佔 90%+)
- 伺服器組裝:鴻海、廣達為台灣龍頭
- 品牌伺服器:Dell、HPE 為國際龍頭
Q4:AI 伺服器概念股有哪些?
主要包括:
- 組裝廠:鴻海(2317)、廣達(2382)、緯創(3231)
- 散熱廠:雙鴻(3324)、奇鋐(3017)
- 電源廠:台達電(2308)、光寶科(2301)
- 其他零組件:川湖(2059)、勤誠(8210)
Q5:一般企業需要 AI 伺服器嗎?
不一定。
大多數企業可以使用雲端 AI 服務(AWS、GCP、Azure),不需要自己買 AI 伺服器。
自建 AI 伺服器適合:
- 有大量持續性 AI 運算需求
- 資料隱私要求高
- 有專業 IT 團隊維護
七、下一步行動
AI 伺服器是推動 AI 革命的基礎設施。
不管你是:
- 投資人:想布局 AI 概念股
- 企業主管:考慮導入 AI 應用
- IT 人員:需要規劃 AI 基礎設施
了解 AI 伺服器都是必要的功課。
還有疑問?讓專家來幫你
CloudInsight 團隊擁有豐富的雲端與 AI 基礎設施經驗,服務過金融、製造、電商等產業客戶。
我們可以幫你:
- 評估是否需要 AI 伺服器
- 比較雲端租用 vs 自建的成本
- 設計適合你的 AI 架構
- 規劃導入路徑與時程
諮詢完全免費
不管你最後決定怎麼做,我們都樂意提供專業意見。沒有推銷、沒有壓力。
我們會在 24 小時內回覆你。
延伸閱讀
- 伺服器完整指南:從入門到企業應用
- AI伺服器散熱概念股:水冷、液冷技術與投資機會
- 台灣伺服器廠商排名:品牌比較與選購建議
- 伺服器價格指南:從入門到企業級完整報價
- 伺服器種類全解析:7種常見伺服器類型比較
- 伺服器機櫃完整指南:規格、選購與安裝
參考資料
- NVIDIA, "H100 Tensor Core GPU Datasheet" (2024)
- IDC, "Worldwide AI Server Market Forecast 2024-2028"
- 台灣證券交易所, 各上市公司年報與法說會資料
- McKinsey, "The State of AI in 2024"
- Gartner, "AI Infrastructure Market Guide 2024"