Nvidia最近推出了H200,這是一款高階GPU,旨在徹底改變人工智慧(AI)模型的訓練和部署。
這項進展是H100的先進升級版,而H100是OpenAI的GPT-4背後的核心驅動力。Nvidia推出新的H200 AI晶片樹立了新的技術標桿。它配備了141GB的下一代“HBM3”內存,這是一項技術的飛躍,可實現高效的“推論”——即利用大型模型訓練後生成文字、影像或預測。
其輸出速度幾乎是H100的倍增,展現出人工智慧處理能力的顯著進步。
預計在2024年第二季出貨的H200將與AMD的MI300X GPU展開這兩款晶片都代表了人工智慧處理的新時代,具備增強的記憶體功能,對於承載龐大的人工智慧模型至關重要。
對抗競爭也是增強人工智慧硬體發展的重要階段,對科技產業另外,H200也設計得與現有的H100設置無縫整合。這確保了已經使用前款模型的人工智慧公司能夠平穩過渡。
這種結構兼容了Nvidia在市場上的表現適應和客戶保留方面的戰略方法。新的GPU將提供多種配置,滿足人工智慧技術生態系統中的各種需求。

然而,這一切發生在美國對晶片出口限制加強之際,這可能會Nvidia 產生重大影響。Nvidia 大約20-25% 的資料中心收入來自中國。總的來說,最新的限制旨在限制中國利用人工智慧技術提升軍事能力。
這促使Nvidia 將其先進系統重新轉向其他市場,並暫停向中國訂購新的人工智慧晶片。儘管面臨這些挑戰, Nvidia的發展趨勢仍然強勁,其股價在2023年實現了超過230%的峰值。
該公司預計其第三季度財務將達到驚人的160 億美元,較去年同期增長了170%。根據BeInCrypto 遵循的信任項目準則,我們本致力於公正、透明的報導。新聞文章旨在提供準確、及時的資訊。然而,讀者應該獨立核實事實,並根據此內容做出任何決策諮詢專業。這篇文章最初由先進的人工智慧編寫,該人工智慧人士從廣泛的來源中提取、分析和組織資訊。它以數據為中心,不帶個人信念、情感或觀點,經過人工編輯仔細審查、編輯並批准後發表。