
美國加利福尼亞州長灘 – NIPS大會 – 太平洋時間2017年12月4日 – NVIDIA(納斯達克代碼:NVDA )今日宣布將NVIDIA GPU Cloud (NGC)支持擴展至NVIDIA TITAN,使數十萬采用桌面級GPU的AI研究人員能夠利用NGC的強大功能。
NVIDIA還公布了NGC的功能擴展,包括針對NGC容器注冊新增的軟件和其他主要更新,為研究人員提供了更廣泛、更強大的工具,有助于其開展AI和高性能計算研發。
采用基于NVIDIA? Pascal?架構的TITAN GPU的客戶可即刻注冊免費NGC帳戶,獲得針對GPU優化的深度學習與HPC軟件和工具目錄的全面訪問權限。其他可支持的計算平臺還包括NVIDIA DGX-1?、DGX Station以及 Amazon EC2上啟用NVIDIA Volta的實例。
NGC容器注冊的擴展步伐迅速,其中可用的軟件包括針對NVIDIA優化的深度學習框架(如TensorFlow和PyTorch)、第三方管理型HPC應用程序、NVIDIA HPC可視化工具以及NVIDIA的可編程推理加速器NVIDIA TensorRT? 3.0。
NVIDIA 副總裁兼企業系統部總經理 Jim McHugh表示:“NVIDIA GPU Cloud旨在為AI開發者提供所需的軟件,助力其完成開創性的工作。如今,針對GPU優化的軟件已經可為數十萬采用NVIDIA桌面級GPU的研究人員所用,NGC將成為推進人工智能突破的催化劑,也將成為全球開發者的首選資源。”
GE Healthcare是率先采用NGC的企業之一。作為首家采用NGC的醫療設備制造商,該公司正在利用NGC容器注冊的深度學習軟件,加緊步伐將全球最先進的AI引入其全球范圍內的50萬臺成像設備中,旨在提高病患護理水平。
全新 NGC容器、及其更新與特性
除了使NVIDIA TensorRT可用于NGC容器注冊,NVIDIA還宣布了以下NGC更新:
? 支持面向TensorRT的開放神經網絡交換 (ONNX)
? 即時支持和使用首版MXNet 1.0
? 可使用百度PaddlePaddle AI框架
ONNX是Facebook和微軟最初創建的開放格式,開發者可通過此格式,在不同框架之間交換模型。在TensorRT開發容器中,NVIDIA創建了可將ONNX模型部署至TensorRT推理引擎的轉換器,讓應用程序開發者能夠更輕松地將低延遲、高吞吐量的模型部署至TensorRT。
這些附加功能讓開發者能夠一站式地進行軟件采購,以支持其從研究、應用開發到訓練和部署的所有AI計算需求。
NGC于十月份正式推出,亦面向AWS的NVIDIA Volta GPU用戶、以及所有NVIDIA DGX-1和DGX Station用戶免費提供。日后,NVIDIA將持續擴大NGC的可用范圍。
聲明:本內容為作者獨立觀點,不代表電源網。本網站原創內容,如需轉載,請注明出處;本網站轉載的內容(文章、圖片、視頻)等資料版權歸原作者所有。如我們采用了您不宜公開的文章或圖片,未能及時和您確認,避免給雙方造成不必要的經濟損失,請電郵聯系我們,以便迅速采取適當處理措施;歡迎投稿,郵箱∶editor@netbroad.com。
微信關注 | ||
![]() |
技術專題 | 更多>> | |
![]() |
技術專題之EMC |
![]() |
技術專題之PCB |