在人工智能應用“淘金潮”的火熱背後,總少不了“賣水工”英偉達的“默默付出”。
最近爆紅的ChatGPT也離不逃脱不開這一定律。正如英偉達CEO黃仁勛在GTC演講中展示的那樣,數年以前,正是黃仁勛親手將附有自己簽名與贈語的全球首台DGX交給了OpenAI。
正因為這台集成了八塊通過NVLink共享算力的H100組成的超級計算機,OpenAI才獲得了向世界交出這份名為ChatGPT答卷的機會。
在英偉達向OpenAI交付首台DGX AI電腦後,位列《財富》100強的企業中有一半都使用了DGX AI計算機。英偉達的算力基礎設備與人工智能應用,儼然已經成為了一枚硬幣不可分割的正反面。
在剛剛結束的英偉達GTC 2023上,英偉達向我們展示了他們向人工智能的未來邁出的下一步。
人工智能的“iPhone時刻”
如今,生成式AI和大語言模型帶來的殺手級應用在全球的火熱,又讓人工智能站到了一個新的路口前,如黃仁勛在GTC 2023的演講中所説的一樣,人工智能現在等來了屬於自己的“iPhone時刻”。
而作為AI硬幣另一面,英偉達也正隨AI一同前行。
黃仁勛預測,就像iPhone帶來智能手機和應用程序的普及一樣,能生成自然文章和圖像的“生成式AI”將在社會普及。
“算力即權力”這句口號正以人們未曾預料到的速度變為現實,但對於企業和開發者來説,想獲得這樣的“權力”並沒有那麼容易。
新生的初創公司競相構建從未有過的產品的商業模式,老牌公司也在積極擁抱變化,應對新的環境。
而大模型的訓練需要數據中心成百上千的計算卡“齊心協力”,對企業來説,這代表着場地和維護成本,是一道並不容易越過的門檻。
不論是新生血液還是老牌豪強,都呼喚更快捷的人工智能開發流程。
作為“算力供應商”的英偉達已經發覺了這一新需求,並推出了雲端人工智能DGX Cloud。
DGX Cloud能夠為客户提供專用的計算集羣,每個DGX Cloud實例配備八個NVIDIA H100或A100 80GB Tensor Core GPU共640GB的GPU內存,用户能夠按月租用這些計算資源,並使用簡單的web瀏覽器訪問。從而消除在本地獲取、部署和管理基礎設施的成本,大大增加了AI的便捷性。
對於這一產品的遠景,黃仁勛充滿憧憬的描繪到:“如今通過一個瀏覽器,就能將DGX AI超級計算機即時地接入每家公司。”
這樣的願景並非空中樓閣,在GTC 2023的演講中,黃仁勛宣佈,英偉達將與雲服務提供商合作託管DGX雲基礎設施,目前已經於甲骨文達成了合作,甲骨文的OCI RDMA Supercluster已經提供了一個可擴展到超過32000個GPU的超級集羣。微軟Azure預計下個季度開始託管DGX Cloud,很快谷歌雲也將加入托管的行列。
打開生成式AI的“魔盒”
iPhone問世之後,並沒有止步不前,而是引領了智能手機長達數十年的大發展。如今走到“iPhone時刻”的AI,面對的也是一個與當年的iPhone極其相似的世界。
ChatGPT的成功,對AI的革命而言,僅僅是踏進門口的一小步。
門後的世界中,還藴藏着屬於生成式AI更廣闊的世界。
在基礎設施之外,對想要掌握AI“原力”的企業來説,如何搭上AI的下一班車,建立一個生成式AI模型,並將其應用到生產中,也將是一個重要命題。
英偉達發佈的新雲服務平台NVIDIA AI Foundations則是讓企業做到這一點的“神兵利器”。
NVIDIA AI Foundations被分為用於構建定製的語言文本模型的Nemo、提供視覺語言製作服務的Picasso和提供醫學相關數據專有模型構建服務的Bionemo三個而部分。
在Nemo中,客户可以引入自己的模型,或使用Nemo包含的從GPT-8、GPT-43到GPT-530等數十億參數的預訓練模型,並基於此構建自己掌控下的語言模型。
Picasso則為使用者提供了大量具有授權許可的專業圖像和視屏素材,使用者能夠使用這些許可內容或根據自己的專有內容訓練自定義模型,並將生成的內容導入編輯工具,甚至可以導入英偉達元宇宙平台Omniverse,投入“元宇宙”的大基建事業。
能夠提供包括語言、視覺和生物學等領域模型在內的製作服務,適用於需要構建、改進和操作自定義 LLM 的客户以及使用專有數據訓練的生成 AI,以及針對特定領域的任務。
使用Bionemo,用户既能夠即時訪問藥物研發工作流,也可以用於蛋白質結構預測和蛋白質生成與分子生成、分子對接等新葯研究關鍵步驟的模型生成中。
英偉達不僅將三者合一的NVIDIA AI Foundations視為雲服務,更將其視為構建生成式AI模型的“代工廠”。
GPU反客為主,造芯關鍵步驟“搶班奪權”
要想真正跨過AI下一次進化的大門,作為人工智能最重要的“基建設備”的GPU芯片本身的製造也極為重要。
人工智能的火熱,離不開GPU的助力。能夠提供大量執行重複簡單計算的GPU對需要大量算力的大模型和神經網絡來説,是天然的伴侶。
在過去的幾年裏,人工智能在掀起了在工業上落地的浪潮。小到餐廳中的小料台補貨,大到碼頭或光伏電站,人工智能已經成為了工業領域公認的“先進產能”。
而在兜兜轉轉之後,GPU的發明者英偉達,終於把人工智能的觸手帶回了“最初的起點”——GPU芯片的製造上。
黃仁勛在演講中提到,隨着芯片製造工藝的進步,如今的芯片製造已經要求約一個金原子或一條人類DNA鏈尺寸的誤差。
而作為芯片製造的核心步驟和起始階段的光刻更是重中之重。
大約30年前,晶體管的尺寸已經發展到比光刻機波長更小,由於衍射效應,掩膜上的圖案與最終圖案特徵變得完全不同,這使得模擬光通過光學元件和光刻膠互相作用結果的計算光刻成為了芯片製造過程中機器重要的一環。
此前,CPU一直是承擔這一工作負載的主力。根據黃仁勛的估算,每年芯片製造商們在這一步驟上消耗了數百億CPU小時的算力來創建用於光刻系統的掩模板。
但隨着先進製程發展,計算光刻變得愈加複雜,CPU負載已經舉步維艱。
多次高呼“摩爾定律已死”的英偉達CEO黃仁勛在今天的演講上帶來了人工智能與芯片製造結合的最新成果:基於用於芯片製造的NVIDIA cuLitho軟件庫,為芯片製造找到了一條新的“活路”。
英偉達表示,在cuLitho加持下,短期內可以提升芯片產業鏈效率,並大幅降低功耗,在新的流程下,僅需要500塊H100就能夠完成此前需要傳統流程中40000個CPU系統才能完成的工作,讓光刻技術性能躍升了40倍。
而相比現有的流程,使用cuLitho、能夠僅使用如今九分之一的功耗做到每天三到五倍的生產效率,也能在一夜之間完成傳統方法兩週才能完成的單個掩模板處理任務。
而長遠來看,英偉達則有着更遠大的目標。
英偉達不僅將與台積電、新思科技合作,將NVIDIA cuLitho軟件庫集成到軟件和系統中,用於製造最新一代的Hopper架構GPU。
黃仁勛還在演講中宣佈,英偉達將與台積電、阿斯麥與新思科技合作,並利用cuLitho為未來2nm及後續更先進製程芯片的製造打下基礎。從而為AI“iPhone時刻”後的革命準備好充足“糧草”。雷峯網(公眾號:雷峯網)
雷峯網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
作者/編輯:姚勇喆
最近爆紅的ChatGPT也離不逃脱不開這一定律。正如英偉達CEO黃仁勛在GTC演講中展示的那樣,數年以前,正是黃仁勛親手將附有自己簽名與贈語的全球首台DGX交給了OpenAI。
正因為這台集成了八塊通過NVLink共享算力的H100組成的超級計算機,OpenAI才獲得了向世界交出這份名為ChatGPT答卷的機會。
在英偉達向OpenAI交付首台DGX AI電腦後,位列《財富》100強的企業中有一半都使用了DGX AI計算機。英偉達的算力基礎設備與人工智能應用,儼然已經成為了一枚硬幣不可分割的正反面。
在剛剛結束的英偉達GTC 2023上,英偉達向我們展示了他們向人工智能的未來邁出的下一步。
人工智能的“iPhone時刻”
如今,生成式AI和大語言模型帶來的殺手級應用在全球的火熱,又讓人工智能站到了一個新的路口前,如黃仁勛在GTC 2023的演講中所説的一樣,人工智能現在等來了屬於自己的“iPhone時刻”。
而作為AI硬幣另一面,英偉達也正隨AI一同前行。
黃仁勛預測,就像iPhone帶來智能手機和應用程序的普及一樣,能生成自然文章和圖像的“生成式AI”將在社會普及。
“算力即權力”這句口號正以人們未曾預料到的速度變為現實,但對於企業和開發者來説,想獲得這樣的“權力”並沒有那麼容易。
新生的初創公司競相構建從未有過的產品的商業模式,老牌公司也在積極擁抱變化,應對新的環境。
而大模型的訓練需要數據中心成百上千的計算卡“齊心協力”,對企業來説,這代表着場地和維護成本,是一道並不容易越過的門檻。
不論是新生血液還是老牌豪強,都呼喚更快捷的人工智能開發流程。
作為“算力供應商”的英偉達已經發覺了這一新需求,並推出了雲端人工智能DGX Cloud。
DGX Cloud能夠為客户提供專用的計算集羣,每個DGX Cloud實例配備八個NVIDIA H100或A100 80GB Tensor Core GPU共640GB的GPU內存,用户能夠按月租用這些計算資源,並使用簡單的web瀏覽器訪問。從而消除在本地獲取、部署和管理基礎設施的成本,大大增加了AI的便捷性。
對於這一產品的遠景,黃仁勛充滿憧憬的描繪到:“如今通過一個瀏覽器,就能將DGX AI超級計算機即時地接入每家公司。”
這樣的願景並非空中樓閣,在GTC 2023的演講中,黃仁勛宣佈,英偉達將與雲服務提供商合作託管DGX雲基礎設施,目前已經於甲骨文達成了合作,甲骨文的OCI RDMA Supercluster已經提供了一個可擴展到超過32000個GPU的超級集羣。微軟Azure預計下個季度開始託管DGX Cloud,很快谷歌雲也將加入托管的行列。
打開生成式AI的“魔盒”
iPhone問世之後,並沒有止步不前,而是引領了智能手機長達數十年的大發展。如今走到“iPhone時刻”的AI,面對的也是一個與當年的iPhone極其相似的世界。
ChatGPT的成功,對AI的革命而言,僅僅是踏進門口的一小步。
門後的世界中,還藴藏着屬於生成式AI更廣闊的世界。
在基礎設施之外,對想要掌握AI“原力”的企業來説,如何搭上AI的下一班車,建立一個生成式AI模型,並將其應用到生產中,也將是一個重要命題。
英偉達發佈的新雲服務平台NVIDIA AI Foundations則是讓企業做到這一點的“神兵利器”。
NVIDIA AI Foundations被分為用於構建定製的語言文本模型的Nemo、提供視覺語言製作服務的Picasso和提供醫學相關數據專有模型構建服務的Bionemo三個而部分。
在Nemo中,客户可以引入自己的模型,或使用Nemo包含的從GPT-8、GPT-43到GPT-530等數十億參數的預訓練模型,並基於此構建自己掌控下的語言模型。
Picasso則為使用者提供了大量具有授權許可的專業圖像和視屏素材,使用者能夠使用這些許可內容或根據自己的專有內容訓練自定義模型,並將生成的內容導入編輯工具,甚至可以導入英偉達元宇宙平台Omniverse,投入“元宇宙”的大基建事業。
能夠提供包括語言、視覺和生物學等領域模型在內的製作服務,適用於需要構建、改進和操作自定義 LLM 的客户以及使用專有數據訓練的生成 AI,以及針對特定領域的任務。
使用Bionemo,用户既能夠即時訪問藥物研發工作流,也可以用於蛋白質結構預測和蛋白質生成與分子生成、分子對接等新葯研究關鍵步驟的模型生成中。
英偉達不僅將三者合一的NVIDIA AI Foundations視為雲服務,更將其視為構建生成式AI模型的“代工廠”。
GPU反客為主,造芯關鍵步驟“搶班奪權”
要想真正跨過AI下一次進化的大門,作為人工智能最重要的“基建設備”的GPU芯片本身的製造也極為重要。
人工智能的火熱,離不開GPU的助力。能夠提供大量執行重複簡單計算的GPU對需要大量算力的大模型和神經網絡來説,是天然的伴侶。
在過去的幾年裏,人工智能在掀起了在工業上落地的浪潮。小到餐廳中的小料台補貨,大到碼頭或光伏電站,人工智能已經成為了工業領域公認的“先進產能”。
而在兜兜轉轉之後,GPU的發明者英偉達,終於把人工智能的觸手帶回了“最初的起點”——GPU芯片的製造上。
黃仁勛在演講中提到,隨着芯片製造工藝的進步,如今的芯片製造已經要求約一個金原子或一條人類DNA鏈尺寸的誤差。
而作為芯片製造的核心步驟和起始階段的光刻更是重中之重。
大約30年前,晶體管的尺寸已經發展到比光刻機波長更小,由於衍射效應,掩膜上的圖案與最終圖案特徵變得完全不同,這使得模擬光通過光學元件和光刻膠互相作用結果的計算光刻成為了芯片製造過程中機器重要的一環。
此前,CPU一直是承擔這一工作負載的主力。根據黃仁勛的估算,每年芯片製造商們在這一步驟上消耗了數百億CPU小時的算力來創建用於光刻系統的掩模板。
但隨着先進製程發展,計算光刻變得愈加複雜,CPU負載已經舉步維艱。
多次高呼“摩爾定律已死”的英偉達CEO黃仁勛在今天的演講上帶來了人工智能與芯片製造結合的最新成果:基於用於芯片製造的NVIDIA cuLitho軟件庫,為芯片製造找到了一條新的“活路”。
英偉達表示,在cuLitho加持下,短期內可以提升芯片產業鏈效率,並大幅降低功耗,在新的流程下,僅需要500塊H100就能夠完成此前需要傳統流程中40000個CPU系統才能完成的工作,讓光刻技術性能躍升了40倍。
而相比現有的流程,使用cuLitho、能夠僅使用如今九分之一的功耗做到每天三到五倍的生產效率,也能在一夜之間完成傳統方法兩週才能完成的單個掩模板處理任務。
而長遠來看,英偉達則有着更遠大的目標。
英偉達不僅將與台積電、新思科技合作,將NVIDIA cuLitho軟件庫集成到軟件和系統中,用於製造最新一代的Hopper架構GPU。
黃仁勛還在演講中宣佈,英偉達將與台積電、阿斯麥與新思科技合作,並利用cuLitho為未來2nm及後續更先進製程芯片的製造打下基礎。從而為AI“iPhone時刻”後的革命準備好充足“糧草”。雷峯網(公眾號:雷峯網)
雷峯網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
作者/編輯:姚勇喆
請按此登錄後留言。未成為會員? 立即註冊