來源:智東西作者:李水青
當(dāng)?shù)貢r(shí)間4月13日,全球第一大云巨頭AWS推出生成式AI(AIGC)工具“全家桶”,重磅空降ChatGPT引發(fā)的全球AI大競(jìng)賽戰(zhàn)場(chǎng)!
與微軟、谷歌從消費(fèi)級(jí)產(chǎn)品切入的做法不同,亞馬遜旗下的AWS精準(zhǔn)狙擊企業(yè)用戶,且產(chǎn)品覆蓋IaaS實(shí)例、PaaS平臺(tái)、SaaS軟件全棧技術(shù)層。
【資料圖】
至此,國(guó)外公有云巨頭AWS、微軟Azure、谷歌云,國(guó)內(nèi)的阿里云、百度智能云已悉數(shù)參團(tuán)AIGC大戰(zhàn),仍有華為云、騰訊云等云大廠有待進(jìn)一步動(dòng)作。AWS的重拳出擊讓其他云廠商不得不更快采取措施。
首先,AWS推出生成式AI平臺(tái)Bedrock服務(wù),支持用戶通過API訪問亞馬遜自己的Titan(泰坦)大模型,是由今天推出的兩個(gè)全新大語(yǔ)言模型組成;同時(shí)支持調(diào)用來自AI21 Labs、Anthropic、Stability AI等第三方的多樣化模型。目前,OpenAI開放了ChatGPT的API,但微軟、谷歌并未推出類似的PaaS開放平臺(tái)。
同時(shí),Bedrock一個(gè)核心特征是支持企業(yè)自定義基礎(chǔ)模型,只需少量數(shù)據(jù)就完成模型定制化和微調(diào)。在這一方面上,國(guó)內(nèi)百度文心一言、阿里云通義千問也推出了類似的企業(yè)級(jí)服務(wù)。
然后,AWS推出了兩款專門針對(duì)生成式AI優(yōu)化的計(jì)算實(shí)例EC2 Trn1n實(shí)例和EC2 Inf2。訓(xùn)練實(shí)例EC2 Trn1由其自研芯片Trainium支持,可節(jié)省高達(dá)50%的訓(xùn)練成本,EC2 Trn1n更進(jìn)一步性能再提高20%;推理實(shí)例Inf2基于其自研芯片Inferentia2,據(jù)稱吞吐量提高了4倍,延遲降低了10倍。AWS應(yīng)該是云巨頭中首個(gè)推出專門面向生成式AI實(shí)例的玩家。
最后,AWS預(yù)見生成式AI的使用將快速增長(zhǎng)的一個(gè)領(lǐng)域是編程,為此推出一款A(yù)I編程伴侶:CodeWhisperer,可輔助程序員編程,據(jù)稱促進(jìn)用戶執(zhí)行任務(wù)速度提升57%,CodeWhisperer預(yù)覽版將面向所有用戶免費(fèi)開放。這一產(chǎn)品于微軟旗下GitHub上線的基于GPT-4的CopilotX平臺(tái)類似,但AWS稱其首創(chuàng)了內(nèi)置安全掃描,能查找難以檢測(cè)的漏洞并提出補(bǔ)救建議。
亞馬遜CEO安迪·賈西(Andy Jassy)周四發(fā)布2022年度股東信稱:“我可以為L(zhǎng)LM(大語(yǔ)言模型)和生成式AI專門寫一封信,因?yàn)槲艺J(rèn)為它們將具有革命性,對(duì)我們的客戶、股東和亞馬遜來說將是一件大事。”
這封信隨之而至,AWS在今早關(guān)于生成式AI的公告中提到:“ChatGPT是第一個(gè)引起客戶注意的生成AI,但大多數(shù)研究者很快意識(shí)到技術(shù)潛力,有幾種不同的FM(基礎(chǔ)大模型)可供使用,每一種都具有獨(dú)特的優(yōu)勢(shì)和特征,我們期待未來會(huì)出現(xiàn)新的架構(gòu),F(xiàn)M的多樣性將掀起一波創(chuàng)新浪潮。”
上線AIGC平臺(tái),提供自研LLM和第三方模型,支持企業(yè)定制
生成式AI是一種可以創(chuàng)造新內(nèi)容和想法的AI,包括對(duì)話、故事、圖像、視頻和音樂。與所有AI一樣,生成式AI由機(jī)器學(xué)習(xí)模型提供支持,這些模型是基于大量數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練的超大模型,通常稱為基礎(chǔ)大模型(FM)。
AWS收到了不少客戶的反饋他們遇到的困擾,包括:
1、他們需要一種能更直接簡(jiǎn)單調(diào)用的效果好、契合需求的高性能FM。
2、他們希望無縫集成到應(yīng)用程序中,不必管理龐大的基礎(chǔ)設(shè)施集群或產(chǎn)生大量成本。
3、他們希望在輕松獲取基礎(chǔ)FM的同時(shí),使用自己本地?cái)?shù)據(jù)構(gòu)建定制化應(yīng)用程序。
4、數(shù)據(jù)資產(chǎn)被保護(hù),保障安全和私密,能控制數(shù)據(jù)共享和使用方式。
為此,AWS今天宣布推出Amazon Bedrock新服務(wù),可以通過API訪問來自AI21 Labs、Anthropic、Stability AI和亞馬遜自己的基礎(chǔ)大模型。
AWS稱,Bedrock是用戶使用FM構(gòu)建和擴(kuò)展基于AI的生成應(yīng)用程序的最簡(jiǎn)單方法,將提供訪問一系列強(qiáng)大文本和圖像大模型能力——包括亞馬遜的Titan FM,它由AWS今天也宣布的兩個(gè)新的LLM組成。
借助Bedrock的Serverless(無服務(wù)器)體驗(yàn),客戶可以輕松地找到適合他們要完成的工作的正確模型、快速入門、使用他們自己的數(shù)據(jù)私下定制FM,并使用AWS工具和功能將它們集成并部署到應(yīng)用程序中。比如用戶可以將Bedrock與Amazon SageMaker ML功能集成,例如用于測(cè)試不同模型的實(shí)驗(yàn)和用于大規(guī)模管理其FM,而無需管理任何基礎(chǔ)設(shè)施。
Bedrock客戶可以從當(dāng)今可用的最前沿FM中進(jìn)行選擇。這包括來自AI21 Labs的Jurassic-2系列多語(yǔ)言LLM,它們遵循自然語(yǔ)言指令生成西班牙語(yǔ)、法語(yǔ)、德語(yǔ)、葡萄牙語(yǔ)、意大利語(yǔ)和荷蘭語(yǔ)的文本;Bedrock還可以輕松訪問Stability AI的文本到圖像基礎(chǔ)模型套件,包括Stable Diffusion,它能夠生成獨(dú)特、逼真、高質(zhì)量的圖像、藝術(shù)、徽標(biāo)和設(shè)計(jì)等。
Bedrock最重要的功能之一是定制模型非常容易。客戶只需Bedrock指向Amazon S3實(shí)例中的幾個(gè)標(biāo)記示例,該服務(wù)就可以針對(duì)特定任務(wù)微調(diào)模型,而無需注釋大量數(shù)據(jù)(少至20個(gè)示例就足夠了)。
想象一下,一位內(nèi)容營(yíng)銷經(jīng)理在一家領(lǐng)先的時(shí)裝零售商工作,他需要為即將推出的新手袋系列制作新的、有針對(duì)性的廣告和活動(dòng)文案。為此,他們向Bedrock提供了一些帶標(biāo)簽的示例,這些示例展示了過去營(yíng)銷活動(dòng)中表現(xiàn)最好的標(biāo)語(yǔ),以及相關(guān)的產(chǎn)品描述,Bedrock將自動(dòng)開始為新手袋生成有效的社交媒體、展示廣告和網(wǎng)絡(luò)副本。并且,沒有客戶的數(shù)據(jù)被用來訓(xùn)練底層模型。
Bedrock正面向部分客戶推出預(yù)覽版。美國(guó)辦公協(xié)作服務(wù)商Coda的聯(lián)合創(chuàng)始人兼首席執(zhí)行官Shishir Mehrotra(西什爾·梅羅特拉)說:“作為AWS的長(zhǎng)期滿意客戶,我們對(duì)Amazon Bedrock如何為Coda AI帶來質(zhì)量、可擴(kuò)展性和性能感到興奮。由于我們的所有數(shù)據(jù)都已在AWS上,因此我們能夠使用Bedrock快速整合生成式AI,并具有保護(hù)我們的內(nèi)置數(shù)據(jù)所需的所有安全性和隱私性。有超過數(shù)萬(wàn)個(gè)團(tuán)隊(duì)在Coda上運(yùn)行,包括Uber、紐約時(shí)報(bào)和Square等大型團(tuán)隊(duì),可靠性和可擴(kuò)展性非常重要。”
AWS一直在與一些客戶測(cè)試其新的Titan FM,計(jì)劃未來幾個(gè)月推廣,其最初會(huì)有兩個(gè)Titan模型。
第一個(gè)是生成式LLM(generative LLM),用于諸如摘要、文本生成、分類、開放式問答和信息提取等任務(wù)。
第二種是嵌入式LLM(embeddings LLM),它將文本輸入翻譯成包含文本語(yǔ)義的數(shù)字表示。雖然此LLM不會(huì)生成文本,但它對(duì)于個(gè)性化和搜索等應(yīng)用程序很有用,因?yàn)橥ㄟ^比較嵌入,模型將產(chǎn)生比單詞匹配更相關(guān)和上下文相關(guān)的響應(yīng)。事實(shí)上,亞馬遜電商平臺(tái)的產(chǎn)品搜索功能使用了類似的嵌入模型來幫助客戶找到他們正在尋找的產(chǎn)品。
推出AIGC基礎(chǔ)設(shè)施:基于自研芯片,上線EC2 Trn1n、Inf2實(shí)例
AWS宣布推出由AWS Trainium提供支持的Amazon EC2 Trn1n實(shí)例和由AWS Inferentia2提供支持的Amazon EC2 Inf2實(shí)例,據(jù)稱這是用于生成AI的最具成本效益的云基礎(chǔ)設(shè)施。
由Trainium提供支持的Trn1實(shí)例可以比任何其他EC2實(shí)例節(jié)省高達(dá)50%的訓(xùn)練成本,并且經(jīng)過優(yōu)化以在與800 Gbps第二代Elastic Fabric Adapter(EFA)網(wǎng)絡(luò)連接的多臺(tái)服務(wù)器之間分發(fā)訓(xùn)練。客戶可以在UltraClusters中部署Trn1實(shí)例,這些實(shí)例可以擴(kuò)展到位于同一AWS可用區(qū)中的30000個(gè)Trainium芯片(超過6ExaFLOPS的計(jì)算),具有PB級(jí)網(wǎng)絡(luò)。許多AWS客戶,包括Helixon、Money Forward 和 Amazon Search團(tuán)隊(duì),都使用Trn1實(shí)例來幫助將訓(xùn)練最大規(guī)模深度學(xué)習(xí)模型所需的時(shí)間從幾個(gè)月縮短到幾周甚至幾天,同時(shí)降低成本。
800 Gbps是一個(gè)很大的帶寬,但AWS稱自己不斷創(chuàng)新以提供更多帶寬,今天宣布新的網(wǎng)絡(luò)優(yōu)化Trn1n實(shí)例的普遍可用性,它提供1600 Gbps的網(wǎng)絡(luò)帶寬,旨在為大型網(wǎng)絡(luò)密集型模型提供比Trn1高20%的性能。
亞馬遜CEO安迪·賈西(Andy Jassy)說:“對(duì)于最常見的機(jī)器學(xué)習(xí)模型,基于Trainium(AWS自研AI訓(xùn)練芯片)的實(shí)例比基于GPU的實(shí)例快140%,而成本最多降低70%。”
AWS稱,今天,花在FM上的大部分時(shí)間和金錢都用于培訓(xùn)他們,這是因?yàn)樵S多客戶才剛剛開始將FM部署到生產(chǎn)中。但是,在未來大規(guī)模部署FM時(shí),大部分成本將與運(yùn)行模型和進(jìn)行推理相關(guān)。Alexa是一個(gè)很好的例子,每分鐘有數(shù)百萬(wàn)個(gè)請(qǐng)求,占所有計(jì)算成本的40%。因此AWS在幾年前開始投資新芯片時(shí)優(yōu)先考慮推理優(yōu)化的芯片。
2018 年,AWS發(fā)布了首款推理專用芯片Inferentia,現(xiàn)在生成AI增加了工作負(fù)載的規(guī)模和復(fù)雜性,這是AWS今天宣布由AWS Inferentia2提供支持的Inf2實(shí)例全面上市的原因。
Inferentia2專門針對(duì)包含數(shù)千億個(gè)參數(shù)的模型的大規(guī)模生成人工智能應(yīng)用進(jìn)行了優(yōu)化。與上一代基于Inferentia的實(shí)例相比,Inf2實(shí)例的吞吐量提高了4倍,延遲降低了10倍。
它們還具有加速器之間的超高速連接,以支持大規(guī)模分布式推理。與其他類似的Amazon EC2實(shí)例相比,這些功能可將推理價(jià)格性能提高多達(dá)40%,并使云中的推理成本最低。對(duì)于某些模型,像Runway這樣的客戶發(fā)現(xiàn)Inf2的吞吐量比同類Amazon EC2實(shí)例高出2倍。這種高性能、低成本的推理將使 Runway能夠引入更多功能,部署更復(fù)雜的模型。
上線AI編程伴侶CodeWhisperer,對(duì)個(gè)人開發(fā)者免費(fèi)開放
AWS預(yù)見生成式AI的使用將快速增長(zhǎng)的一個(gè)領(lǐng)域是編程。
今天的軟件開發(fā)人員花費(fèi)大量時(shí)間編寫非常簡(jiǎn)單且無差別的代碼,還花費(fèi)大量時(shí)間試圖跟上復(fù)雜且不斷變化的工具和技術(shù)環(huán)境,沒有時(shí)間開發(fā)新的、創(chuàng)新的功能和服務(wù)。生成式AI可以通過“編寫”大量無差異代碼來消除這種繁重的工作。
為此,AWS宣布推出Amazon CodeWhisperer的預(yù)覽版,一種AI編程伴侶,它基于FM,根據(jù)開發(fā)人員的自然語(yǔ)言評(píng)論和集成開發(fā)環(huán)境(IDE)中的先前代碼實(shí)時(shí)生成代碼建議,提高開發(fā)人員的工作效率。
開發(fā)人員可以簡(jiǎn)單地告訴CodeWhisperer執(zhí)行一項(xiàng)任務(wù),例如“解析CSV歌曲字符串”,并要求它返回一個(gè)基于藝術(shù)家、標(biāo)題和最高排行榜排名等值的結(jié)構(gòu)化列表。CodeWhisperer通過生成解析字符串并返回指定列表的完整函數(shù)來提高工作效率。
在預(yù)覽版試用期間,AWS進(jìn)行了一項(xiàng)生產(chǎn)力挑戰(zhàn),使用CodeWhisperer的參與者平均比不使用CodeWhisperer的參與者完成任務(wù)的速度快57%,成功完成任務(wù)的可能性高27%,AWS稱這是開發(fā)人員生產(chǎn)力的巨大飛躍。
AWS宣布適用于Python、Java、JavaScript、TypeScript和C#的Amazon CodeWhisperer以及十種新語(yǔ)言(包括Go、Kotlin、Rust、PHP和SQL)全面上市。
AWS補(bǔ)充稱,CodeWhisperer是唯一具有內(nèi)置安全掃描(由自動(dòng)推理提供支持)的AI編碼伴侶,用于查找難以檢測(cè)的漏洞并提出補(bǔ)救建議,例如十大開放式全球應(yīng)用程序安全項(xiàng)目(OWASP)中的漏洞,那些不符合加密庫(kù)最佳實(shí)踐等。CodeWhisperer過濾掉可能被認(rèn)為有偏見或不公平的代碼建議,并且CodeWhisperer是唯一可以過濾和標(biāo)記類似于客戶可能希望參考或許可使用的開源代碼的代碼建議的編碼伴侶。
CodeWhisperer對(duì)所有沒有個(gè)人用戶免費(fèi)生成代碼,任何人都可以只用一個(gè)電子郵件帳戶注冊(cè)CodeWhisperer,并在幾分鐘內(nèi)提高工作效率,甚至不必?fù)碛蠥WS賬戶。對(duì)于企業(yè)用戶AWS提供了一個(gè)CodeWhisperer Professional Tier,其中包括單點(diǎn)登錄(SSO)與 AWS Identity and Access Management (IAM)集成等管理功能,以及更高的安全掃描限制。
結(jié)語(yǔ):對(duì)戰(zhàn)微軟谷歌,亞馬遜如何后發(fā)制人?
隨著AWS參戰(zhàn),美國(guó)三大公有云服務(wù)巨頭亞馬遜、微軟、谷歌都已將生成式AI置于營(yíng)銷宣傳的中心,試圖利用人們對(duì)這一技術(shù)興趣的爆發(fā)式增長(zhǎng),開辟新戰(zhàn)場(chǎng)的同時(shí)促進(jìn)增長(zhǎng)疲軟的云業(yè)務(wù)回暖。
作為后發(fā)的云大廠,AWS開辟了不同道路,相比谷歌等避免了對(duì)AI公司及消費(fèi)級(jí)產(chǎn)品的重大投資,而是建立平臺(tái)匯聚眾多中小企業(yè)的模型。基于眾多云客戶業(yè)務(wù)和數(shù)據(jù)放在AWS的優(yōu)勢(shì),其有望用此策略后發(fā)制人。在國(guó)內(nèi),阿里云、百度智能云等云大廠也都已經(jīng)行動(dòng),騰訊云、華為云還未正式出擊,國(guó)外云大廠的策略為國(guó)內(nèi)玩家提供了參考。
編輯/hoten