Meta推出一款新的面向音頻和音樂的名為AudioCraft的生成式AI工具,該工具可以幫助用戶根據(jù)文本提示創(chuàng)作音樂和音頻,這款A(yù)I工具將AudioGen、EnCodec和MusicGen三種模型或技術(shù)融為一體,可用文本內(nèi)容生成高質(zhì)量、近乎真人創(chuàng)作的音頻和音樂。
(資料圖片僅供參考)
8月2日周三,$Meta Platforms(META.US)$推出一款新的面向音頻和音樂的名為AudioCraft的生成式AI工具,該工具可以幫助用戶根據(jù)文本提示創(chuàng)作音樂和音頻。
這款A(yù)I工具將AudioGen、EnCodec和MusicGen三種模型或技術(shù)融為一體,可用文本內(nèi)容生成高質(zhì)量、近乎真人創(chuàng)作的音頻和音樂。
其中,MusicGen接受過Meta擁有的和特別授權(quán)的音樂訓(xùn)練,可以從文本提示生成音樂;AudioGen接受過公共音效訓(xùn)練,可從文本提示生成音頻,比如模擬狗叫或腳步聲;再加上EnCodec編解碼器的改進(jìn)版本,用戶可以更高效率地生成更高質(zhì)量的音樂。
Meta稱,AudioCraft系列模型能夠產(chǎn)生具有長(zhǎng)期一致性的高質(zhì)量音頻,并且易于使用:
與該領(lǐng)域之前的工作相比,通過AudioCraft,我們簡(jiǎn)化了音頻生成模型的整體設(shè)計(jì)——為人們提供了使用Meta在過去幾年中開發(fā)的現(xiàn)有模型的完整方法,同時(shí)也使他們能夠突破極限 并開發(fā)自己的模型。
Meta指出,AudioCraft適用于音樂、聲音、音頻文件的壓縮和生成。因?yàn)樗苋菀讟?gòu)建和重用,所以想要構(gòu)建更好的聲音生成器、壓縮算法或音樂生成器的人可以在同一個(gè)代碼庫(kù)中完成這一切,并在其他人所做的基礎(chǔ)上進(jìn)行構(gòu)建。
Meta稱:
擁有堅(jiān)實(shí)的開源基礎(chǔ)將促進(jìn)創(chuàng)新并補(bǔ)充我們未來制作和聆聽音頻和音樂的方式。通過更多的控制,我們認(rèn)為MusicGen可以變成一種新型樂器——就像合成器首次出現(xiàn)時(shí)一樣。
所有Facebook用戶都可以安裝AudioCraft,Meta特別邀請(qǐng)研究人員和音樂專業(yè)人士使用這一工具:
我們將AudioCraft系列模型視為音樂家和聲音設(shè)計(jì)師提供靈感的工具,幫助人們快速集思廣益并以新的方式迭代他們的作品。 我們迫不及待地想看看人們用Audiocraft創(chuàng)造了什么。
Meta于2022年10月推出了其第一個(gè)版本的EnCodec,作為一種AI工具,用于在不損失音質(zhì)的情況下壓縮和解壓縮音頻文件,以便用戶快速輕松地共享音頻文檔。其目的是提高所有音頻文件的質(zhì)量,而不僅僅是音樂文件。當(dāng)時(shí),它特別針對(duì)提高語音通話和語音消息的質(zhì)量,特別是在網(wǎng)絡(luò)連接不佳等不利情況下。此后該模型不斷發(fā)展,如今與AudioGen和SoundGen一起推出,作為一種工具,幫助合成聲音和音樂在實(shí)際播放時(shí)顯得更為真實(shí)。
雖然一些藝術(shù)家已經(jīng)采用人工智能生成工具來獲得更多創(chuàng)造力,但其他藝術(shù)家卻對(duì)侵犯版權(quán)持批評(píng)態(tài)度。
編輯/Somer