簧片在线观看,heyzo无码中文字幕人妻,天天想你在线播放免费观看,JAPAN4KTEEN体内射精

正在閱讀:

人工智能的未來:ChatGPT后,誰是下一個AIGC殺手級應用?

掃一掃下載界面新聞APP

人工智能的未來:ChatGPT后,誰是下一個AIGC殺手級應用?

視聽行業會是下一個大模型的爆發點嗎?

文|適道  

1. Google:Phenaki &Imagen Video

2. Meta:Make-A-Video

3. 百度:VidPress

4. 下一個明日之星?

沒有人懷疑,新時代已經到來。作為新時代“發電廠”,大模型正在改造著各行各業。

在AIGC領域,背靠大模型,以ChatGPT為代表的AI聊天機器人,以Midjourney為代表的AI圖片生成工具,掀起了第四次AI浪潮。

但這或許只是可口的前菜?

一方面,比起圖文,視頻是更強的商業化載體;另一方面,有了5G技術高帶寬、低時延的加持,視頻領域的技術革命近在眼前。

那么,下一個大模型的爆發點會在何處?是在視聽行業嗎?

從需求來看,AI生成時代之前,視頻生成的智能化主要用于后期剪輯;AI生成時代當下,接入大模型,成本和難度更大的素材采集可以輕松完成,而這剛好能夠滿足行業對“降本增效”的需求。

但從可實現性來看,根據易觀《AIGC產業研究報告2023——視頻生成篇》,生成視頻商業化落地的挑戰主要集中在產品易用性挑戰、穩定可控挑戰,以及合規應用挑戰。其中,“產品易用性”指視頻生產的速度、交互體驗等;“穩定可控”指可生成視頻的時長、分辨率,以及處理速度,對復雜場景的理解等。

總的來說,生成視頻的質量、互動的準度極大影響著其商業化落地。

那么現在的視頻生成技術走到了哪一步呢,不妨先展開看看相關領域的進展。

一篇來自Boxmining的文章給出了部分答案(作者Steve Gates),文章介紹了包括Phenaki 、Imagen Video、Make-A-Video在內的幾款AI視頻生成模型,并指出了AIGC領域的下一個爆點。以下是適道的翻譯簡寫。為方便大家絲滑閱讀,適道對原文結構進行了微調,并補充了文中提及的案例。

隨著大模型不斷發展,人們急切期待AI繪畫和ChatGPT后的下一個突破點。

在通信領域,5G技術的高帶寬、低時延,為視頻傳輸提供了強有力的保障,這會引發一場圍繞8K視頻、VR和AR的視頻技術革命。

綜上所述,技術法則預示著視頻領域的技術革命指日可待。隨著AI和5G技術的發展,視頻行業將迎來新一輪的創新發展浪潮。

1. Google:Phenaki &Imagen Video

在現象級產品ChatGPT大放異彩之時,Google的文生視頻(Text to Video,T2V)模型Phenaki的表現也相當炸裂。

Phenaki不受固定幀數、時長、分辨率的限制。它不僅比以前的模型更長、更復雜,分辨率更高,還能理解不同的藝術風格和3D結構。

僅根據單個提示詞,Phenaki就能生成一個能講故事的視頻(Story-Telling Video)。

當你想做一段泰迪熊動畫時,只需輸入:

A teddy bear diving in the ocean(一只泰迪熊潛入海中)

A teddy bear emerges from the water(一只泰迪熊從水中出現)

A teddy bear walks on the beach(一只泰迪熊走在沙灘上)

Camera zooms out to the teddy bear in the campfire by the beach(相機逐漸拉遠至沙灘邊篝火旁的泰迪熊)

幾分鐘后,你會獲得如下視頻:

怎么樣?質感相當不錯吧。

同時期,Google還推出了另一款基于擴散模型的Imagen Video,同樣擁有高分辨率,也可以理解不同藝術風格。不過,Imagen Video生成的視頻時長相比Phenaki來說更短。

2. Meta:Make-A-Video

Meta也加入了這場視頻生成的卷王之戰中,并在2022年9月推出了Make-A-Video,時間比Google推出Phenaki &Imagen Video剛好早了一周。

根據Meta官網介紹,和上述的文生視頻T2V模型不同,Make-A-Video是建立在文本生成圖像(Text to Image,T2I)模型上的升級版本。

也就是說,雖然Make-A-Video生成的是視頻,但它沒有用成對的文本+視頻數據訓練,而是和文本生成圖像(Text to Image,T2I)模型一樣,靠文本+圖像的數據對進行訓練,這一方面是考慮到當前互聯網中的文本+視頻的數據集過少,另一方面是,可以對已經相對成熟的T2I模型進行重復使用。

那么,我們來看看Make-A-Video能做出哪些好玩的視頻?

1、將靜止圖像轉換成視頻

2、根據前后兩張圖片創建一個視頻

3、基于原始視頻生成新視頻

4、根據輸入的文字提示,生成符合語義的短視頻。

例如,輸入“喝水的馬”

輸入“機器人在時代廣場跳舞”

3. 百度:VidPress

到了國內,百度也將文心大模型的能力運用在智能視頻合成平臺VidPress中。

VidPress可以快速完成文字腳本、視頻內容搜索、素材處理、音視頻對齊、剪輯等一連串“騷操作”。

VidPress內容生產的三個環節

早在2021年1月,百度研究院就發布了一條由AI自主剪輯的視頻《2021年十大科技趨勢預測》,該視頻的技術支撐就是VidPress。

當下,一方面,文娛、教育、傳媒等諸多領域對AI生成視頻具有強烈市場需求;另一方面,AI生成內容產品存在變現困難等商業化瓶頸。而在2022年,一批高質量文生圖模型,如DALL E、Imagen和Stable Diffusion涌現,這將助力AI生成內容產業突破變現難等商業化瓶頸。

4. 下一個明日之星?

在大模型技術領域,兩類公司值得關注。

1、擁有數據基礎和應用場景的公司

以Netflix、Disney為代表的大型行業玩家為代表,這些公司積攢了數十億條會員評價,且熟知觀眾的習慣和需求。

事實上,Netflix已經使用AI來替代標準內容的制作,例如從影片中抽取符合用戶觀影偏好的畫面,生成電影縮略圖。

另外,今年1月31日,Netflix還發布了一支AIGC動畫短片《犬與少年(Dog and Boy)》。其中動畫場景的繪制工作就是由AI完成的。

2、科技巨頭核心研發團隊創建的初創公司

以OpenAI、DeepMind和Meta為代表,這些公司在該領域有著重大影響力。它們也憑借深厚的技術背景和創新精神,開發出了一系列領先的大模型技術。

有趣的是,這些公司原本的研究人員也跳了出來,強強聯手,成立新公司。

例如,前段時間,由DeepMind和Meta的前研究人員共同創立的Mistral AI,成為了資本的新“寵兒”。Mistral AI僅成立了四個星期,就獲得了一輪高達1.13億美元的種子資金。據外媒Techcrunch報道,這是歐洲生成式AI公司有史以來獲得的最大的種子輪融資。

結論

從ChatGPT到AIGC,再到如今的視頻生成模型,AI發展的速度之快令人驚嘆。

目前,在視頻生成領域,科技巨頭們正在爭先搶占領先地位。

不過,無論誰來搶占,如何搶占,他們的目標都是創造出更加真實、高質量的視頻。而這些技術不僅能為消費者帶來更深度的娛樂體驗,也將為媒體、教育、廣告等行業帶來巨大影響。

然而,這些正在更新的大模型技術也帶來了一些新的挑戰,如隱私問題、數據保護以及內容濫用問題。這需要我們在繼續推動技術進步的同時,積極應對這些挑戰,如制定相適應的規范和法規,以確保技術的健康發展。

無論如何,對于大模型技術的未來,我們有理由保持樂觀。隨著技術的不斷進步,我們期待在不久的將來看到更多的創新和突破。

本文為轉載內容,授權事宜請聯系原著作權人。

評論

暫無評論哦,快來評價一下吧!

下載界面新聞

微信公眾號

微博

人工智能的未來:ChatGPT后,誰是下一個AIGC殺手級應用?

視聽行業會是下一個大模型的爆發點嗎?

文|適道  

1. Google:Phenaki &Imagen Video

2. Meta:Make-A-Video

3. 百度:VidPress

4. 下一個明日之星?

沒有人懷疑,新時代已經到來。作為新時代“發電廠”,大模型正在改造著各行各業。

在AIGC領域,背靠大模型,以ChatGPT為代表的AI聊天機器人,以Midjourney為代表的AI圖片生成工具,掀起了第四次AI浪潮。

但這或許只是可口的前菜?

一方面,比起圖文,視頻是更強的商業化載體;另一方面,有了5G技術高帶寬、低時延的加持,視頻領域的技術革命近在眼前。

那么,下一個大模型的爆發點會在何處?是在視聽行業嗎?

從需求來看,AI生成時代之前,視頻生成的智能化主要用于后期剪輯;AI生成時代當下,接入大模型,成本和難度更大的素材采集可以輕松完成,而這剛好能夠滿足行業對“降本增效”的需求。

但從可實現性來看,根據易觀《AIGC產業研究報告2023——視頻生成篇》,生成視頻商業化落地的挑戰主要集中在產品易用性挑戰、穩定可控挑戰,以及合規應用挑戰。其中,“產品易用性”指視頻生產的速度、交互體驗等;“穩定可控”指可生成視頻的時長、分辨率,以及處理速度,對復雜場景的理解等。

總的來說,生成視頻的質量、互動的準度極大影響著其商業化落地。

那么現在的視頻生成技術走到了哪一步呢,不妨先展開看看相關領域的進展。

一篇來自Boxmining的文章給出了部分答案(作者Steve Gates),文章介紹了包括Phenaki 、Imagen Video、Make-A-Video在內的幾款AI視頻生成模型,并指出了AIGC領域的下一個爆點。以下是適道的翻譯簡寫。為方便大家絲滑閱讀,適道對原文結構進行了微調,并補充了文中提及的案例。

隨著大模型不斷發展,人們急切期待AI繪畫和ChatGPT后的下一個突破點。

在通信領域,5G技術的高帶寬、低時延,為視頻傳輸提供了強有力的保障,這會引發一場圍繞8K視頻、VR和AR的視頻技術革命。

綜上所述,技術法則預示著視頻領域的技術革命指日可待。隨著AI和5G技術的發展,視頻行業將迎來新一輪的創新發展浪潮。

1. Google:Phenaki &Imagen Video

在現象級產品ChatGPT大放異彩之時,Google的文生視頻(Text to Video,T2V)模型Phenaki的表現也相當炸裂。

Phenaki不受固定幀數、時長、分辨率的限制。它不僅比以前的模型更長、更復雜,分辨率更高,還能理解不同的藝術風格和3D結構。

僅根據單個提示詞,Phenaki就能生成一個能講故事的視頻(Story-Telling Video)。

當你想做一段泰迪熊動畫時,只需輸入:

A teddy bear diving in the ocean(一只泰迪熊潛入海中)

A teddy bear emerges from the water(一只泰迪熊從水中出現)

A teddy bear walks on the beach(一只泰迪熊走在沙灘上)

Camera zooms out to the teddy bear in the campfire by the beach(相機逐漸拉遠至沙灘邊篝火旁的泰迪熊)

幾分鐘后,你會獲得如下視頻:

怎么樣?質感相當不錯吧。

同時期,Google還推出了另一款基于擴散模型的Imagen Video,同樣擁有高分辨率,也可以理解不同藝術風格。不過,Imagen Video生成的視頻時長相比Phenaki來說更短。

2. Meta:Make-A-Video

Meta也加入了這場視頻生成的卷王之戰中,并在2022年9月推出了Make-A-Video,時間比Google推出Phenaki &Imagen Video剛好早了一周。

根據Meta官網介紹,和上述的文生視頻T2V模型不同,Make-A-Video是建立在文本生成圖像(Text to Image,T2I)模型上的升級版本。

也就是說,雖然Make-A-Video生成的是視頻,但它沒有用成對的文本+視頻數據訓練,而是和文本生成圖像(Text to Image,T2I)模型一樣,靠文本+圖像的數據對進行訓練,這一方面是考慮到當前互聯網中的文本+視頻的數據集過少,另一方面是,可以對已經相對成熟的T2I模型進行重復使用。

那么,我們來看看Make-A-Video能做出哪些好玩的視頻?

1、將靜止圖像轉換成視頻

2、根據前后兩張圖片創建一個視頻

3、基于原始視頻生成新視頻

4、根據輸入的文字提示,生成符合語義的短視頻。

例如,輸入“喝水的馬”

輸入“機器人在時代廣場跳舞”

3. 百度:VidPress

到了國內,百度也將文心大模型的能力運用在智能視頻合成平臺VidPress中。

VidPress可以快速完成文字腳本、視頻內容搜索、素材處理、音視頻對齊、剪輯等一連串“騷操作”。

VidPress內容生產的三個環節

早在2021年1月,百度研究院就發布了一條由AI自主剪輯的視頻《2021年十大科技趨勢預測》,該視頻的技術支撐就是VidPress。

當下,一方面,文娛、教育、傳媒等諸多領域對AI生成視頻具有強烈市場需求;另一方面,AI生成內容產品存在變現困難等商業化瓶頸。而在2022年,一批高質量文生圖模型,如DALL E、Imagen和Stable Diffusion涌現,這將助力AI生成內容產業突破變現難等商業化瓶頸。

4. 下一個明日之星?

在大模型技術領域,兩類公司值得關注。

1、擁有數據基礎和應用場景的公司

以Netflix、Disney為代表的大型行業玩家為代表,這些公司積攢了數十億條會員評價,且熟知觀眾的習慣和需求。

事實上,Netflix已經使用AI來替代標準內容的制作,例如從影片中抽取符合用戶觀影偏好的畫面,生成電影縮略圖。

另外,今年1月31日,Netflix還發布了一支AIGC動畫短片《犬與少年(Dog and Boy)》。其中動畫場景的繪制工作就是由AI完成的。

2、科技巨頭核心研發團隊創建的初創公司

以OpenAI、DeepMind和Meta為代表,這些公司在該領域有著重大影響力。它們也憑借深厚的技術背景和創新精神,開發出了一系列領先的大模型技術。

有趣的是,這些公司原本的研究人員也跳了出來,強強聯手,成立新公司。

例如,前段時間,由DeepMind和Meta的前研究人員共同創立的Mistral AI,成為了資本的新“寵兒”。Mistral AI僅成立了四個星期,就獲得了一輪高達1.13億美元的種子資金。據外媒Techcrunch報道,這是歐洲生成式AI公司有史以來獲得的最大的種子輪融資。

結論

從ChatGPT到AIGC,再到如今的視頻生成模型,AI發展的速度之快令人驚嘆。

目前,在視頻生成領域,科技巨頭們正在爭先搶占領先地位。

不過,無論誰來搶占,如何搶占,他們的目標都是創造出更加真實、高質量的視頻。而這些技術不僅能為消費者帶來更深度的娛樂體驗,也將為媒體、教育、廣告等行業帶來巨大影響。

然而,這些正在更新的大模型技術也帶來了一些新的挑戰,如隱私問題、數據保護以及內容濫用問題。這需要我們在繼續推動技術進步的同時,積極應對這些挑戰,如制定相適應的規范和法規,以確保技術的健康發展。

無論如何,對于大模型技術的未來,我們有理由保持樂觀。隨著技術的不斷進步,我們期待在不久的將來看到更多的創新和突破。

本文為轉載內容,授權事宜請聯系原著作權人。
主站蜘蛛池模板: 海晏县| 天柱县| 沧州市| 鸡泽县| 荆州市| 同德县| 澄迈县| 临沧市| 寻乌县| 丽江市| 灵寿县| 深水埗区| 乐陵市| 来凤县| 许昌市| 台前县| 镇赉县| 梨树县| 满洲里市| 汉沽区| 聂拉木县| 富宁县| 永胜县| 百色市| 潢川县| 新郑市| 岳西县| 怀化市| 东港市| 海门市| 阳信县| 颍上县| 承德市| 玉山县| 兴山县| 中阳县| 光泽县| 霍山县| 多伦县| 罗江县| 三河市|