❶ VR虛擬現實的視頻是怎麼做出來的。類似圖片這樣的,一般的普通視頻可以做成下面圖片那樣嗎!然後帶上
圖片是可以p出來的,但是真正運用到眼鏡上並不會有虛擬現實的效果,因為視頻必須經過主機的特殊處理之後才行,而且視頻格式本身就很特殊,其中包含了動態的八聲道音頻,可以根據陀螺儀的位置矯正聲道遞送方向,視頻包含了兩個以及更多層次,才會有虛擬現實的效果,不然撐死是3d電影罷了
❷ 網上那些vr視頻是怎麼做出來的
VR視頻的製作步驟主要如下:
打開網路瀏覽器,在輸入框中輸入「Media converter」並下載安裝。
❸ 如何製作全景視頻
1、首先需要一台全景攝像機。VR全景視頻區別於普通視頻,它需要360度拍攝,所以需要一套四方位甚至是全方位的攝像機,配備多個方向的攝像頭才可以,而且因為攝像機的鏡頭需要一開始的時候定焦,所以在拍攝之前一定要提前設定好攝像機的移動軌跡,這對於一部VR視頻的質量有很大影響。
2、一個良好的拍攝環境。既然是360度拍攝,一個封閉的壞境非常有利於VR全景視頻的拍攝,但這並不是說所有的封閉環境都適合拿來拍攝VR視頻,還需要考慮到拍攝背景以及壞境是否可以給觀賞者帶來沉浸感。
3、後期製作。初步拍攝完成後,就需要對視頻進行後期製作了,比如在某些地方加上特效、字幕等等。如果是帶有互動效果的視頻,還需要在拍攝之前就編寫好劇本並且做好綵排,在某個環節要加入互動節點,這樣在後期製作的時候才可以在互動節點大做文章,提高觀賞者的沉浸感。
❹ VR全景如何製作
它賦予游戲玩家更身臨其境的帶入感,使得游戲從平面真正走向立體。
❺ 普通視頻怎麼轉成VR電影
目前沒有啊。VR在錄制的時候就是360度的全景,簡單來說就是VR在錄制時候很多台攝影機同時360度的錄制,再用後期製作。普通的多是單機錄制,做出來也無法達到360度的全景效果的。希哦。
❻ VR內容製作常用的技術有哪些
以國內VR製作商蘭亭數字為例,包括國際一線的VR全景視頻直播全解決方案、180°3D技術、3D實時音頻技術、VR電影製作方案、全景視頻航拍全解決方案、VR視頻後期增穩解決方案、海陸空全平台穩定系統等諸多技術。
❼ 怎麼製作一個完整的VR全景視頻
當我們拍完全景圖,要把他發到如微信公眾號的文章當中,會發現一個問題,全景圖2:1的效果看上去很怪,所以我們要把它變成視頻,現在VR雲帶你簡單輕松的把360度全景圖變成視頻。
這個教程簡單而且實用,只需要一個軟體就能完成。廢話不多說,下面我們來看教程。
方法如下:
1、打開ev錄屏軟體
5、點擊文件-另存為-保存(完成後得到)
注意事項:
錄制時的窗口最好是全屏
全景圖開啟自動巡遊
錄制旋轉180度以內視角最佳
❽ VR全景是怎麼製作的
拍攝製作VR全景圖的步驟:
1、選擇器材、拍攝照片:
目前市面上除了網路地圖等大平台在用全景相機拍攝VR全景圖以外,大部分的個體或從業者都是使用單反相機+廣角鏡頭或者魚眼鏡頭為需要的企業拍攝VR全景圖。VR全景圖是由多個照片拼接起來的,因此拍照的時候各個角度一定要有一部分的重疊,這樣才能保證拼接的時候更好操作。
在拍攝時找好定點以後,在放置三腳架和雲台時,一定要檢查好相機、雲台刻度等細節問題,然後針對不同的焦距鏡頭選擇拍攝張數。
做完這三部基本上一張完整的VR全景圖就出來了,上傳到九商VR雲平台以後還可以把做好的VR全景圖分享給朋友,供朋友欣賞,對於專業的從業者,則只需分享鏈接就可以向客戶交差了。
❾ VR視頻如何製作
1、需要有一台全景攝像機。
VR視頻是360度全方位拍攝,所以需要一台四方位或者全方位攝影機,配備多方向攝像頭,比如Google YI JUMP VR攝像機、Jaunt ONE VR攝像機、Nokia OZO全景相機等。
由於攝像機鏡頭是定焦的,沒有傳統電影中的特寫鏡頭和走步移位,所以一定要事先設定好攝像機的移動軌跡,這是決定能否拍出質量好的VR視頻的基礎。
2、需要准備一個拍攝環境。
為了提供更真實的拍攝環境,攝像頭所及的環境不能出現與視頻無關的人或者事物,甚至是導演也要遠離拍攝現場或者進行適當的偽裝以免穿幫,所以視頻拍攝布景很重要。
當然也不是所有的封閉環境都適合拍VR視頻,只有那些代入感極強的背景才會給VR用戶帶來沉浸感,才會顯現出VR視頻的美妙,比如星球大戰》和《盜夢空間》這樣的電影背景就十分適合VR視頻拍攝。
3、VR視頻後期製作。
由於VR視頻的製作拼接影響視頻的觀感,所以拍攝前一定要事先做好綵排,拍攝的時候最好一次通過。另外就是消費者觀看時會自己主動找場景,所以在視頻製作中要設置一些場景引導交互或者視頻製作後期在正在說話的人物旁邊加字幕,正確引導觀眾跟進劇情發展。
4、視頻輸出及測試。
在疊加完虛擬效果之後,輸出SDI或HDMI信號,經過編轉碼處理再將視頻上傳到直播平台,目前我們的已經可以支持H5頁面的直播,這樣用戶隨時隨地,即可通過直播鏈接,「進入」直播現場,感受Live體驗。
❿ VR全景視頻怎麼拍
1、投影方式
全景拍攝並非是多麼時新的一個概念,事實上它甚至可以追溯到12世紀的《韓熙載夜宴圖》:
當然這並非真正意義上的沉浸式體驗,就算我們把這幅長畫給捲成一個圓筒,然後站在中心去觀看,也依然會覺得缺失了一點什麼,沒錯,一個明顯的接縫,以及頭頂和腳下兩片區域的空白。
出現這種問題的原因是很簡單的,因為宋朝人並沒有打算把這幅畫做成沉浸式的體驗——當然這是廢話——真正的原因是,畫面對應的物理空間視域並沒有達到全包圍的程度,也就是水平方向(經度)360度,垂直方向(緯度)180度。沒錯,說到這里,你一定想到了這張圖:
類似這樣的世界地圖也許在你家裡的牆面上已經貼了有一些年頭了,也許自從升上大學之後你從未正眼瞧過它,但是它卻符合一張全景圖片需要的全部條件,你把它放到各種VR眼鏡里去觀看的話,就宛若陷入了整個世界的環抱當中。
這種能夠正確地展開全物理視域的真實場景到一張2D圖片上,並且能夠還原到VR眼鏡中實現沉浸式觀看的數學過程,就叫做投影(projection)。
而那張看起來平凡無奇的世界地圖,使用的就是一種名為Equirectangular的常見投影方式,它的特點是水平視角的圖像尺寸可以得到很好的保持,而垂直視角上,尤其是接近兩極的時候會發生無限的尺寸拉伸。
下圖中對於這種投影方式的拉伸現象體現得更為明顯,注意看穹頂上的紋路變化,越是靠近畫面的頂端,就越是呈現出劇烈的扭曲變形。幸好,VR頭盔和應用軟體的意義也就在於將這些明顯變形的畫面還原為全視角的內容,進而讓使用者有一種身臨其境的包圍感。
然而全景圖像的投影方式遠不止這一種,比如最近剛剛發布的理光Theta S以及Insta360全景相機,就採用了另外一種更為簡單而有效的投影策略:
通過它的兩個魚眼攝像頭輸出的畫面,各自涵蓋了180度的水平和垂直視場角,然後將兩個輸出結果「扣」在一起就是全視域的沉浸式包圍體了。
當然,這種名為Fisheye的投影方式,生成的2D畫面事實上扭曲變形是更加嚴重的。而通過圖像重投影處理的方式將它變換到VR眼鏡中顯示的時候,受到圖像采樣頻率的限制(或者通俗點說,像素點大小的限制),這樣的扭曲被還原時會多少產生一定程度的圖像質量損失,因而也可能會造成全景內容本身的質量下降。
由此看來,作為全景內容的一種重要承載基體,投影圖像(或者視頻)不僅應當完整包含拍攝的全部內容,還要避免過多的扭曲變形以免重投影到VR眼鏡時產生質量損失。
那麼,除了上述兩種投影方式之外,還有更多方案可以選擇嗎?答案是,當然了,而且有的是!
比如墨卡托投影(Mercator),它沿著軸線的拉伸變形比Equirectangular更小,對應實際場景的比例更為真實,但是垂直方向只能表達大約140度左右的內容;
又比如Equisolid投影,也有人稱之為「小行星」或者「720度」全景,它甚至可以把垂直方向的360度視域都展現出來,但是前提是使用者並不在乎巨大的扭曲變形可能帶來的品質損失:
那麼,有沒有什麼投影方式生成的畫面,是能夠覆蓋至少360度水平方向和180度的垂直方向,並且沒有任何畫面的扭曲變形呢?
答案是:沒有扭曲變形的單一圖像投影方式,是不存在的。然而,如果投影的結果畫面不是單一圖像的話,方法還是有的:
如果你正好是一點陣圖形開發或者虛擬現實軟體開發的從業者的話,這張圖對你來說應該是非常熟悉的,這就是Cubemap(立方體圖像)。
它相當於一個由六幅圖像拼合組成的立方體盒子,如果假設觀察者位於立方體的中心的話,那麼每幅圖像都會對應立方體的一個表面,並且在物理空間中相當於水平和垂直都是90度的視域范圍。而觀察者被這樣的六幅畫麵包圍在中心,最終的視域范圍同樣可以達到水平360度,垂直360度,並且畫面是絕對不存在任何扭曲變形的。
如下:
是一種很理想的投影結果了,並且如果你恰好懂得使用一些離線渲染軟體或者插件來製作和輸出全景內容的話,這一定是最合適的一種選擇。然而,在實際拍攝當中我們卻幾乎不可能用到這種立方圖的記錄方式,原因很簡單——我們現有的拍攝設備難以做到。
2、拼接與融合
如果說有六台攝像機,它們的FOV角度被嚴格限定為水平和豎直都是90度,然後造一個一絲不苟的支架,把這六台攝像機牢固而穩定地安裝到支架上,確保它們的中心點嚴格重合在一起,並且各自朝向一個方向——這樣的話,輸出的圖像也許能夠正好符合立方圖的標准,並且可以直接使用。
然而,無論攝像機鏡頭的感光面積,焦距參數(以及因此計算得到的FOV視場角度),還是支架的鋼體結構設計與製作,都無法確保精確地達到上面要求的參數,幾mm的光學或者機械誤差看似無傷大雅,但是對於嚴絲合縫的立方圖圖像來說,必然會在最終呈現的沉浸式場景中留下一條或者多條明顯的裂縫。更何況還有支架運動時產生的振動問題,以及相機鏡頭老化產生的焦點偏移問題,這些看似細小的麻煩各個都足以讓我們剛剛構建的理想物理模型化為泡影。
理想和現實的差距如此之大,幸好我們還有解決的辦法——沒錯,如果在拼接的地方留下足夠大的冗餘,然後正確識別和處理兩台攝像機畫面重合的區域,這樣不就可以做到六幅畫面的輸出和組成全景內容了嗎——而這正是全景內容製作的另一大法寶,圖像的拼接與邊緣融合。
下圖是360Heros系列全景攝像機。
它使用了6個GoPro運動相機以及一個支架來輔助完成拍攝,這六台相機分別朝向不同的方向,如果採用4X3寬視角設定的話,其水平和垂直FOV角度約為122度和94度。
在全景視頻拼接和輸出軟體中讀取六台攝像機的輸入流或者視頻文件,並且設置它們在支架上的實際方位信息(或者直接獲取數碼相機本身記錄的姿態信息)。這樣我們就得到了足夠覆蓋全視域范圍的視頻內容。
正如我們之前所描述的,因為無法做到精確的對齊,因此需要在每台相機的視域角度上提供必要的冗餘,因而得到的視頻畫面互相之間會存在一定的交疊關系,直接輸出全景畫面的時候,可能會存在明顯的疊加區域或者錯誤的接邊。雖然目前幾種常見的全景視頻處理工具,諸如VideoStitch,Kolor等具備一定程度的自動邊緣融合功能,但是很多時候我們還是免不了要自己手動去裁切和調整這些邊緣區域(例如下圖中使用PTGui來進行各幅畫面接縫的修正),擇取畫面質量更高或者畸變更小的邊緣區域,並且確保畫面之間是嚴格對齊的。
這樣的工作耗時耗力,並且有一個重要的前提,就是作為輸入源的畫面必須能夠覆蓋360度全視域並且存在冗餘。
正如我們之前所計算的,如果採用六個相機拼裝的方式,那麼每個相機的FOV角度不應小於90度,對於GoPro Hero3系列相機來說,此時必須採用4x3的寬視域模式,如果是16x9的寬高比設置,那麼垂直方向的FOV角度很可能無法達到要求的數值,進而產生「無論如何都拼接不上」的問題——當然我們可以通過在支架上調整各個相機的朝向角度,或者增加相機的數量,來避免這一問題的產生,不過無論從何種角度來看,採用接近1x1的寬高比的寬視域相機都是一個更為理想的選擇。
如果只是為了輸出一張全景圖片的話,那麼上面的步驟通常來說已經綽綽有餘,不需要再考慮更多的事情。但是,不會動的圖片是很難讓戴上VR頭盔的人哇哇大叫的,能看到身邊戰火紛飛,或者野鬼出沒的動態景象才更加刺激。如果你正在考慮如何製作如是的VR電影,那麼有一個問題不得不提出來,那就是——
同步性——簡單來說,就是你手中所有的攝像機如何精確保證同時開始,以及在錄制的過程中保持幀率的一致性。
這看起來似乎並不算什麼問題,然而如果兩台攝像機的開始時間不一致的話,會直接影響到它們的對齊和拼接結果——甚至如果場景中存在大量的動態元素或者相機位置在這個過程中發生了改變的話,結果可能根本是無法對齊的。因此,對於需要大量攝像機同時參與的全景拍攝工作而言,同步開始以及同步錄制的需求就變得分外重要了。
要從硬體上根本解決這個問題,可以用到「同步鎖相」(genlock)的技術,即通過外部設備傳遞時間碼來控制各台相機的同步運行(典型的例如Red One專業電影攝像機)。當然並不是所有的攝像機都具備專門的Genlock介面,這種情況下,也可以考慮一些傳統或者是看起來略微「山寨」的同步方法,例如:路見不平一聲吼……
在拍攝開始的時候,演員大吼一聲,或者用力拍一下巴掌。然後在進行拼接的過程中,找到每個視頻當中吼聲對應的時間節點,作為同步開始的位置,然後再進行全景視頻的拼接。這種方法雖然並沒有什麼精確性可言,但是同樣沒有開銷什麼額外的成本;但是確保了基本的同步起始位置之後,再進行視頻的細微調節和拼縫工作,卻無疑從相當程度上簡化了後期製作的難度。
類似的方法還有給所有的攝像機蒙上黑布,然後開始拍攝的時候快速抽走,等等。總之在硬體條件無法完全具備的前提下,就是八仙過海各顯神通的時候了。
3、立體與偽立體
細心的你可能已經發現,之前討論的所有全景視頻的拍攝過程都忽略了一個要點:無論採用何種投影方式,生成的都只是一幅360度的全景內容,放在PC或者網頁端去觀看當然沒有任何問題,但是如果要將這樣的內容輸入到VR頭盔顯示器上,結果恐怕是不正確的。為了將畫面賦予立體感並呈現到人的眼中,我們提供的內容必須採用左右眼水平分隔顯示的模式:
這看起來只是將原來的全景畫面復制了一份而已,但是悉心觀察的話,在靠近畫面邊界的位置就會發現,左右畫面的內容存在了一定的偏移。因為人的雙眼是存在一定的視角差的,雙眼各自看到的圖像有一定的差異,再通過大腦的解算就可以得到立體的感受。景物距離人眼越近,這種視差就越明顯,遠處的景物則相對沒有很強的立體感。
而任何一種現有的VR眼鏡,都需要通過結構的設計確保佩帶者的左右眼都只能看到實際屏幕的一半,也就是分別看到分隔後的左右眼畫面內容,從而模擬了人眼的真實運作機制。
這種情形下,全景內容的拍攝設備也需要做出一些對應的改動,比如將原來的6台相機改成12台相機,即每個方向都有左右眼兩台相機負責拍攝;支架的構建形式也因此與原來的設計大相徑庭(圖中為360 Heros3 Pro12,使用了12台GoPro運動相機)。
對於拼接和融合軟體來說,倒是並沒有什麼特別需要做的,只是要先後兩次讀取六個視頻流,處理後輸出兩個不同的全景視頻,分別對應左右眼的畫面內容。之後再通過後期工具或者應用程序將它們合並到一幅畫面中即可。
當然了,另闢蹊徑的路子也有很多,比如從2011年就震動了Kickstarter的眾籌者,卻直到如今VR全景應用大火卻依然沒有按期發出的Panono,它的設計原理是通過均勻分布在球體上的36個攝像頭來拍攝,拼接並得到左右眼的全景圖像。
這個設計雖然看起來拽得飛起,實際上卻是萬變不離其宗:朝向不同方向的36台攝像機拍攝的畫面,疊加在一起足以覆蓋水平360度和垂直360度的視域范圍,並且一定可以覆蓋兩遍!再加上自身精準的結構設計和安裝姿態,這樣就能夠從內部准確計算出拼接後的全景圖像,並且直接按照左右眼兩幅圖像的標准輸出視頻流或者文件,其能夠輸出的實際解析度也是相當可觀的。
與之相仿的還有Bublcam(四個遍布球身的超大廣角鏡頭),Nokia的OZO(8個遍布球身的廣角鏡頭),以及Jaunt研發中的產品等等。它們都具備直接輸出立體形式的全景內容的能力。
當然了,最不濟的情形下,我們還有一種選擇,就是自己假造一種立體模式……
將原始的全景畫面復製成兩份,其中一份向左偏移一點,另一份向右偏移一點,然後各自做一個輕度的透視變換(為了模擬視線角度的偏轉)。這樣構成的「立體」畫面在多數情形下也具有一定的立體欺騙效果,但是對於近處的景物,或者左右眼畫面中的景物存在遮擋關系的時候(比如模擬臉貼在門上,一隻眼被門閂擋住的情景),則會有明顯的瑕疵。當然了,對於依然對VR全景內容處於懵懂階段的愛好者來說,這也許暫時不是什麼嚴重的問題了。