2012年6月27日 星期三

GDC Taipei 筆記心得

GDC第一天

這次第一天很多講者的重點放在 Mobile Game 上,我原本因為市場上充滿 casual game 而對做遊戲不再感興趣的,但昨天聽下來到是慢慢覺得,以前的 casual game,隨著市場變大也愈作愈大,慢慢的也沒那麼 casual 了,所以突然覺得,這個領域還是很值得投入的,而且現在的門檻更低,機會可能比以前更多。

這邊記錄一些我比較記得並且感興趣的點:


1.
Mobile 市場應該是統一的,因為大部分人根本分不出 iPhone, HTC 跟 Samsung,所以也應該要一視同仁,提供一樣的功能與服務。

2.
Google TV 跟 Apple TV 都可以安裝 APP,也能與 Android 與 iOS 連動,現在還有些軟體可以有權限直接撥打手機號碼,希望這些以後會慢慢被加入遊戲的設計內,目前大部分人不了解這些東西,不知道電視可以做這些事情,Wii U 或許可以幫忙改變這件事,推廣這類型的遊戲,但也代表 Wii U 早就不是唯一一個可以做這類型遊戲的硬體,甚至反而人們比較願意用手機而不是 Wii U?

3.
3D 素材以後可以直接由網路上便宜取得,像角色、場景、道具等,這代表以後作小規模遊戲的人不一定需要 3D 美工的人手(那以後這類商品一定要提供客製化功能,像 Moom 那些動作角色一樣,可以內建一些可更換的造型與功能,這樣比較好賣)




GDC 第二天


我覺得第二天收穫比第一天多,比較值得提的是

1.
SONY 展示他們的 AR 技術,他們目前最先進開發中的 AR 技術代號叫 Magnet,是純使用 RGB 影像做即時 tracking 來達成的,這堂演講刺激了我一些想法。
其實我對於戴眼鏡來看到的 360 度全景 VR 很有興趣,John Carmack 說過他認為 3D 立體影像無法達成真正的影像革新,真的會讓使用者有次世代體驗的東西可能會是環繞全景影像,我覺得很有道理,不過現今 AR 都必須透過另一個螢幕來觀看,Google 眼鏡期待他表現。

針對 AR 的 3D 影像合成方面,目前相關的技術有

A:動態感應裝置,像陀螺儀 GyroScope 可以偵測 Roll 這種旋轉(攝影機的旋轉分為 Pitch, Yaw, Roll,其實就是 XYZ 軸向),這類裝置耗費效能低,不過目前無法感應位移。

B:RGB 影像與深度 Z 影像,甚至 Light Field Camera,RGB 影像可以做 realtime trracking,但是頗耗資源,看起來是目前所有較領先 AR 技術走的方向,Sony 的 Magnet 只用 RGB 影像當輸入,他們限制一個畫面裡允許的 track point,只取可靠性最高的幾個,來提高運作效能,目標只是要求出攝影機的運動,不需要重建廠景模型,或許未來可以加入 Depth 來當作另一個 track 的頻道,用來算出整個場景的模型,提供碰撞測試用的模型並算出 Normal 法像量來做其他特效,tracking 本身無法偵測鏡頭的旋轉,這方面剛好可以由動態偵測裝置補足?

C:以上這些裝置如果都能搭載到一個戴起來很輕鬆的鏡片或視網膜晶片之類的東西上,那就很可行了,不過硬體效能看來還需要一段時間才有可能,在那之前,可能還是需要螢幕的,畢竟人們還是希望可以不戴眼鏡的,所以我在想 Hologram 有沒有辦法為使用固定螢幕的方式提供一些解決方法?? 這部份有一些討論的空間。



2.
Crytek 亞洲區總監來演講,我問了他使用 CryEngine 來製作影像作品的版權該如何計算,他的回答是,他們還沒有制訂這類型的 Business Model,所以"有很大的商量空間",他們可以 case by case 的提供最合乎你需求的授權法,他們可以提供1.2套 Seed Liscense,像一般工作室購買3D Package 一樣,也可以抽 5% 之類的,因為這方面沒規定,所以彈性很大,畢竟他們希望更多人使用 CryEngine,我問到下一代的 CryEngine,會再繼續做像 Cinema Pack 這樣針對 Pre-Render 動畫而加強的功能嗎? 他說是的他們有這個計畫,而且從他的回答裡似乎暗示他們可能針對這個需求分出另一個版本的 CryEngine。
這些回答讓我對使用 CryEngine 來做動畫會變得很有興趣嘗試且願意花時間去研究。


6/29補充:上網查詢了一下,CryEngine 另外開發成動畫軟體的計畫較做 CryEngine for Cinema或 CineBox,官網寫預計2012年會釋出,官方連結

沒有留言:

張貼留言