先日Pronewsさんに iPhone 12 Pro Maxのレビューを執筆させて頂きましたが、そこで書ききれなかった部分について述べてみようと思います。
下記記事を寄稿させて頂いたわけですが、そもそもケチをつけまくるだろう機材のレビューは受けない主義ですので、当然、受けたからには自分なりに欲しい機材なわけでして、結果お勧め度が高い旨の内容となりました。いやホントにコレがあると動画ライフは楽しいと思います。
記事にも書いた通り、iPhoneはミラーレス一眼に引けを取らない映像が撮れるというのは正直な印象です。ですが、勘違いしないで頂きたいのはミラーレス一眼の代わりになるほどスゲーのか?という点です。文章をちゃんと読んでいただいている方は理解頂いたと思いますが、ある種限定的な部分もありますので、そこらへんを分かって使うと一眼に引けを取らないほどの映像が撮れるのは間違いないと思います。
以下、先日の記事を補足する内容となります。
尚、今回制作した作例は下記になります。
HDRに関して
iPhone 12から搭載されているDolby Vision HDRに関しては、もう少し突っ込んだ内容で書きたかったのが正直な所でした。ところが大手メディアさんの所で私があまりに間違った内容を書いてしまうリスクを排除しきれない部分が多かったため、私の判断でここまでだったら突っ込みを受けないだろうというレベルの文章とさせて頂きました。
っていうかホントにDolby Visionに関しては技術的にいろいろ調べてみるも、今はよくわからんのよね。。。
まぁぶっちゃけHDR全般的に私も触りだしたレベルの所でして、まだまだ勉強している状態。なので編集ワークフローをこうすべきだとか、DaVinciでのiPhone12のデータの扱い方、HDRの正しいグレーディング手法も私自身、正直整理がついていないです。そもそもエラソーにそれらについて細かく論じる立場には無いのです。
更にDaVinciのケースだと、設定が多く、Verが更新されることによって設定する箇所が変わってしまう可能性が高いというのもあって更新記事が書けない大手メディアさんには触れるべきではないだろうという判断をしました。
結果的に、Apple製品(FCPやiPhone本体内編集)で完結するなら設定箇所も少なく、そこらへんの難しい事は考える必要がないというのも事実でして、敢えて記事でFCPを使ったのはこの背景があるわけです。
そもそも、私も含め多くのカメラマン、編集者がHDRを理解ができていないのではないかと思うのです。そもそもPQ/HLG/HDR10/HDR10+/Dolby Visionという言葉だけとってもそれぞれガンマなのか方式なのか即答できる人は多く無いと思います。以前の理解ではPQ/HLGはガンマカーブを示し、HDR10/Dolby VisionはPQガンマを使ったHDRの形式だという事でした。
でもですよ、iPhone12が採用しているDolby Visionはインスペクタを見る限りHLGという扱い。もうこの時点で訳わからんのです。Dolby VisionってPQじゃないの?と...
結果的には多くのこの分野に明るい方に伺うと、iPhoneのHDRファイルは、HLGとして扱っても大丈夫である点と、PCで編集する上においてはこのDolby Visionが何者なのかを特に意識する必要が無さそうという話になりました。
もともとDolby Visionはフレーム毎の輝度情報を持たせる様な仕様ですが、どうやらDolby VisionはiPhoneにとって動的にディスプレイの輝度をコントロールするための技術として採用されているのではないかという事です。そもそも動画データにはもともと輝度に関する情報は含まれているという理解なのですが、ディスプレイをコントロール場合は1ファイルとして輝度に関するデータをグローバル定義するんじゃなくてシーン毎、さらにはフレーム事に制御してあげようというものという理解になるのですが、ちとオツムの弱い私にはワケワカメ度Max。。。。
今後ここらへんの話はちゃんとした方が、確証を持って発信してくれるという思うので、私もちゃんと勉強していきたいと思います。
てなわけで、下手な事を憶測で書いてしまうのもアレだし、結果的にはいまいち踏み込めない当り障りのない内容になってしまいました。
話は戻って、実際の所iPhoneのHDRはFCPXを使う限り全然小難しいことを考える必要がないのは流石Appleだとは思います。道具として最低限しかユーザーに弄らせないというスタンスはスマートだなと。。
再三にわたって相談に乗っていただいたターミガンデザインズの高信さんには改めてお礼申し上げます。以下の様なタイムリーで有益な情報を発信して頂いてなければこの記事は完成していなかったと思います。
FCPでのHDRの設定に関わる箇所
記事にも書きましたが、iPhoneをMacで編集する時の注意点として
・PCには元データ(HDRデータ)として転送できている事
(設定を変更しないとH.264となりHDRメタデータは付加されない)
・Wideガマットで編集する事
・書き出し時は10bitで出力する事(デカいけどProResがおすすめ)
の3つとなります。
寄せられたコメントから
本動画のコメントに
「フォーマットは互換性優先じゃなくてちゃんと高効率にして撮影してるのか?」
「ちゃんとCompressorを使って圧縮しているか?」
というコメントを頂きましたが、そもそもHDRはH.265の高効率設定じゃないと撮れないのでそこは気にしなくてもOKです。
尚、書き出しに関しては、圧縮率を気にしないのであればCompressorは不要ですし、完パケるためのコーデックとしてはALL-IコーデックであるProResが高画質なはずです。YoutubeもProResであればちゃんとHLGのメタデータを認識してくれます。なにより書き出しが速いのでH.265よりもProResの方がラクというのが私の感想です。
逆にFCPを使う上ではこれらを気にして作業すれば簡単にHDR映像編集ができるというのがありがたい所です。
とは言え、何も考えずに作業するとHDRではなくなるし、初心者の方にはHDRは敷居はまだ高いと思います(というか私も試行錯誤しました)。この方の仰るようにちゃんとHDRで編集できているのは1%というのは極端な数値では無いのかもしれません。
Filmic Proを使った点に関して
やはり、iPhoneの純正アプリはお手軽には撮れるしUIが分かりやすいというのはありますが、細かいコントロールを行うにおいてはちょっと難しいのです。で、結果的には撮像条件の厳しい夜間に関してはFilmic Proを使う事にしました。
最近はあまりこのソフトを使っていなかったのですが、iPhone8を使って撮ってた時に比べて更に完成度が上がっていると思います。ただFilmic Proが万能か?というとこれまたそうでもありません。そもそも30p/60pでの撮影時はシャッタースピードが1/50に設定できないというもの。SSの設定はフレームレートに依存してしまうんですよね。。(設定を見る限りは出来ないっぽいんですよねぇ)
なので、東日本の人には少し使いにくい部分があるかと思います。
フリッカー対策の為にPAL圏的なフレームレートに設定した場合においては1/50が使えるのですが、NTSCなフレームレートで1/50を使わせてほしい...
動画ではLiDARを使った被写界深度コントロールは出来ない
わかりきっていたところですが、LiDARはAF及びスチルの被写界深度コントロールに使われていますが、映像の撮影においてはこの被写界深度コントロールはできません。なので、ボケを大きくすることは出来ないんですよね。
処理速度の観点なのだとは思いますが、将来的にはコントロールできるようになるとええなと。。
一眼で出来てiPhoneに出来ない事
「一眼に出来てiPhoneに出来ない事」プロニュースの記事ではiPhoneに焦点を絞っていますのでこういった書き方は避けましたが、ぶっちゃけ明るい中での被写界深度の深い映像だとiPhoneで十分じゃないかと本気で思うのです。それにほとんどのケースはジンバルが要らない程光学・電子手振れ補正の効きが凄いです。ですが、流石に一眼が要らないわけではありません。
優れた操作操作系
一眼の操作系統は物理ボタン配置を含め非常に考え抜かれた操作体系です。なのでいくらスマホが綺麗に撮れる様になったとしても、マニュアル撮影を多用する限りは絶対的に一眼のアドバンテージがあります。(あたりまえか。。)
FilmicProでマニュアル撮影をしていましたが、タッチパネルで細かい数値を設定するのはなんやかんや簡単な事ではありません。物理ダイヤルをクリクリっと設定してRec開始!といった使い方はやはり一眼がラクです。
全体的な画質の違い
記事でも触れましたが、周辺の画質と中央ではかなり差が出ます。そりゃ一眼の様に贅沢なレンズ設計はできませんので周辺の画質はかなり後処理で補正がされているはずです。特に周辺の解像力と感度耐性は中央とはかなり差が出ます。後者は周辺減光の補正がかなり強度にかかっているかためと推測しています。
また、FilmicProを使う事で解消される事ではありますが、エンコード品質も標準カメラアプリは少し弱い部分があり、ディテールが甘いと感じる時がありました。
高感度の特性の違い
SNSを見ているとiPhoneで撮った凄く綺麗な夜景動画とかがあると思いますが、やはりSNSサイズだから見れるというものが多いです。大画面で4Kで見るとNR故のディテールは無さはかなり見てとれますので、せいぜい使える感度領域はISO400くらいだと思った方がよいでしょう。ここらへんはセンサーの絶対サイズに依存してしまう話でしょうし、スモールセンサには越えられない壁はあると思います。AI処理ガーという方もおられますが、2020年においてスモールセンサ+AI処理で素のフルサイズの高感度画質を超える域にはまだまだ達していないと思います。
被写界深度の浅い映像
スチルはLiDARを使った測距データに基づくボケコントロールが可能になっています。が、動画では先に述べたように被写界深度の疑似コントロールは出来ないです。というかやれたとしてもおそらくものすごい演算量でしょうし、なにより自然に見えるかどうかは分かりません。唯一ボケ感を出す方法としては、望遠側のカメラを使い、被写体にグッと寄って背景を遠ざける方法です。
超望遠領域撮影
まあ、そりゃそうよね。。
てなわけで、1000mmで夜でもディテールバリバリの映像は撮れる日はくるならもう一眼は完全に要らない事になります。でもそういう日は案外早く来たりするのかもしれません。
また何か思う所があれば追記していきたいと思います。
筆者:SUMIZOON
Facebookグループ一眼動画部主宰 お陰様でメンバー2000人突破
Youtubeチャンネル STUDIO SUMIZOON をアップしている人
よかったら是非チャンネル登録お願いします
お陰様で登録者1万人到達しましたm(_ _)m