気持ち悪い!「音ズレ」の原因とは?:動画を編集したりつなげたりすると起こることがある、音ズレの原因を理解しよう

動画配信の基礎知識
By: Andrew Malone
この記事は約5分で読めます。

いろいろなカメラで撮影したものや録音したもの、別に準備した動画素材や音声素材を使って動画を編集していると、音ズレに悩まされることがあります。

私も以前は、動画の長さを引き延ばしたり縮めたりして音ズレを強引にねじ伏せていたのですが、根本的な理由を知れば音ズレは未然に防げることが分かりました。

今回は、音ズレが起こる原因とその対処法をご紹介したいと思います。

動画ファイル、動画データ、音声データの簡単なおさらい

以前の記事で、「動画ファイルは、動画データ部分と音声データ部分があり、その2つを1つのコンテナにいれて動画ファイルが成り立っている。」ということを書きました。

MPEG-4とMP4って同じじゃないの!?動画のコーデックとファイル形式を知ろう
本稿では動画ファイルの「コーデック」と「ファイル形式」について簡単にまとめ、違いが分かるようになります。

また別の記事では、動画のコマ数は「フレームレート」で、音声のコマ数は「サンプリングレート」だ、ということも学びました。

動画のフレームレート(fps)とは? 適切に設定するための注意点まとめ
この記事では動画の画質と容量に関わってくる「フレームレート」について説明し、適切なフレームレートの設定方法が分かるようになります。
動画の音質を高めるには? サンプルサイズ・サンプリングレート・音声ビットレートを知ろう!
動画配信を行っていると、音質にもこだわりたくなるもの。この記事では、音質や音声データの容量を適切に設定するために必要な、サンプルサイズ・サンプリングレート・音声ビットレートの基礎知識について解説します。

ネット動画で利用される一般的な動画のコマ数は、

  • 30fps~60fps
  • ただし、動きが少ないものはコマ数をもっと落とす場合もある
  • 地デジや映画に合わせたコマ数にしている場合は、29.97fpsや24fps等になっている場合がある

のようになっています。

また、同様に音声データのサンプリングレート(音のコマ数)

  • 44.1kHz(音楽業界で使われることが多い)
  • 48kHz(映像業界で使われることが多い)

の場合が多いです。

音ズレの原因1:フレームレートのズレ

ここで、色々な素材を集めて編集をした際にどのようなことが起こっているかを見てみましょう。

たとえば、

  1. 映像:30fps、音声:48kHz
  2. 映像:60fps、音声:48kHz

の動画をつなげて1本の動画にするとします。
つなげた後の動画は、60fps、48kHzにして出力をする前提です。

前半に1の動画を、後半に2の動画をという形で2本をつなげてみると、以下のようになります。

音ズレ1

前半の1の部分が、出来上がり後の映像部分で必要な秒間60コマに対し、30コマしかありません。30コマ分のデータが足りないわけです。
一方、音声データは1も2も、出力予定のものも同じサンプリングレートですから、問題なくつながります。

するとどうでしょう。
ただつなげただけだと、30コマ分早く2の動画部分の再生が始まってしまうため、映像に音が合わないということが起こります。

かなり極端な例を示しましたが、映像データのフレームレートが異なるものをつなげるということが音ズレの原因の1つ目です。

よくあるのは、29.97fpsと30fpsをつなげた場合に起こってくるズレです。
パッと見わからないんですが、30分ぐらいで1秒ぐらい、すこしずつずれていくので、おかしいのかどうかもなかなか判断付かず、非常に気持ち悪い感じになります。

音ズレの原因2:サンプリングレートのズレ

はこのような2本の動画をつなげてみます

1.映像:30fps、音声:48kHz
2.映像:30fps、音声:44.1kHz

つなげた後の動画は、30fps、48kHzにして出力をする前提です。

44.1kHzはちょっと端数があって図示するのがめんどうなので、44kHzとしておきます。

さてどうでしょう。

音ズレ2
今度は、出力後のサンプリングレート48kHzに対して、後半2の音のサンプリングレートが少ないため、要はコマ数が少なくなってしまい音の長さが足りなくなってしまいました。
音のデータが48コマに対して44コマしかない、ということですね。

※サンプリングレートについて理解を深めたい場合はこちらの記事を参照してください
http://socialcast.jp/posts/11/post-386/

【結論】音ズレを防ぐために何をしたらいいのか

音ズレの根本的な原因が、映像のフレームレートの違い、または音声のサンプリングレートの違いということは理解していただけたかと思います。

では音ズレを防ぐためにどうしたらいいのか、ということになりますが、

動画完成後のフレームレート、サンプリングレートに合わせて、利用する動画・音声データを準備する

ことが重要になります。

例えば、完成後の動画を、30fps・48kHzにしたい場合は、編集する動画データもそれぞれ同じフレームレート、サンプリングレートで準備する、ということです。
音声データだけを別に準備する場合も48kHzで準備し、動画データだけ別の場合も30fpsで準備します。
そのうえで、編集してそれぞれをつなげることをやれば、音ズレは発生しないはずです。

また手元にある素材のフレームレートやサンプリングレートがバラバラになってしまっている場合は、いったんトランスコードを行って、フレームレートとサンプリングレートを統一をしてから、編集を始めると良いでしょう。

バラバラになってしまっているフレームレート、サンプリングレートを自動的に調整してくれるソフトウェアもあるようです。
ただし、「自動的」にということが逆にあだになり、誤動作により勝手にフレームレートやサンプリングレートが変更されてしまった結果、何が起こっているかわからなくなってしまい、音ズレをなおすことができない、というケースも多いように見受けられます。

理想的なのは、撮影・録音時からすべての素材のフレームレートとサンプリングレートを決めておくことです。

インターネット動画であれば、
・30fps、48kHz
・60fps、48kHz
のどちらかに統一をするのがいいのではないでしょうか。

とくに音声部分のサンプリングレートは、映像業界が採用している48kHzにしておくのが無難ではないかと考えます。

基本的な考え方は以上です。ただ、編集するソフトウェアの誤動作やバグ(あるいは仕様!)で起こることも考えられます。しかし、編集するソフトにかかわらず、素材の質を揃えておくことで、余計なリスクを背負い込まなくて済むようになります。
まずは(1)元となるデータにずれがないかを確かめたうえで、(2)ソフトウェアの誤動作や設定の変更などを疑うようにしましょう。
タイトルとURLをコピーしました