動画とは、一般に、別々のデータである「映像」と「音声」を「コンテナ」と呼ばれる入れ物にまとめて格納したデータを指します。
実際に、パソコン・スマートフォン向けの動画配信サービスのほとんどで、この形式が利用されています。
「コンテナって、あの物流に使われている箱のこと?」なんてお声が聞こえて来そうですが、例えば、別々のデータである映像と音声をズレなく再生するためにも、コンテナは利用されています。
映像は、「ビデオフレーム」と呼ばれる1枚1枚の静止画像が集まって構成されています。
複数のビデオフレームを時系列順にパラパラ漫画のように表示すると、画に動きが出て映像になります。
そして、映像の1秒間あたりに表示されるビデオフレームの数を「フレームレート」と呼びます。
では、仮に1時間の映像があるとして、一体どのくらいのデータサイズなのか想像はつきますでしょうか?
今回は細かい説明は省略しますが、簡単に計算してみたいと思います。
※ 一般的な画像では、RGBと呼ばれる赤・緑・青の三原色を合わせることで、さまざまな色合いの表現を可能にします。それぞれの原色は8bitのデータサイズで構成されるため、その3倍の色で表現される1画素のデータサイズは24bitとなります。そして、1byte=8bitで変換されるため、ここでは1画素のサイズを3byteとしています。これは、映像や画像の処理でよく使われるYUVフォーマットでは「4:4:4」に該当します。
前編では、「映像」「音声」「コンテナ」といった「動画」の構成要素とその一つである映像に関する圧縮技術について解説し、動画配信には「コーデックにより圧縮された映像」が使用されていることもお伝えしました。
技術的な話を受けて難しい印象をお持ちになった方もいらっしゃるかもしれませんが、映像の「圧縮技術」は動画配信だけではなく、ご紹介した通り、読者の皆さんが普段目にしている地デジやBlu-rayにも利用されています。
昨今、4K映像をご覧になる機会も増えているかと思いますが、このより精細な高画質の映像を楽しめるようになった背景にも、新しいコーデック H.265/HEVC の登場や対応機器の普及など、映像の「圧縮技術」の進歩があります。
目には見えませんが、圧縮映像は意外と身近な存在ということですね。
前編では、「動画」の構成要素とその一つである「映像」について解説しました。
動画配信には「コーデックにより圧縮された映像」が使用されていることもお伝えしましたが、残りの構成要素である「音声」と「コンテナ」はどのように使用されているのでしょうか?
後編では「音声」と「コンテナ」について解説し、「動画」について迫っていきます。