4Kとか8Kとか

動画の圧縮というかコーデックって、どういう理屈なのかしらね?レコードやテープでアナログなら感覚的に捉えやすいのだけど、デジタルでストレージからデコードと言われると、時間間隔はどうなってるの?と直感的に思う。

アニメみたく、瞬間瞬間の止め絵をパラパラと高速で流しているのかしらね?アナログなフィルムだって実際は、静止画を連続表示しているのだし。
オーディオ系でいうサンプリング周波数という言葉はいくらかしっくりくる。
音はそもそも時間軸に乗った波だから、聴覚に時間はあるが、視覚には時間はない。
4Kとか8Kで画面上での画素数というか解像度だから(画素数は数で、解像度はがその密度だから次元としては違う言葉です)、時間軸に関する解像度?じゃないよね?
素数の単位はpixelとかdot
解像度はdpi(dots per inch)とかppi(pixels per inch)
時間軸の解像度?フレームレート、画像のサンプリング周波数のようなものはfps(frames per second)
解像度という数字だけにこだわるのなら…小さい画面で見た方が解像度としては上がる。
たとえば、50インチと15インチのテレビで比べるとする。画面のサイズとしては、50/15だから約3.3倍である。
よく4Kとか言うのは画面の横方向の画素数が4Kつまり4,000(一般に3,840らしい。UHD "Ultra High Definition")
いわゆるワイドテレビの画角は16:9。画面のインチサイズというのは対角線の長さなので、昔ならったピタゴラスの定理によると、対角線の長さを画素数で書くのであれば、16の自乗と9の自乗の和の平方根なので18.357…だから、逆算すると、50インチのテレビの横長さは43.578インチ
3,840画素が43.578インチに並んでいるのだから約88dpi。それが15インチになれば3.3倍だから290dpiになるから解像度は高い。

但し、画面は小さくなるから、写っているもののリアルサイズというか肉眼で見た時の大きさと比べると小さく見えてしまうのだけど。
きっとデコードするプロセッサだかプロセスのスペックが、いつかリアルタイムを追い越して…時間も越える…なんてことはない。
たぶん、しばらくは、めっちゃキレイな8K画像の紙芝居になるのだろう。それがいつかパラパラマンガになりアニメーションになる時まで。
そこまで細かくなった頃は、こちらの目が悪くなっていて、ぼんやりと観るだけかもしれないのだ。