【ナーフ】
NeRF(ニューラル放射輝度場) とは?
💡 写真をパシャパシャ撮るだけで、3D空間をまるごと記憶するAIの魔法カメラ
📌 このページのポイント
- 複数の2D画像から3Dシーンの「光の場」を学習し、任意の視点からの画像を合成できる
- MLPネットワークが空間の各点の色と密度を予測し、ボリュームレンダリングで画像を生成する
- 観光地のバーチャルツアーや不動産の内覧、VR/ARコンテンツ制作に活用されている
- 学習に時間がかかるのが課題だったが、Instant NGPなどの高速化手法で大幅に改善されている
NeRFって写真から3Dが作れるの?すごくない?
そうなんだよ。たとえばお気に入りのフィギュアを色んな角度から20〜30枚くらい撮影すると、AIがその空間の「光の情報」をまるごと学習して、撮ってない角度からの見え方も再現できるんだ
光の情報って、具体的にどういうこと?
空間のあらゆる点について「ここにはどんな色の光がどの方向にどれくらいの強さで飛んでいるか」を記録するイメージだね。だからガラスの反射とか半透明な物体もかなりリアルに再現できるんだよ
へぇ〜!どんなところで使われてるの?
Googleマップのイマーシブビューや、不動産のバーチャル内覧、映画のVFXとか色々だね。スマホで撮った写真から3Dモデルを作れるアプリも出てきてるよ
じゃあ3Dスキャナーがなくても3Dモデルが作れる時代なんだ!
そうだね。ただNeRFは「学習した場」として保存するから、従来のメッシュ形式の3Dモデルとは違うんだ。最近はGaussian Splattingという、もっと高速に描画できる後継技術も登場していて、3D再構築の分野はどんどん進化してるよ
まとめ:ざっくりこれだけ覚えればOK!
「NeRF」って出てきたら「写真から3D空間を丸ごと再現するAI技術」と思えればだいたいOK!
📖 おまけ:英語の意味
「Neural Radiance Fields」 = ニューラル放射輝度場
💬 放射輝度(Radiance)は光の強さや方向を表す物理量で、それをニューラルネットで場(Fields)として学習するからこの名前なんだよ