Если кто не знает, то ZDepth это пасс, широко используемый в компьютерной графике. Он, в градациях серого показывает удалённость объекта от камеры.
см примеры.
То есть чем точка, которую отображает пиксель, дальше от камеры тем пиксель этой точки темнее.
Ну в общем дальше не буду распинаться, тк те кто знают те поймут, а для тех кто не знает, есть википедия.
Вопрос такой когда появится (или если уже появился, то как называется) фотоаппарат создающий вместе с RGB каналом ZDepth канал? В теории мне это не кажется сложным, вот я и хочу это выянить на практике.


Для этого фотоаппарат должен каким-то образом просканировать пространство по удалению во время съёмки, чтобы получить исходную информацию об удалённости каждой точки кадра.
Ну и, кроме того, при отображении таким образом реальных предметов будет нарушен их внешний вид и освещённость (представьте, что у нас задний план более яркий, чем передний).
ИМХО, традиционная стереофотография и проще, и точнее передаёт изображение
ZDepth, это побочный эффект рендера 3D сцены: при пересчете 3D сцены в 2D картинку, появляется избыточная инфа о дистанции до каждого пикселя, это и есть ZDepth. Фотография рождается из ДРУГОГО принципа работы, и если нужно 3D в фотографии, то для этого испокон веку существует СТЕРЕОФОТОГРАФИЯ, которая дает 3D, но не дает ZDepth. Теоретически, можно представить себе жутко дорогой, цифровой стереофотоаппарат, с мощным процессором, который из стереопары сгенерирует ZDepth, технически это наверняка не сложно прямо сегодня, проблема только в том, что это никому не нужно. :-)
Есть же софт, который из кучи фотографий создает трехмерную модель, даже текстурой ее обшивает.
Интересно, какова вероятность того, что кто-то знает правильный ответ?
мб мои выводы покажутся тебе бредом мб я не доконца разобрался в этой технологии но вот мои мысли насчет реализации
ну упрощенно это можно же назвать 3D камерой, которая пишет именно объемное пространство. но тогда возникает другой вопрос: как дать понять камере (н/р если рассмотреть комнату) где стул а где стена?! получается в камере должно быть подобие эхолота, который и будет строить объемное пространство, а уже на него натягивать картинку ( искажения невероятные. но мы же получим изображение с одной точки съемки тогда его нельзя считать объемным?! т е нам нужно как минимум три модуля для построения объемного изображения. или технология позволяющая строить пространство анализируя перемещения камеры. но тогда малейшее отклонение и ничего не получится?! я имею ввиду чтобы изображение можно было свободно вращать (типа панорамы) но оно было полностью объемным. иначе зачем нам технология просчета расстояния до объекта если съемка будет с одной точки (разве что будет удобнее работа со слоями (если все изображение будет делиться на n-ное их количество. вообщем мб во всех моих соображениях нет ни капли логики но я не понимаю назначения этой технологии