А детализация от куда возьмётся? Каждая точка фото, это усреднённый участок на неё проецирующийся. Единственный вариант, если смещения происходят точно на одну точку, тогда баеровские искажения можно уменьшить.
В двух словах: Каждая точка, это усреднённый участок, верно. А теперь представляем: у нас есть лист бумаги, разделённый на 4 квадрата. И у нас есть мега-однопиксельный-монохромный фотик, которым мы фоткаем лист с такого расстояния, что все 4 клетки влезают в кадр. И получаем усреднённо чёрный квадрат.
Как нам получить из серии снимков полную инфу о закрашенности 4 квадратов? Ой ли так сложно? :) 1) Повесили на белую стену. 2) Фоткаем слева-сверху направо-вниз по рядам и столбцам гуляя, чуть смещая фотик. Как только мы достигнем первого закрашенного квадрата, получим тёмный кадр. Как только выйдем из чёрного квадрата - получим белый. Чем больше кадров и соответственно меньше шаг, тем точнее получим картинку.
С увеличением количества цветов и квадратов, сложность алгоритма увеличивается, а доступная детализации уменьшается. Но всё работает ))) Т.е. например, вы никогда не вытащите из пикселя, которым сфоткали жилой дом, фотку горшка на окне. Но вот значительно улучшить формы удалённых предметов, номера машин, надписи и пр - норм.
Или, например, собрать из десятка чуть смазанных фото, сделанных при плохом освещении - одну хорошую.
Разместив шахматную доску на белой поверхности и сфоткав так, чтобы попадали только уголки, вы узнаете, что 2 из них белые, а 2 - чёрные. Как минимум. Ещё мы кстати, узнаем, где именно на стене находится доска.
А дальше - всё зависит от вашей замороченности над алгоритмом и тем, как усредняет наш пиксель полученную инфу.
Если у нас он не монохромный, а со шкалой в 64, то... Например, сфоткав так, что в объектив попал лишь один чёрный уголок, получаем затемнённость уровня 1. сместив ещё на квадрат вправо - увидим, что затемнённость не увеличилась и по-прежнему 1. Ещё на квадрат вправо - получим затёмнонность 2... И в конце-концов мы получаем какую затемнённость? Правильно! 32.
Итого: Допустим, известно, что у нас доска 8 на 8. Требуется распознать рисунок на нём. Задаю алгоритм. Смещать фотик на одик квадратик. И при каждом увеличении "тёмности" - тыкать пиксель на нашу формируемую конечную картинку. Что мы получим? Нужную нам картинку шахматной доски.
А ещё мы можем фотик поворачивать! Удивительно :) Чуть вправо и чуть влево. Таким образом пробежав "уголком" нашего "пикселя" по всему периметру доски, мы не заморачиваясь и сразу узнаем о цвете 8+8+6+6 крайних квадратиков. Остальное - лишь усложнение и усложнение задачи.
Бла-бла. Определяются общие и схожие линии на всех фотках... Бла-бла.. по ним считается смещение и угол... бла-бла.. бла-бла..
Видимо вы даже основы не понимаете. Если у камеры разрешение больше деталей, то никаких вопросов бы и не было и смещать ничего не нужно совершенно. У вас в одном пикселе будет сразу нескольколько квадратов и всегда результат будет серый цвет. Поэтому у вас только бла-бла-бла.
Видимо, вы крайне невнимательно читаете. В описанном выше примере у камеры разрешение - один пиксель. В примере дополненном, градация цвета этого пикселя от 0 до 64 (для удобства описания примера). Если в кадр попадает только белая стена - результат 0 (ну или 64.. пофиг.. смотря что мы приняли за полностью белый, а что - за чёрный), а если в кадр попала вся доска, то соответственно наш итоговый пиксель получится цветом 32 (упрощённо). Почему? Потому что в среднем половина экрана белая, а половина - чёрная. Мало света пришло в объектив ))) А ежели в кадр попал лишь угол доски, содержащий лишь один квадартик, то наш результат - почти белый пиксель с цветом 1 (по нашей шкале).
Вот, кстати, зря вы так. Похожие алгоритмы, как те, которые спрашивает топикстартер, используются в томографах для восстановления картинки. Там тоже есть (в МРТ) суммарный отклик атомов со множества направлений. А в рентгеновской - сьемка с разных ракурсов и переотражения. И из всего этого становится математически возможно (нобелевка тут абсолютно оправдана) восстановить отдельные точки.
Самый простой пример того, что хочет топикстартер: Снимаем статичное видео со штатива, смотрим сперва любой стоп-кадр, выбираем самый удачный, самый детализованный и контрастный. А потом смотрим само видео. И замечаем, несмотря на то, что ни там, ни там ничего не двигалось, что субьективная детализация (для нас, для мозга) на видео намного лучше, именно из-за субпиксельных микродвижений. Получается, мозг как-то справляется с той математикой. А значит, и машина может.
Представьте себе сьемку статичного видео какого-то предмета камерой с низким разрешением. При сьемке камеру чуть-чуть двигают. Цель - сделать из получившихся кадров картинку (не видео!) с более высоким разрешением.
Это как раз легко реализуется для бытовых условий. Когда Вам по ящику показывают человека, у которого лицо "замазано" квадратиками, но он шевелится, то сильно прищурившись через пару секунд вглядывания Вы ясно видите его детальное изображение.
у меня на сони встроенная софтина: в сложных условиях делает 3 кадра подряд, сшивает, получает кадр лучшего качества того же физического (?) размера :-)
можно сделать 9 кадров со смещением, сшить в софтине для панорам, за счет большого физического размера на мониторе будет смотреться четче (история про насекомых из этой же серии, как я понимаю) :-)
Вы не поняли. Стартер хочет не панораму, а сверхглубокую фокусировку из нескольких снимков на разном фокусе. Сколко я знаю, софта нет. Прошлогодний победитель русского макро фото с мордой пчелы в фас писал, что вручную собирал этот снимок из 60 последовательных снимков с микросдвигом фокусировки.
Может и не об этом. Что касаемо того мужика с дохлой пчелой, то резоны именно ручной сборки этой слойки мне неизвестны. Скорее всего так получается лучше, нежели программой.
Такая софтина есть. Юзал. То ли как плагин к чему-то, то ли ещё как. Сейчас не помню. Как уточню у чувака, который её мне когда-то посоветовал - так отпишусь.
Такая возможность есть в майкрософтовской Photo Gallery из набора Windows Essentials. Выбираются места почетче. Вот, даже скрин сделал : )
Есть еще софт для астрономов, RegiStax - собирает из кучи мутных снимков Луны одну прекрасную картинку : ) Вроде даже может собрать четкое изображение напрямую из видеозаписи. Но я что-то так и не разобрался с ним. http://www.astronomie.be/registax/
А еще есть SmartDeblur - очень хорошая программа, работает с одиночными изображениями. Нефокус и смазываение от движения - ее профиль. Причем может делать всё на автомате. Наверняка существуют ее аналоги для распознавания нечетких изображений автомобильных номеров - но это надо искать : )
no subject
Date: 2015-09-21 04:34 pm (UTC)Единственный вариант, если смещения происходят точно на одну точку, тогда баеровские искажения можно уменьшить.
no subject
Date: 2015-09-22 06:00 am (UTC)В двух словах:
Каждая точка, это усреднённый участок, верно.
А теперь представляем: у нас есть лист бумаги, разделённый на 4 квадрата.
И у нас есть мега-однопиксельный-монохромный фотик, которым мы фоткаем лист с такого расстояния, что все 4 клетки влезают в кадр. И получаем усреднённо чёрный квадрат.
Как нам получить из серии снимков полную инфу о закрашенности 4 квадратов?
Ой ли так сложно? :)
1) Повесили на белую стену.
2) Фоткаем слева-сверху направо-вниз по рядам и столбцам гуляя, чуть смещая фотик. Как только мы достигнем первого закрашенного квадрата, получим тёмный кадр. Как только выйдем из чёрного квадрата - получим белый.
Чем больше кадров и соответственно меньше шаг, тем точнее получим картинку.
С увеличением количества цветов и квадратов, сложность алгоритма увеличивается, а доступная детализации уменьшается. Но всё работает )))
Т.е. например, вы никогда не вытащите из пикселя, которым сфоткали жилой дом, фотку горшка на окне. Но вот значительно улучшить формы удалённых предметов, номера машин, надписи и пр - норм.
Или, например, собрать из десятка чуть смазанных фото, сделанных при плохом освещении - одну хорошую.
no subject
Date: 2015-09-22 06:08 am (UTC)no subject
Date: 2015-09-22 06:25 am (UTC)Разместив шахматную доску на белой поверхности и сфоткав так, чтобы попадали только уголки, вы узнаете, что 2 из них белые, а 2 - чёрные. Как минимум. Ещё мы кстати, узнаем, где именно на стене находится доска.
А дальше - всё зависит от вашей замороченности над алгоритмом и тем, как усредняет наш пиксель полученную инфу.
Если у нас он не монохромный, а со шкалой в 64, то...
Например, сфоткав так, что в объектив попал лишь один чёрный уголок, получаем затемнённость уровня 1.
сместив ещё на квадрат вправо - увидим, что затемнённость не увеличилась и по-прежнему 1.
Ещё на квадрат вправо - получим затёмнонность 2...
И в конце-концов мы получаем какую затемнённость? Правильно! 32.
Итого:
Допустим, известно, что у нас доска 8 на 8. Требуется распознать рисунок на нём.
Задаю алгоритм. Смещать фотик на одик квадратик. И при каждом увеличении "тёмности" - тыкать пиксель на нашу формируемую конечную картинку.
Что мы получим?
Нужную нам картинку шахматной доски.
А ещё мы можем фотик поворачивать! Удивительно :) Чуть вправо и чуть влево.
Таким образом пробежав "уголком" нашего "пикселя" по всему периметру доски, мы не заморачиваясь и сразу узнаем о цвете 8+8+6+6 крайних квадратиков.
Остальное - лишь усложнение и усложнение задачи.
Бла-бла. Определяются общие и схожие линии на всех фотках... Бла-бла.. по ним считается смещение и угол... бла-бла.. бла-бла..
no subject
Date: 2015-09-22 06:47 am (UTC)Поэтому у вас только бла-бла-бла.
no subject
Date: 2015-09-22 06:53 am (UTC)В описанном выше примере у камеры разрешение - один пиксель.
В примере дополненном, градация цвета этого пикселя от 0 до 64 (для удобства описания примера).
Если в кадр попадает только белая стена - результат 0 (ну или 64.. пофиг.. смотря что мы приняли за полностью белый, а что - за чёрный), а если в кадр попала вся доска, то соответственно наш итоговый пиксель получится цветом 32 (упрощённо). Почему? Потому что в среднем половина экрана белая, а половина - чёрная. Мало света пришло в объектив )))
А ежели в кадр попал лишь угол доски, содержащий лишь один квадартик, то наш результат - почти белый пиксель с цветом 1 (по нашей шкале).
Начали понимать? Или картиночки нарисовать? :)
no subject
Date: 2015-09-22 07:03 am (UTC)no subject
Date: 2015-09-22 09:02 am (UTC)Самый простой пример того, что хочет топикстартер: Снимаем статичное видео со штатива, смотрим сперва любой стоп-кадр, выбираем самый удачный, самый детализованный и контрастный. А потом смотрим само видео. И замечаем, несмотря на то, что ни там, ни там ничего не двигалось, что субьективная детализация (для нас, для мозга) на видео намного лучше, именно из-за субпиксельных микродвижений. Получается, мозг как-то справляется с той математикой. А значит, и машина может.
no subject
Date: 2015-09-22 02:16 pm (UTC)no subject
Date: 2015-09-21 04:44 pm (UTC)no subject
Date: 2015-09-21 04:50 pm (UTC)no subject
Date: 2015-09-21 04:50 pm (UTC)no subject
Date: 2015-09-22 09:16 am (UTC)no subject
Date: 2015-09-22 10:57 am (UTC)Ну и Hasselblad Focus первый работал с Multishot.
no subject
Date: 2015-09-21 05:30 pm (UTC)http://photo.stackexchange.com/questions/21903/can-i-combine-several-low-quality-pics-into-one-higher-quality-picture
no subject
Date: 2015-09-21 05:42 pm (UTC)no subject
Date: 2015-09-21 05:55 pm (UTC)так например насекомых снимают.
no subject
Date: 2015-09-22 09:12 am (UTC)Представьте себе сьемку статичного видео какого-то предмета камерой с низким разрешением. При сьемке камеру чуть-чуть двигают. Цель - сделать из получившихся кадров картинку (не видео!) с более высоким разрешением.
no subject
Date: 2015-09-22 09:21 am (UTC)no subject
Date: 2015-09-22 09:26 am (UTC)Осталось узнать, как это можно сделать на компе.
no subject
Date: 2015-09-22 09:55 am (UTC)Когда Вам по ящику показывают человека, у которого лицо "замазано" квадратиками, но он шевелится, то сильно прищурившись через пару секунд вглядывания Вы ясно видите его детальное изображение.
no subject
Date: 2015-09-21 08:51 pm (UTC)вам чего, собственно, хочется?
у меня на сони встроенная софтина: в сложных условиях делает 3 кадра подряд, сшивает, получает кадр лучшего качества того же физического (?) размера :-)
можно сделать 9 кадров со смещением, сшить в софтине для панорам, за счет большого физического размера на мониторе будет смотреться четче (история про насекомых из этой же серии, как я понимаю) :-)
no subject
Date: 2015-09-22 02:56 am (UTC)Стартер хочет не панораму, а сверхглубокую фокусировку из нескольких снимков на разном фокусе.
Сколко я знаю, софта нет.
Прошлогодний победитель русского макро фото с мордой пчелы в фас писал, что вручную собирал этот снимок из 60 последовательных снимков с микросдвигом фокусировки.
no subject
Date: 2015-09-22 06:05 am (UTC)Но автор поста не об этом )
no subject
Date: 2015-09-22 06:56 am (UTC)Что касаемо того мужика с дохлой пчелой, то резоны именно ручной сборки этой слойки мне неизвестны.
Скорее всего так получается лучше, нежели программой.
no subject
Date: 2015-09-22 05:27 pm (UTC)no subject
Date: 2015-09-22 06:06 am (UTC)no subject
Date: 2015-09-22 09:17 am (UTC)no subject
Date: 2015-09-23 08:22 pm (UTC)Есть еще софт для астрономов, RegiStax - собирает из кучи мутных снимков Луны одну прекрасную картинку : ) Вроде даже может собрать четкое изображение напрямую из видеозаписи. Но я что-то так и не разобрался с ним.
http://www.astronomie.be/registax/
А еще есть SmartDeblur - очень хорошая программа, работает с одиночными изображениями. Нефокус и смазываение от движения - ее профиль. Причем может делать всё на автомате. Наверняка существуют ее аналоги для распознавания нечетких изображений автомобильных номеров - но это надо искать : )
no subject
Date: 2015-09-23 08:41 pm (UTC)А вот астрономическая программа, похоже, как раз про то, что надо.