HDR+, czyli fotografia według Google

Mist Me
28 października 2014
Jak zoptymalizować duże fotografie na stronie internetowej?
26 lutego 2015

HDR+, czyli fotografia według Google

Lekarstwo na zbyt duży kontrast

Chyba każdy amator fotografii prędzej czy później trafi na zjawisko HDR, czyli (w dużym uproszczeniu) technikę polegającą na programowym poszerzeniu dynamiki obrazu ponad możliwości oferowane standardowo przez matrycę światłoczułą. Zdjęcia wykonane tym sposobem pozwalają na uzyskanie bogatych detali zarówno w bardzo ciemnych, jak i bardzo jasnych częściach obrazu. Dzięki technice HDR możemy na przykład uniknąć przepalonego nieba, lub pozbawionych detalu twarzy osób fotografowanych w pełnym słońcu. Wygląda więc na to, że HDR pretenduje do miana panaceum świata fotografii komórkowej i kompaktowej.

W większości przypadków szeroką rozpiętość tonalną sceny uzyskuje się poprzez wykonanie kilku klatek z różnymi czasami naświetlania, które na koniec łączy się w jedną całość uśredniając jasność poszczególnych partii obrazu (tzw. tone mapping). Niestety wykorzystanie tej metody powoduje, że scalanie kilku klatek o różnych wartościach ekspozycji wykonanych w relatywnie dużych odstępach czasu może generować tak zwane artefakty, czyli błędy w obrazie wynikowym. Tak jak w przypadku scalania kilku zdjęć w panoramę błędy w łączeniu klatek można nazwać artefaktem, tak w przypadku techniki HDR artefakty to na przykład duchy – osoby, liście, chmury, pojazdy lub inne obiekty które podczas wykonywania sekwencji zdjęć pozostawały w ruchu.

Podobnie jak wielu innych fotografów, tak i ja wpadłem kiedyś w dołek zwany HDR. Zwabiony wspaniałością supernasyconych kolorów i radioaktywną trawą żyłem w przekonaniu, że to najlepsza rzecz na świecie. Oczywiście myliłem się, ale z tego czasu ostała się jedna fotografia na której dobrze widać artefakty spowodowane obiektami w ruchu (centrum kadru, ludzie wchodzący po schodach)

Nawiedzony obraz

Nie jest to zatem technika pozbawiona wad, tym bardziej, że artefakty to tylko jeden z kilku problemów związanych z tym sposobem obrazowania (pozostałe to np. świecące krawędzie, nadmiar detalu lub paradoksalnie – brak kontrastu). Istnieją oczywiście wyrafinowane algorytmy które całkiem nieźle radzą sobie z wykrywaniem oraz maskowaniem przesunięć widocznych przy generowaniu plików wynikowych, ale są to rozwiązania skomplikowane, nierzadko wymagające sporej mocy obliczeniowej co na dzień dzisiejszy wyklucza ich zastosowanie w telefonach lub aparatach kompaktowych.

Kontrastowa scena stanowiąca wyzwanie nawet dla niektórych lustrzanek nie stanowi większego problemu dla algorytmów HDR+. Ponadto – scena wygląda naturalnie. Z HDR+ próżno szukać przeostrzonych detali lub radioaktywnej trawy typowej dla techniki tone mapping

Android fotografuje

Zespół inżynierów Google postanowił jednak podejść do problemu w nieco inny sposób. Zamiast wykonywać serię zdjęć o różnych czasach ekspozycji, zaproponowali rozwiązanie oparte o jednakową jasność z zachowaniem detali w jasnych częściach fotografowanej sceny. Podobnie jak w klasycznym podejściu, tutaj również wykonywane jest kilka (lub nawet kilkanaście) klatek, ale ich ekspozycja nie różni się. Dzięki temu, odstępy pomiędzy poszczególnymi zdjęciami mogą zostać zminimalizowane i cała sekwencja może trwać 1/3 zamiast np. całej sekundy, co zmniejsza ilość potencjalnych artefaktów.

Do tego momentu wszystko wydaje się jednak być pozbawione elementarnego sensu. W końcu HDR to technika pozwalająca na zwiększenie postrzeganej dynamiki obrazu. Jak zatem można tego dokonać scalając kilka niemalże identycznych klatek o ograniczonej dynamice? Efekt docelowy osiągany jest przez agresywne rozjaśnianie cieni, które wcześniej pozbawia się cyfrowego szumu dzięki uśrednieniu sygnału pochodzącego z kilku bardzo podobnych klatek. Technika ta znana jest już od dawna astrofotografom, którzy dzięki uśrednianiu sygnału z wielu podobnych zdjęć pozbywają się szumu przy bardzo długich ekspozycjach, rzędu kilku godzin. Jeżeli uświadomimy sobie, że szum cyfrowy ma charakter losowy, natomiast elementy sceny (przedmioty, ludzie) są stałe, to po uśrednieniu każdego z pikseli uzyskamy obraz wolny od szumu, ale bogaty w detale. Pozwala to drastycznie rozjaśnić ciemne obszary fotografii bez negatywnego wpływu na jakość.

Bardzo dobra (jak na wielkość fizyczną sensora) ilość detalu na wszystkich planach, spokojne przejścia tonalne i brak szumu zarówno w kanałach jasności (luminancji) jak i koloru (chrominancji)

Inteligent w pudełku

To jednak nie wszystko, co Google ma do zaoferowania. HDR+ wykonuje kilka zdjęć, po czym wybiera najostrzejsze z nich jako bazę do dalszych obliczeń. Następnie wykonuje analizę krawędziową obrazu aby dopasować do siebie wszystkie klatki (tak, aby finalne zdjęcie było ostre i pozbawione przesunięć). W końcu uśrednia wartość dla każdego z pikseli i rozjaśnia cienie. W efekcie uzyskujemy obraz naturalny, zbliżony do tego co widzą nasze oczy.

Ze względu na specyfikę działania algorytmu, HDR+ przydaje się również w sytuacjach zdjęciowych o stosunkowo niewielkim kontraście (na przykład w pomieszczeniach lub późnym wieczorem). Zamiast korzystać z wbudowanej lampy o bardzo niewielkiej mocy zdecydowanie lepiej wykonać serię zdjęć w świetle zastanym i pozbyć się szumów. Efekt finalny i tym razem będzie zdecydowanie bardziej zbliżony do tego, do czego przywykliśmy obserwując świat analogowo.

Na tym przykładzie nietrudno dostrzec spadek jakości typowy dla bardzo małych matryc. W dalszym ciągu robi jednak wrażenie jeżeli wziąć pod uwagę, że scena oświetlona jest głównie światłem księżyca

Komu plusa?

Na dzień dzisiejszy Google oferuje funkcję HDR+ jedynie posiadaczom urządzeń z serii Nexus 5 oraz Nexus 6. Prawdopodobnie decyzja ta podyktowana jest obecnością stabilizacji optycznej w obiektywach tych telefonów, co ma niebagatelne znaczenie przy procesie dopasowywania poszczególnych klatek wykonywanych w sekwencji (a niezapominajmy, że mówimy o zdjęciach wykonywanych “z ręki”). Niewątpliwie względy marketingowe też odgrywają w tym ograniczeniu niemałą rolę. Nie będę jednak ukrywał, że chętnie zobaczyłbym podobne rozwiązanie problemu kontrastowych scen w innych telefonach oraz aparatach kompaktowych.

Co dalej?

Upowszechnianie się tej, jak i innych, podobnych technik pozwala coraz bardziej skracać dystans pomiędzy aparatami kompaktowymi a pełnowymiarowymi lustrzankami. Możliwość wykonywania fotografii o rozdzielczości trzydziestu milionów pikseli z rektalinearnym odwzorowaniem perspektywy za pomocą urządzenia wielofunkcyjnego mieszczącego się w kieszeni jest tym, o czym jeszcze kilka lat temu można było jedynie pomarzyć. Z kolei generowanie mapy głębi ostrości i jej późniejsze symulowanie stawia pod znakiem zapytania konieczność posiadania wielkich i ciężkich obiektywów w fotografii podróżniczej a uśrednianie wartości pikseli przy wykonywaniu setki zdjęć pozwoli na uzyskanie efektu rozmycia wody – typowego dla zdjęć z długim czasem naświetlania.

A co w tym czasie robi Canon? Chwali się nowym aparatem z matrycą APS-C, który tym razem doczekał się wbudowanego modułu GPS. No cóż…

Tweet about this on TwitterPin on Pinterest0Share on Google+0Share on Facebook0Email this to someone
Łukasz Szmigiel
Łukasz Szmigiel
Fotografuje i projektuje w celach poznawczych i zarobkowych. Prywatnie - perfekcjonista, którego życiowym questem jest poszukiwanie spokoju, dobrej kawy i ciasteczek w czekoladzie.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *