Jak wybrać smartfon z dobrym aparatem. Interpolacja kamery, dlaczego i na czym polega? Jak wyłączyć interpolację na smartfonie

Interpolacja kamery to sztuczne zwiększanie rozdzielczości obrazu. Chodzi o obraz, a nie o rozmiar matrycy. Oznacza to, że jest to specjalne oprogramowanie, dzięki któremu obraz o rozdzielczości 8 megapikseli jest interpolowany do 13 megapikseli lub więcej (lub mniej). Używając analogii, interpolacja kamery jest jak szkło powiększające lub lornetka. Urządzenia te powiększają obraz, ale nie sprawiają, że wygląda on lepiej i bardziej szczegółowo. Jeśli więc w specyfikacji telefonu wskazana jest interpolacja, rzeczywista rozdzielczość aparatu może być niższa niż podana. To nie jest ani dobre, ani złe, po prostu jest.

Interpolację wynaleziono po to, aby zwiększyć rozmiar obrazu i nic więcej. Teraz jest to chwyt marketingowców i producentów, którzy próbują sprzedać produkt. Na plakacie reklamowym dużą liczbą wskazują rozdzielczość aparatu telefonu i pozycjonują ją jako zaletę lub coś dobrego. Sama rozdzielczość nie tylko nie wpływa na jakość zdjęć, ale może być również interpolowana.

Dosłownie 3-4 lata temu wielu producentów goniło za liczbą megapikseli i różne sposoby próbowali upchnąć ich w czujnikach smartfonów za pomocą jak największej liczby czujników. Tak pojawiły się smartfony z aparatami o rozdzielczości 5, 8, 12, 15, 21 megapikseli. Jednocześnie mogli robić zdjęcia niczym najtańsze aparaty typu „wyceluj i strzelaj”, ale gdy kupujący zobaczyli naklejkę „aparat 18 MP”, od razu zapragnęli kupić taki telefon. Wraz z pojawieniem się interpolacji sprzedaż takich smartfonów stała się łatwiejsza ze względu na możliwość sztucznego dodawania megapikseli do aparatu. Oczywiście jakość zdjęć zaczęła się z biegiem czasu poprawiać, ale na pewno nie za sprawą rozdzielczości czy interpolacji, ale za sprawą naturalnego postępu w zakresie rozwoju sensora i oprogramowania.

Czym technicznie jest interpolacja aparatu w telefonie, skoro cały powyższy tekst opisuje jedynie podstawową ideę?

Za pomocą specjalnego oprogramowania na obrazie „rysowane” są nowe piksele. Na przykład, aby powiększyć obraz 2 razy, po każdej linii pikseli na obrazie dodawana jest nowa linia. Każdy piksel w tej nowej linii jest wypełniony kolorem. Kolor wypełnienia obliczany jest za pomocą specjalnego algorytmu. Pierwszym sposobem jest nalewanie Nowa linia kolory, jakie mają najbliższe piksele. Wynik takiego przetwarzania będzie okropny, ale ta metoda wymaga minimum operacji obliczeniowych.

Najczęściej stosuje się inną metodę. Oznacza to, że do oryginalnego obrazu dodawane są nowe rzędy pikseli. Każdy piksel jest wypełniony kolorem, który z kolei jest obliczany jako średnia sąsiadujących pikseli. Ta metoda daje najwyższe wyniki, ale wymaga większej liczby operacji obliczeniowych. Na szczęście nowoczesne procesory mobilne są szybkie i w praktyce użytkownik nie zauważa, jak program edytuje obraz, próbując sztucznie zwiększyć jego rozmiar. interpolacja aparatu w smartfonie Istnieje wiele zaawansowanych metod i algorytmów interpolacji, które są stale udoskonalane: poprawiane są granice przejść między kolorami, linie stają się dokładniejsze i wyraźniejsze. Nie ma znaczenia, jak wszystkie te algorytmy są zbudowane. Sam pomysł interpolacji kamer jest banalny i raczej nie przyjmie się w najbliższej przyszłości. Interpolacja nie może zwiększyć szczegółowości obrazu, dodać nowych szczegółów ani poprawić go w żaden inny sposób. Tylko na filmach mały, rozmazany obraz staje się wyraźny po zastosowaniu kilku filtrów. W praktyce nie może się to zdarzyć.
.html

Rynek telefony komórkowe wypełnione modelami z aparatami o ogromnych rozdzielczościach. Są nawet stosunkowo powszechne niedrogie smartfony z sensorami o rozdzielczości 16-20 megapikseli. Nieświadomy kupujący goni za „fajnym” aparatem i woli telefon z aparatem o wyższej rozdzielczości. Nawet nie zdaje sobie sprawy, że daje się nabrać na przynętę marketerów i sprzedawców.

Co to jest pozwolenie?

Rozdzielczość kamery to parametr określający ostateczny rozmiar obrazu. Określa jedynie, jak duży będzie wynikowy obraz, czyli jego szerokość i wysokość w pikselach. Ważne: jakość obrazu nie ulega zmianie. Zdjęcie może okazać się niskiej jakości, ale duże ze względu na rozdzielczość.

Rozdzielczość nie ma wpływu na jakość. Nie sposób było o tym nie wspomnieć w kontekście interpolacji aparatu w smartfonie. Teraz możesz przejść od razu do rzeczy.

Co to jest interpolacja aparatu w telefonie?

Interpolacja kamery to sztuczne zwiększanie rozdzielczości obrazu. To obrazy, a nie. To jest specjalne oprogramowanie, dzięki któremu obraz o rozdzielczości 8 megapikseli jest interpolowany do 13 megapikseli lub więcej (lub mniej).

Jeśli narysujemy analogię, interpolacja aparatu jest podobna do lornetki. Urządzenia te powiększają obraz, ale nie sprawiają, że wygląda on lepiej i bardziej szczegółowo. Jeśli więc w specyfikacji telefonu wskazana jest interpolacja, rzeczywista rozdzielczość aparatu może być niższa niż podana. To nie jest ani dobre, ani złe, po prostu jest.

Po co to jest?

Interpolację wynaleziono po to, aby zwiększyć rozmiar obrazu i nic więcej. Teraz jest to chwyt marketingowców i producentów, którzy próbują sprzedać produkt. Na plakacie reklamowym dużą liczbą wskazują rozdzielczość aparatu telefonu i pozycjonują ją jako zaletę lub coś dobrego. Sama rozdzielczość nie tylko nie wpływa na jakość zdjęć, ale może być również interpolowana.

Dosłownie 3-4 lata temu wielu producentów goniło za liczbą megapikseli i na różne sposoby próbowało upchnąć w swoich smartfonach sensory o jak największej liczbie megapikseli. Tak pojawiły się smartfony z aparatami o rozdzielczości 5, 8, 12, 15, 21 megapikseli. Jednocześnie mogli robić zdjęcia niczym najtańsze aparaty typu „wyceluj i strzelaj”, ale gdy kupujący zobaczyli naklejkę „Aparat 18 MP”, od razu zapragnęli kupić taki telefon. Wraz z pojawieniem się interpolacji sprzedaż takich smartfonów stała się łatwiejsza ze względu na możliwość sztucznego dodawania megapikseli do aparatu. Oczywiście jakość zdjęć zaczęła się z biegiem czasu poprawiać, ale na pewno nie za sprawą rozdzielczości czy interpolacji, ale za sprawą naturalnego postępu w zakresie rozwoju sensora i oprogramowania.

Strona techniczna

Czym technicznie jest interpolacja aparatu w telefonie, skoro cały powyższy tekst opisuje jedynie podstawową ideę?

Za pomocą specjalnego oprogramowania na obrazie „rysowane” są nowe piksele. Na przykład, aby powiększyć obraz 2 razy, po każdej linii pikseli na obrazie dodawana jest nowa linia. Każdy piksel w tej nowej linii jest wypełniony kolorem. Kolor wypełnienia obliczany jest za pomocą specjalnego algorytmu. Pierwszy sposób polega na wypełnieniu nowej linii kolorami najbliższych pikseli. Wynik takiego przetwarzania będzie okropny, ale ta metoda wymaga minimum operacji obliczeniowych.

Najczęściej stosuje się inną metodę. Oznacza to, że do oryginalnego obrazu dodawane są nowe rzędy pikseli. Każdy piksel jest wypełniony kolorem, który z kolei jest obliczany jako średnia sąsiadujących pikseli. Ta metoda daje lepsze wyniki, ale wymaga większej liczby operacji obliczeniowych.

Na szczęście nowoczesne procesory mobilne są szybkie i w praktyce użytkownik nie zauważa, jak program edytuje obraz, próbując sztucznie zwiększyć jego rozmiar.

Istnieje wiele zaawansowanych metod i algorytmów interpolacji, które są stale udoskonalane: poprawiane są granice przejścia między kolorami, linie stają się dokładniejsze i wyraźniejsze. Nie ma znaczenia, jak wszystkie te algorytmy są zbudowane. Sam pomysł interpolacji kamer jest banalny i raczej nie przyjmie się w najbliższej przyszłości. Interpolacja nie może zwiększyć szczegółowości obrazu, dodać nowych szczegółów ani poprawić go w żaden inny sposób. Tylko na filmach mały, rozmazany obraz staje się wyraźny po zastosowaniu kilku filtrów. W praktyce nie może się to zdarzyć.

Czy potrzebujesz interpolacji?

Wielu użytkowników z niewiedzy zadaje na różnych forach pytania dotyczące sposobu wykonania interpolacji kamery, wierząc, że poprawi to jakość obrazu. Tak naprawdę interpolacja nie tylko nie poprawi jakości zdjęcia, ale może nawet ją pogorszyć, ponieważ do zdjęć zostaną dodane nowe piksele, a ze względu na nie zawsze dokładne obliczenie kolorów do wypełnienia, zdjęcie może być nieszczelne obszary i ziarnistość. W rezultacie jakość spada.

Interpolacja w telefonie jest więc chwytem marketingowym zupełnie niepotrzebnym. Może zwiększyć nie tylko rozdzielczość zdjęcia, ale także koszt samego smartfona. Nie daj się nabrać na sztuczki sprzedawców i producentów.

Smartfon posiada aparat 8 MPix. Co oznacza interpolacja do 13 MPix?

    Dobry dzień.

    Oznacza to, że Twój smartfon rozciąga zdjęcie/obraz wykonany aparatem 8 MPix do rozdzielczości 13 MPix. Odbywa się to poprzez odsunięcie rzeczywistych pikseli i wstawienie dodatkowych.

    Jeśli jednak porównasz jakość zdjęcia/zdjęcia wykonanego w rozdzielczości 13 MP i 8 MP z interpolacją do 13, to jakość drugiego będzie zauważalnie gorsza.

    Mówiąc najprościej, podczas tworzenia zdjęcia inteligentny procesor dodaje własne piksele do aktywnych pikseli matrycy, jakby przeliczał obraz i rysował go do rozmiaru 13 megapikseli. Wyjściem jest matryca 8 i a zdjęcie o rozdzielczości 13 megapikseli Jakość niewiele się od tego poprawia.

    Oznacza to, że aparat może wykonać zdjęcie do 8 MPIX, ale w oprogramowaniu może powiększyć zdjęcia do 12 MPIX. Oznacza to, że powiększa go programowo, ale jakość obrazu nie staje się lepsza, obraz nadal będzie miał dokładnie 8 MPIX. To tylko chwyt producenta i takie smartfony są droższe.

    Koncepcja ta zakłada, że ​​aparat Twojego urządzenia nadal będzie robił zdjęcia w rozdzielczości 8 MPIX, jednak teraz w oprogramowaniu istnieje możliwość zwiększenia go do 13 MPIX. Jednocześnie jakość nie ulega poprawie. Po prostu przestrzeń między pikselami zostaje zatkana i to wszystko.

    Oznacza to, że w Twoim aparacie, bo było 8 MPIX, pozostają takie same - nie więcej i nie mniej, a cała reszta to chwyt marketingowy, naukowe oszukiwanie ludzi w celu sprzedania produktu po wyższej cenie i nic więcej. Ta funkcja bezwartościowe, jakość zdjęcia zostanie utracona podczas interpolacji.

    NA Chińskie smartfony Jest to teraz używane cały czas, po prostu czujnik aparatu 13 MP kosztuje znacznie więcej niż czujnik 8 MP, dlatego ustawiono go na 8 MP, ale aplikacja aparatu rozciąga powstały obraz, w rezultacie jakość tych 13 MP będzie zauważalnie gorszy, jeśli spojrzysz na oryginalną rozdzielczość.

    Moim zdaniem ta funkcja jest w ogóle bezużyteczna, ponieważ 8 MP wystarczy na smartfona; w zasadzie 3 MP mi wystarczy, najważniejsze jest to, że sam aparat jest wysokiej jakości.

    Interpolacja aparatu to chwyt producenta, który sztucznie zawyża cenę smartfona.

    Jeśli masz aparat 8 MPIX, to może wykonać odpowiednie zdjęcie; interpolacja nie poprawia jakości zdjęcia, po prostu zwiększa rozmiar zdjęcia do 13 megapikseli.

    Faktem jest, że prawdziwy aparat w takich telefonach ma 8 megapikseli. Ale za pomocą wewnętrznych programów obrazy są rozciągane do 13 megapikseli. Tak naprawdę nie osiąga rzeczywistych 13 megapikseli.

    Interpolacja megapikselowa to programowe rozmycie obrazu. Rzeczywiste piksele są rozsuwane, a między nimi wstawiane są dodatkowe, przy czym kolor średniej wartości z kolorów jest odsunięty. Nonsens, oszukiwanie samego siebie, którego nikt nie potrzebuje. Jakość się nie poprawia.

  • Interpolacja to metoda znajdowania wartości pośrednich

    Jeśli wszystko to zostanie przetłumaczone na bardziej ludzki język, odpowiedni do Twojego pytania, otrzymasz następujące informacje:

    • Oprogramowanie może przetwarzać (powiększać, rozciągać)) pliki do 13 MPIX.
  • Do 13 MPix - może to być 8 prawdziwych MPix, takich jak Twoje. Lub 5 prawdziwych MPix. Oprogramowanie aparatu interpoluje sygnał graficzny aparatu do rozdzielczości 13 MPix, nie poprawiając obrazu, ale elektronicznie go powiększając. Mówiąc najprościej, jak szkło powiększające lub lornetka. Jakość się nie zmienia.

Co to jest interpolacja kamery?

Wszystkie nowoczesne smartfony mają wbudowane aparaty, które pozwalają powiększać powstałe obrazy za pomocą specjalnych algorytmów. Z matematycznego punktu widzenia interpolacja jest metodą wykrywania wartości pośrednich liczby na podstawie istniejącego zestawu parametrów dyskretnych.

Efekt interpolacji przypomina nieco szkło powiększające. Oprogramowanie smartfona nie zwiększa klarowności i ostrości obrazu. Po prostu powiększa obraz do wymaganego rozmiaru. Niektórzy producenci smartfonów piszą na opakowaniach swoich produktów, że wbudowany aparat ma rozdzielczość „aż 21 megapikseli”. Najczęściej mówimy o obrazie interpolowanym, który jest niskiej jakości.

Rodzaje interpolacji

Metoda najbliższego sąsiada

Metoda uważana jest za podstawową i należy do kategorii najprostszych algorytmów. Parametry pikseli określane są na podstawie jednego najbliższego punktu. W wyniku obliczeń matematycznych rozmiar każdego piksela podwaja się. Stosowanie metody najbliższego piksela nie wymaga dużej mocy obliczeniowej.

Interpolacja dwuliniowa

Wartość piksela określana jest na podstawie danych z czterech najbliższych punktów zarejestrowanych przez kamerę. Wynikiem obliczeń jest uśrednienie ważone parametrów 4 pikseli otaczających początek układu współrzędnych. Interpolacja dwuliniowa pozwala wygładzić przejścia pomiędzy granicami kolorów obiektów. Obrazy uzyskane tą metodą charakteryzują się znacznie lepszą jakością niż obrazy interpolowane metodą najbliższego piksela.

Interpolacja dwusześcienna

Wartość koloru żądanego punktu jest obliczana na podstawie parametrów 16 najbliższych pikseli. Punkty znajdujące się najbliżej siebie otrzymują w obliczeniach maksymalną wagę. Aktywnie wykorzystywana jest interpolacja dwusześcienna oprogramowanie nowoczesnych smartfonów i pozwala uzyskać dość wysokiej jakości obraz. Zastosowanie metody wymaga znacznych mocy centralny procesor i wbudowaną kamerę o wysokiej rozdzielczości.

Aby uniknąć zadawania zbędnych pytań:

Zalety i wady

Filmy science fiction często pokazują, jak kamera rejestruje twarz przechodnia i przesyła cyfrową informację do komputera. Maszyna powiększa obraz, rozpoznaje zdjęcie i wyszukuje osobę w bazie danych. W prawdziwe życie interpolacja nie dodaje nowych szczegółów do obrazu. Po prostu powiększa oryginalny obraz za pomocą algorytmu matematycznego, poprawiając jego jakość do akceptowalnego poziomu.

Wady interpolacyjne

Najczęstsze defekty pojawiające się podczas skalowania obrazów to:

  • Stepowanie;
  • Plama;
  • Efekt halo.

Wszystkie algorytmy interpolacyjne pozwalają na zachowanie pewnej równowagi wymienionych wad. Zmniejszenie aliasingu z pewnością spowoduje zwiększenie rozmycia obrazu i efektu halo. Zwiększanie ostrości obrazu będzie skutkować zwiększeniem rozmycia obrazu itp. Poza wymienionymi defektami, interpolacja może powodować powstawanie różnych „szumów” graficznych, które można zaobserwować przy maksymalnym powiększeniu obrazu. Mówimy o pojawieniu się „losowych” pikseli i tekstur nietypowych dla danego obiektu.

Interpolacja obrazu występuje we wszystkich fotografie cyfrowe na pewnym etapie, czy to dematryzacja, czy skalowanie. Dzieje się tak za każdym razem, gdy zmieniasz rozmiar lub skan obrazu z jednej siatki pikseli na inną. Zmiana rozmiaru obrazu jest konieczna, gdy trzeba zwiększyć lub zmniejszyć liczbę pikseli, natomiast zmiana położenia może nastąpić w różnych przypadkach: skorygowanie zniekształcenia obiektywu, zmiana perspektywy lub obrócenie obrazu.


Nawet w przypadku zmiany rozmiaru lub zeskanowania tego samego obrazu wyniki mogą się znacznie różnić w zależności od algorytmu interpolacji. Ponieważ każda interpolacja jest jedynie przybliżeniem, obraz traci pewną jakość przy każdej interpolacji. Celem tego rozdziału jest lepsze zrozumienie czynników wpływających na wyniki, a tym samym pomoc w zminimalizowaniu utraty jakości obrazu spowodowanej interpolacją.

Pojęcie

Istotą interpolacji jest wykorzystanie dostępnych danych w celu uzyskania oczekiwanych wartości w nieznanych punktach. Na przykład, jeśli chcesz wiedzieć, jaka była temperatura w południe, ale zmierzyłeś ją o godzinie 11 i o pierwszej, możesz odgadnąć jej wartość, stosując interpolację liniową:

Jeśli wykonałeś dodatkowy pomiar o wpół do dwunastej, możesz zauważyć, że temperatura rosła szybciej przed południem, i wykorzystać ten dodatkowy pomiar do wykonania interpolacji kwadratowej:

Im więcej pomiarów temperatury wykonasz około południa, tym bardziej złożony (i prawdopodobnie dokładniejszy) może być algorytm interpolacji.

Przykład zmiany rozmiaru obrazu

Interpolacja obrazu działa w dwóch wymiarach i stara się uzyskać jak najlepsze przybliżenie koloru i jasności pikseli na podstawie wartości otaczających pikseli. Poniższy przykład ilustruje działanie skalowania:

interpolacja planarna
Oryginalny zanim Po bez interpolacji

W przeciwieństwie do wahań temperatury powietrza i idealnego gradientu powyżej, wartości pikseli mogą zmieniać się znacznie bardziej dramatycznie z punktu na punkt. Podobnie jak w przykładzie dotyczącym temperatury, im więcej wiesz o otaczających pikselach, tym lepsza będzie interpolacja. Właśnie dlatego wyniki szybko się pogarszają w miarę rozciągania obrazu, a także dlatego, że interpolacja nigdy nie może dodać szczegółów do obrazu, którego nie ma.

Przykład obrotu obrazu

Interpolacja ma miejsce również przy każdym obróceniu lub zmianie perspektywy obrazu. Poprzedni przykład był mylący, ponieważ jest to szczególny przypadek, w którym interpolatory zwykle działają całkiem dobrze. Poniższy przykład pokazuje, jak szybko można utracić szczegóły obrazu:

Degradacja obrazu
Oryginalny obrócić o 45° obrócić o 90°
(bez strat)
2 zakręty o 45° 6 obrotów o 15°

Obrót o 90° nie powoduje żadnych strat, ponieważ żaden piksel nie musi być umieszczany na granicy dwóch pikseli (i tym samym dzielony). Zwróć uwagę, jak wiele szczegółów zostaje utraconych w pierwszej turze i jak jakość spada w kolejnych turach. Oznacza to, że powinieneś unikaj rotacji tak bardzo, jak to możliwe; Jeżeli nierównomiernie naświetlona ramka wymaga rotacji, nie należy jej obracać więcej niż raz.

Powyższe wyniki wykorzystują tzw. algorytm „bicubic” i wykazują znaczną degradację jakości. Zwróć uwagę, jak ogólny kontrast zmniejsza się w wyniku zmniejszenia intensywności kolorów i jak ciemne aureole pojawiają się wokół jasnoniebieskiego. Wyniki mogą być znacznie lepsze w zależności od algorytmu interpolacji i fotografowanego obiektu.

Rodzaje algorytmów interpolacyjnych

Powszechnie stosowane algorytmy interpolacji można podzielić na dwie kategorie: adaptacyjne i nieadaptacyjne. Metody adaptacyjne różnią się w zależności od przedmiotu interpolacji (twarde krawędzie, gładka tekstura), podczas gdy metody nieadaptacyjne traktują wszystkie piksele jednakowo.

Algorytmy nieadaptacyjne obejmują: metodę najbliższego sąsiada, metodę dwuliniową, dwusześcienną, sklejaną, funkcję sinus kardynalny (sinc), metodę Lanczosa i inne. W zależności od złożoności do interpolacji używają od 0 do 256 (lub więcej) sąsiadujących pikseli. Im więcej sąsiednich pikseli zawierają, tym mogą być dokładniejsze, ale odbywa się to kosztem znacznego wydłużenia czasu przetwarzania. Algorytmy te można wykorzystać zarówno do skanowania, jak i skalowania obrazów.

Algorytmy adaptacyjne zawierają wiele komercyjnych algorytmów w programach licencjonowanych, takich jak Qimage, PhotoZoom Pro, Authentic Fractals i inne. Wielu z nich korzysta różne wersje jego algorytmy (oparte na analizie piksel po pikselu) w przypadku wykrycia obecności krawędzi - w celu zminimalizowania nieestetycznych defektów interpolacyjnych w miejscach, gdzie są one najbardziej widoczne. Algorytmy te mają na celu przede wszystkim maksymalizację pozbawionych defektów szczegółów powiększonych obrazów, dlatego niektóre z nich nie nadają się do obracania lub zmiany perspektywy obrazu.

Metoda najbliższego sąsiada

Jest to najbardziej podstawowy ze wszystkich algorytmów interpolacji i wymaga najmniejszego czasu przetwarzania, ponieważ uwzględnia tylko jeden piksel - ten najbliższy punktu interpolacji. W rezultacie każdy piksel staje się po prostu większy.

Interpolacja dwuliniowa

Interpolacja dwuliniowa uwzględnia kwadrat 2x2 znanych pikseli otaczający nieznany. Jako wartość interpolowaną używana jest średnia ważona tych czterech pikseli. W rezultacie obrazy wyglądają znacznie płynniej niż w przypadku metody najbliższego sąsiada.

Diagram po lewej stronie przedstawia przypadek, w którym wszystkie znane piksele są równe, więc interpolowana wartość to po prostu ich suma podzielona przez 4.

Interpolacja dwusześcienna

Interpolacja dwusześcienna idzie o krok dalej niż interpolacja dwuliniowa, patrząc na tablicę otaczających pikseli 4x4 - łącznie 16, ponieważ są one włączone różne odległości z nieznanego piksela, najbliższe piksele otrzymują w obliczeniach większą wagę. Interpolacja dwusześcienna daje znacznie ostrzejsze obrazy niż dwie poprzednie metody i jest prawdopodobnie najlepsza pod względem czasu przetwarzania i jakości wydruku. Z tego powodu stało się standardem w wielu programach do edycji obrazów (m.in Adobe Photoshopie), sterowniki drukarek i wbudowana interpolacja aparatu.

Interpolacja wyższego rzędu: splajny i sinc

Istnieje wiele innych interpolatorów, które uwzględniają więcej otaczających pikseli, a zatem wymagają większej mocy obliczeniowej. Algorytmy te obejmują splajny i sinus kardynalny (sinc) i zachowują większość informacji o obrazie po interpolacji. W rezultacie są niezwykle przydatne, gdy obraz wymaga wielokrotnych obrotów lub zmian perspektywy w oddzielnych krokach. Jednak w przypadku pojedynczych powiększeń lub obrotów takie algorytmy wyższego rzędu zapewniają niewielką poprawę wizualną przy znacznym wydłużeniu czasu przetwarzania. Co więcej, w niektórych przypadkach algorytm sinusa kardynalnego działa gorzej na gładkim przekroju niż interpolacja dwusześcienna.

Zauważalne defekty interpolacyjne

Wszystkie interpolatory nieadaptacyjne próbują znaleźć optymalną równowagę pomiędzy trzema niepożądanymi defektami: aureolami granicznymi, rozmyciem i aliasingiem.

Nawet najbardziej rozwinięte interpolatory nieadaptacyjne zawsze zmuszone są zwiększać lub zmniejszać jedną z powyższych wad kosztem dwóch pozostałych – w efekcie przynajmniej jedna z nich będzie zauważalna. Zwróć uwagę, jak aureola krawędziowa jest podobna do wady spowodowanej ostrzeniem z maską nieostrą i jak zwiększa pozorną ostrość poprzez wyostrzenie.

Interpolatory adaptacyjne mogą, ale nie muszą, powodować defekty opisane powyżej, ale mogą również tworzyć tekstury lub pojedyncze piksele w dużych skalach, które są nietypowe dla oryginalnego obrazu:

Z drugiej strony, pewne „wady” interpolatorów adaptacyjnych można również uznać za zalety. Ponieważ oko oczekuje, że dostrzeże najdrobniejsze szczegóły w obszarach o delikatnej teksturze, takich jak liście, takie projekty mogą zwieść oko z daleka (w przypadku niektórych rodzajów materiałów).

Wygładzanie

Wygładzanie lub wygładzanie to proces mający na celu zminimalizowanie wyglądu postrzępionych lub postrzępionych ukośnych krawędzi, które nadają tekstowi lub obrazom szorstki cyfrowy wygląd:


300%

Wygładzanie usuwa te postrzępione krawędzie i zapewnia wrażenie bardziej miękkich krawędzi i wyższej rozdzielczości. Uwzględnia stopień, w jakim idealna ramka zachodzi na sąsiednie piksele. Postrzępione obramowanie jest po prostu zaokrąglane w górę lub w dół, bez wartości pomiędzy nimi, natomiast gładkie obramowanie tworzy wartość proporcjonalną do tego, ile obramowania obejmuje każdy piksel:

Ważną kwestią przy powiększaniu obrazów jest unikanie nadmiernego aliasingu wynikającego z interpolacji. Wiele interpolatorów adaptacyjnych wykrywa obecność krawędzi i dostosowuje się tak, aby zminimalizować aliasing przy jednoczesnym zachowaniu ostrości krawędzi. Ponieważ wygładzona granica zawiera informację o jej położeniu co więcej wysoka rozdzielczość, jest całkiem możliwe, że potężny interpolator adaptacyjny (wykrywający granice) mógłby przynajmniej częściowo zrekonstruować granicę po powiększeniu.

Zoom optyczny i cyfrowy

Wiele kompaktowych aparaty cyfrowe może wykonywać zarówno powiększenie optyczne, jak i cyfrowe (zoom). Zoom optyczny uzyskuje się poprzez przesuwanie obiektywu zmiennoogniskowego w taki sposób, aby światło zostało wzmocnione, zanim dotrze do czujnika cyfrowego. Natomiast zoom cyfrowy obniża jakość, ponieważ po prostu interpoluje obraz po jego odebraniu przez czujnik.


zoom optyczny (10x) zoom cyfrowy (10x)

Mimo że zdjęcie wykonane przy użyciu zoomu cyfrowego zawiera tę samą liczbę pikseli, to jego szczegółowość jest wyraźnie mniejsza niż przy użyciu zoomu optycznego. Zoom cyfrowy powinien zostać niemal całkowicie wyeliminowany, minus sytuacje, w których pomaga to w wyświetlaniu odległego obiektu na ekranie LCD aparatu. Z drugiej strony, jeśli zazwyczaj robisz zdjęcia w formacie JPEG i chcesz później przyciąć i powiększyć zdjęcie, zaletą zoomu cyfrowego jest interpolacja przed wprowadzeniem artefaktów kompresji. Jeśli uznasz, że zoom cyfrowy jest Ci zbyt często potrzebny, zainwestuj w telekonwerter lub, jeszcze lepiej, w obiektyw o dłuższej ogniskowej.