Il fatto è che già l’immagine ripresa da un sensore è una manipolazione, cosa fa infatti il sensore quando la sua area è esposta a dei fotoni?
Mi spiego meglio.
Se ho un sensore 100x100 questo registrerà una certa situazione.
Se poi con un algoritmo io decido di ridimensionare l’immagine e passare alla risoluzione 50x50 questo chiaramente modificherà l’informazione, dovendola necessariamente ridurre ad 1/4.
Se avessi avuto direttamente un sensore 50x50, in che maniera sarebbe stata differente l’immagine ripresa da questo sensore rispetto quella ridotta dall’algoritmo?
Dipende da come opera l’algoritmo.
Se l’algoritmo accorpa le informazioni dei pixel di un’area 2x2, mi potrei aspettare un risultato analogo a quello del sensore meno risoluto, mentre se l’algoritmo effettua calcoli di media (bicubica, bilineare, ....) beh l’immagine prodotta sarà differente.
Perciò è anche importante di quanto si riduce un’immagine. Se la riduzione è di un fattore lineare di 2, 3, ..., intero insomma, allora la speranza di non vedere i dettagli ammorbidiiti, ma solo ridotti compatibilmente con la nuova risoluzione è buona, se invece si riduce di un fattore non intero le cose si complicano, .....
Comunque, nonostante tutto il parlare che facciamo di stampe, quanto sia bello farle, quanto corrisponda alla fotografia vera, questi quesiti sarebbero vani se stampassimo. Infatti la stampa parlerebbe molto chiaro e dopo qualche test avremmo la nostra catena di sviluppo e stampa e adotteremmo sempre quella!