News:

Alcuni FAKE ACCOUNT sono stati BLOCCATI e BANNATI

Menu principale

L'Interpolazione nel Mosaico

Aperto da Sardosono, Lunedì, 05 Settembre 2016, 17:51:06

Discussione precedente - Discussione successiva

0 Utenti e 1 Visitatore stanno visualizzando questa discussione.

francesco59

per curiosità ho cercato in internet e ho trovato un lavoro della Foveon ( http://www.foveon.com/files/CIC13_Hubel_Final.pdf ) dove guarda caso avevano già trovato un algoritmo, che con prestazioni minori, usava due diverse risoluzioni degli strati ( guarda caso 1:4 ) in modo che  l'analisi dei dati costasse meno e fosse più veloce.
Sigma SD9 - SD14 -SD1 obiettivi vari

naphtha

Citazione di: stefanone il Sabato, 05 Novembre 2016, 21:50:18
La vera differenza sono i "pixel di passaggio" perchè, ad esempio, come già detto il Bayer non può passare dal bianco al nero senza metterci in mezzo un grigio di transizione difatti la differenza di resa tra i due sensori è più o meno evidente a seconda del soggetto fotografato.

No guarda la differenza si nota sempre in qualsiasi situazione, basta fare un crop del 100% su qualsiasi Bayer (da 10 mpx o 60mpx cambia poco) .

In questa situaziona ha distrutto completamente le ombre tra le due spagnolette:
http://urly.it/21pt1

In questa ha cancellato il piumaggio :
http://urly.it/21pt2


Citazione di: stefanone il Sabato, 05 Novembre 2016, 21:50:18
Però supponendo di poter Aumentare in maniera significativa il numero dei pixel lo spessore dei "grigi di transizione" nel Bayer diminuisce sensibilmente finchè ad alte densità non sarà più percepibile dall'occhio umano neanche in un crop al 400%...

E' vero che il foveon, se consideriamo la quantità di dati,  vince sempre, ma è anche vero che c'è un limite fisico oltre il quale una maggiore quantità di dati non serve...

Aumenti solo la grandezza dell'immagine aumentando i pixel, non guadagni nulla in termini di nitidezza e microcontrasto (per non parlare della riproduzione del colore..). Lo spiattellamento dovuto alla media si nota comunque anche al 100% di crop.
Canon 6D - Cosina 19-35mm

naphtha

Citazione di: francesco59 il Sabato, 05 Novembre 2016, 21:57:33
per curiosità ho cercato in internet e ho trovato un lavoro della Foveon ( http://www.foveon.com/files/CIC13_Hubel_Final.pdf ) dove guarda caso avevano già trovato un algoritmo, che con prestazioni minori, usava due diverse risoluzioni degli strati ( guarda caso 1:4 ) in modo che  l'analisi dei dati costasse meno e fosse più veloce.

:-\ Ottimo, hanno lavorato sodo in tutto questo tempo !!  :si: I risultati infatti si vedono  :))
Canon 6D - Cosina 19-35mm

Italo

Cui prodest...? Ovvero: "chettefrega"?  :ohi:

Permettetemi questo OT, che non riguarda gli opportuni chiarimenti di Antonello ma l'inizio di una pericolosa quanto inopportuna contrapposizione su note tecniche non sempre verificabili tra Bayer e Foveon.
Cerchiamo di non essere contagiati/coinvolti in una copia della diatriba in atto sul forum Juza.
Se siete qui significa che avete scelto di usare il foveon e credo che si abbiano occhi capaci di notare le differenze tra i due sistemi.
All'utente è demandato il compito di scegliere la tecnologia che preferisce, non quello di capire/riprodurre/contestare il lavoro degli ingegneri della Sigma.

Buone foto a tutti!  ;)
  • Italo
     
Sigma DP2m+SD10_17-70:2,8-4,5__Summicron 50:2__1800:6 autocostruito.
Mitsubishi 10x15-20x30 sublimation printers.

clax

Citazione di: Italo il Sabato, 05 Novembre 2016, 23:48:03
..."chettefrega"?  ....

Finalmente un intervento alla mia portata!
Temevo in cuor mio che le mie 2 Sigma, avvedutesi
della mia totale ignoranza, si rifiutassero di scattare.
Mi sento molto sollevato e vado subito a fare qualche scatto.
Meteo permettendo, quanta acqua è caduta stanotte!
  • Claudio
     

Italo

CitazioneMi sento molto sollevato e vado subito a fare qualche scatto.
:si:
  • Italo
     
Sigma DP2m+SD10_17-70:2,8-4,5__Summicron 50:2__1800:6 autocostruito.
Mitsubishi 10x15-20x30 sublimation printers.

stefanone

@naphtha
CitazioneNo guarda la differenza si nota sempre in qualsiasi situazione
Scusa non capisco.... io ho forse detto il contrario? :no:
Io ho semplicemente affermato che a seconda del soggetto la differenza può essere più o meno evidente!!!

Per il resto probabilmente mi sono espresso male...
Volevo semplicemente dire che è vero che a parità di pixel/cm2 vince il Foveon, ma che superata una certa soglia di pixel/cm2 le differenze non saranno più facilmente visibili ad occhio nudo.
Sarei anche curioso di vedere le differenze tra due foto dello stesso soggetto riprese con sensori Foveon/Bayer formato 6x7 o maggiori!

E' un fatto che in un pixel di qualsiasi grandezza ci sono infiniti punti e quello che viene registrato in ogni pixel è la media di quei punti... quindi anche il Foveon fa una media... anzi due una 1:1 per i pixel Blue e 4:1 per il G e R!!!
E' anche un fatto che con l'aumentare delle ricorrenze la statistica si avvicina alla realtà, quindi nel Bayer con l'aumentare dei pixel l'algoritmo si avvicina alla riproduzione della realtà...

Questo significa che con l'aumentare dei pixel le differenze (quelle visibili) tra i due processori diminuiscono...



francesco59

ragazzi non volevo innescare nulla buone foto a tutti
Sigma SD9 - SD14 -SD1 obiettivi vari

naphtha

Citazione di: stefanone il Domenica, 06 Novembre 2016, 12:44:23
@naphtha
CitazioneNo guarda la differenza si nota sempre in qualsiasi situazione
Volevo semplicemente dire che è vero che a parità di pixel/cm2 vince il Foveon, ma che superata una certa soglia di pixel/cm2 le differenze non saranno più facilmente visibili ad occhio nudo.
Sarei anche curioso di vedere le differenze tra due foto dello stesso soggetto riprese con sensori Foveon/Bayer formato 6x7 o maggiori!

:si: Immaginavo ti riferissi a questo, se prendiamo in considerazione una stampa sul medesimo supporto il discorso non fa una piega.


Citazione di: stefanone il Domenica, 06 Novembre 2016, 12:44:23
E' un fatto che in un pixel di qualsiasi grandezza ci sono infiniti punti e quello che viene registrato in ogni pixel è la media di quei punti... quindi anche il Foveon fa una media... anzi due una 1:1 per i pixel Blue e 4:1 per il G e R!!!
E' anche un fatto che con l'aumentare delle ricorrenze la statistica si avvicina alla realtà, quindi nel Bayer con l'aumentare dei pixel l'algoritmo si avvicina alla riproduzione della realtà...

Questo significa che con l'aumentare dei pixel le differenze (quelle visibili) tra i due processori diminuiscono...

:-\ Perchè fa una media ? (domanda da ignorante...  :pau:)  Un pixel non è un punto ?  :con: :conf:
Canon 6D - Cosina 19-35mm

elerum

nel sensore bayer ogni pixel e un punto immagine dato dal interpolazione
nel sensore foveon ogni punto immagine (chiamiamolo Pi) e dato da una media dei pixel sovraposti,
in pratica una cosa del genere:
Pi=[Xb + (Xv x K) + (Xr x Y)] / 3
dove Xb e il pixel blu il  Xv pixel verde , il Xr pixel rosso ed il K ed Y sono le costanti di equalizazzione del segnale per i tre stratti e che per l'ultimo strato dei pixel rossi (constante Y) va aumentato ulteriormente via software perchè riceve meno segnale essendo inferiore. tutto questo i parole povere ma gli schemi applicati dal foveon sono molto più complessi per il semplice fatto che le constanti sono molto più complesse da calcolare non solo per "traparenza/trasmitanza" dei stratti superiori ma anche per "profondità del pozzo"* e anche l'angolazione con quale la luce colpisce il sensore , più andiamo vs esterno più dobbiamo aumentare il volore delle constati K ed Y e viene fatto tutto in automatico grazie agli algoritmi integratti e un buon scambio dati macchina sensore ed e lo stesso motivo per qualle le compatte  (che montano un solo obiettivo) sono migliorate  ancora di più confronto le reflex ed e lo stesso motivo del "green cast vigneting" sulle merril e un po meno sul quattro, chiederette ma perché sul quattro di meno? semplice le constanti K ed Y hanno un valore inferiore perché i pixel a qual corispondono sono più grandi ma c'è sempre una differenza fra le due costanti ed e per questo che avevo detto già dalla presentazione del sensore quattro che spero di vedere un giorno il sensore SEI a struttura esa-rombo-triangolare (come immagine sotto, in questa teoria le due costanti K ed Y sarebbero ancora più simili se non uguali .

*"profondità del pozzo" ricordiamo sempre che i pixel sono a forma di secchiello
  • Micky
     
IL FOVEON SCEGLIE LA PERSONA CON CUI STARE E NON LA PERSONA IL FOVEON

se Tu hai una mela ed io un altra mela e ce li scambiamo avremo sempre ognuno una mela invece se io ho un idea e Tu un altra idea e ce li scambiamo allora ognuno di noi avremo due idee
George Bernard Shaw


PS: Non sono un "Photographer" ma un artigiano della fotografia  ;)

naphtha

Citazione di: elerum il Domenica, 06 Novembre 2016, 15:44:31
nel sensore bayer ogni pixel e un punto immagine dato dal interpolazione
nel sensore foveon ogni punto immagine (chiamiamolo Pi) e dato da una media dei pixel sovraposti,
in pratica una cosa del genere:
Pi=[Xb + (Xv x K) + (Xr x Y)] / 3
dove Xb e il pixel blu il  Xv pixel verde , il Xr pixel rosso ed il K ed Y sono le costanti di equalizazzione del segnale per i tre stratti e che per l'ultimo strato dei pixel rossi (constante Y) va aumentato ulteriormente via software perchè riceve meno segnale essendo inferiore. tutto questo i parole povere ma gli schemi applicati dal foveon sono molto più complessi per il semplice fatto che le constanti sono molto più complesse da calcolare non solo per "traparenza/trasmitanza" dei stratti superiori ma anche per "profondità del pozzo"* e anche l'angolazione con quale la luce colpisce il sensore , più andiamo vs esterno più dobbiamo aumentare il volore delle constati K ed Y e viene fatto tutto in automatico grazie agli algoritmi integratti e un buon scambio dati macchina sensore ed e lo stesso motivo per qualle le compatte  (che montano un solo obiettivo) sono migliorate  ancora di più confronto le reflex ed e lo stesso motivo del "green cast vigneting" sulle merril e un po meno sul quattro, chiederette ma perché sul quattro di meno? semplice le constanti K ed Y hanno un valore inferiore perché i pixel a qual corispondono sono più grandi ma c'è sempre una differenza fra le due costanti ed e per questo che avevo detto già dalla presentazione del sensore quattro che spero di vedere un giorno il sensore SEI a struttura esa-triangolare , in questa teoria le due costanti K ed Y sarebbero ancora più simili se non uguali .

*"profondità del pozzo" ricordiamo sempre che i pixel sono a forma di secchiello

Grazie  8)
Canon 6D - Cosina 19-35mm

elerum

Visto che hai fatto in tempo a rispondere ..... :)

La mia idea sarebbe questa sotto . in pratica ogni punto immagine sarebbe sempre il pari dei numero di triangoli che compongono un esagono moltiplicato per il numero di esagoni ma la media per ogni Pi sarebbe più semplice da fare perché le constanti K ed Y potrebbero sparire per il semplice fatto che il pixel verde a forma di rombo sarebbe il doppio del pixel blu ed il pixel rosso il sestuplo del pixel blu oppure se il valore troppo grande si può andare solo del triplo valore del blu.
il problema e decisamente la litografia di un simile sensore ma neanche più  di tanto
  • Micky
     
IL FOVEON SCEGLIE LA PERSONA CON CUI STARE E NON LA PERSONA IL FOVEON

se Tu hai una mela ed io un altra mela e ce li scambiamo avremo sempre ognuno una mela invece se io ho un idea e Tu un altra idea e ce li scambiamo allora ognuno di noi avremo due idee
George Bernard Shaw


PS: Non sono un "Photographer" ma un artigiano della fotografia  ;)

stefanone

CitazioneUn pixel non è un punto ?
Elerum è entrato nel dettaglio partendo dal sensore e giustamente da quel punto di vista il pixel, per semplificare i calcoli, deve essere considerato come una unità di misura di base (un punto), ma io mi riferivo ad un "concetto matematico" più largo che cerco di raccontare banalizzandolo:

Il pixel di un sensore è una superficie sensibile che registra l'impatto dei fotoni e chiaramente essendo una superficie per quanto piccola non può essere un punto!!!
La sensibilità di un pixel dipende dal numero minimo di fotoni necessari per produrre un effetto visibile sulla sua superfice... sappiamo anche che esiste anche un numero massimo di fotoni registrabili oltre il quale lo "bruciamo".

Quando scattiamo una foto la superfice di ogni singolo pixel viene letteralmente "bombardata" dai fotoni e noi non registriamo i "singoli impatti" ma la sommatoria di tutti gli impatti sparsi sulla sua superfice!
A questo livello potremo quindi considerare l'impatto di un fotone come unità di base ovvero un punto.

Spero di essere stato chiaro

naphtha

Citazione di: stefanone il Domenica, 06 Novembre 2016, 16:47:23
CitazioneUn pixel non è un punto ?
Elerum è entrato nel dettaglio partendo dal sensore e giustamente da quel punto di vista il pixel, per semplificare i calcoli, deve essere considerato come una unità di misura di base (un punto), ma io mi riferivo ad un "concetto matematico" più largo che cerco di raccontare banalizzandolo:

Il pixel di un sensore è una superficie sensibile che registra l'impatto dei fotoni e chiaramente essendo una superficie per quanto piccola non può essere un punto!!!
La sensibilità di un pixel dipende dal numero minimo di fotoni necessari per produrre un effetto visibile sulla sua superfice... sappiamo anche che esiste anche un numero massimo di fotoni registrabili oltre il quale lo "bruciamo".

Quando scattiamo una foto la superfice di ogni singolo pixel viene letteralmente "bombardata" dai fotoni e noi non registriamo i "singoli impatti" ma la sommatoria di tutti gli impatti sparsi sulla sua puperfice!.
A questo livello potremo quindi considerare l'impatto di un fotone come unità di base ovvero un punto.

Spero di essere stato chiaro

Chiarissimo  ;) Grazie
Canon 6D - Cosina 19-35mm

elerum

Citazione di: stefanone il Domenica, 06 Novembre 2016, 16:47:23
CitazioneUn pixel non è un punto ?
Elerum è entrato nel dettaglio partendo dal sensore e giustamente da quel punto di vista il pixel, per semplificare i calcoli, deve essere considerato come una unità di misura di base (un punto), ma io mi riferivo ad un "concetto matematico" più largo che cerco di raccontare banalizzandolo:

Il pixel di un sensore è una superficie sensibile che registra l'impatto dei fotoni e chiaramente essendo una superficie per quanto piccola non può essere un punto!!!
La sensibilità di un pixel dipende dal numero minimo di fotoni necessari per produrre un effetto visibile sulla sua superfice... sappiamo anche che esiste anche un numero massimo di fotoni registrabili oltre il quale lo "bruciamo".

Quando scattiamo una foto la superfice di ogni singolo pixel viene letteralmente "bombardata" dai fotoni e noi non registriamo i "singoli impatti" ma la sommatoria di tutti gli impatti sparsi sulla sua superfice!
A questo livello potremo quindi considerare l'impatto di un fotone come unità di base ovvero un punto.

Spero di essere stato chiaro
Sei stato cristallino 
Per chiarire l'idea aggiungerei che appunto la quantità dei "singoli impatti" o la sommatoria ci da il valore di luminanza di ogni singolo pixel nel caso del foveon e appunto il foveon a differenza del bayer si basa ancora di più sulla particolarità della luce , ovvero il dualismo onda-particella oltre alla particolarità del silicio di essere trasparente alle varie lunghezze d'onda in base al suo spessore.
  • Micky
     
IL FOVEON SCEGLIE LA PERSONA CON CUI STARE E NON LA PERSONA IL FOVEON

se Tu hai una mela ed io un altra mela e ce li scambiamo avremo sempre ognuno una mela invece se io ho un idea e Tu un altra idea e ce li scambiamo allora ognuno di noi avremo due idee
George Bernard Shaw


PS: Non sono un "Photographer" ma un artigiano della fotografia  ;)