- Questo topic ha 51 risposte, 16 partecipanti ed è stato aggiornato l'ultima volta 16 anni, 12 mesi fa da mariofoto.
-
AutorePost
-
Febbraio 7, 2007 alle 1:30 pm #1255478flx2000Partecipante
Rispondo ora. Il mio post in questo thread era quantomeno ironico. La PdC – Profondità di Campo – non la stiamo scoprendo ora, è bensì una legge fisica (sebbene sia ricavata in modo empirico) e tutto quello che occorre per definirla ci è già noto e bastano solo dei calcoli matematici più o meno complessi. Innanzitutto la PdC è una percezione e non una reltà. Noi vediamo dei punti di immagine più o meno grandi e questo ci fa percepire un soggetto più o meno a fuoco, ma è un fenomeno ottico perché nella realtà l’oggetto che noi vediamo sfocato è ovviamente sempre lo stesso. Tenuto conto di questo dobbiamo valutare quando è possibile dire che un punto dell’immagine a fuoco e quando no. In modo empirico (come dicevo prima) si è definito il CdC – ovvero il Circolo di Confusione – che altro non è se non la grandezza massima che deve avere un punto dell’immagine perché lo percepiamo come a fuoco. Questo è il solo motivo alla base del fatto che percepiamo differenti PdC quando visualizziamo immagini realizzate con sensori di grandezza differente. La PdC dipende infatti della lunghezza focale e dalla distanza dell’oggetto e un sensore più o meno grande non altera la formula che, a parità di risoluzione di stampa o di visualizzazione, genera ovviamente un CdC differente. Visto che la nostra percezione dipende dal CdC e che a parità di risoluzione abbiamo un CdC differente per ogni grandezza di sensore, quello che il nostro occhio percepisce quando usiamo differenti sensori è una differente PdC. Per fare un esempio se produciamo due stampe 20×30, una con un sensore FF e una con un sensore APS-C, è chiaro che la stampa del sensore ridotto sarà il risultato di un ingrandimento maggiore che non quello della 35mm. Un ingrandimento maggiore equivale a una diminuzione di risoluzione, che per i nostri occhi è come un allargamento del CdC ed equivalente perdita di messa a fuoco. Considerato questo, il modo migliore per aggirare la differente visualizzazione è quello di considerare un CdC differente per ogni grandezza di sensore. Spero di essere stato almeno vagamente chiaro 🙂
Febbraio 7, 2007 alle 6:15 pm #1255501PUCCINI84PartecipanteE per la prospettiva? Distanza che sembrano avere gli oggetti fra loro nella foto? Varia con il sensore o no?
Febbraio 7, 2007 alle 7:10 pm #1255503flx2000PartecipanteOriginariamente inviato da PUCCINI84: E per la prospettiva? Distanza che sembrano avere gli oggetti fra loro nella foto? Varia con il sensore o no?
La prospettiva non viene minimamente alterata dalla grandezza del sensore, così pure la distanza percepita tra gli oggetti. In questa considerazione è opportuno tenere a mente che il sensore non è altro che un ritaglio della scena completa, e fintanto che non cambi lunghezza focale reale non vedrai differenze in questo senso.
Febbraio 7, 2007 alle 7:52 pm #1255507mabriolaPartecipanteLa prova fatta da garts ricalca una stessa fatta illo tempore da me con la stessa ottica montata su due macchine diverse (una FF e una 1.6). Il risultato era che, parlando di focale equivalente, la PDC era la stessa pertanto stessa immagine come sfocato di fondo per interderci ma, ovviamente, una dimensione quindi un crop diverso tanto, ovviamente, da far apparire l’immagine scattata con la macchina asensore 1.6 come fata con una focale superiore. Ergo trassi la conclusione, che ancora oggi perfettamente mi è chiara, che la focale equivalente è solamente unaquestione di crop e nient’altro. La PDC dipende solo dall’ottica e non dalla dimensione del sensore per me.
Febbraio 7, 2007 alle 8:12 pm #1255512flx2000PartecipanteOriginariamente inviato da mabriola: La prova fatta da garts ricalca una stessa fatta illo tempore da me con la stessa ottica montata su due macchine diverse (una FF e una 1.6). Il risultato era che, parlando di focale equivalente, la PDC era la stessa pertanto stessa immagine come sfocato di fondo per interderci ma, ovviamente, una dimensione quindi un crop diverso tanto, ovviamente, da far apparire l’immagine scattata con la macchina asensore 1.6 come fata con una focale superiore. Ergo trassi la conclusione, che ancora oggi perfettamente mi è chiara, che la focale equivalente è solamente unaquestione di crop e nient’altro. La PDC dipende solo dall’ottica e non dalla dimensione del sensore per me.
Essendo la PdC relativa al CdC – ovvero alla grandezza del più grande punto di immagine che la nostra vista percepisce come punto e non come cerchio – non si può non considerare che a parità di stampa due sensori di differente grandezza con la stessa focale producano PdC differenti. Questo perché la PdC, come ho già detto, è solo una percezione. Ovviamente questo non smentisce che il fattore di moltiplicazione sia semplicemente un crop della scena vista da una FF.
Febbraio 7, 2007 alle 10:59 pm #1255533squinzaPartecipanteEcco, è quello che intendevo. L’immagine registrata da due reflex con medesimo obiettivo e nelle medesime condizione è la stessa – questo è fuori discussione. Ma se il sensore ha dimensioni differenti di fatto non registriamo la stessa scena! Questo a causa della differente FOV o angolo di visione – la macchina con sensore più piccolo inquadra una porzione di scena minore. Fino a qui siamo tutti d’accordo. Quello che cambia è il diametro dei circoli di confusione. Il diametro limite oltre il quale inizia la percezione dello sfocato normalmente viene rapportato alla diagonale del sensore, ecco perché indirettamente la dimensione del sensore influenza lo sfocato. Bazooka è stato magistrale nel descrivere la questione
Febbraio 7, 2007 alle 11:11 pm #1255537squinzaPartecipantePerò mi sorge una domanda, vediamo se riuscite ad aiutarmi. Abbiamo detto che la PdC di una macchina con sensore piccolo è inferiore rispetto a una con sensore grande in quanto l’immagine viene ingrandita di più. MA: allora la PdC dipende dalla dimensione di visualizzazione? La risposta dovrebbe essere no… ma non capisco. Quasi quasi metto giù due conti e poi ritorno… Avete qualche sito che riporti il calcolo della PDC in via matematica (oltre che Wikipedia)? Grazie!
Febbraio 8, 2007 alle 1:08 pm #1255577flx2000PartecipanteOriginariamente inviato da squinza: Però mi sorge una domanda, vediamo se riuscite ad aiutarmi. Abbiamo detto che la PdC di una macchina con sensore piccolo è inferiore rispetto a una con sensore grande in quanto l’immagine viene ingrandita di più. MA: allora la PdC dipende dalla dimensione di visualizzazione? La risposta dovrebbe essere no… ma non capisco. Quasi quasi metto giù due conti e poi ritorno… Avete qualche sito che riporti il calcolo della PDC in via matematica (oltre che Wikipedia)? Grazie!
In un certo senso, sì. Questo è presto spiegato dal fatto che siamo abituati ad allontanarci dalle stampe man mano che esse sono di dimensioni maggiori, e di conseguenza ad avvicinarci se sono piccole. Visto che le dimensioni del punto che riconosciamo come a fuoco sono sempre le stesse perché dipendono dalla nostra percezione visiva, tendiamo naturalmente a compensare la distanza utile perché si mantenga costante il rapporto tra il circolo di confusione naturale e quello della stampa che guardiamo. Ipotizziamo di guardare una stampa 20×30 da 30cm. Avremo una certa quantità di punti che percepiamo come a fuoco. Ingrandiamo ora la stessa stampa a 50×70 ma restiamo a 30cm. Tutti i punti dell’immagine si saranno dilatati per via dell’ingrandimento maggiore, però siamo rimasti a 30cm quindi il CdC della nostra vista è lo stesso di prima. Il risultato sarà ovvio: vedremo circa il doppio della scena fuori fuoco – ovvero percepiremo una minor profondità di campo – se non addirittura un’intera immagine sfocata.
Febbraio 14, 2007 alle 4:23 pm #1256197mabriolaPartecipanteLa riflessione è molto interessante ma non sono al 100% convinto che possa essere traslata sulla macchina. Questo perchè un obiettivo proietta sul sensore una immagine di una dimensione fissa essendo il sensore alla stessa distanza dall’obiettivo trattasi di FF oppure APS, quindi ciò che in realtà sul FF vedi in più è tutto quello che viene “croppato” dal sensore più piccolo e non un ingrandimento dell’immagine, essa infatti rimane tale e quale. Applica questo discorso in modo ancora più ampio sul sensore della 1DMKII e sul sensore della 5D. Entrambi hanno la stessa densità di pixel e stesse dimensioni di pixel tanto da eliminare anche la variabile della densità e dimensione dei pixels. Proviamo a fare qualche prova pratica sarebbe interessante, chi ha queste 2 macchine attualmente?
Marzo 14, 2007 alle 12:38 pm #1259224flx2000PartecipanteRiguardo la densità di luce. Quanto detto sarebbe vero se il sensore fosse un’unico componente, ma in realtà la luce è letta singolarmente da ogni suo fotodiodo. Il numero di questi fotodiodi determina il numero di megapixel totali. In questo modo, la quantità di luce letta dal singolo pixel non cambia né in base alla grandezza del sensore (ovvero dalla superficie totale) né dalla distanza tra un pixel e l’altro (ovvero dalla densità totale). Il fattore di crop determina esclusivamente un’area di cattura ridutta. Giacché la lettura della luce è fatta su tutta l’area sia coi sensori ridotti che con quelli croppati, la quantità relativa di luce leggibile è un valore costante qualsiasi sia la grandezza del sensore e quindi qualsiasi sia il fattore di crop.
Marzo 14, 2007 alle 2:45 pm #1259248Gianfranco PentaPartecipanteScusate se intervengo, sono neofita delle reflex digitali e sto testando la mia 400d + 17-40 L notando che confrontandola con la compatta IXUS 700, la reflex deve scattare in interni senza flash a 800 iso per ottenere una luminosità che la compatta dà a 100 iso. E’ una questione di dimensione di sensore? Grazie
Marzo 14, 2007 alle 3:11 pm #1259253flx2000Partecipante@hayabusa: infatti, se non specifichi coppia tempo/diaframma la tua considerazione non dà alcun riscontro verificabile. @sonic: provo a spiegarmi meglio. Prima di tutto consideriamo la stessa scena per entrambi i sensori, sia ridotto che a pieno for
Marzo 14, 2007 alle 8:29 pm #1259282flx2000PartecipanteOriginariamente inviato da sonic: non ho capito la frase “possiamo traslare la quantità di luce entrante come corrispettiva a quella di una fotocamera a pieno formato di pari focale ma con il diaframma 1,6 volte più aperto.” prova a fare esempi numerici di quello che dici, magari è più chiaro!! – abbiamo una 5D@ff ed una 30D@aps-c – sulla 30D montiamo un 50mm, sulla 5D un 80mm (per esempio) che sono equivalenti come angolo di campo mi sembra di capire che intendi che per avere la stessa luce raccolta da un sensore full frame ed un sensore aps-c, se ad esempio esposimetro ci legge una scena e ci dice di fotografare a f16 1/125s a 100 iso, bisogna prendere la 5D a f16 1/125s a 100 iso e la 3D a f10 1/125s a 62,5 iso. se è così allora stiamo dicendo la stessa cosa! se invece ho capito male chiariamoci!!! 😉
La sensibilità del sensore è la stessa, cambia la grandezza dell’area su cui arriva la luce, ma quest’area è comunque il 100% del sensore sia esso FF o APS-C. Il punto chiave è che l’esposizione viene misurata da un componente specifico (l’esposimetro) e non dal sensore, anche perché durante questa fase è il sensore è coperto dallo specchio. Nel momento in cui è nota la sensibilità alla luce di un sensore, o meglio dei suoi singoli pixel, è possibile stabilire il valore di EV corrispondente alla luce che entra dall’obiettivo. Come già detto, questo valore dipende dalla sensibilità, ma la sensibilità non dipende dalla superficie perché si considera quella del singolo pixel. Seppure la sensibilità dei singoli pixel fosse diversa tra le varie fotocamere, non c’è alcun calcolo né proporzione che ci permetta di stabilire l’equivalenza di sensibilità tra un modello di sensore e l’altro, se non le specifiche tecniche dei singoli sensori.
Marzo 15, 2007 alle 1:52 pm #1259361flx2000PartecipanteOriginariamente inviato da sonic: […] ipotizzo che si ottiene la stessa foto della stessa qualità e con lo stesso bokeh se: si usa la 5D a 80mm, 1/125s, f16, 100 iso oppure la 30D a 50mm, 1/125s, f10, 62.5 iso
Continuo a non capire questa equivalenza perché non è chiaro cosa intendi per “stessa qualità”. In pratica, quali parametri definiscono la qualità di una foto nella tua considerazione?
Marzo 15, 2007 alle 3:41 pm #1259377flx2000PartecipanteCredo che il tuo discorso sia vagamente criptico… Se parli di pari profondità di campo, area inquadrata ed esposizione allora la tua formula potrebbe essere assolutamente corretta almeno nell’intento (puoi aver sbagliato i calcoli numerici, ma l’idea è corretta). Però in genere per qualità si intende la resa del sensore e l’unico modo per avere una qualità equivalente è usare lo stesso tempo e la stessa sensibilità su sensori identici. La qualità, dunque, non dipende dall’irradiazione luminosa che riceve il sensore ma dalle specifiche tecniche del sensore stesso. Oltremodo – sebbene la grandezza del sensore sia fattore determinante della sua resa – questo non è un dato proporzionale perché dipende strettamente dalla tecnologia utilizzata e per questo dobbiamo lasciare la sua dimensione fuori dall’equazione.
-
AutorePost
- Devi essere connesso per rispondere a questo topic.