Archivio per la categoria Articoli tecnici

Le dimensioni dei sensori sulle cineprese digitali

Questo articolo si propone di affrontare una questione cruciale: come fanno le dimensioni del sensore di una cinepresa digitale ad influenzare la fotografia e la scelta delle lenti? Intorno a questo argomento c’è molta confusione perché ci sono moltissime variabili in gioco, nonchè pro e contro per una scelta piuttosto che un altra. La dimensione del sensore influenza la profondità di campo, il rumore (la grana), la diffrazione , il rolling shutter, per non parlare dei costi, delle dimensioni e peso differenti di macchine e lenti. Sebbene l’articolo si rivolga nello specifico all’utente di macchine digtali, alcuni principi valgono anche per i diversi formati in pellicola (70mm, 35mm, 16mm, 8mm…), altri sono problematiche specifiche del digitale (come ad esempio il rolling shutter). Panoramica generale sulle dimensioni dei sensori Nel titolo abbiamo specificato che parleremo dei sensori delle CINEPRESE digitali e non delle macchine fotografiche. Il grafico che segue è quello trito e ritrito che però si riferisce alle dimensioni dei sensori delle macchine fotografiche, che non sempre coincide con quello delle cineprese o delle macchine stesse quando usate come cineprese: Usiamolo però come punto di partenza, per fare un confronto tra il formato che viene (secondo me erroneamente) usato come

Vai all'articolo

Che “bleep?!” significano 4:2:2, 4:4:4 ecc? Il campionamento colore

Poche righe per fare chiarezza sul significato di sigle relative al campionamento colore come 4:4:4, 4:2:2, 4:2:0 etc, perché vedo che qualcuno non ha ancora chiaro cosa significano e questo rende incomprensibili alcune affermazioni fatte da altre parti su questo blog. Naturalmente, c’è un ottima spiegazione su wikipedia, ma cercherò di spiegare in modo semplice e senza grafici e diagrammi. Per farla breve: se noi prendiamo ad esempio un fotogramma di QUALUNQUE DIMENSIONE dovremmo sapere che questo è composto da X pixel verdi, x pixel rossi, x pixel blu su ognuna delle y righe che lo compongono. Per fare un esempio “standard”, se abbiamo una fotografia in photoshop di 1920 X 1080 pixel, ovvero la risoluzione standard di un fotogramma HD progressivo, noi dovremmo avere 1920 pixel verdi, 1920 pixel rossi e 1920 pixel blu su ognuna delle 1080 righe. Fino a qui è semplice da capire. Ora però se noi ragioniamo in video, le cose si complicano un po’. Di per se, non sono complicate, ma un po’ per un problema legato alla compatibilità “antica” con il bianco e nero, un po’ perché l’occhio è più sensibile alle variazioni di luminanza (ovvero di intensità luminosa pura) rispetto alla crominanza

Vai all'articolo

La rivincita del 4K (e non solo)

Mi è capitato di leggere in giro svariate argomentazioni sull’inutilità del 4K, principalmente basate sul fatto che non essendoci in giro molti Tv a 4K e nessun media (Trasmissioni TV, o bluray), il 4K diventa una spesa inutile. Se ragioniamo in termini puramente numerici potrebbe anche essere vero, ma la realtà è decisamente diversa. Potrei paragonarla alle linee ADSL: te le vendono per 20 mega, poi sei fortunato se vanno a 6. Allo stesso modo, le camere HD, specialmente quelle che utilizzano il line skipping come metodo per effettuare lo scaling dal ridondante numero di pixel, a fronte di una risoluzione dichiarata di 1920 X 1080 punti, mai e poi mai raggiungono il dettaglio che sarebbe permesso da questa risoluzione se questa fosse effettiva. Ho pensato di fare un articolo dettagliato per spiegare il perchè invece il 4K è un grande passo in avanti… per lavorare bene a 2K (o in HD). Risoluzione teorica e risoluzione effettiva Il primo punto da chiarire è che quando si parla di sensori cmos con filtro di bayer, la risoluzione del sensore o la risoluzione in uscita dal sensore usando il line skipping è assolutamente fittizia. Prendiamo ad esempio una macchina molto cara ai “videomakers”

Vai all'articolo

Perchè non ci importa nulla della “Equivalenza 35mm FF”?

Prendo spunto da un articolo di Jordan Steele, che ringrazio, per approfondire il tema delle ottiche “equivalenti”. Con sensori più piccoli del 35 mm si sente spesso parlare di “equivalenza full frame” riferito a lunghezza focale o diaframma di un ottica. Questo spesso può essere fonte di grande confusione tra gli operatori e i fotografi, e può anche essere un elemento di derisione, in particolare per quanto riguarda “l’apertura equivalente”. Vorrei cercare di dare una visione chiara di ciò che realmente significa quando qualcuno parla di “equivalenza full frame”, così come sfatare diversi miti su di esso, e in ultima analisi, vorrei spiegare perché dico che se si riprende con un formato più piccolo, questa equivalenza non importa nulla. Chiarisco alcuni punti: Questo articolo non intende dimostrare superiorità di qualsiasi formato su un altro. Assolutamente. Non sto discutendo o affermando in alcun modo che le macchine full frame non hanno una migliore qualità di immagine di base rispetto alle macchine con un crop.  Sono pienamente convinto che l’utilizzo di calcoli “equivalenza” ha perfettamente senso se si “ragiona” in 35 millimetri, e quindi è utile nella vostra mente fare calcoli per confrontare le lunghezze focali, o per la profondità di campo. Questo non è un argomento sull’utilizzo di ‘equivalenza’

Vai all'articolo

Moirè e Aliasing demystified

Stimolato dalla domanda su come funziona il line skipping, mi sono riesumato alcune immagini che avevo preparato tempo fa per capire cosa succedeva nella mia 550 e ho pensato di condividerle con tutti. E’ molto interessante e istruttivo per mettere i piedi per terra e conoscere i limiti di queste macchine. L’unico accorgimento importante: le immagini che pubblicherò devono assolutamente essere guardate alla loro vera risoluzione. Rimpicciolite o ingrandite potrebbero falsare il risultato. Partiamo da come funziona il sensore CMOS e da come percepisce i colori, perchè tutto parte da lì. Come sappiamo, la risoluzione del sensore di una 550D o di una 7D, che prendiamo come esempio, è di 5184 X 2916 – La risoluzione verticale in realtà è maggiore grazie al rapporto 3:2, ma a noi interessa la parte sfruttata per il video. Questi pixel sono disposti in righe e colonne come su una matrice, ma non sono tutti uguali, infatti davanti al sensore è posto un filtro detto filtro di bayer che serve per potere distinguere i colori. Lo schema del filtro di bayer è il seguente: Il numero dei pixel del verde è il doppio rispetto agli altri per il fatto che l’occhio è più sensibile

Vai all'articolo

Questo sito utilizza cookie tecnici e di terze parti. Continuando la navigazione ne consentirai l'utilizzo. maggiori informazioni

Questo sito utilizza i cookie per fornire la migliore esperienza di navigazione possibile. Continuando a utilizzare questo sito senza modificare le impostazioni dei cookie o cliccando su "Accetta" permetti il loro utilizzo.

Chiudi