Re: Il buco del Pentagono: un aggiornamento

Inviato da  Tuttle il 9/1/2008 13:32:36
Scusate. Un OT di servizio - Spero me lo permettiate. Devo una risposta ad un articolo pubblicato su un blog che attacca con una certa veemenza un mio post in risposta a SHM...sempre in questo thread. Avevo fatto un miniriassunto a SHM su ciò che mostrano i frame dei video del pentagono a livello temporale...

Il passaggio che ha scatenato "scalpore", tanto da dedicarmi addirittura un intero e chilometrico articolo (ma era davvero necessario??), è quello in cui dico che ogni singolo frame dei video del pentagono mostra 1/60 di secondo di moto dell'aereo sul sensore.

La faccio breve. I video del pentagono sono stati girati con delle teste CCTV NTSC, che riprendevano a 30 fotogrammi al secondo su standard interlacciato. Standard denominato appunto 60i. In questo standard ogni fotogramma è suddiviso in due scansioni differenti dell'immagine (come ho spiegato velocemente nello stesso post) ognuna presa a 1/60 di secondo l'una dall'altra. Queste scansioni compongono le linee dispari e pari che interlacciandosi comporranno un frame pieno. (segnale interlacciato)

Queste camere avevano poi una velocità di otturazione (shutter speed) di 1/60 di secondo...ovvero sincrona e nominale con la frequenza di scansione dei frame. Lo shutter (otturatore elettronico) stabilisce, in accoppiata al diaframma, quanta luce (tempo) eccita il sensore. Tempi lunghi corrispondono a rappresentazioni del moto molto sporche e compensate da motion blur. Tempi brevi migliorano la rappresentazione degli eventi di moto ma sottraggono luce al sensore.

Nello specifico caso abbiamo, per ogni frame, due aperture di "luce" sul sensore. Una per ogni semiquadro. (nominale)

Ma siccome io ho scritto che un singolo frame rappresenta 1/60 parrebbe esserci un errore degno di megapost....Nasce appunto il paradigma:

"Non è 1/60 ma è 1/30!!!". E invece trattasi di sofismo tecnico. E' 1/30 di segnale ma 1/60 di "prodotto".

Infatti il frame interlacciato non esiste più (chi l'ha mai visto?) perché è frutto del segnale alla sorgente. Esiste solo sottoforma di portante video (+1/-1 VPP) che non è in nostro possesso...Non abbiamo quindi la portante/segnale ma il prodotto della sua esportazione in file Mpeg1 - che non può veicolare frame interlacciati e restituisce invece frame deinterlacciati in conversione.

Questa procedura di deinterlacciamento elimina la dominante (Even o Odd) del fotogramma interlacciato e restituisce una interpolazione dei due semiquadri su una delle due dominanti, che altro non sono che i due tempi di scansione del fotogramma. E' importante comprendere che la scissione è prima temporale e poi, per algoritmo, si reintegrano le linee mancanti corrispondendi al tempo sottratto.

Questo significa che di due semiquadri da 1/60 ci viene restituita la rappresentazione di UN SOLO SESSANTESIMO sulla dominante scelta in fase di conversione. Gli artefatti di questo tipo di processi li ho spiegati già molte volte...(oblungamento...scalettatura...etc..)

Il deinterlacciamento NON unisce i due field in senso puramente matematico ma interpola il field scartato sulla dominante scelta, ripresentando gli eventi di moto del field corrispondente. Esistono varie tecniche di interpolazione/duplicazione ma tutte agiscono su UNA sola dominante sulla quale si "ricostruisce" la zona lasciata vuota dal field espulso. Nel nostro caso, avendo una frequenza nominale di shutter pari ad 1/60 ed una scansione dell'interlacciamento sincrona, otteniamo che la dominante risulterà in una scansione di shutter. Ovvero 1/60 si secondo.

Quindi - per finire - i file mpeg1 del pentagono mostrano a tutti gli effetti singoli eventi (field dominant - frame based) che rappresentano tempi di luce di 1/60 sul sensore. Il valore di 1/30 rimane valido per identificare il fotogramma sul segnale ma non è assolutamente correlato al tempo di luce che lo stesso contiene sul prodotto della conversione.

Di seguito un semplice grafico per far capire il discorso. Le seguenti immagini sono tratte da un reale processo di deinterlacciamento. I passaggi mostrati sono a tutti gli effetti REALI.



Nella figura A è rappresentata una sfera in moto orizzontale...ripresa in 60i con 1/60 di otturazione. Si notano i due semiquadri interlacciati (l'immagine è davvero interlacciata). Esistono quindi due posizioni della sfera ognuna rappresentante 1/60 di moto.

Nella figura B c'è l'effetto della conversione/deinterlacciamento con dominante Even. La risultante è la separazione effettiva dalla dominante dispari e il tempo di moto mostrato è pari al primo sessantesimo di secondo.

Nella figura C c'è l'effetto della conversione/deinterlacciamento con dominante Odd. La risultante è la separazione effettiva dalla dominante pari e il tempo di moto mostrato è pari al secondo sessantesimo di secondo.


Di seguito la risultante su una simulazione della camera 2 che mostra lo stesso processo applicato al moto dell'aereo alla sua velocità dichiarata. In questo caso ho applicato diverse modalità di deinterlacciamento, più o meno distruttive, ma il risultato non cambia. Vi è sempre una sola dominante e una interpolazione della parte sottratta.



Nell'esempio sotto si vede un processo di deinterlacciamento di un immagine via software. Si nota come al deinterlacciamento corrisponde un singolo quadro dominante interlacciato a quello espulso.



E' tutto.

FINE OT. Scusate ancora ma era necessario.

Messaggio orinale: https://old.luogocomune.net/site/newbb/viewtopic.php?forum=3&topic_id=3983&post_id=109318