Fondamentalmente mi chiedo quale sia la natura di un'immagine sfocata.Sono informazioni randomizzate?La sfocatura potrebbe essere annullata da qualche algoritmo?
Fondamentalmente mi chiedo quale sia la natura di un'immagine sfocata.Sono informazioni randomizzate?La sfocatura potrebbe essere annullata da qualche algoritmo?
La sfocatura non è casuale, è prevedibile. Vedi Qualcuno può spiegare cosa succede su scala microscopica quando un'immagine diventa sfocata su uno schermo dall'obiettivo di un proiettore? per una spiegazione di base.
Ogni punto dell'immagine a fuoco viene distribuito in un modello di diffrazione di anelli chiamato funzione di diffusione del punto (PSF), e questi modelli di anelli si sovrappongono per formare l'immagine sfocata . L'immagine sfocata è la convoluzione dell'oggetto e della PSF.
La convoluzione è una trasformazione matematica che in alcune circostanze può essere invertita (deconvoluzione), ad esempio quando l'immagine è stata realizzata usando luce coerente (da un laser) e la PSF è nota. Quando le foto vengono scattate utilizzando una normale luce incoerente e la PSF è sconosciuta, la sfocatura non può essere annullata completamente, ma è possibile apportare un miglioramento significativo, ad esempio utilizzando l ' algoritmo di deconvoluzione cieca. Esempi di oggetti e immagini risultanti possono essere utilizzati per ricostruire approssimativamente il PSF, oppure è possibile utilizzare una funzione gaussiana.
È anche possibile correggere la sfocatura dovuta al movimento (della fotocamera o dell'oggetto). In entrambi i casi le tecniche e i problemi sono discussi in Restauro di immagini sfocate e sfocate e vengono forniti esempi di ciò che può essere ottenuto.
Il software è disponibile online per correggere immagini sfocate.
Sì, si chiama deconvoluzione .Ecco alcuni esempi di immagini deconvolte da microscopi:
Li ho trovati su Google per "esempio di immagine deconvoluta da un microscopio".
È possibile sparando ai laser attraverso l'obiettivo e generando una mappa dei dati dei raggi che possono essere utilizzati nell'algoritmo di deconvoluzione.L'ho anche visto fare con un'immagine a fuoco e deconvolto per mettere a fuoco un piano completamente diverso.
Sì, può essere (parzialmente) annullato, perché il processo non è casuale e solo una parte delle informazioni viene persa.
Physics
Commentate di essere interessati all'aspetto fisico della domanda, quindi chiariamolo prima: un'immagine è focused quando ogni punto dell'oggetto corrisponde a un punto dell'immagine - tutti i raggi che emanano da un dato punto dell'oggetto, passando, ad esempio, attraverso l'obiettivo, convergono in un unico punto (del sensore, siano essi i tuoi occhi, un CCD o una pellicola). Un'immagine è fuori fuoco quando ciò non accade: quando questi raggi si diffondono e ogni punto dell'immagine riceve luce da diversi punti dell'oggetto. Se sai esattamente che si è verificata la sfocatura, puoi provare a invertirla.
Questo è spiegato meglio in questa risposta alla domanda Perché l'immagine è sfocata o a fuoco con lenti convesse?.
Algorithms
Gli algoritmi per la rimozione della sfocatura devono funzionare con ipotesi su come si sia verificata esattamente la sfocatura, ovvero quale funzione la descrive meglio o sul modello del processo di sfocatura. Gli algoritmi di ripristino possono essere trovati in molte app di elaborazione delle immagini, ma questa è ancora un'area di ricerca attiva. Puoi leggere a riguardo qui e qui, tra molte altre fonti. Si noti, tuttavia, che il restauro è solo parziale e gli artefatti sembrano essere sempre presenti nelle immagini ripristinate.
Poscuramento intenzionale
Se viene applicata la pixelizzazione, tuttavia, l'immagine sta attraversando una grana grossa, quindi le informazioni vengono perse in modo irreversibile, e lo stesso vale per altre forme di sfocatura, come la media e l'aggiunta di rumore all'immagine: quindi in generale un algoritmo non può recuperare le informazioni dall'immagine, perché le informazioni non sono più lì.
But, un algoritmo può indovinare.Puoi addestrare una rete neurale artificiale per riconoscere ciò che ti aspetti o desideri trovare nell'immagine e consentirle di inserire i dettagli, come spiegato qui e qui.
L'obiettivo con un sistema di lenti della fotocamera (che sia un microscopio o meno) è quello di fornire luce da un punto sull'oggetto a un punto sul sensore. Tuttavia, ciò non può essere raggiunto perfettamente per diversi motivi.
Tutti questi effetti agiscono per attenuare le componenti ad alta frequenza (spaziale) nell'immagine. Questo lo chiamiamo sfocatura.
Per invertire la sfocatura dobbiamo prima caratterizzare la sfocatura. Per caratterizzare la sfocatura è necessario fare alcune ipotesi su ciò che è presente nell'immagine e / o sulle caratteristiche degli elementi ottici che causano la sfocatura.
Una volta che abbiamo una funzione matematica che descrive il processo di sfocatura, possiamo calcolare un inverso di quella funzione e applicarlo all'immagine.
Tuttavia, ci sono dei limiti a quanto possiamo mitigare l'impatto della sfocatura. In primo luogo perché il nostro modello matematico della sfocatura è solo un'approssimazione e in secondo luogo perché il processo di inversione amplifica inevitabilmente il rumore nell'immagine.
Ho lavorato esattamente su questo problema e la risposta è estremamente controversa!
Al centro della controversia c'è una disconnessione tra la tomografia (imaging 3D) e le mappe di superficie (2.5D, "viviamo tutti in un ologramma") approcci alla formazione dell'immagine. L'approccio "viviamo tutti in un ologramma" ha recentemente riscosso un grande successo commerciale / sperimentale, con grande dispiacere dei veterani della tomografia.
I diversi sistemi ottici hanno capacità drasticamente diverse di rimettere a fuoco l'immagine. Inoltre, ogni sistema opera su diversi presupposti fisici. Parliamo di alcuni:
I sistemi a campo luminoso come Lytro possono produrre una messa a fuoco selettiva per oggetti macroscopici, d'altra parte effetti simili possono essere ottenuti con filtri digitali.
A NA basso (> 0,3), l'illuminazione coerente (laser) si abbina bene con l'approccio dei sistemi lineari alla propagazione delle onde in un semispazio dato dal propagatore di Fresnel. È possibile applicare il propagatore di Fresnel e mettere a fuoco e de-focalizzare il sistema, sebbene sia necessario un qualche tipo di misura del campo complesso. Gli approcci popolari includono i sensori del fronte d'onda in stile Hartmann-Shack (simili a Lytro), l'interferometria tradizionale e il trasporto di intensità (TIE). Le immagini in questi sistemi sembrano piuttosto terribili perché la spazzatura da qualche parte nel percorso del raggio (forse a pochi cm di distanza) contribuisce alla formazione dell'immagine.
Ora le cose iniziano a diventare stravaganti quando vengono introdotti gli effetti di coerenza. D'altra parte l'immagine sembra migliore con un'illuminazione incoerente. Il primo problema è che anche per sistemi lineari con il potenziale di scattering dell'oggetto (non molti!), La coerenza introduce un limite di banda spaziale. Vale a dire che gli oggetti al di fuori del raggio di coerenza spazio-temporale (non puoi effettivamente dividerli) svaniscono. Quindi, ora il tuo sistema è sensibile solo a una gamma ristretta di dimensioni degli oggetti e inizi a ottenere il sezionamento ottico. Questo è tipicamente chiamato "gating di coerenza" ed è stato notoriamente utilizzato da OCT. In pratica, non puoi propagare il campo oltre quanto consentito dalla coerenza. Nella maggior parte dei sistemi a banda larga ciò significa che non è possibile, digitalmente, spostare il campo su e giù per più di pochi micron! (e peggiora con NA elevati)
D'altra parte puoi semplicemente spostare il campione (o regolare la messa a fuoco). Quando si esegue questa operazione viene introdotto un nuovo grado di libertà, che è l'origine dell'imaging tomografico (tomografia a diffrazione). Per le persone che usano questo tipo di sistemi il loro mondo è fatto di sezioni 3D. Ti direbbero che non si può semplicemente rimettere a fuoco la luce indefinitamente.
Un altro problema è che molti sistemi non sono effettivamente lineari con l'oggetto, ad esempio, il famigerato alone nella microscopia a contrasto di fase. In questi casi non è possibile mettere a fuoco / rimettere a fuoco digitalmente in modo significativo il campione perché il sistema in genere non misura il campo a causa del campione.
Dal punto di vista teorico si discute molto sul fatto che i campi siano casuali, ma le posizioni assunte dai vari gruppi di ricerca sono strettamente legate alle loro configurazioni sperimentali.
In questo articolo vengono derivati i limiti dei dettagli che possono essere recuperati utilizzando la deconvoluzione.Viene spiegato che il rumore porta a limiti sull'efficacia della deconvoluzione per recuperare i dettagli.Nel caso ideale ci sarà solo rumore di Poisson dovuto al numero finito di fotoni rilevati.I più piccoli dettagli ripristinabili scalano come $ N ^ {- \ dfrac {1} {8}} $.Quindi, ottenere dettagli dieci volte maggiori richiede un tempo di esposizione 100 milioni di volte maggiore.Chiaramente, un'apertura ampia senza obiettivo e il tentativo di mettere a fuoco utilizzando la deconvoluzione, non funzionerà nella pratica.