Domanda:
Un computer potrebbe non sfocare l'immagine da un microscopio fuori fuoco?
user273872
2017-08-02 12:31:36 UTC
view on stackexchange narkive permalink

Fondamentalmente mi chiedo quale sia la natura di un'immagine sfocata.Sono informazioni randomizzate?La sfocatura potrebbe essere annullata da qualche algoritmo?

Penso che questo dovrebbe probabilmente essere con convalida incrociata.Ma penso che la risposta sia "no, ma se conosci le caratteristiche del processo di sfocatura (che è la parte fisica) puoi fare alcuni trucchi intelligenti per far sembrare l'immagine meno cattiva".
Sono meno interessato alla parte dell'algoritmo e più interessato alla parte fisica, ho usato solo la formulazione informatica che ho fatto perché non riuscivo a pensare a un modo più fisico di esprimere le cose.L'ottica mi ha sempre confuso e confuso.
Voto per chiudere questa domanda come fuori tema perché ha tutto a che fare con il processo di immagine e la computer grafica.
Forse l'elaborazione del segnale o math.stackexchange potrebbero aiutare se vuoi maggiori dettagli tecnici su come farlo.
Quando il telescopio Hubble è stato lanciato per la prima volta e hanno scoperto che lo specchio era difettoso, lo hanno fatto esattamente per un anno o due fino a quando non è stato possibile installare l'ottica correttiva.
Se ciò fosse possibile, sarebbe anche possibile per una persona miope correggere mentalmente l'immagine sfocata senza indossare occhiali?
Considera che un'immagine sfocata a causa di una semplice scarsa messa a fuoco è come un segnale elettronico inviato attraverso un filtro "passa basso".È possibile invertire questo (fino a un certo punto) facendo passare il segnale attraverso il corrispondente filtro "passa alto".Questo, ovviamente, sarà sempre imperfetto e ha il brutto effetto di amplificare qualsiasi rumore nel segnale.
@HotLicks Ci sono algoritmi "migliori", ma penso che abbiano sempre alcuni criteri incorporati per la "bontà" che stanno ottimizzando, il che porta ad artefatti.
@HotLicks in realtà non è un filtro passa-alto che desideri, ma un filtro _high shelf_, che può essere considerato "segnale non filtrato più un boost passa-alto".I componenti a bassa frequenza sono dopotutto inalterati dalla sfocatura / filtro passa-basso.
Sono sorpreso che le persone suggeriscano Stats.SE o Math.SE ... è chiaramente una classica domanda di elaborazione del segnale.Dovrebbe essere su DSP.
Il fatto che una domanda sia in argomento su un altro sito non la rende fuori tema qui.Nemmeno se fosse * migliore * su qualche altro sito.La domanda può essere posta in termini fisici chiedendo informazioni sui contributi della luce in luoghi diversi dal piano focale.C'è anche una bella connessione con l'analisi sperimentale dei dati vicini ai limiti dell'accettazione limitata quando si hanno effetti di ridistribuzione conservativi solo su tutto lo spazio delle fasi (qualcosa che è emerso esplicitamente nel mio lavoro di tesi, per esempio).
Sei risposte:
sammy gerbil
2017-08-02 13:40:56 UTC
view on stackexchange narkive permalink

La sfocatura non è casuale, è prevedibile. Vedi Qualcuno può spiegare cosa succede su scala microscopica quando un'immagine diventa sfocata su uno schermo dall'obiettivo di un proiettore? per una spiegazione di base.

Ogni punto dell'immagine a fuoco viene distribuito in un modello di diffrazione di anelli chiamato funzione di diffusione del punto (PSF), e questi modelli di anelli si sovrappongono per formare l'immagine sfocata . L'immagine sfocata è la convoluzione dell'oggetto e della PSF.

La convoluzione è una trasformazione matematica che in alcune circostanze può essere invertita (deconvoluzione), ad esempio quando l'immagine è stata realizzata usando luce coerente (da un laser) e la PSF è nota. Quando le foto vengono scattate utilizzando una normale luce incoerente e la PSF è sconosciuta, la sfocatura non può essere annullata completamente, ma è possibile apportare un miglioramento significativo, ad esempio utilizzando l ' algoritmo di deconvoluzione cieca. Esempi di oggetti e immagini risultanti possono essere utilizzati per ricostruire approssimativamente il PSF, oppure è possibile utilizzare una funzione gaussiana.

È anche possibile correggere la sfocatura dovuta al movimento (della fotocamera o dell'oggetto). In entrambi i casi le tecniche e i problemi sono discussi in Restauro di immagini sfocate e sfocate e vengono forniti esempi di ciò che può essere ottenuto.

Il software è disponibile online per correggere immagini sfocate.

La sfocatura dalla messa a fuoco errata è effettivamente una PSF planare?Mi aspettavo che fosse più complicato.
@R per quanto ne so, sì, lo è.In realtà è un insieme di PSF parallele per spiegare l'intero campo 3D.È possibile annullare la sfocatura di un piano specifico assumendo che si disponga di una tabella dei percorsi dei raggi prevedibili * per quel piano *.
Ottimo collegamento.Non mi ero reso conto che puoi usare un filtro Weiner per annullare la sfocatura di un'immagine.Lo uso per appianare il valore di posizione dai sensori di movimento.Immagino che le due applicazioni siano simili: capire il valore "reale" da un ingresso rumoroso.
Renderebbe il processo di sfocatura molto più semplice se i sensori di immagine della fotocamera potessero catturare le informazioni di fase, ma immagino che non sia così facile con una luce incoerente.: D
L'immagine risultante avrebbe comunque ancora valore scientifico?Sento che sarebbe sempre un asterisco sul lavoro.
Questo porta a un'altra domanda: data un'immagine al microscopio ben focalizzata, si potrebbe applicare una sorta di miglioramento dell'immagine per estrarre più dettagli?
@PM2Ring se è possibile acquisire informazioni sulla fase, è possibile registrare informazioni sufficienti per acquisire l'intera scena in 3D.Puoi farlo se non ti dispiace perdere il colore fotografando con una luce coerente e aggiungendo un secondo raggio indisturbato per fornire l'interferenza, quindi utilizzando di nuovo lo stesso raggio per riprodurre la forma d'onda originale.Si chiama olografia ed è sorprendentemente semplice per quello che fa.Ora, farlo con tre diversi laser contemporaneamente è molto più difficile ...
Allora sì, non sfocare sarebbe facile come rendere l'olografo con la giusta telecamera virtuale.
@jamesqf: Sì, è possibile, sebbene il processo sia generalmente noto come "upscaling dell'immagine senza sfocatura".Vedi la mia domanda [qui] (https://superuser.com/q/130988).Non può effettivamente "estrarre" più dettagli, ma può stimare i dettagli mancanti.
Octopus
2017-08-02 23:30:44 UTC
view on stackexchange narkive permalink

Sì, si chiama deconvoluzione .Ecco alcuni esempi di immagini deconvolte da microscopi:

enter image description here enter image description here enter image description here

Li ho trovati su Google per "esempio di immagine deconvoluta da un microscopio".

È possibile sparando ai laser attraverso l'obiettivo e generando una mappa dei dati dei raggi che possono essere utilizzati nell'algoritmo di deconvoluzione.L'ho anche visto fare con un'immagine a fuoco e deconvolto per mettere a fuoco un piano completamente diverso.

Finalmente un compagno cefalopode!Saluti!
stafusa
2017-08-02 13:38:56 UTC
view on stackexchange narkive permalink

Sì, può essere (parzialmente) annullato, perché il processo non è casuale e solo una parte delle informazioni viene persa.

Physics

Commentate di essere interessati all'aspetto fisico della domanda, quindi chiariamolo prima: un'immagine è focused quando ogni punto dell'oggetto corrisponde a un punto dell'immagine - tutti i raggi che emanano da un dato punto dell'oggetto, passando, ad esempio, attraverso l'obiettivo, convergono in un unico punto (del sensore, siano essi i tuoi occhi, un CCD o una pellicola). Un'immagine è fuori fuoco quando ciò non accade: quando questi raggi si diffondono e ogni punto dell'immagine riceve luce da diversi punti dell'oggetto. Se sai esattamente che si è verificata la sfocatura, puoi provare a invertirla.

Questo è spiegato meglio in questa risposta alla domanda Perché l'immagine è sfocata o a fuoco con lenti convesse?.

Algorithms

Gli algoritmi per la rimozione della sfocatura devono funzionare con ipotesi su come si sia verificata esattamente la sfocatura, ovvero quale funzione la descrive meglio o sul modello del processo di sfocatura. Gli algoritmi di ripristino possono essere trovati in molte app di elaborazione delle immagini, ma questa è ancora un'area di ricerca attiva. Puoi leggere a riguardo qui e qui, tra molte altre fonti. Si noti, tuttavia, che il restauro è solo parziale e gli artefatti sembrano essere sempre presenti nelle immagini ripristinate.

Poscuramento intenzionale

Se viene applicata la pixelizzazione, tuttavia, l'immagine sta attraversando una grana grossa, quindi le informazioni vengono perse in modo irreversibile, e lo stesso vale per altre forme di sfocatura, come la media e l'aggiunta di rumore all'immagine: quindi in generale un algoritmo non può recuperare le informazioni dall'immagine, perché le informazioni non sono più lì.

But, un algoritmo può indovinare.Puoi addestrare una rete neurale artificiale per riconoscere ciò che ti aspetti o desideri trovare nell'immagine e consentirle di inserire i dettagli, come spiegato qui e qui.

Solo per notare che alcune di queste supposizioni possono essere erroneamente sbagliate (cerca immagini deepmind di Google per modifiche intenzionali come questa) o sorprendentemente accurate.O entrambi.A volte può essere difficile da dire.
Uno dei modi più interessanti per "indovinare" è usare [il rilevamento compressivo (noto anche come compresso)] (https://en.wikipedia.org/wiki/Compressed_sensing).Quando le ipotesi sono soddisfatte, vale a dire che l'input originale è scarso nel dominio pertinente, i risultati sono spesso incredibili.Il [primo colpo] (https://arxiv.org/abs/1107.5790) che ho trovato su Google "deblur con rilevamento della compressione" lo illustra in un caso non cieco.Esistono anche approcci di deconvoluzione cieca come [this] (http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.307.6665&rep=rep1&type=pdf) con un'immagine familiare.
Questa risposta contiene alcuni punti particolarmente importanti.La natura fisica del processo di sfocatura può spesso rendere le informazioni (essenzialmente) impossibili da recuperare.Rumore e pixel sono due esempi, quindi sarebbe la perdita dei bordi di illuminazione per le immagini, rendendo impossibile la deconvoluzione.
Peter Green
2017-08-02 17:16:45 UTC
view on stackexchange narkive permalink

L'obiettivo con un sistema di lenti della fotocamera (che sia un microscopio o meno) è quello di fornire luce da un punto sull'oggetto a un punto sul sensore. Tuttavia, ciò non può essere raggiunto perfettamente per diversi motivi.

  1. La luce si diffranterà dall'apertura, minore è l'apertura, maggiore è la diffrazione.
  2. Il sistema sarà perfettamente a fuoco solo su un piano infinitamente sottile. Più grande è l'apertura, più velocemente la messa a fuoco diminuirà con la distanza da quel piano.
  3. Le lenti stesse saranno imperfette.

Tutti questi effetti agiscono per attenuare le componenti ad alta frequenza (spaziale) nell'immagine. Questo lo chiamiamo sfocatura.

Per invertire la sfocatura dobbiamo prima caratterizzare la sfocatura. Per caratterizzare la sfocatura è necessario fare alcune ipotesi su ciò che è presente nell'immagine e / o sulle caratteristiche degli elementi ottici che causano la sfocatura.

Una volta che abbiamo una funzione matematica che descrive il processo di sfocatura, possiamo calcolare un inverso di quella funzione e applicarlo all'immagine.

Tuttavia, ci sono dei limiti a quanto possiamo mitigare l'impatto della sfocatura. In primo luogo perché il nostro modello matematico della sfocatura è solo un'approssimazione e in secondo luogo perché il processo di inversione amplifica inevitabilmente il rumore nell'immagine.

Mikhail
2017-08-02 22:41:08 UTC
view on stackexchange narkive permalink

Ho lavorato esattamente su questo problema e la risposta è estremamente controversa!

Al centro della controversia c'è una disconnessione tra la tomografia (imaging 3D) e le mappe di superficie (2.5D, "viviamo tutti in un ologramma") approcci alla formazione dell'immagine. L'approccio "viviamo tutti in un ologramma" ha recentemente riscosso un grande successo commerciale / sperimentale, con grande dispiacere dei veterani della tomografia.

I diversi sistemi ottici hanno capacità drasticamente diverse di rimettere a fuoco l'immagine. Inoltre, ogni sistema opera su diversi presupposti fisici. Parliamo di alcuni:

I sistemi a campo luminoso come Lytro possono produrre una messa a fuoco selettiva per oggetti macroscopici, d'altra parte effetti simili possono essere ottenuti con filtri digitali.

A NA basso (> 0,3), l'illuminazione coerente (laser) si abbina bene con l'approccio dei sistemi lineari alla propagazione delle onde in un semispazio dato dal propagatore di Fresnel. È possibile applicare il propagatore di Fresnel e mettere a fuoco e de-focalizzare il sistema, sebbene sia necessario un qualche tipo di misura del campo complesso. Gli approcci popolari includono i sensori del fronte d'onda in stile Hartmann-Shack (simili a Lytro), l'interferometria tradizionale e il trasporto di intensità (TIE). Le immagini in questi sistemi sembrano piuttosto terribili perché la spazzatura da qualche parte nel percorso del raggio (forse a pochi cm di distanza) contribuisce alla formazione dell'immagine.

Ora le cose iniziano a diventare stravaganti quando vengono introdotti gli effetti di coerenza. D'altra parte l'immagine sembra migliore con un'illuminazione incoerente. Il primo problema è che anche per sistemi lineari con il potenziale di scattering dell'oggetto (non molti!), La coerenza introduce un limite di banda spaziale. Vale a dire che gli oggetti al di fuori del raggio di coerenza spazio-temporale (non puoi effettivamente dividerli) svaniscono. Quindi, ora il tuo sistema è sensibile solo a una gamma ristretta di dimensioni degli oggetti e inizi a ottenere il sezionamento ottico. Questo è tipicamente chiamato "gating di coerenza" ed è stato notoriamente utilizzato da OCT. In pratica, non puoi propagare il campo oltre quanto consentito dalla coerenza. Nella maggior parte dei sistemi a banda larga ciò significa che non è possibile, digitalmente, spostare il campo su e giù per più di pochi micron! (e peggiora con NA elevati)

D'altra parte puoi semplicemente spostare il campione (o regolare la messa a fuoco). Quando si esegue questa operazione viene introdotto un nuovo grado di libertà, che è l'origine dell'imaging tomografico (tomografia a diffrazione). Per le persone che usano questo tipo di sistemi il loro mondo è fatto di sezioni 3D. Ti direbbero che non si può semplicemente rimettere a fuoco la luce indefinitamente.

Un altro problema è che molti sistemi non sono effettivamente lineari con l'oggetto, ad esempio, il famigerato alone nella microscopia a contrasto di fase. In questi casi non è possibile mettere a fuoco / rimettere a fuoco digitalmente in modo significativo il campione perché il sistema in genere non misura il campo a causa del campione.

Dal punto di vista teorico si discute molto sul fatto che i campi siano casuali, ma le posizioni assunte dai vari gruppi di ricerca sono strettamente legate alle loro configurazioni sperimentali.

Potresti aggiungere qualche referenza?
Penso che questa risposta introduca troppi tecnicismi e non sia appropriata qui.Dovrebbe essere riscritto per essere accessibile a un pubblico generale.
Count Iblis
2017-08-02 19:53:22 UTC
view on stackexchange narkive permalink

In questo articolo vengono derivati i limiti dei dettagli che possono essere recuperati utilizzando la deconvoluzione.Viene spiegato che il rumore porta a limiti sull'efficacia della deconvoluzione per recuperare i dettagli.Nel caso ideale ci sarà solo rumore di Poisson dovuto al numero finito di fotoni rilevati.I più piccoli dettagli ripristinabili scalano come $ N ^ {- \ dfrac {1} {8}} $.Quindi, ottenere dettagli dieci volte maggiori richiede un tempo di esposizione 100 milioni di volte maggiore.Chiaramente, un'apertura ampia senza obiettivo e il tentativo di mettere a fuoco utilizzando la deconvoluzione, non funzionerà nella pratica.

Vedi https://academic.oup.com/mnrasl/article-lookup/doi/10.1093/mnrasl/slx008 Le tecniche di machine learning sono migliorate sul limite di deconvoluzione
Sulla scia del commento di gokul_uf, questi tipi di "limiti" sono spesso basati sul presupposto che qualsiasi immagine originale (non corrotta) sia possibile e altrettanto probabile.Da un lato, questo evita un pregiudizio "vedere ciò che ci aspettiamo di vedere", ma d'altro canto è completamente irragionevole.Se inserissi un'immagine astronomica nell'album fotografico del tuo picnic di famiglia o viceversa, non potresti essere nemmeno brevemente incerto sul fatto che appartenga.


Questa domanda e risposta è stata tradotta automaticamente dalla lingua inglese. Il contenuto originale è disponibile su stackexchange, che ringraziamo per la licenza cc by-sa 3.0 con cui è distribuito.
Continua a leggere su narkive:
Risultati di ricerca per 'Un computer potrebbe non sfocare l'immagine da un microscopio fuori fuoco?' (Domande e Risposte)
20
risposte
Secondo voi è possibile che ognuno di noi percepisca i colori in modo diverso?
iniziato 2009-06-14 21:03:11 UTC
scienze alternative
Loading...