WO2012013686A1 - Ermittlung von defokussierten reflexionskarten für die robuste bestimmung von "shape from focus" in mikroskopbildern - Google Patents

Ermittlung von defokussierten reflexionskarten für die robuste bestimmung von "shape from focus" in mikroskopbildern Download PDF

Info

Publication number
WO2012013686A1
WO2012013686A1 PCT/EP2011/062846 EP2011062846W WO2012013686A1 WO 2012013686 A1 WO2012013686 A1 WO 2012013686A1 EP 2011062846 W EP2011062846 W EP 2011062846W WO 2012013686 A1 WO2012013686 A1 WO 2012013686A1
Authority
WO
WIPO (PCT)
Prior art keywords
focus
image
projector
camera
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/EP2011/062846
Other languages
English (en)
French (fr)
Inventor
Manfred Prantl
Stefan Scherer
Martin Lenz
Matthias RÜTHER
Horst Bischof
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Alicona Imaging GmbH
Technische Universitaet Graz
Original Assignee
Alicona Imaging GmbH
Technische Universitaet Graz
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Alicona Imaging GmbH, Technische Universitaet Graz filed Critical Alicona Imaging GmbH
Priority to US13/810,831 priority Critical patent/US9161014B2/en
Priority to EP11735670.9A priority patent/EP2598836B1/de
Publication of WO2012013686A1 publication Critical patent/WO2012013686A1/de
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single two-dimensional [2D] image sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2513Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with several lines being projected in more than one direction, e.g. grids, patterns
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/571Depth or shape recovery from multiple images from focus
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10056Microscopic image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination

Definitions

  • the invention relates to a method for compensating illumination deficits in microscopic "Shape from Focus (SFF)".
  • SFF Shape from Focus
  • SFF Shape from focus
  • DRC Defocused Reflection Map
  • the object of the invention is to estimate an approximate DRC in an iterative manner from a known illumination pattern and the associated camera image of a scene.
  • the result should have the following properties: correctness of the focus maximum; Suppression of saturation effects and stability of focus in focused regions with varying illumination.
  • the correctness of the reflection estimate in and of itself, especially in the defocused regions, has not proven to be so important, which simplifies the estimation problem and according to the invention gives us a reasonable estimate of the values in only two iterations.
  • the present invention is primarily concerned with the limitations and enhancement of standard shape-from-focus reconstruction techniques using dynamic scene lighting by a projector camera system.
  • Illumination patterns used to optimize the image capture of transparent samples.
  • the light is automatically modulated depending on the image acquisition used.
  • Her experiments show an improvement in contrast and brightness.
  • the system is designed for visual observation only, and the problem of image blur has not been addressed.
  • Illumination adaptation in saturated image areas the exact knowledge of the whole projector camera image acquisition chain, including the scene geometry and the radiometric
  • FIGS. 1 a and 1 b show raw data of a camera image (FIG. 1 a) and a defocused reflection map (FIG. 1 b) of a microscopic photograph.
  • FIG. 2a and 2b Geometric and radiometric relationships in a projector camera system [10] [6].
  • a 3D scene point S is illuminated by a projector pixel having the position (xp, yp) in the image plane of the projector and the brightness Zp (FIG. 2a). S is mapped to a camera pixel (xc, yc) with the resulting brightness Zc.
  • the radiometric chain is based on the discrete intensity Z P of the projector pixel to the projector irradiance Ip, the camera irradiance Ic and the discrete
  • Illuminance values in both the projector and the camera are controlled by the camera response function CRF and the camera transmission function
  • the projector reflectance function is assumed to be linear and describes the relationship between incident and reflected illuminance at the sample surface (i.e., texture, shading, and reflections).
  • FIG. 3 An image formation model ("image formation model” (IFM)).
  • IIM image formation model
  • a discrete projector image Zp is mapped in the projector (I) to an illumination intensity pattern IP.
  • I P is filtered low-pass due to the blurring of the optical system (II) and reflected at the object surface (III).
  • the reflected illuminance pattern Is is also blurred again (IV) and is finally imaged in the image sensor (V) to discrete values Zc.
  • FIG. 6a and 6b The estimated DRK for a metal surface.
  • the camera image (FIG. 6a) compared to the DRC after an iteration (FIG. 6b).
  • 7a and 7b focus maxima estimated on the camera raw data (FIG. 7a) and on the determined DRKs (FIG. 7b).
  • the input images correspond to those of FIG. 5.
  • a point of the scene S (x, y, z) is from a projector pixel with the coordinates (xp, yp) and the intensity Zp (xp, yp ) illuminated.
  • the point S maps to the image coordinates (xc, yc) and results in an intensity in the camera of Zc (xc, yc) -
  • R (x, y, z) stands for the surface reflectivity at point S (x, y, z) as described in Fig. 2b.
  • CRF and PRF define the camera and projector transmission function.
  • Transfer functions are non-linear but monotonically increasing and produce the mapping between illuminance values and discrete intensity values.
  • the scalar value At stands for the exposure time of the camera during image acquisition.
  • the radiometric relationships between camera, projector and surface reflectivity are shown in FIG.
  • a discrete value of the projector intensity ZP is performed on a discrete camera intensity ZC by mapping to a projector illuminance by the PRF.
  • the value of the projector illuminance Ip (xp, yp) is reflected at the scene in accordance with the reflectivity R (x, y, z). The resulting
  • Camera intensity Ic (c, yc) is up-integrated during the exposure time ⁇ t and
  • the dynamic range of optical microscopy images is often very large due to reflections and shading effects on rough surfaces.
  • a projector is used instead of a homogeneous light source.
  • the projector allows the local modulation of the light intensity. This means that for each image in an image stack that is used for "shape from focus", over- or
  • underexposed image areas can be compensated and so the image texture can be extracted.
  • the illumination pattern used is likely to be out of focus at least in some image regions. Therefore, the reflection map can not be determined exactly. However, it can still be used as an illumination-neutral image of the object texture from which the relative focus maxima of the image stack can be extracted.
  • we model the process of image formation in a microscope with a shallow depth of field and a coaxially arranged projector as the light source see section Image generation model.
  • Illumination compensation (see section Defocused reflection map estimation) based on the image formation model. This algorithm minimizes the dynamics of the scene from the point of view of the observing camera and provides a good estimate of the
  • Scene reflectivity including texture information. This texture information is then used for the "shape from focus” algorithm.
  • the input for the projection process is a discrete projection pattern Z P.
  • the discrete image is transformed to illuminance values Ip.
  • the projected pattern will not be focused throughout the scene.
  • the optical blur is modeled by low-pass filtering (convolution with a "pillbox kernel")
  • the radius of the "pillbox kernel” corresponds to the distance of the focal plane to the object at each pixel.
  • the degree of blur depends on the
  • the reflected light beams Ic suffer the same blur images as the
  • Debevec [17] proposed a method for determining the CRF and, analogously, the PRF without knowing the surface properties.
  • the remaining unknown variables are the surface geometry, which is to be determined by the "shape from focus” algorithm, and the reflection properties of the surface.
  • Equation (3) calculates Ri from I P i and IQ. Due to possible nonlinearities in the reflection function or due to a poor start value of Ipi, IQ may deviate from Ic. We therefore repeat the estimation process by calculating
  • mapping function of the vector of all project illuminances I P is given to the vector of all M scene illuminances I s by the relationship
  • the imaging matrix A has the dimension m ⁇ n.
  • the imaging matrix is sparse because a single projector pixel only has an influence on a small section of the image
  • the image stack is filtered by a low-pass filter depending on depth
  • Two sets of images, each with 21 images and varying lighting, are created: First, a uniform and consistent scene lighting pattern is selected. Then the scene is illuminated with a random pattern for each captured image.
  • a classical SFF algorithm [1], which uses the square Laplace operator as the focus measure, is now applied to the raw image data for the first image stack and to the estimated DRKs for the second image stack.
  • the relative error between the depth map generated by the standard algorithm and the known "ground truth” depth map is 14.3% of the used step size (standard deviation 12.6%) our approach 16.4% (standard deviation 17.1%).
  • Reflection maps iteratively from very few (e.g., only two) images.
  • DRKs Reflection maps
  • Image areas receive the same focus maxima as the traditional SFF approach, although we have varied the illumination patterns for image acquisition at each depth step. In addition, we are also able to control shading effects and reflections much better than the classical approach.
  • shape from defocus methods can also be used to determine the degree of defocusing for certain Estimate scene points, and thus provide the DRK estimate with additional prior knowledge.
  • Koninckx, T., Van Gool, L . Real time ranks acquisition by adaptive structured light. pattern
  • CVPR '05 Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR'05) - Volume 2,
  • SIGGRAPH '06 ACM SIGGRAPH 2006

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Microscoopes, Condenser (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Verfahren zum Ausgleichen von Beleuchtungsdefiziten bei mikroskopischem„Shape from Focus (SFF)", wobei zuerst die Reflexivität der Szene mittels eines Projektor-Kamera- Systems abgeschätzt wird, und dann mikroskopisches„Shape from Focus (SFF)" auf einen Stapel von Reflexionskarten anstatt auf die ursprünglichen Bilddaten angewandt wird.

Description

Ermittlung von defokussierten Reflexionskarten für die robuste Bestimmung von "Shape from
Focus" in Mikroskopbildern
Die Erfindung betrifft ein Verfahren zum Ausgleichen von Beleuchtungsdefiziten bei mikroskopischem„Shape from Focus (SFF)".
„Shape from focus (SFF)" ist eine der populärsten 3D Rekonstruktionsmethoden in optischer Mikroskopie. Die Arbeitsweise beruht auf der Bestimmung des Fokusmaximums von Objektpunkten durch die Aufnahme eines Bilderstapels. Die Aufnahme des Bilderstapels erfolgt durch die kontrollierte Bewegung des Objektes relativ zum Mikroskopobjektiv, sodass das Maximum des Fokuswertes in eine Tiefeninformation umgerechnet werden kann. Das Fokusmaß wird üblicherweise aus den Bilddaten durch die Betrachtung einer lokalen
Umgebung an jedem Pixel gebildet. Es ergibt sich aus dem Grad an hochfrequenten
Bildanteilen in dieser Umgebung bzw. indirekt, aus dem Wert der Bildgradienten oder dem lokalen Kontrast.
Gesättigte Bildregionen stellen die größte Herausforderung für„shape from focus" Verfahren dar und resultieren oftmals in verrauschten oder lediglich dünn besetzten
Rekonstruktionsergebnissen. Solche Bildregionen sind in industriellen 3D Messaufgaben häufig anzutreffen, aufgrund von spiegelnden Reflexionen und Ab schattung seffekten. Um dieses Problem zu verbessern, führen wir ein neuartiges Konzept ein, die defokussierte Reflexionskarte (DRK). Eine DRK kann als ein beleuchtungsneutrales Bild des Objektes interpretiert werden (siehe auch Fig. 1), wobei das gleiche Maß an Defokussierung wie im ursprünglichen Kamerabild vorhanden ist. Unser Ansatz besteht nun darin, die
Kamerarohdaten durch einen Bilderstapel von DRKs zu ersetzen und„shape from focus" auf diesen durchzuführen. Dies erlaubt es uns mit einer erhöhten Dynamik in der betrachteten Szene umzugehen, das Fokusmaximum damit robuster zu bestimmen und schlussendlich eine dichtere Objektrekonstruktion zu erlangen.
Die Abschätzung eines Pixelwertes in einer DRK erfordert die Kenntnis, wie viel Licht auf einen Objektpunkt auftrifft /, und wie viel Licht davon wieder rückgestrahlt wird Ir. Für den Fall, dass die Szenengeometrie nicht bekannt ist, kann Ir nicht aus dem Kamerabild abgeschätzt werden, da der Grad der Defokussierung an einem Bildpunkt nicht bekannt ist. Dies macht die Aufgabenstellung„schlecht-konditioniert". Das Problem wird noch dadurch verschärft, wenn die Beleuchtung der Szene lokal moduliert wird, um große
Helligkeitsunterschiede auf dem Objekt auszugleichen.
Der Erfindung liegt die Aufgabe zugrunde eine approximierte DRK auf iterative Art und Weise aus einem bekannten Beleuchtungsmuster und dem zugehörigen Kamerabild einer Szene abzuschätzen. Das Resultat sollte folgende Eigenschaften aufweisen: Korrektheit des Fokusmaximums; Unterdrückung von Sättigungseffekten und Stabilität des Fokusmaßes in fokussierten Regionen bei variierender Beleuchtung. Die Korrektheit der Reflexionsschätzung an und für sich, speziell in den defokussierten Regionen, hat sich als nicht so wichtig gezeigt, wodurch sich das Schätzproblem vereinfacht und wir gemäß der Erfindung zu einer vernünftigen Abschätzung der Werte in lediglich zwei Iterationen gelangen.
Sowohl die Machbarkeit als auch der Nutzen unserer Methode werden mit Hilfe von synthetischen als auch realen Daten evaluiert. Wir zeigen, dass unser System mikroskopische 3D Rekonstruktionen in Bereichen ohne Sättigungseffekte mindestens genauso gut erledigt, wie Standard„shape from focus" und dass unser Ansatz dem Standardalgorithmus bei spiegelnden Oberflächen deutlich überlegen ist.
Die vorliegende Erfindung beschäftigt sich auf dem Gebiet erstmals mit den Einschränkungen und der Verbesserung von Standard„shape from focus" Rekonstruktionsmethoden mit Hilfe von dynamischer Szenenbeleuchtung durch ein Projektor-Kamerasystem.
Ein traditioneller„shape from focus" Ansatz wird in [1] beschrieben. Das dort verwendete Fokusmaß beruht auf dem Laplacefilter. Der beschriebene Algorithmus zur Schätzung des Tiefenwertes beruht auf der Annahme einer Gaußverteilung der Fokuswerte innerhalb des Fokusvektors zur genaueren Bestimmung des Fokusmaximums. Um einen Überblick über Fokusmaße, Tiefenschätzalgorithmen und„shape from focus" Algorithmen zu erlangen, verweisen wir auf [2-5].
Literatur in Bezug auf radiometrische Beleuchtungskompensation wurde im Zusammenhang mit 3D Rekonstruktionsverfahren mittels strukturiertem Licht von Koninckx [6, 7] und Gu [8] publiziert; im Zusammenhang mit Multimediaprojektionen auf untexturierte oder dynamische Szenen von Nayar [9, 10] und Bimber [11-13]. Noguchi and Nayar [14] waren die Ersten, die sich mit dem Problem der Rekonstruktion von untexturierten Objektoberflächen mittels "shape from focus" beschäftigt haben. Der optische Pfad eines Lichtmikroskops wurde analytisch modelliert, und für ein bestimmtes Fokusmaß wurde ein optimales Filtermuster für den Lichtpfad ermittelt. Dieses Filtermuster wurde statisch auf das Objekt projiziert. Ihre Experimente zeigen gute Ergebnisse für industrielle Proben. Allerdings bleiben gesättigte Bildregionen, hervorgerufen durch z.B. Spiegelungen, problematisch.
Samson und Blance schlugen einen Algorithmus zur Kontrasterhöhung in der
Lichtmikroskopie vor [15]. Es wird ein Projektionssystem zur Erzeugung von
Beleuchtungsmustern verwendet, um die Bilderfassung von transparenten Proben zu optimieren. Das Licht wird dabei abhängig von der verwendeten Bilderfassung automatisch moduliert. Ihre Experimente zeigen eine Verbesserung bei Kontrast und Helligkeit.
Kürzlich wurde von Bimber et al. [16] ein Lichtmikroskopaufbau angekündigt, der einen Projektor als Lichtquelle verwendet, um Kontrast und Dynamikumfang für einen
menschlichen Bediener in Echtzeit zu verbessern. Das System ist lediglich für die visuelle Beobachtung ausgelegt, und das Problem der Unschärfe von Bildern wurde nicht behandelt.
Um die Limitierungen der traditionellen„shape from focus" Ansätze zu beseitigen, schlagen wir ein Lichtmikroskop mit einem Videobeamer als Lichtquelle vor. Einerseits kann mit diesem Ansatz in gesättigten Bildbereichen der Helligkeitsunterschied kompensiert werden, andererseits kann in texturlosen Bildbereichen damit Textur aufgebracht werden, um in diesen Regionen eine Rekonstruktion zu ermöglichen (siehe [14]). Theoretisch erfordert die
Beleuchtungsadaption in gesättigten Bildbereichen die genaue Kenntnis der ganzen Projektor- Kamera Bildaufnahmekette, inklusive der Szenengeometrie und der radiometrischen
Verhältnisse. Die radiometrischen Verhältnisse könnten noch durch Kalibration ermittelt werden, aber das erforderliche Wissen über die Szenengeometrie machen diese
Aufgabenstellung„schlecht-konditioniert".
Anhand von Figuren und Figurenbeschreibungen werden Details der Erfindung und
Hintergründe näher erläutert. Es zeigt:
Fig la und lb Rohdaten eines Kamerabildes (Fig. la) und defokussierte Reflexionskarte (Fig. lb) einer mikroskopischen Aufnahme.
Fig. 2a und 2b Geometrische und radiometrische Beziehungen in einem Projektor- Kamerasystem [10] [6]. Ein 3D Szenenpunkt S wird durch ein Projektorpixel mit der Position (xp, yp) in der Bildebene des Projektors und der Helligkeit Zp beleuchtet (Fig. 2a). S wird auf ein Kamerapixel (xc, yc) mit der resultierenden Helligkeit Zc abgebildet. In Fig. 2b ist die radiometrische Kette ausgehend von der diskreten Intensität ZP des Projektorpixels zur Projektorbestrahlungsstärke Ip, zur Kamerabestrahlungsstärke Ic und zur diskreten
Kameraintensität Zc skizziert. Die Abbildungen der diskreten Pixelwerte auf
Beleuchtungsstärkewerte sowohl im Projektor als auch in der Kamera werden durch die Kameraübertragungsfunktion (engl,„camera response function") CRF und die
Projektorübertragungsfunktion (engl,„projector response function") PRF modelliert. Die Reflektivität der Szene wird als linear angenommen. Sie beschreibt das Verhältnis zwischen eintreffender und rückgestrahlter Beleuchtungsstärke an der Probenoberfläche (d.h. Textur, Schattierungen und Spiegelungen).
Fig. 3 Ein Bildentstehungsmodell (engl, "image formation model" (IFM)). Ein diskretes Projektorbild Zp wird im Projektor (I) auf ein Beleuchtungsstärkemuster IP abgebildet. Abhängig von der Szenengeometrie wird IP aufgrund der Unschärfe des optischen Systems (II) Tiefpass gefiltert und an der Objektoberfläche (III) reflektiert. Das reflektierte Beleuchtungsstärkemuster Is wird ebenfalls wieder unscharf abgebildet (IV) und wird schlussendlich im Bildsensor (V) auf diskrete Werte Zc abgebildet.
Fig. 4 Die iterative Reflexionsschätzung. Das diskrete Projektormuster ZPi ergibt ein
Kamerabild ZQ durch physikalische Bildentstehung (Fig 3). Für den Schätzprozess bilden wir Zpi und ZQ auf die jeweiligen Beleuchtungsstärkemuster ab (I und II). IPi wird noch mit einem Tiefpass gefiltert (III), bevor wir die Reflektivität R der Szene abschätzen (IV). Mit nun bekanntem R und einer gewünschten Kamerabeleuchtungsstärke Ic sind wir nun in der Lage ein verbessertes Projektormuster ZPi+i zu berechnen (V).
Fig. 5 Einen schematischen Projektor- Kamera Mikroskopaufbau mit 1 = PBS, 2 =
Kondensor, 3= Lichtquelle, 4 = Projektorlinse, 5 = PBS, 6 = Okular, 7 = Kamera, 8 =
Objektiv, 9 = Szene.
Fig. 6a und 6b Die geschätzte DRK für eine Metalloberfläche. Das Kamerabild (Fig. 6a) im Vergleich zur DRK nach einer Iteration (Fig. 6b). Fig. 7 a und 7bFokusmaxima abgeschätzt auf den Kamerarohdaten (Fig. 7a) und auf den ermittelten DRKs (Fig. 7b). Die Eingabebilder entsprechen jenen von Fig. 5.
Nachfolgend wird ein kurzer Überblick über ein analytisches Modell der radiometrischen Abbildung in einem Projektor-Kamerasystem gegeben.
In dem Fall, dass ein Projektor als Lichtquelle für eine Szene eingesetzt wird, die von einer Kamera aufgenommen wird, existieren mehrere Beziehungen zwischen Projektor und Kamera. Erstens gibt es eine geometrische Abbildung zwischen Projektor und Kamera. In diesem Abschnitt nehmen wir an, dass diese Abbildung bekannt ist, d.h. wir wissen, welche Kamerapixel von einem einzelnen Projektorpixel betroffen sind und umgekehrt. Zweitens kann auch eine radiometrische Abbildung zwischen den Intensitäten des Projektors und den ermittelten Intensitäten auf der Kameraseite hergestellt werden, falls die Geometrie der Szene und ihre Oberflächencharakteristika bekannt sind. Dieser Abschnitt gibt einen kurzen Überblick über die wesentlichen Merkmale der Hauptkomponenten die für eine solche radiometrische Abbildung zwischen Projektor und Kamera notwendig sind.
Die notwendigen Grundlagen für die folgenden Abschnitte werden hier kurz vorgestellt:
Gegeben sei ein Projektor- Kamerasystem mit bekannten geometrischen Verhältnissen (siehe Fig 2a als Illustration): Ein Punkt der Szene S(x, y, z) wird von einem Projektorpixel mit den Koordinaten (xp, yp) und der Intensität Zp(xp, yp) beleuchtet. Der Punkt S bildet sich auf die Bildkoordinaten (xc, yc) ab und resultiert in einer Intensität in der Kamera von Zc(xc, yc)- Wir folgen [6] und formulieren die folgenden Beziehungen und Relationen:
Ic (xc, yc) = CRF (Zc (xc, yc))/At (1) Ip (xp, yp) = PRF (Zp (xp, yP)) (2) ic (xc, yc) = ip (xp, yp)R(x, y, z) (3)
R(x, y, z) steht für die Oberflächenreflektivität an Punkt S(x, y, z) wie in Fig. 2b beschrieben. CRF und PRF definieren die Kamera- und Projektorübertragungsfunktion. Die
Übertragungsfunktionen sind nichtlinear, aber monoton steigend und stellen die Abbildung zwischen Beleuchtungsstärkewerten und diskreten Intensitätswerten her. Der skalare Wert At steht für die Belichtungszeit der Kamera während der Bildaufnahme. Die radiometrischen Beziehungen zwischen Kamera, Projektor und Oberflächenreflektivität sind in Fig. 3 dargestellt. Ein diskreter Wert der Projektorintensität ZP wird auf eine diskrete Kameraintensität ZC mittels der Abbildung auf eine Projektorbeleuchtungsstärke durch die PRF durchgeführt. Der Wert der Projektorbeleuchtungsstärke Ip(xp, yp) wird an der Szene reflektiert und zwar entsprechend der Reflexivität R(x, y, z). Die daraus resultierende
Kameraintensität Ic( c, yc) wird während der Belichtungszeit At aufintegriert und
anschließend auf den diskreten Kamerawert Zc(xc, yc) mittels der Funktion CRF abgebildet.
Methodik:
Der Dynamikbereich von Aufnahmen in der optischen Mikroskopie ist oftmals aufgrund von Spiegelungen und Schattierungseffekten an rauen Oberflächen sehr groß. Um gesättigte Bildbereiche zu vermeiden wird ein Projektor anstatt einer homogenen Lichtquelle eingesetzt. Der Projektor erlaubt die lokale Modulierung der Lichtintensität. Das bedeutet, dass für jedes Bild in einem Bilderstapel der für„shape from focus" verwendet wird, über- oder
unterbelichtete Bildbereiche ausgeglichen werden können und so die Bildtextur extrahiert werden kann.
Eine Folge der nicht konstanten Bildbeleuchtung für die Bilder innerhalb eines Bilderstapels ist, dass sich das Fokusmaximum eines Objektpunktes aufgrund der sich ändernden
Beleuchtungsmodulation verschieben wird, wenn man den Stapel mit traditionellen SFF Verfahren auswertet. Deshalb können die Kamerarohdaten in einem System mit adaptiver Beleuchtung nicht direkt für die Auswertung mittels SFF verwendet werden. Weiters erlaubt das fehlende Wissen über die Objektgeometrie keine exakten Aussagen über den Grad der Defokussierung eines projizierten Lichtmusters für bestimmte Objektpunkte. Aus diesem Grund kann ein und dasselbe Projektionsmuster auch nicht zur Bildaufnahme einer Szene für SFF verwendet werden, wenn die Tiefenwerte sich innerhalb eines Objektes ändern.
Um diese Probleme zu lösen, schlagen wir vor eine defokussierte Reflexionskarte mittels des Kamerabildes und des während der Bildaufnahme verwendeten Beleuchtungsmusters zu schätzen. Das verwendete Beleuchtungsmuster ist wahrscheinlich zumindest in einigen Bildregionen unscharf. Deshalb kann die Reflexionskarte nicht exakt bestimmt werden. Sie kann aber immer noch als ein beleuchtungsneutrales Bild der Objekttextur verwendet werden aus der die relativen Fokusmaxima des Bilderstapels extrahiert werden können. Im Folgenden modellieren wir den Prozess der Bildentstehung in einem Mikroskop mit geringer Schärfentiefe und einem koaxial angeordneten Projektor als Lichtquelle (siehe Abschnitt Bildentstehungsmodell). Wir entwickeln einen Algorithmus zur
Beleuchtungskompensation (siehe Abschnitt Schätzung von defocussierten Reflexionskarten) basierend auf dem Modell der Bildentstehung. Dieser Algorithmus minimiert die Dynamik der Szene aus Sicht der beobachtenden Kamera und liefert eine gute Schätzung der
Szenenreflektivität inklusive Texturinformation. Diese Texturinformation wird dann für den „shape from focus" Algorithmus verwendet.
Bildentstehungsmodell:
Der Prozess der Bildentstehung ist in vier Teilabschnitten modelliert: Musterprojektion (I), optische Defokussierung (II, IV), Reflexion an einer texturierten Oberfläche (III) und
Bildaufnahme (V). Im Folgenden werden diese Teilprozesse im Detail beschrieben.
Der Input für den Projektionsprozess ist ein diskretes Projektionsmuster ZP. Abhängig von der Projektorübertragungsfunktion PRF wird das diskrete Bild auf Beleuchtungsstärkewerte Ip transformiert. Das projizierte Muster wird nicht überall auf der Szene fokussiert abgebildet werden. Die optische Unschärfe wird durch eine Tiefpassfilterung (Faltung mit einem „pillbox kernel") modelliert. Der Radius des„pillbox kernel" entspricht dem Abstand der Fokusebene zum Objekt an jedem Pixel. Der Grad der Unschärfe hängt von der
Oberflächengeometrie G ab, im Speziellen von der Tiefe an jedem Oberflächenpunkt. Die projizierten und unscharf abgebildeten Lichtstrahlen ΪΡ werden von der Oberfläche entsprechend der Reflexionsfunktion R, welche als linear angenommen wird, reflektiert.
Die reflektierten Lichtstrahlen Ic erleiden die gleichen Unschärfeabbildungen wie die
Projektormuster und werden somit zu Ic. Während der Bildaufnahme wird die reflektierte Beleuchtungsstärke über die Belichtungszeit At aufintegriert. Die daraus resultierende Belichtungsintensität wird auf diskrete Bildintensitäten Zc mithilfe der nicht linearen
Kameraübertragungsfunktion CRF abgebildet.
Debevec [17] hat eine Methode zur Bestimmung der CRF und, analog dazu, der PRF vorgeschlagen, ohne die Oberflächeneigenschaften zu kennen. Die verbleibenden unbekannten Variablen sind die Oberflächengeometrie, welche durch den„shape from focus" Algorithmus bestimmt werden soll, und die Reflexionseigenschaften der Oberfläche.
Eine iterative Lösung zur 3D Rekonstruktion mit adaptiver Beleuchtung wird im nächsten Abschnitt vorgestellt.
Schätzung von defokussierten Reflexionskarten:
Wir schauen uns das Bildentstehungsmodell in Fig. 3 etwas genauer an. Lediglich das diskrete Projektionsmuster ZP, die Belichtungszeit At und das diskrete Kamerabild Zc sind bekannt. Obwohl die Kamera- und Projektorübertragungsfunktion nicht exakt bekannt sind, können wir über einen Vorab - Kalibrationsprozess [17] eine gute Schätzung (CRF*, PRF*) davon erlangen.
Zwei wichtige Komponenten sind unbekannt: die Geometrie der Szene und ihre
Reflexionseigenschaften. Wir schauen uns zuerst den Schätzprozess für die
Reflexionseigenschaften eines Pixels an. Wir definieren eine gewünschte
Kamerabeleuchtungsstärke Ic (z.B. Ic = CRF (128)/At).
Für die Iteration i projizieren wir die Beleuchtungsstärke Ipi und erhalten dafür die
Kamerabeleuchtungsstärke IQ. Mit Hilfe von Gleichung (3) berechnen wir Ri aus IPi und IQ. Aufgrund von möglichen Nichtlinearitäten in der Reflexionsfunktion oder aufgrund eines schlechten Startwertes von Ipi kann es sein dass IQ von Ic abweicht. Wir wiederholen deshalb den Schätzprozess durch Berechnung von
IPl+l = fc /Ri 5 (4) für die nächste Iteration. Dieser Prozess wird solange wiederholt bis IRi_i - Ri I unter einen gewissen Schwellwert fällt.
Um diese Methode auf den zweidimensionalen Fall zu verallgemeinern, müssen wir unterschiedliche Auflösungen bei Projektor und Kamera berücksichtigen. Daraus ergibt sich, dass ein einzelnes Projektorpixel, welches im Idealfall eine rechteckige Lichtquelle darstellt, mehrere Kamerapixel beeinflusst. Aufgrund von Unschärfe- und Streueffekten beleuchtet ein einzelnes Projektorpixel nicht einen scharf abgegrenzten rechteckigen Bereich auf der Kamera. Wir modellieren die auf eine, zu einem Kamerapixel korrespondierende, Oberflächenregion einfallende Beleuchtungsstärke, die von einem einzelnen Projektorpixel ausgeht, durch eine Punktantwortsfunktion (engl,„point spread function" PSF): is (xc, yc ) = PS Fn (ipn,xc,yc ), (5) wobei PSFn (I, x, y) für den Wert der Punktantwortsfunktion des n-ten Projektorpixels an der Bildposition (x, y) steht und eine Projektorbeleuchtungsstärke I aufgebracht wurde. Wir verwenden einen sogenannten„thin-plate spline" zur Modellierung der PSF Funktionen und bestimmen deren exakte Parameter in einem Offline-Kalibrationsschritt. Der Einfluss aller N Projektorpixel auf eine einzelne Oberflächenregion ist gegeben durch:
(xc > yc ) = Σ PSFn UP, > xc > yc )
n=l (6)
Daraus folgt, dass die Abbildungsfunktion des Vektors aller Projekterbeleuchtungsstärken IP auf den Vektor aller M Szenenbeleuchtungsstärken Is gegeben ist durch die Beziehung
IS = Alp . (7)
Die Abbildungsmatrix A hat die Dimension m x n. Die Abbildungsmatrix ist dünn besetzt, da ein einzelnes Projektorpixel lediglich einen Einfluss auf einen kleinen Ausschnitt der
Bildszene hat.
Das inverse Problem, d.h. Abbildung der Szenenbeleuchtungsstärke auf
Projektorbeleuchtungsstärke, kann aus Gleichung (7) abgeleitet werden. Die Lösung ergibt j " für A = o minimiert. Wir lösen Gleichung (7) nach Ip im
Sinne der kleinsten Fehlerquadrate mit Hilfe von Normalgleichungen indem wir folgenden Ausdruck berechnen
Figure imgf000011_0001
Sowohl die Vorwärtsabbildungsmatrix A als auch die Rückwärtsabbildungsmatrix
ΓΑ)"ΆΓ können vorab berechnet werden.
Bisher haben wir angenommen, dass der Projektor und die Kamera perfekt fokussiert sind. In der Praxis ist diese Annahme aber aufgrund der unbekannten Oberflächengeometrie, die zudem meist nicht planar ist, nicht gültig. In unscharfen Bereichen sind sowohl die Projektorais auch die Kamerabeleuchtungsstärkemuster Tiefpass gefiltert und die PSF wird dadurch breiter. Deshalb kann die Reflexionskarte nicht exakt abgeschätzt werden. In extrem unscharfen Bereichen bereitet uns eine unpräzise Reflexions Schätzung wenig Sorgen, in nur leicht unscharfen Bereichen hingegen wird die Reflexionskarte verrauscht und beeinflusst deshalb die Suche nach dem Fokusmaximum durch„shape from focus". Deshalb wenden wir auf die projizierten Beleuchtungsstärkemuster zuerst einen Tiefpassfilter an, bevor wir die defokussierte Reflexionskarte bestimmen.
Experimente:
In diesem Abschnitt evaluieren wir den vorgeschlagenen Algorithmus sowohl an
synthetischen Daten als auch an realen Daten. Wir zeigen, dass unser SFF Ansatz in nicht gesättigten Bildbereichen die gleichen Ergebnisse liefert wie ein Standard-SFF Ansatz, obwohl das projizierte Muster während der Aufnahme des Bilderstapels variiert. Die
Experimente an realen Bilddaten zeigen, dass unser Ansatz dem klassischen SFF Ansatz in gesättigten Bildbereichen von hochdynamischen Szenen deutlich überlegen ist.
Synthetische Daten:
Wir generieren synthetische "shape from focus" Bilderstapel mit Hilfe des
Bildentstehungsmodells (Fig. 3) auf der Basis von bekannter„ground truth". Wir nehmen für alle synthetischen Experimente an, dass es eine 1: 1 Korrespondenz zwischen den Pixeln der Kamera und des Projektors gibt, um die Aufgabe etwas zu vereinfachen. Die Bildtextur an jedem Pixel wird zufällig anhand einer Gleichverteilungsfunktion generiert. Die Tiefe an jedem Pixel wird anhand des Modells einer horizontal geneigten Fläche welche sich vor der Kamera befindet, berechnet.
Der Bilderstapel wird durch einen, von der Tiefe abhängigen Tiefpas sfilter, an jedem
Szenepixel erzeugt. Weiters wird die Szene durch ein benutzerdefiniertes Muster, welches ebenfalls tiefenabhängig geglättet wird, beleuchtet. Ebenso wird angenommen, dass die Kamera- und Projektorübertragungsfunktionen bekannt sind.
Zwei Bilderstapel mit jeweils 21 Bildern und variierender Beleuchtung werden erzeugt: Zuerst, wird ein einheitliches und konstantes Muster für die Szenenbeleuchtung gewählt. Dann wird die Szene für jedes aufgenommene Bild mit einem zufälligen Muster beleuchtet. Ein klassischer SFF Algorithmus [1], der den quadratischen Laplaceoperator als Fokusmaß verwendet, wird nun beim ersten Bilderstapel auf die rohen Bilddaten und beim zweiten Bilderstapel auf die geschätzten DRKs angewendet.
Beim ersten Bilderstapel beträgt der relative Fehler zwischen der Tiefenkarte welche durch den Standardalgorithmus erzeugt wurde und der bekannten„ground truth" Tiefenkarte 14.3% der verwendeten Schrittweite (Standardabweichung 12.6%). Beim zweiten Bilderstapel beträgt der relative Unterschied zwischen der„ground truth" Tiefenkarte und unserem Ansatz 16.4% (Standardabweichung 17.1%).
Reale Daten:
Für die Experimente mit realen Daten bauten wir einen Mikroskopprototyp mit einem
Projektor als koaxialer Beleuchtung (siehe Fig. 5.2) auf einer Optikbank auf. Wir
verwendeten eine 2MP Monochromkamera und ein 1280x720 Pixel LCos Display zur Lichtmodulation. Eine hochpräzise Linearachse verschiebt die Probe mit einer Genauigkeit von Ιμιη. Für die Experimente wählten wir einen Kameraausschnitt von 574x420 Pixel welcher 75x60 Projektorpixel entspricht. Die Kamera und der Projektor teilen sich die gleiche Fokusebene. Die geometrischen und radiometrischen Beziehungen zwischen Kamera und Projektor werden vorab kalibriert.
Um die Rekonstruktionsgenauigkeit auf den geschätzten DRKs zu evaluieren, vergleichen wir die Stabilität des Fokusmaximums des Standard SFF Algorithmus bzgl. eines nicht gesättigten Bilderstapels mit unseren Resultaten. Jedes Pixel das irgendwo im Referenzbilderstapel gesättigt oder nahezu gesättigt ist wird aus maskiert.
In einem ersten Experiment zeigen wir, dass unser Ansatz in der Lage ist zufällige, während der Bildaufnahme, projizierte Muster zu verkraften. Die Szene bei diesem Experiment ist eine ebene Probe die schräg vor dem Mikroskop platziert wurde. Während der Bildaufnahme wird nach jedem Tiefenschritt ein unterschiedliches Muster projiziert und ein Bild aufgenommen. Wir verwenden die vorgeschlagene Kontrollschleife um eine Reflexionskarte für die Szene abzuschätzen. Für den Referenzbilderstapel wird zusätzlich noch ein Bild mit einheitlicher und konstanter Beleuchtung aufgenommen. Sowohl von den DRKs als auch vom Referenzbilderstapel werden Tiefenkarten berechnet. Insgesamt sind 96.97% der Kamerapixel in der Auswerteregion in beiden Bilderstapeln nicht gesättigt und können demzufolge für die Auswertung herangezogen werden. Der gemittelte relative Fehler zwischen der auf klassische Weise berechneten Tiefenkarte und unserem Ansatz beträgt -0.02μιη (Standardabweichung 0.8 Ιμιη). Die Schrittweite Ad zwischen zwei aufeinander folgenden Bildern während der Bildaufnahme beträgt 5μιη. Bei einem
durchschnittlichen relativen Fehler von 0.4% für die Schrittweite ergibt sich somit keine kritische systematische Abweichung zwischen den zwei Verfahren für nicht gesättigte Bildpunkte.
Der Vorteil der adaptiven Beleuchtung in Bezug auf "shape from focus" wird dann sichtbar, wenn wir eine hochdynamische Szene, wie z.B. in Fig. 5.2, messen. Der klassische Ansatz liefert in den problematischen Bereichen stark verrauschte Ergebnisse (siehe Fig. 7a). Im Gegensatz dazu ist SFF auf DRKs in der Lage Schattierungs- und Sättigungseffekte besser zu beherrschen. Fig. 7b zeigt eine dichte Rekonstruktion basierend auf DRKs, die in nur einer Iteration abgeschätzt wurden. D.h. es wurden nur zwei Bilder pro Tiefenschritt aufgenommen.
In dieser Arbeit haben wir gezeigt, dass es möglich ist, beleuchtungsneutrale Bilder in einem Kamera-Projektor-Mikroskopaufbau, abzuschätzen. Wir ermitteln die defokussierten
Reflexionskarten (DRKs) iterativ aus sehr wenigen (z.B. nur zwei) Bildaufnahmen. Die DRKs verwenden wir als Eingabe für einen Standard„shape from focus" Algorithmus um Tiefenbilder zu berechnen. Unsere Experimente zeigen, dass wir in nicht gesättigten
Bildbereichen die gleichen Fokusmaxima wie der traditionelle SFF Ansatz erhalten, obwohl wir die Beleuchtungsmuster für die Bildaufnahme bei jedem Tiefenschritt variiert haben. Zusätzlich sind wir aber auch in der Lage Schattierungseffekte und Spiegelungen wesentlich besser zu beherrschen als der klassische Ansatz.
Im Augenblick sind die limitierenden Faktoren unseres Verfahrens noch der hohe
Berechnungs- und Speicheraufwand und dass wir effektiv die Anzahl der aufgenommenen Bilder verdoppeln. Wir schlagen vor dieses Problem dadurch zu lösen, dass wir das
Beleuchtungsmuster des vorhergehenden Tiefenschrittes als initiales Kompensationsmuster für den aktuellen Tiefenschritt verwenden. Zusätzlich können auch Verfahren von„shape from defocus" dazu verwendet werden, um den Grad der Defokussierung für bestimmte Szenenpunkte abzuschätzen, und somit die DRK Schätzung mit zusätzlichem Vorwissen auszustatten.
Es wird eine neuartige Methode vorgestellt um Beleuchtungsdefizite bei„Shape from Focus (SFF)" in Mikroskopbildern auszugleichen. Oberflächentextur ist in mikroskopischen Aufnahmen häufig vorhanden, kann aber nicht immer genützt werden, da die Bilddynamik in der Szene häufig zu hoch ist und die Textur nicht immer sichtbar ist. Als Konsequenz davon kann die Tiefeninformation in gesättigten oder zu dunklen Bildbereichen mit Hilfe von SFF nicht robust ermittelt werden. Um diese Einschränkung zu umgehen, wird in einem ersten Schritt die Reflexivität der Szene mit Hilfe eines Kamera-Projektorsystems abgeschätzt und der SFF Algorithmus anschließend auf die so ermittelten Reflexionskarten anstatt auf die ursprünglichen Bilddaten angewandt. Wir lösen dieses schlecht-konditionierte Schätzproblem auf iterative Art durch die Projektion eines adaptiven Beleuchtungsmusters und wir weißen experimentell nach, dass das Maximum der Fokusfunktion durch diese Vorgangsweise stabil bleibt und in gesättigten Regionen sogar robuster bestimmbar wird.
Referenzen:
1. Nayar, S.: Shape from Focus System. In: IEEE Conference on Computer Vision and Pattern
Recognition (CVPR). (1992) 302-308
2. Nayar, S., Nakagawa, Y.: Shape from Focus: An Effective Approach for Rough Surfaces. In: Int.
Conf. on Robotics and Automation. Volume 1. (1990) 218-225
3. Nayar, S., Nakagawa, Y.: Shape from focus. Pattern Analysis and Machine Intel- ligence, IEEE
Transactions on 16 (1994) 824 -831
4. Helmli, F., Scherer, S.: Adaptive shape from focus wifh an error estimation in light microscopy.
(2001) 188 -193
5. Malik, A., Choi, T.: A novel algorithm for estimation of depth map using image focus for 3d
shape recovery in fhe presence of noise. 41 (2008) 2200-2225
6. Koninckx, T.P., Peers, P, Dutre, P, Van Gool, L.: Scene-adapted structured light. In: CVPR
'05: Proceedings of fhe 2005 IEEE Computer Society Conference on Computer Vision and Pattern
Recognition (CVPR'05) - Volume 2, Washington, DC, USA, IEEE Computer Society (2005) 611- 618
7. Koninckx, T., Van Gool, L.: Real-time ränge acquisition by adaptive structured light. Pattern
Analysis and Machine Intelligence, IEEE Transactions on 28 (2006) 432^-45
8. Gu, J., Nayar, S., Grinspun, E., Belhumeur, P, Ramamoorthi, R.: Compressive structured light
for recovering inhomogeneous participating media. In: ECCV08. (2008) 845-858
9. Fujii, K., Grossberg, M.D., Nayar, S.K.: A projector-camera System with real-time Photometrie
adaptation for dynamic environments. In: CVPR '05: Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pat- tern Recognition (CVPR'05) - Volume 2,
Washington, DC, USA, IEEE Computer Society (2005) 1180
10. Grossberg, M., Peri, H., Nayar, S., Belhumeur, P: Making one object look like another:
Controlling appearance using a projector-camera System. In: CVPR04. (2004) 452^-59
11. Grundhof er, A., Bimber, O.: Real-time adaptive radiometric compensation. IEEE Transactions on
Visualization and Computer Graphics 14 (2008) 97-108
12. Bimber, O., Emmerling, A., Klemmer, T.: Embedded entertainment with smart projectors. In:
SIGGRAPH '05: ACM SIGGRAPH 2005 Courses, New York, NY, USA, ACM (2005) 8
13. Wetzstein, G., Bimber, O.: Radiometric compensation of global Illumination ef- fects wifh
projector-camera Systems. In: SIGGRAPH '06: ACM SIGGRAPH 2006
Research posters, New York, NY, USA, ACM (2006) 38
14. Noguchi, M., Nayar, S.: Microscopic shape from focus using active Illumination. (1994) A: 147- Samson, E.C., Bianca, C.M.: Dynamic contrast enhancement in widefield mi- croscopy using projector-generated Illumination patterns. New Journal of Physics
9 (2007)
imber, O., Klock, D., Amano, T., Grundhofer, A., Kurz, D.: Closed-loop feedback Illumination for optical inverse tone-mapping in light microscopy. In: To appear in IEEE Transactions on Visualization and Computer Graphics. (2010)
ebevec, P., Malik, J.: Recovering high dynamic ränge radiance maps from pho- tographs. (1997)69-378

Claims

Patentansprüche
1. Verfahren zum Ausgleichen von Beleuchtungsdefiziten bei mikroskopischem„Shape from Focus (SFF)", dadurch gekennzeichnet, dass zuerst die Reflexivität der Szene mittels eines Projektor-Kamera-Systems abgeschätzt wird, und dann mikroskopisches„Shape from Focus (SFF)" auf einen Stapel von Reflexionskarten anstatt auf die ursprünglichen Bilddaten angewandt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Abschätzung iterative Projektion eines adaptiven Beleuchtungsmusters umfasst.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass die mikroskopische Szene von einer adaptiven Beleuchtungsquelle, z.B. einem Mikroprojektor, beleuchtet wird.
PCT/EP2011/062846 2010-07-27 2011-07-26 Ermittlung von defokussierten reflexionskarten für die robuste bestimmung von "shape from focus" in mikroskopbildern Ceased WO2012013686A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
US13/810,831 US9161014B2 (en) 2010-07-27 2011-07-26 Estimation of defocused reflectance maps for the robust determination of “shape from focus” in microscopic images
EP11735670.9A EP2598836B1 (de) 2010-07-27 2011-07-26 Ermittlung von defokussierten reflexionskarten für die robuste bestimmung von "shape from focus" in mikroskopbildern

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
AT0126010A AT509884B1 (de) 2010-07-27 2010-07-27 Mikroskopieverfahren und -vorrichtung
ATA1260/2010 2010-07-27

Publications (1)

Publication Number Publication Date
WO2012013686A1 true WO2012013686A1 (de) 2012-02-02

Family

ID=44628918

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2011/062846 Ceased WO2012013686A1 (de) 2010-07-27 2011-07-26 Ermittlung von defokussierten reflexionskarten für die robuste bestimmung von "shape from focus" in mikroskopbildern

Country Status (4)

Country Link
US (1) US9161014B2 (de)
EP (1) EP2598836B1 (de)
AT (1) AT509884B1 (de)
WO (1) WO2012013686A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021108238A1 (de) 2021-03-31 2022-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Computerimplementiertes Verfahren, Verfahren, Messgerät und Computerprogrammprodukt

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103209307B (zh) * 2013-04-18 2016-05-25 清华大学 编码重聚焦计算摄像方法及装置
CN114777682A (zh) * 2017-10-06 2022-07-22 先进扫描仪公司 生成一个或多个亮度边缘以形成物体的三维模型
DE102017123510A1 (de) * 2017-10-10 2019-04-11 Carl Zeiss Microscopy Gmbh Digitales Mikroskop und Verfahren zum Aufnehmen eines Stapels von mikroskopischen Bildern einer Probe
KR102008890B1 (ko) * 2019-01-25 2019-08-08 단국대학교 산학협력단 3차원 프로파일 측정 방법
US11499817B2 (en) 2020-05-29 2022-11-15 Mitutoyo Corporation Coordinate measuring machine with vision probe for performing points-from-focus type measurement operations
US11328409B2 (en) 2020-09-30 2022-05-10 Mitutoyo Corporation System and method utilizing multi-point autofocus to align an optical axis of an optical assembly portion to be normal to a workpiece surface
EP4227636B1 (de) 2022-02-11 2024-04-17 Carl Zeiss Industrielle Messtechnik GmbH Bestimmung von tiefenwerten eines oberflächenbereichs eines werkstücks
DE102022115020B3 (de) 2022-06-15 2023-09-14 Michael ROMANOWSKI Tiefenscanmesssystem, Tiefenscanmessvorrichtung, Kalibriereinheit und Verfahren zur Kalibrierung einer Tiefenscanmessvorrichtung
DE102022118586A1 (de) 2022-07-25 2024-01-25 Carl Zeiss Industrielle Messtechnik Gmbh Computerimplementiertes Verfahren, Verfahren, Messgerät und Computerprogrammprodukt
DE102022118582B4 (de) 2022-07-25 2025-07-31 Carl Zeiss Industrielle Messtechnik Gmbh Computerimplementiertes Verfahren zum Erzeugen eines korrigierten Bildes mit erweiterter Schärfentiefe, Verfahren, Messgerät und Computerprogrammprodukt
CN115082360B (zh) * 2022-07-27 2022-12-30 中国科学技术大学 连续切片透射电子显微镜图像恢复方法与系统
CN118078213B (zh) * 2024-03-04 2025-09-12 杭州电子科技大学 一种用于散射成像的方法、系统、存储介质及产品

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381236A (en) * 1991-02-12 1995-01-10 Oxford Sensor Technology Limited Optical sensor for imaging an object
US5608529A (en) * 1994-01-31 1997-03-04 Nikon Corporation Optical three-dimensional shape measuring apparatus

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB0802290D0 (en) * 2008-02-08 2008-03-12 Univ Kent Canterbury Camera adapter based optical imaging apparatus
DE102008041070A1 (de) * 2008-08-07 2010-02-11 Robert Bosch Gmbh Verfahren zur Bestimmung der Partikelhöhe
US8358833B2 (en) * 2010-04-27 2013-01-22 Indian Institute Of Technology Madras Recovering 3D structure using blur and parallax

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5381236A (en) * 1991-02-12 1995-01-10 Oxford Sensor Technology Limited Optical sensor for imaging an object
US5608529A (en) * 1994-01-31 1997-03-04 Nikon Corporation Optical three-dimensional shape measuring apparatus

Non-Patent Citations (14)

* Cited by examiner, † Cited by third party
Title
BIMBER, 0., EMMERLING, A., KLEMMER, T.: "SIGGRAPH '05: ACM SIGGRAPH 2005 Courses", EMBEDDED ENTERTAINMENT WITH SMART PROJECTORS., 2005, pages 8
FUJII, K., GROSSBERG, M.D., NAYAR, S.K.: "Proceedings of the 2005 IEEE Computer Society Conference on Computer Vision and Pat- tem Recognition (CVPR'OS", A PROJECTOR-CAMERA SYSTEM WITH REAL-TIMEPHOTOMETRIC ADAPTATION FOR DYNAMIC ENVIRONMENTS., vol. 2, 2005, pages 1180
GROSSBERG, M., PERI, H, NAYAR, S., BELHUMEUR, P.: "Controlling appearance using a projector-camera system.", MAKING ONE OBJECT LOOK LIKE ANOTHER, 2004, pages 452 - 459, XP010708803, DOI: doi:10.1109/CVPR.2004.1315067
GRUNDHOFER, A., BIMBER, 0.: "IEEE Transactions on Visualization and Computer Graphics 14", REAL-TIME ADAPTIVE RADIOMETRIC COMPENSATION., 2008, pages 97 - 108
GU, J, NAYAR, S., GRINSPUN, E., BELHUMEUR, P, RAMAMOORTHI, R., COMPRESSIVE STRUCTURED LIGHT FOR RECOVERING INHOMOGENEOUS PARTICIPATING MEDIA., 2008, pages 845 - 858
HELMLI, F., SCHERER, S., ADAPTIVE SHAPE FROM FOCUS WITH AN ERROR ESTIMATION IN LIGHT MICROSCOPY, 2001, pages 188 - 193
KONINCKX, T, VAN GOOL, L.: "Pattern Analysis and Machine Intelligence", REAL-TIME RANGE ACQUISITION BY ADAPTIVE STRUCTURED LIGHT., 2006, pages 432 - 445
KONINCKX, T.P, PEERS, P., DUTRE, P., VAN GOOL, SCENE-ADAPTED STRUCTURED LIGHT., 2005, pages 611 - 618
MALIK, A., CHOI, T, A NOVEL ALGORITHM FOR ESTIMATION OF DEPTH MAP, 2008, pages 2200 - 2225
NAYAR S K ED - INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS: "Shape from focus system", PROCEEDINGS OF THE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION. CHAMPAIGN, IL, JUNE 15 - 18, 1992; [PROCEEDINGS OF THE COMPUTER SOCIETY CONFERENCE ON COMPUTER VISION AND PATTERN RECOGNITION], NEW YORK, IEEE, US, vol. -, 15 June 1992 (1992-06-15), pages 302 - 308, XP010029341, ISBN: 978-0-8186-2855-9, DOI: 10.1109/CVPR.1992.223259 *
NAYAR, S., NAKAGAWA, Y, SHAPE FROM FOCUS. PATTERN ANALYSIS AND MACHINE INTEL- LIGENCE, 1994, pages 824 - 831
NAYAR, S., NAKAGAWA, Y: "Int. Conf. on Robotics and Automation.", SHAPE FROM FOCUS: AN EFFECTIVE APPROACH FOR ROUGH SURFACES., vol. 1, 1990, pages 218 - 225
NAYAR, S.: "IEEE Conference on Computer Vision and Pattern Recognition (CVPR).", SHAPE FROM FOCUS SYSTEM, 1992, pages 302 - 308
WETZSTEIN, G., BIMBER, 0.: "Radiometric compensation of global illumination ef- fects with projector-camera systems.", ACM SIGGRAPH 2006 RESEARCH POSTERS, 2006, pages 38

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102021108238A1 (de) 2021-03-31 2022-10-06 Carl Zeiss Industrielle Messtechnik Gmbh Computerimplementiertes Verfahren, Verfahren, Messgerät und Computerprogrammprodukt
US12333748B2 (en) 2021-03-31 2025-06-17 Carl Zeiss Industrielle Messtechnik Gmbh Industrial metrology of workpiece surface based on depth map

Also Published As

Publication number Publication date
AT509884B1 (de) 2011-12-15
EP2598836A1 (de) 2013-06-05
EP2598836B1 (de) 2014-06-04
US9161014B2 (en) 2015-10-13
AT509884A4 (de) 2011-12-15
US20130113896A1 (en) 2013-05-09

Similar Documents

Publication Publication Date Title
AT509884B1 (de) Mikroskopieverfahren und -vorrichtung
DE112020004810B4 (de) Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation
DE10081029B4 (de) Bildbearbeitung zur Vorbereitung einer Texturnalyse
EP2728374B1 (de) Erfindung betreffend die Hand-Auge-Kalibrierung von Kameras, insbesondere Tiefenbildkameras
DE102015005267B4 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE102014113433B4 (de) Vorrichtung und Verfahren zur dreidimensionalen Abbildung eines Objekts
EP2353146B1 (de) Vermessung des wachstums von blattscheiben von pflanzen
DE112014006439B4 (de) Kantenerkennungsvorrichtung, Kantenerkennungsverfahren und Programm
DE112008003342T5 (de) Aufzeichnung von 3D-Bildern einer Szene
EP3186776B1 (de) Bildaufnahmevorrichtung und verfahren zur bildaufnahme
DE102010001520A1 (de) Durch einen Flugzeugsensor unterstütztes Iriserfassungssystem und -Verfahren
DE69022143T2 (de) Rechnerische Methoden und elektronische Kameravorrichtung zur Bestimmung der Entfernung von Objekten, zum schnellen Autofokussieren und um eine verbesserte Bildschärfe zu erreichen.
WO2022162216A1 (de) Vorrichtung und verfahren zur korrespondenzanalyse in bildern
DE102006055758B4 (de) Verfahren zur Kalibrierung von Kameras und Projektoren
DE102013204597A1 (de) Verfahren und Vorrichtung zum Bestimmen einer Sichtweite bei Nebel am Tag
DE102014006717A1 (de) Verfahren zur Erzeugung einer dreidimensionalen Information eines Objektes mit einem Digitalmikroskop und Datenverarbeitungsprogramm zur Abarbeitung des Verfahrens
DE102012222361A1 (de) Umgebungserkennungsvorrichtung
WO2015106829A1 (de) Bildaufnahmesimulation in einem koordinatenmessgerät
WO2024022973A1 (de) Computerimplementiertes verfahren, verfahren, messgerät und computerprogrammprodukt
WO2013017618A1 (de) Optische oberflächenabtastung mit strukturierter beleuchtung
DE102023103986A1 (de) Bildverarbeitungsvorrichtung, Bildverarbeitungsverfahren und 3D-Formmessvorrichtung
DE10139846C1 (de) Geometrisches Matching zur Lösung von Lokalisationsproblemen
AT528003B1 (de) Verfahren zur Erfassung von Fingerabdrücken
DE102022105771A1 (de) Computergestütztes Verfahren und Vorrichtung zum Bestimmen von Objekteigenschaften wenigstens eines Objekts in einer Aufnahmeszene
WO2023072837A1 (de) Computergestütztes verfahren und vorrichtung zum bestimmen von objekteigenschaften wenigstens eines objekts in einer aufnahmeszene

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11735670

Country of ref document: EP

Kind code of ref document: A1

DPE1 Request for preliminary examination filed after expiration of 19th month from priority date (pct application filed from 20040101)
WWE Wipo information: entry into national phase

Ref document number: 2011735670

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 13810831

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE