WO2008023629A1 - Image processing device, image processing method, and image processing program - Google Patents

Image processing device, image processing method, and image processing program Download PDF

Info

Publication number
WO2008023629A1
WO2008023629A1 PCT/JP2007/065979 JP2007065979W WO2008023629A1 WO 2008023629 A1 WO2008023629 A1 WO 2008023629A1 JP 2007065979 W JP2007065979 W JP 2007065979W WO 2008023629 A1 WO2008023629 A1 WO 2008023629A1
Authority
WO
WIPO (PCT)
Prior art keywords
spectrum
spectral
image
image processing
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
PCT/JP2007/065979
Other languages
English (en)
French (fr)
Inventor
Satoshi Arai
Tokiya Abe
Masahiro Yamaguchi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to EP07792608.7A priority Critical patent/EP2060903A4/en
Publication of WO2008023629A1 publication Critical patent/WO2008023629A1/ja
Priority to US12/380,137 priority patent/US8068133B2/en
Anticipated expiration legal-status Critical
Ceased legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61KPREPARATIONS FOR MEDICAL, DENTAL OR TOILETRY PURPOSES
    • A61K49/00Preparations for testing in vivo
    • A61K49/001Preparation for luminescence or biological staining
    • A61K49/006Biological staining of tissues in vivo, e.g. methylene blue or toluidine blue O administered in the buccal area to detect epithelial cancer cells, dyes used for delineating tissues during surgery
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/31Investigating relative effect of material at wavelengths characteristic of specific elements or molecules, e.g. atomic absorption spectrometry
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/00Two-dimensional [2D] image generation
    • G06T11/10Texturing; Colouring; Generation of textures or colours
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30024Cell structures in vitro; Tissue sections in vitro

Definitions

  • Image processing apparatus image processing method, and image processing program
  • the present invention relates to an image processing technique for a biological specimen stained with a pigment. Specifically, the present invention displays a pathological specimen from multi-band image data using transmitted illumination.
  • the present invention relates to an image processing apparatus for forming an image for use, an image processing method, and an image processing program.
  • H & E staining is used as standard.
  • Hematoxylin; j is a natural substance taken from the spot, and itself is not dyeable. However, its oxide, hematin, is a basophil dye and binds to negatively charged substances.
  • Deoxyliponucleic acid (DNA) contained in the cell nucleus is negatively charged by the phosphate group contained as a constituent element, so it binds to hematin and is stained blue-violet.
  • hematoxylin has stainability. It is hematin, which is its oxide, but since it is common to use hematoxylin as the name of the dye, follow that.
  • Yeosin is an acidophilic dye that binds to positively charged substances. Whether the amino acid protein is positively or negatively charged is affected by the pH environment, and it tends to be positively charged under acidic conditions. For this reason, acetic acid may be added to the eosin solution. Proteins contained in the cytoplasm are stained from red to light red by binding to eosin.
  • cell nuclei, bone tissue, etc. are stained purple, and cytoplasm, connective tissue, erythrocytes, etc. are stained red, making them easily visible.
  • the observer can grasp the size and positional relationship of the elements constituting the tissue such as the cell nucleus, and can judge the state of the specimen morphologically.
  • Staining biological specimens is a task of fixing pigments using a chemical reaction to biological tissues that originally have individual differences, so it is difficult to always obtain uniform results. Specifically, even when the sample is reacted for the same time with the same concentration of the staining solution, the amount of the fixed dye is not always the same. Depending on the specimen, a relatively large amount of dye may be fixed, or a relatively small amount of dye may be fixed. In the former case, the sample is stained more intensely than usual, while in the latter case, the sample is stained lighter. Some facilities have dyeing technicians with specialized skills to reduce such variations in dyeing. In such a facility, it is possible to reduce dyeing variation within the same facility to some extent by the adjustment work of the craftsman of the dyeing engineer, but it is not possible to reduce even the dyeing variation between other different facilities. Can not.
  • the first problem is that when a human observes visually, the state of the observation target is uneven, which may increase the stress of the observer. In particular, in the case of severe variability, the possibility of overlooking definitive findings cannot be denied.
  • the second problem is that when a stained specimen is imaged with a camera and processed, staining variations can adversely affect processing accuracy. For example, if a lesion is a specific Even if it is known to exhibit a color, it is difficult to extract it automatically from the image. This is because the staining variation disturbs the color change caused by the lesion.
  • Tokiya Abe et al. “Color Correction of Tokiya Abe et al.,” Is a method that determines the problem of such dyeing dispersion by image processing using mano reciprocal band images.
  • a multi-band image is picked up in a frame sequential manner while 16 pan-pass filters are switched by rotating them with a filter wheel.
  • Such an imaging method is disclosed in, for example, Japanese Patent Application Laid-Open No. 7-120 3 2 4.
  • a multiband image having 16-band pixel values at each point of the sample is obtained.
  • Dye is originally distributed three-dimensionally in the stained specimen that is the object of observation, but it cannot be directly captured as a three-dimensional image in a normal transmission observation system, and the illumination light transmitted through the specimen is imaged by the camera. Observed as a two-dimensional image projected onto the device. Therefore, each point of the sample described above means a point on the sample corresponding to each pixel of the projected image sensor.
  • is the wavelength
  • f (b, ⁇ ) is the spectral transmittance of the bth filter
  • s ( ⁇ ) is the spectral sensitivity characteristic of the camera
  • e ( ⁇ ) is the spectral radiation characteristic of the illumination
  • n (b) is This represents the imaging noise in band b.
  • b is a serial number for identifying the band, and here is an integer value satisfying l ⁇ b ⁇ 16.
  • G (x, y) is the pixel value g (x, y, b) at the position (x, y) ) Is a B-by-1 matrix.
  • T (x, y) is a D-by-1 matrix corresponding to t (x, y, ⁇ )
  • F is a ⁇ -row D matrix corresponding to f (b, ⁇ ).
  • S is a D-by-D diagonal matrix with diagonal elements corresponding to s ( ⁇ ).
  • is a D-by-D diagonal matrix with diagonal elements corresponding to e ( ⁇ ).
  • is a B-by-1 column corresponding to n (b).
  • Equation (2) the matrix b is used to aggregate the equations for multiple bands, so the variable b representing the band is not explicitly described. Also, the integral for wavelength ⁇ has been replaced by a matrix product.
  • the spectral transmittance at each point of the specimen is estimated from the captured multiband image. Wiener estimation is used as the estimation method at this time.
  • Wiener estimation is widely known as one of the linear filter methods for estimating the original signal from the noise superimposed signal.
  • the spectral transmittance estimate f (x, y) is calculated by the following equation (3): can do.
  • T (x, y) R ss (FSE) '((FSE) R SS (FSE)' + R NN G (x, y)... (3)
  • R ss is a D-by-D matrix
  • R NN is a B-by-B matrix, and represents the covariance matrix of the camera noise used for imaging
  • () ' is the transposed matrix ( ⁇ 1 represents an inverse matrix.
  • t may be written as ⁇ ⁇ (this notation is also applied to characters other than ⁇ ).
  • the amount of dye at each point (x, y) of the sample is estimated based on the estimated spectral transmittance TT (x, y).
  • hematoxylin hematoxylin
  • eosin stained cytoplasm hematoxylin
  • eosin stained erythrocytes eosin stained erythrocytes.
  • Dye H hematoxylin
  • Dye E eosin stained erythrocytes
  • Dye R the above three types of dyes. Strictly speaking, erythrocytes have their own unique color even without staining, and after H & E staining, the color of erythrocytes themselves and the color of eosin that changed in the staining process. Are superimposed and observed.
  • the color of erythrocytes themselves and the color of eosin that stains erythrocytes are combined and called the dye R.
  • the intensity I of the incident light for each wavelength ⁇ is known that the Lambert-Beer law expressed by the following equation (4) holds between ( ⁇ ) and the intensity of emitted light I). .
  • Equation (4) means the spectral transmittance.
  • d E , and d K are dye H, dye E, and dye R, respectively. Represents the corresponding virtual thickness. Originally, the dye is dispersed in the specimen, so the concept of thickness is not accurate, but in comparison with the assumption that the specimen is stained with a single dye, It is an index that indicates the relative amount of dye that a certain amount of dye is present.
  • d ,,, d E) and d K represent the amounts of dye H, dye E, and dye R, respectively.
  • k und , k E ( ⁇ ), k R ( ⁇ ) Can be easily obtained from Equation (4) by preparing a sample stained with a single dye in advance and measuring its spectral transmittance with a spectrometer.
  • Equation (8) By substituting Equation (8) into Equation (1), it is possible to synthesize an image of a specimen with virtually varying dye amounts. In this case, however, noise n (b) may be calculated as zero.
  • eosin in erythrocytes exhibits a different color from the original color due to the chemical reaction at the time of staining, and it visually behaves as if it is another dye having different spectral characteristics from the original eosin. Because. Therefore, it became clear that eosin contained in the cytoplasm other than erythrocytes should be considered separately from eosin contained in red blood cells.
  • FIG. 10 shows an example of an image generated by the technique of non-patent literature.
  • the red blood cell region 51 R has an unnatural red-orange color as described above.
  • the non-patent document mentioned above aims to solve the problem of dyeing variation by image processing using multiband images.
  • This method works without problems when the target observation range does not include red blood cells and gives good results.
  • red blood cells it is not uncommon for red blood cells to be included in the observation range.
  • red blood cells having an unnatural color are included in the image. This is, This means that the erythrocyte region becomes a new color variation factor even though the staining variability in the cell nucleus and cytoplasm has been corrected, and it can be said that improvement is necessary with the method described above.
  • the present invention has been made in view of the above, and does not cause unnatural color fluctuations in an image, and uses an image process including a function of virtually adjusting the amount of dye to be dyed.
  • An object of the present invention is to provide an image processing apparatus, an image processing method, and an image processing program capable of correcting variations.
  • an image processing apparatus that performs image processing on a captured image, and stores image information related to the image.
  • a storage unit that reads the image information from the storage unit, estimates a spectral spectrum of interest based on the read image information, and the first spectrum estimation unit.
  • a pigment amount estimation unit for estimating a plurality of pigment amounts included in the target using the spectral spectrum of the target estimated by the spectrum estimation unit; and a plurality of pigment amounts estimated by the pigment amount estimation unit
  • the first spectral spectrum is synthesized using the second spectral estimation unit, and the first spectral spectrum synthesized by the second spectral estimation unit.
  • a spectral amount subtraction unit calculates the difference spectrum by subtracting from the spectrum
  • a pigment amount correction unit that corrects at least a part of the plurality of pigment amounts estimated by the pigment amount estimation unit, and a pigment amount corrected by the pigment amount correction unit.
  • a third spectral estimation unit that synthesizes the spectral spectrum of the second spectral spectrum, and the second spectral spectrum combined by the third spectral estimation unit and the difference spectrum.
  • the display image is an RGB image.
  • the number of dyes estimated from the target spectral spectrum is the amount of the dye used for synthesis of the first spectral spectrum. It is characterized by more than the number.
  • the number of dyes estimated from the target spectral spectrum is the amount of the dye used for synthesis of the first spectral spectrum. It is characterized by being equal to a number.
  • the number of dyes used for synthesizing the first spectral spectrum and the dye amount used for synthesizing the second spectral spectrum. Is equal to the number of.
  • the image processing apparatus is characterized in that, in the above invention, the image processing apparatus further includes a display unit for displaying the display image.
  • the image processing apparatus further includes an operation unit to which a correction instruction signal for instructing correction of a dye amount is input.
  • the correction instruction signal includes information on a coefficient used when correcting the dye amount.
  • the operation unit includes any one of a slider, a dial, and a push button.
  • the image processing apparatus is characterized in that, in the above-mentioned invention, the operation unit includes a graphical user interface simulating one of a slider, a dial, and a push button. .
  • the image processing apparatus is characterized in that, in the above invention, the graphical user interface is displayed in the same screen as the display image. Further, in the image processing apparatus according to the present invention, the dye amount correction unit is
  • the dye amount is corrected by multiplying the dye amount by the first coefficient.
  • the image processing apparatus is characterized in that, in the above invention, the dye amount correction unit corrects the dye amount by adding a second coefficient to the dye amount.
  • the dye amount correction unit, the third spectrum estimation unit, the spectrum addition unit, and the image synthesis unit are input by the operation unit.
  • a process based on the content of the correction instruction signal is performed, and the display unit displays the display image reflecting the process based on the content of the correction instruction signal.
  • the object is a stained biological specimen.
  • the object is a pathological specimen.
  • the image processing apparatus is characterized in that, in the above invention, the amount of dye estimated by the dye amount estimation unit includes hematoxylin and eosin. In the image processing apparatus according to the present invention as set forth in the invention described above, the dye amount estimated by the dye amount estimating unit further includes eosin stained with red blood cells.
  • the image processing apparatus is characterized in that, in the above invention, the first spectrum estimation unit uses Wiener estimation when estimating the spectral spectrum of the object. To do.
  • the first spectrum estimation unit uses Lambert-Beer's law when estimating a plurality of dye amounts included in the object. It will be a special floor.
  • An image processing method according to the present invention is an image processing method performed by a computer that is capable of performing image processing on a captured image, and that includes a storage unit that stores image information relating to the image.
  • a first spectrum estimation step for reading out image information from the storage unit, and estimating a target spectral spectrum based on the read-out image information; and the first spectrum estimation step.
  • a pigment amount estimation step for estimating a plurality of pigment amounts contained in the target using the spectral spectrum of the target estimated in step (b), and a plurality of pigment amounts estimated in the pigment amount estimation step.
  • a second spectral estimation step for synthesizing the spectral spectrum of 1 and a subtraction of the first spectral spectrum synthesized in the second spectral estimation step from the target spectral spectrum.
  • the spectral subtraction step for calculating the differential spectrum by the method, the pigment amount correction step for correcting at least a part of the plurality of pigment amounts estimated in the pigment amount estimation step, and the pigment amount correction step.
  • a third spectral estimation step for synthesizing the second spectral spectrum using the amount of pigment; and the second spectral spectrum combined in the third spectral estimation step and the differential spectrum.
  • a spectrum addition step that synthesizes a third spectral spectrum by adding the spectrum and a third spectral spectrum that is synthesized in the spectral addition step.
  • an image synthesis step is
  • An image processing program can perform image processing on a captured image, and the computer having a storage unit that stores image information related to the image is provided with the image information stored in the storage unit.
  • the first spectral estimation step for estimating the spectral spectrum of the target based on the read image information, and the spectral spectrum of the target estimated in the first spectral estimation step.
  • a pigment amount estimation step for estimating a plurality of pigment amounts contained in the object using a spectrum, and a first spectral spectrum is synthesized using the plurality of pigment amounts estimated in the pigment amount estimation step. Subtracting the first spectral spectrum synthesized in the second spectral estimation step from the target spectral spectrum to obtain the differential spectrum.
  • Scan Bae spectrum subtraction step of leaving, estimated by the dye amount estimation step A dye amount correcting step for correcting at least a part of the determined plurality of dye amounts; and a third spectrum for synthesizing the second spectral spectrum using the dye amount corrected in the dye amount correcting step.
  • An estimation step a spectral addition step of synthesizing the third spectral spectrum by adding the second spectral spectrum synthesized in the third spectral estimation step and the differential spectrum.
  • an image synthesis step for synthesizing a display image from the third spectral spectrum synthesized in the spectrum addition step.
  • a spectral spectrum of a target is estimated based on image information relating to a captured image, and a plurality of pixel amounts included in the target are estimated from the estimated spectral spectrum of the target.
  • the first spectral spectrum is synthesized using the estimated plurality of dye amounts, and the synthesized first spectral spectrum is subtracted from the target spectral spectrum to obtain a difference spectrum.
  • a third spectrum is synthesized by adding the spectrum spectrum and the difference spectrum, and a display image is synthesized from the synthesized third spectrum spectrum.
  • FIG. 1 is a diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.
  • FIG. 2 is a diagram showing an outline of the processing of the image processing method according to the embodiment of the present invention.
  • FIG. 3 is a diagram illustrating a configuration of a multi-pand image capturing unit.
  • FIG. 4 is a diagram schematically showing a configuration example of an RGB filter.
  • FIG. 5 is a diagram showing an example of the spectral sensitivity of each of the R, G, and B bands.
  • FIG. 6A shows the spectral transmittance characteristics of the first optical filter.
  • FIG. 6B is a diagram showing the spectral transmittance characteristics of the second optical filter.
  • FIG. 7 is a diagram showing a display example of an RGB image on the display unit.
  • FIG. 8th A The figure shows a configuration example (first example) of the operation unit.
  • FIG. 8B is a diagram showing a configuration example (second example) of the operation unit.
  • FIG. 8C is a diagram showing a configuration example (third example) of the operation unit.
  • FIG. 9A is a diagram showing a configuration example (first example) of a GRAPHCANORE user interface.
  • FIG. 9B is a diagram showing a configuration example (second example) of the graphical user 1 interface.
  • FIG. 9C is a diagram showing a configuration example (third example) of the graphical user interface.
  • FIG. 10 is a diagram showing a display example of an RGB image by the conventional method. BEST MODE FOR CARRYING OUT THE INVENTION
  • a 6-band image of an H & E-stained pathological specimen is captured using two types of optical filters and an RGB camera, and the spectral transmittance characteristics and the amount of dye for each point of interest. Is estimated. After that, the estimated dye amount is corrected, and the converted dye amount is converted again into the spectral transmittance characteristic using the corrected dye amount and converted into the RGB value.
  • the pigment amount of eosin contained in the cytoplasm other than hematoxylin and red blood cells is used when changing from the pigment amount to the spectral transmittance, and the other components are differential spectra. It is characteristic that it is processed as
  • FIG. 1 is a diagram showing a configuration of the image processing apparatus 1 according to the present embodiment.
  • the image processing apparatus 1 shown in the figure includes a multi-pand image capturing unit 101, a first spectrum estimation unit 102, a pigment amount estimation unit 103, a second spectrum estimation unit 104, a spectrum. Tolerance subtraction unit 105, Dye amount correction unit 106, Third spectrum estimation unit 107, Spectral addition unit 108, Image composition unit 109, Display unit 1 10, Operation unit 11 1, Storage unit 1 12 , And a control unit 113 for controlling the overall operation. In FIG. 1, connections from the control unit 113 to each unit are omitted.
  • the image processing apparatus 1 is configured by a computer including a CPU, a ROM and a RAM.
  • FIG. 2 is a diagram showing an outline of the image processing method according to the present embodiment.
  • the functional configuration of the image processing apparatus 1 and the outline of the image processing method will be described with reference to FIG. 1 and FIG.
  • the multiband image capturing unit 101 captures a target specimen as a 6-band multiband image (step S 1).
  • the multiband image capturing unit 101 has a specimen holding unit 1010, an illumination unit 1011, an optical system 1012, an optical finer 1013, an optical finer switching unit 1014, an RGB camera 1015 force, etc.! ⁇ ⁇ ⁇ ; ⁇ ⁇ .
  • the RGB camera 1015 used here is widely used in digital cameras and the like, and has RGB filters arranged in a mosaic pattern on a monochrome image sensor.
  • FIG. 4 is a diagram schematically showing a configuration example of the RGB filter.
  • each pixel can only capture one of the R, G, and B components.
  • the R, G, and B components are insufficient.
  • a method of interpolating the B component is adopted. This method is disclosed in, for example, Japanese Patent No. 3510037.
  • the R, G, and B components in each pixel can be acquired from the beginning.
  • any of the above-described imaging methods may be used. However, in the process described below, Assume that G and B components have been acquired at each pixel of the image captured by RGB camera 1015.
  • the light irradiated by the illuminating unit 1011 passes through the sample O installed in the specimen holding unit 1010.
  • the transmitted light passes through the optical system 1012 and the optical filter 1013 and then forms an image on the image sensor of the RGB camera 1015.
  • the optical filter 1013 may be installed at any position on the optical path from the illumination unit 1011 to the RGB camera 1015.
  • Illumination light from the illumination unit 101 1 passes through the optical system 1012 and R Figure 5 shows an example of the spectral sensitivity of each of the R, G, and B pandas when the image is taken with the GB camera 1015.
  • the optical filter 1013 includes a first optical filter 1013 a having a spectral transmittance characteristic shown in FIG. 6A and a second optical filter 1013 b having a spectral transmittance characteristic shown in FIG. 6B.
  • the optical filter switching unit 1014 switches to the second optical filter 1.013 b and performs second imaging.
  • Each of the first and second imaging results in a 3-band image, and a 6-band multiband image is obtained by combining the results of both.
  • the captured multiband image is stored in the storage unit 112.
  • the first spectral estimation unit 102 force multi-band image imaging unit 101 reads out image information about the 6-band multi-band image from storage unit 112, and based on the read image information Estimate the first spectral transmittance (target spectral spectrum) (step S2). Subsequent processing is performed according to the same procedure as described in the above-mentioned non-patent document, and Wiener estimation is used as the estimation method in step S2 as in the non-patent document. Specifically, the equation described in the background art (3)
  • the spectral transmittance F of the optical filter 1013, the spectral sensitivity characteristic S of the RGB camera 1015, and the spectral radiation characteristic E of the illumination unit 1011 are measured in advance using a spectrophotometer after selecting the equipment to be used. deep. Note that the spectral transmittance of the optical system 1012 is approximated to 1.0 here, but if this deviation from the approximate value 1.0 is unacceptable, The spectral transmittance of the optical system 1 0 1 2 may also be measured in advance and multiplied by the spectral radiation characteristic E of the illumination.
  • the sample spectral transmittance covariance matrix R ss can be obtained by preparing a typical pathological specimen stained with H & E and measuring the spectral transmittance of multiple points with a spectrometer. In this case, in order to improve the statistical accuracy, it is better to measure about 100 points without deviation in the sample.
  • T ′′ (x, y) is stored in the storage unit 1 1 2.
  • the pigment amount estimation unit 1 03 reads out the first spectral transmittance IT (x, y) estimated by the first spectrum estimation unit 1 0 2 from the storage unit 1 1 2, and The amount of dye is estimated by converting the first spectral transmittance (x, y) (step S3).
  • the dyes to be treated here are hematoxylin, eosin stained with cytoplasm, and eosin stained with red blood cells, as in non-patent literature, and are abbreviated as Dye H, Dye E, and Dye R, respectively. Specifically, the following formula derived from Lambert-Beer's law (7)
  • This element corresponds to the wavelength ⁇ of TT (x, y, ⁇ ).
  • Eq. (7) is combined for three wavelengths, ⁇ 2 and ⁇ 3 , and can be expressed as a matrix as Eq. (9).
  • the pigment amount d H d E d R estimated in this way is stored in the storage unit 1 1 2.
  • the second spectral estimation unit 104 reads out the pigment amount estimated by the pigment amount estimation unit 10 3 from the storage unit 1 12, converts the read pigment amount, and converts it into the second component.
  • the light transmittance (first spectral spectrum) is synthesized (step S4).
  • step S 4 the formula (8) force, et term was removed about dye R, the coefficient alpha; "and o; the formula together was obtained by placing a 1 E (1 1) is used.
  • T ** (x, y, X) is a component corresponding to the wavelength ⁇ in the second spectral transmittance.
  • T ** (x, y, ⁇ ) which is a matrix form of t (x, y, ⁇ ) for multiple wavelengths obtained using Equation (1 1), is expressed as T ** ( x, y, ⁇ ) represents the second spectral transmittance.
  • T ** (x, y, ⁇ ) is stored in the storage unit 1 1 2.
  • the spectral subtraction unit 105 stores the first spectral transmittance T ′ (x, y) and the second spectral transmittance T *** (x, y) from the storage unit 1 1 2. Read out and subtract the second spectral transmittance T *** (x, y) from the first spectral transmittance T "(x, y).
  • the reason for obtaining the difference spectrum T (x, y) is as follows.
  • the pixel amount estimation unit 10 3 converts the first spectral transmittance T ”(x, y) estimated by the first spectrum estimation unit 10 2 into a pigment amount.
  • the physical model used is
  • Lambert-Beer's law is that there is no refraction or scattering The assumption is that the attenuation of light passing through a translucent object is formulated, but refraction and scattering can occur in an actual stained specimen. For this reason, when light attenuation due to a stained specimen is modeled using only Lambert-Beer's law, an error associated with this modeling occurs, and the dye estimated from the first spectral transmittance TT (x, y) the amount again Lambert - even by applying the law of Beer calculate the spectral transmittance of the stained sample does not coincide with the generally first spectral transmittance ⁇ ⁇ (x, y).
  • the modeling accuracy including the effects of refraction and scattering is extracted as a difference spectrum and combined with information that can be modeled to improve the overall accuracy.
  • the term relating to the dye R is excluded (formula (11)). See).
  • the second spectral transmittance T ** (x, y) does not include the attenuation due to the dye R. Instead, the light attenuation due to the dye R contained in the first spectral transmittance T (x, y) is later included in the difference spectrum T diff (x, y). It will be passed to the process.
  • the dye amount correction unit 106 performs correction by multiplying the dye amounts d H and d E by a coefficient (first coefficient) ⁇ and E respectively (step S 6).
  • the corrected dye amounts are H d combatand E d E , respectively.
  • the initial values of the coefficients ⁇ personally and c3 ⁇ 4 E are both 1, but as will be described later, these values are input by the operation unit 111. The value can be changed.
  • the coefficient (second coefficient) and ⁇ further introduced, may be corrected dye amount in each a H d "+ / 3" Oyopihi E d E + / 3 E form. In this form, a bias component can be added to the estimated pigment amount, so that a different emphasis effect can be obtained than if only the coefficient is used.
  • 3 farmand are both preferably set to 0.
  • the dye amount corrected in this way is stored in the storage unit 112.
  • the dye amount d K of the dye R is excluded from the correction target because the dye R is hardly affected by the staining state, usually shows a bright red color, and there is no need for correction in practice. It is.
  • Dye R has higher color saturation than Dye H and Dye E, and due to the effects of errors that occur during modeling and calculation processes, coloring in the final output RGB image is unnatural. This tendency is further emphasized by correcting the pigment amount. Therefore, unless there is any positive reason to correct the dye amount d K of dye R, it is preferable to exclude it from the correction target.
  • the dye R is excluded from the correction target but also included in the difference spectrum T (x, y) as described above, so that the region in the region containing the dye R (that is, the red blood cell region) is processed. The effect of errors on the final output RGB image is reduced.
  • the third spectrum estimation unit 107 reads the dye amount corrected by the dye amount correction unit 106 from the storage unit 112, converts the read dye amount,
  • the light transmittance (second spectral spectrum) is synthesized (step S7).
  • the following equation (13) is obtained by removing the term relating to the dye R from the equation (8) force shown in the background art section.
  • ⁇ ( X) y, I) is a component corresponding to the wavelength of the third spectral transmittance.
  • a matrix form of t *** (x, y, ⁇ ) for a plurality of wavelengths obtained using Equation (1 3) is described as (x, y, ⁇ ), and this ⁇ (x, y, ⁇ )
  • the spectral transmittance of 3 is represented.
  • the third spectral transmittance data obtained in this way is stored in the storage unit 1 1 2.
  • the spectrum addition unit 108 obtains the third spectral transmittance T *** (x, y, ⁇ ) obtained by the third spectrum estimation unit 107 and the spectrum subtraction unit 105.
  • the difference spectrum T dirr (x, y, ⁇ ) is read from the storage unit 1 1 2 and added to the fourth spectral transmittance (third spectral spectrum).
  • T (x, y) T w (x, y) + T diff ( X , y) (4) is synthesized (step S8).
  • the fourth spectral transmittance T (x, y) synthesized in this way is stored in the storage unit 112.
  • may be described as T ⁇ .
  • the difference spectrum T (x, y) includes the modeling error due to the effects of scattering and diffusion, and the attenuation of light due to the dye R (eosin that stains red blood cells).
  • the image composition unit 109 reads out the fourth spectral transmittance T— (x, y) from the storage unit 1122, and uses the read fourth spectral transmittance T— (x, y).
  • the RGB image that is the display image is synthesized (step S9). Specifically, when converting T— (x, y) into R GB value G ra (x, y), the following equation (15) is used, excluding the noise component N in equation (2). ..
  • matrix S corresponds to the spectral sensitivity characteristics of RGB camera 1015.
  • the spectral sensitivity characteristics it is easy to use the RGB camera 1015 that captures a multiband image, but other RGB cameras may be used.
  • the process of converting the fourth spectral transmittance T_ (x, y) into RGB values is repeatedly performed for all points (X, y), so that the captured multi-pande image is obtained.
  • An RGB image with the same width and height is obtained.
  • the RGB image synthesized in this way is stored in the storage unit 112.
  • FIG. 7 is a diagram showing a display example of the RGB1H elephant on the display unit 110.
  • the RGB image 41 shown in the figure is obtained by executing the image processing method according to the present embodiment on the same image as the RGB image 51 of FIG. 10 described in the background section. It is an image.
  • this RGB image 41 is compared with the RGB image 51, the red blood cell region 41 R of the RGB image 41 is better than the RGB image 5 It is more reddish than the red blood cell region 5 1 R in 1 and exhibits a more natural hue without causing unnatural color fluctuations in the image.
  • the other areas, but the overall color tone is natural.
  • the display unit 110 can be a general flat panel display (liquid crystal, organic EL, etc.) or a CRT display.
  • a general flat panel display liquid crystal, organic EL, etc.
  • CRT display a CRT display.
  • a mechanism that allows the user to select the RGB image to be displayed it is possible to add a mechanism that allows the user to select the RGB image to be displayed.
  • the user inputs a correction instruction signal for instructing correction of the dye amount by operating the operation unit 11 1 1 while observing the RGB image displayed on the display unit 1 1 0.
  • the correction instruction signal includes, for example, an instruction to change the coefficients ⁇ ; mecanicand a E used in the pixel amount correction unit 106.
  • the operation unit 1 1 1 includes the slider 2 1 (FIG. 8A; ), DIANORE 22 (Fig. 8 B), push button 23 (Fig. 8 C), etc. Also, a graphical user interface that displays these devices in a simulated manner on the screen.
  • One of the interface 3 1 (FIG. 9A), 32 (FIG.
  • FIG. 9B may be displayed on the screen of the display unit 110 and operated by the mouse touch panel.
  • the user can input a correction instruction signal includes a change of coefficient H and alpha E easily.
  • FIGS. 8A to 8C and FIGS. 9A to 9C a device for correcting one dye and a graphic interface are shown. May be configured so that one or a plurality of dye correction instruction signals can be input simultaneously.
  • Step S6 the coefficients ⁇ advocateand Q! E used in the dye amount correcting unit 106 are immediately changed in accordance with the correction instruction signal input from the operation unit 1 1 1, and the dye amount correcting unit 106 is used in the dye amount correcting unit 106.
  • the amount correction processing (Step S6) is executed again.After this dye amount correction processing, the third spectrum estimation unit 10 7, the spectrum addition unit 1 ⁇ 8, The image compositing unit 10 9 performs the above-described processing (steps S 7 to S 9), and the recombined RGB image is displayed on the display unit '1 10 (step S 10).
  • the image processing device 1 When the image processing device 1 is provided with the dye amount correction function by the user described here, by installing a high-speed processor in the image processing device 1, the result of the pixel amount correction operation can be immediately displayed on the RGB image. Therefore, the user can correct the dye amount while confirming the operation, and the operability can be greatly improved. '
  • an unnatural color variation is not caused in the image, and the staining variation is reduced by using the image processing including the function of virtually adjusting the amount of the dye to be dyed. It can be corrected.
  • the modeling error caused by refraction or scattering when applying Lambert-Beer's law to a biological specimen is processed as a differential spectrum, thereby affecting the influence of the modeling error. It is possible to perform highly accurate spectroscopic data processing that is difficult to receive. As a result, a more suitable RGB image can be obtained for visual presentation.
  • the second spectrum estimation unit 104, the dye amount correction unit 10 06, and the third spectrum estimation unit 10 07 exclude the dye R from the target of the dye amount correction.
  • the second spectrum estimation unit 104 and the third spectrum estimation unit 10 07 are separated, but the third spectrum estimation unit 10 07 In If the coefficients advocateand ⁇ are both set to 1, the processing is the same as that of the second spectrum estimation unit 10 4. Therefore, the second spectrum estimation unit 10 4 and the third spectrum estimation unit 1 0 It is also possible to adopt a configuration in which 7 is the same body, and the coefficients are switched and used separately In this way, the device configuration can be simplified and the cost can be reduced.
  • the CPU included in the image processing apparatus 1 reads out an image processing program for executing the image processing method according to the present embodiment from the storage unit 112 and executes arithmetic processing related to the image processing method.
  • the image processing program according to the present embodiment can be widely distributed by recording on a computer-readable recording medium such as a flexible disk, a CD-ROM, a DVD-ROM, and a flash memory.
  • the image processing apparatus 1 may include an auxiliary storage device that can read any of the various recording media described above.
  • the image processing apparatus, the image processing method, and the image processing program according to the present invention are useful for the image processing technique of a biological specimen stained with a pigment, and use a transparent illumination to obtain a pathological specimen. It is suitable for forming a display image from image data captured with multipand.

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Optics & Photonics (AREA)
  • Analytical Chemistry (AREA)
  • Immunology (AREA)
  • Pathology (AREA)
  • Chemical & Material Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Oncology (AREA)
  • Biochemistry (AREA)
  • Epidemiology (AREA)
  • Animal Behavior & Ethology (AREA)
  • Public Health (AREA)
  • Veterinary Medicine (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Biological Materials (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Color Television Image Signal Generators (AREA)
  • Image Analysis (AREA)

Description

画像処理装置、 画像処理方法、 および画像処理プログラム
技術分野
本発明は、 色素によって染色された生体標本の画像処理技術に関連し、 具体的 には、 透過照明を用いて病理標本をマルチバンドで撮像した画像データから表示 明
用画像を形成する画像処理装置、 画像処細 1理方法、 および画像処理プログラムに関 する。
背景技術
生体標本、 特に病理標本では、 臓器摘出によって得たブロック標本や針生検に よつて得た標本を厚さ数ミクロン程度に薄切した後、 様々な所見を得る為に顕微 鏡を用!/、て拡大観察することが広く行われている。 中でも光学顕微鏡を用レ こ透 過観察は、 機材が比較的安価で取り扱いが容易である上、 歴史的に古くから行わ れてきた経緯もあって、 最も普及している観察方法の一つである。 この場合、 薄 切された生体標本は光を殆ど吸収したり散乱したりせず無色透明に近レ、為、 観察 に先立って色素による染色を施すのが一般的である。
従来、 染色手法としては種々のものが提案されており、 その総数は 1 0 0種類 以上にも達するが、 特に病理標本に関しては、 色素として青紫色のへマトキシリ ンと赤色のェォジンの 2つを用いるへマトキシリンーェォジン染色 (以下、 「H & E染色」 と称する) が標準的に用いられている。
へマトキシリンは; j直物から採取された天然の物質であり、 それ自身には染色性 がない。 し力 し、 その酸化物であるへマチンは好塩基性の色素であり、 負に帯電 した物質と結合する。 細胞核に含まれるデォキシリポ核酸 (D NA) は、 構成要 素として含むリン酸基によって負に帯電しているため、 へマチンと結合して青紫 色に染色される。 なお、 前述した通り、 染色性を有するのはへマトキシリンでは なく、 その酸化物であるへマチンであるが、 色素の名称としてはへマトキシリン を用いるのが一般的であるため、 以下それに従う。
ェォジン'は好酸性の色素であり、 正に帯電した物質と結合する。 ァミノ酸ゃタ ンパク質が正負どちらに帯電するかは p H環境に影響を受け、 酸性下では正に帯 電する傾向が強くなる。 このため、 ェォジン溶液には酢酸を加えて用いることが ある。 細胞質に含まれるタンパク質は、 ェォジンと結合して赤から薄赤に染色さ れる。
H& E染色後の標本では、 細胞核、 骨組織等が胄紫色に、 細胞質、 結合織、 赤 血球等が赤色にそれぞれ染色され、 容易に視認できるようになる。 その結果、 観 察者は、 細胞核等の組織を構成する要素の大きさや位置関係等を把握することが でき、 標本の状態を形態学的に判断することが可能となる。
生体標本の染色は、 元々個体差を有する生体組織に対し、 化学反応を用いて色 素を固定する作業であるため、 常に均一な結果を得ることが難しい。 具体的には 、 同一濃度の染色液に同一時間標本を反応させた場合でも、 固定される色素の量 が同程度であるとは限らない。 標本によっては比較的多くの色素が固定される場 合や、 比較的少ない色素しか固定されない場合がある。 前者の場合には通常より 濃く染色された標本となる一方、 後者の場合には薄く染色された標本となる。 こ のような染色のばらつきを抑えるため、 専門の技能を有した染色技師を配置して いる施設もある。 このような施設においては、 染色技師の職人的な調整作業によ つて同一施設内での染色ばらつきをある程度軽減することはできるが、 他の異な る施設との間の染色ばらつきまで軽減することはできない。
上述した染色ばらつきには、 2つの問題がある。 第 1の問題は、 人間が目視観 察する場合、 観察対象の状態が不揃いであることが観察者のストレスに槃がる可 能性がある点である。 特に重度のばらつきが生じている場合には、 決定的な所見 を見落とす可能性も否定できない。
第 2の問題は、 染色標本をカメラで撮像して画像処理する場合、 染色ばらつき が処理精度に悪影響を及ぼす可能性がある点である。 例えば、 ある病変が特定の 色を呈することが判っていたとしても、 画像から自動的にそれを抽出することが 難しくなる。 病変による色変化を染色ばらつきが撹乱してしまうからである。 このような染色ばらつきの問題を、 マノレチバンド画像を用いた画像処理によつ て角決する手法が、 Tokiya Abe et al. , "Color Correction of
Pathological Images Based on Dye Amount Quantification", OPTICAL REVIEW Vol. 12, No. 4 (2005) 293 - 300 (以下、 非特許文献という) において 開示されている。 この非特許文献では、 マルチバンド画像から染色標本に固定さ れた色素の相対的な量 (色素量) を所定の物理モデルに基づいて推定する。 次に 、 推定された色素量を仮想的に増減させ、 更に増減後の色素量を用いて仮想的な 標本のカラー画像を合成する。 色素量の増減を適切に行えば、 濃く染色された標 本や薄く染色された標本を、 適切に染色された標本と同等の色を有する画像に補 正することができる。 以下、 上述した非特許文献で開示されている画像の補正技 術についてより詳しく説明する。
先ず、 1 6枚のパンドパスフィルタをフィルタホ'ィールで回転させて切り替え ながら、 面順次方式でマルチバンド画像を撮像する。 このような撮像方式は、 例 えば特開平 7— 1 2 0 3 2 4号公報で開示されている。 この撮像方式により、 標 本の各点において 1 6バンドの画素値を有するマルチバンド画像が得られる。 色素は、 本来観察対象となる染色標本内に 3次元的に分布しているが、 通常の 透過観察系ではそのまま 3次元像として捉えることは出来ず、 標本内を透過した 照明光をカメラの撮像素子上に投影した 2次元像として観察される。 従って、 上 述した標本の各点とは、 投影された撮像素子の各画素に対応する標本上の点を意 味している。
撮像された画像の位置 (x , y ) 、 バンド bにおける画素値 g ( x , y , b ) と 、 対応する標本上の点の分光透過率 t ( x , y , λ ) の間には、 次式 (1 ) の関係 が成り立つ。
g(x, y, b) - f f (b, λ) 8(λ) β(λ) t(x, y, λ) άλ + n(b) …ひ) ここで、 λは波長、 f (b, λ) は b番目のフィルタの分光透過率、 s (λ) は カメラの分光感度特性、 e (λ) は照明の分光放射特性、 n (b) はバンド bに おける撮像ノィズをそれぞれ表す。 なお、 bはバンドを識別する通し番号であり 、 ここでは l≤ b≤ 1 6を満たす整数値である。
実際の計算では、 式 (1) を波長方向に離散化した次式 (2) を用いる。 G(x,y) = FSET(x,y) + N ·'·(2)
ここで、 波長方向のサンプル点数を D、 バンド数を Bとすれば (伹し B= 1 6) 、 G (x, y) は位置 (x, y) における画素値 g (x, y, b) に対応する B行 1 列の行列である。 同様に、 T (x, y) は t (x, y, λ) に対応する D行 1列の 行列、 Fは f (b, λ) に対応する Β行 D列の行列である。 Sは D行 D列の対角 行列であり、 対角要素が s (λ) に対応している。 Εも D行 D列の対角行列であ り、 対角要素が e (λ) に対応している。 Νは n (b) に対応する B行 1列の行 列である。 式 (2) では、 行列を用いて複数のバンドに関する式を集約している ため、 バンドを表す変数 bが陽に記述されていない。 また、 波長 λに関する積分 は行列の積に置き換えられている。
次に、 撮像したマルチバンド画像から、 標本の各点における分光透過率を推定 する。 この際の推定手法としては、 Wiener推定を用いる。
Wiener推定は、 ノィズが重畳された信号から原信号を推定する線形フィルタ 手法の一つとして広く知られており、 分光透過率の推定値 f(x, y)は、 次式 (3) で計算することができる。
T(x, y) = Rss (FSE)' ((FSE)RSS (FSE)' +RNN G(x, y) … (3) ここで、 Rssは D行 D列の行列であり、 対象とする標本の分光透過率の共分散 行列を表す。 RNNは B行 B列の行列であり、 撮像に使用するカメラのノイズ の共分散行列を表す。 また、( ) 'は転置行列を、 ( Γ1は逆行列をそれぞれ表 す。 以下、 tを ΤΛと記載することがある (この記載法は、 Τ以外の文字の場 合にも適用される) 。 次に、 推定された分光透過率 TT (x, y) に基づいて、 標本の各点 (x, y) における色素量を推定する。 ここで推定の対象とする色素は、 へマトキシリン、 細胞質を染色したェォジン、 赤血球を染色したェォジンの 3種類である。 以後、 簡単のため、 前述した 3種類の色素を順に色素 H、 色素 E、 色素 Rと略記する。 なお、 厳密に言えば、 染色を施さない状態であっても赤血球はそれ自身特有の色 を有しており、 H&E染色後は、 赤血球自身の色と染色過程において変ィ匕したェ ォジンの色が重畳して観察される。 よって、 正確には赤血球自身の色と赤血球を 染色したェォジンの色とを重畳して両者を併せたものを色素 Rと呼称する。 一般に、 光を透過する物質では、 波長 λ毎に入射光の強度 I。 (λ) と射出光 の強度 I ) との間に、 次式 (4) で表される Lambert - Beerの法則が成り立 つことが知られている。 .
-^ = exp(-k( )-d) …
ί0、ん)
ここで k (λ) は、 波長; に依存して決まる物質固有の値、 dは物質の厚さを表 す。 また、 式 (4) の左辺は分光透過率を意味している。
H&E染色標本が色素 H、 色素 E、 色素 Rの 3種類の色素で染色されている場 合、 Lambert- Beerの法則により各波長; Iにおいて次式 (5) が成り立つ。
= exp (- (kH (λ) · dH + kE (λ) - dE + kR (λ) - dR )) -(5) ここで、 k„ (λ) , kE (え) , kR (λ) は、 それぞれ色素 Η、 色素 Ε、 色素 R に対応した k (λ) を表す。 また d„, dE, dKは、 それぞれ色素 H、 色素 E、 色 素 Rに対応した仮想的な厚さを表す。 本来、 色素は標本中に分散して存在するた め、 厚さという概念は正確ではないが、 標本が単一の色素で染色されていると仮 定した場合と比較して、 相対的にどの程度の量の色素が存在しているか、 という 相対的な色素量を表す指標となる。 即ち、 d,,, dE) dKは、 それぞれ色素 H、 色 素 E、 色素 Rの色素量を表していると言える。 k„ (λ) , kE (λ) , kR (λ) は、 単一の色素で染色した標本を予め作成し、 その分光透過率を分光計で測定す れぱ、 式 (4) から容易に求めることができる。
式 (5) の両辺の自然対数を取ると、 次式 (6) が得られる。 .
- log = kH (λ) · dH + kE (λ) - dE + kR (λ) - dR -(6) 式 (3) を用いて求めた標本上の位置 (x, y) における分光透過率の推定値 T" (x, y) の波長 λに対応する要素を t' (x, y, λ) と表記し、 この t" (x, y, λ) を式 (6) に代入することによって次式 (7) を得る。
一 log t(x, y, λ) = lcH (λ) -dH+kE (λ) · dB + kR (λ) ' dR … (7)
この式 (7) において、 未知変数は d„, dE, dRの 3つであるから、 少なくとも 3つの異なる波長; Lに対して式 (7) を連立させて解くことができる。 より精度 を高める為に、 4つ以上の異なる波長; Lに対して式 (7) を連立させ、 重回帰分 析を行っても良い。 ,
色素量 dH, dE, dKがー度求まれば、 これを修正することによって標本におけ る色素量の変ィ匕をシミュレートすることができる。 即ち、 適当な係数 αΗ, αΕ) ακをそれぞれ d„, dE, dRに乗じて式 (5) に代入すれば、 新たな分光透過率 t* (x, y, λ) として次式 (8) を得る。
t* (x, y, λ) = exp (- (kH (λ) - HdH + kB (λ)·αΕάΕ +¾:κ(λ) -aRdR)) ··· (8)
この式 (8) を式 (1) に代入すれば、 色素量を仮想的に変化させた標本の画像 を合成することができる。 ただしこの場合には、 ノイズ n (b) をゼロとして計 算して良い。
以上の手順により、 染色標本の色素量を仮想的に調整することが可能となる。 適当なユーザーインターフェースを用意ずれば、 ユーザーが自ら色素量の調整を 行い、 その結果を画像で碓認できるようになる。 従って、 染色標本に染色ばらつ きがあっても、 ユーザーは適正な染色状態に調整してから観察することが可能と なり、 染色ばらつきの問題を解決することができる。 発明の開示
ところで、 上述した非特許文献に記載の手法を、 実在する H& E染色された多 数の病理標本に適用してみたところ、 以下のような問題があることが判明した。 第 1に、 標本内に固定された 2種類の色素、 へマトキシリンとェォジンの空間 色素量分布を推定してみると、 細胞核におけるへマトキシリンの色素量や細胞質 におけるェォジンの色素量は問題無く推定できる一方、 赤血球におけるェォジン の色素量が不自然に大きな値として推定されることが判った。 これは、 染色時の 化学反応により、 赤血球内のェォジンが本来とは異なる色を呈するためであり、 視覚的には本来のェォジンとは異なる分光特性を有する別の色素であるかのよう に振る舞うためである。 従って、 赤血球以外の細胞質に含まれるェォジンと赤血 球に含まれるェォジンとは分けて考える必要があることが判明した。
第 2に、 色素をへマトキシリン、 赤血球以外の細胞質に含まれる通常のェォジ ン、 赤血球に含まれる変化したェォジンの 3種類として、 色素量の空間分布を推 定したところ、 一見して 3種それぞれの色素量が問題なく推定でき、 結果にも不 自然さがないように感じられた。 しかしながら、 実際に推定された色素量分布上 の点で Lambert- Beerの法則を用いてその色素量に対応する分光透過率特性を導 出し、 更に撮像系の分光感度特性を用いて: G B値に変換してみると、 赤血球領 域が本来の赤色とは異なった、 不自然な赤橙色を呈することが判明した。 推定さ れた色素量分布を係数補正した上で、 上記手順によって R G B値に変換すると、 赤血球領域の色の不自然さは更に強調される傾向があることも判った。 図 1 0に 、 非特許文献の手法によって生成した画像の例を示す。 同図に示す R G B画像 5 1では、 赤血球領域 5 1 Rが上記の如く不自然な赤橙色を呈している。
上述した非特許文献は、 マルチバンド画像を用いた画像処理によって染色ばら つきの問題を解決することを目的としていた。 この手法は、 対象の観察範囲に赤 ' 血球が含まれない場合は問題なく機能し、 良好な結果が得られる。 しかしながら 、 実際には、 観察範囲に赤血球が含まれることは珍しいことではなく、 このよう な場合には不自然な色を呈する赤血球が画像内に含まれることとなる。 これは、 細胞核や細胞質での染色ばらつきが補正されたにも関わらず、 赤血球領域が新た な色の変動要因となることを意味し、 上述した手法で改善が必要な点であると言 える。
本発明は、 上記に鑑みてなされたものであって、 画像内に不自然な色変動を引 き起こすことがなく、 染色色素量を仮想的に調整する機能を含めた画像処理を用 いて染色ばらつきを補正することができる画像処理装置、 画像処理方法、 および 画像処理プログラムを提供することを目的とする。
上述した課題を解決し、 目的を達成するために、 本発明に係る画像処理装置は 、 撮像された画像に対して画像処理を施す画像処理装置であって、 前記画像に関 する画像情報を記憶する記憶部と、 前記画像情報を前記記憶部から読み出し、 こ の読み出した前記画像情報をもとに対象の分光スぺクトルを推定する第 1のスぺ クトノレ推定部と、 前記第 1のスぺクトル推定部で推定された対象の分光スぺクト ルを用いて前記対象に含まれる複数の色素量を推定する色素量推定部と、 前記色 素量推定部で推定された複数の色素量を用いて第 1の分光スぺクトルを合成する 第 2のスぺクトル推定部と、 前記第 2のスぺクトル推定部で合成された第 1の分 光スぺクトルを前記対象の分光スぺクトルから減算することによって差分スぺク トルを算出するスぺクトル減算部と、 前記色素量推定部で推定された複数の色素 量の少なくとも一部を補正する色素量補正部と、 前記色素量補正部で補正された 色素量を用いて第 2の分光スぺクトルを合成する第 3のスぺ トル推定部と、 前 記第 3のスぺクトノレ推定部で合成された第 2の分光スぺクトルと前記差分スぺク トルとを加算することによって第 3の分光スぺクトルを合成するスぺクトル加算 部と、 前記スぺクトル加算部で合成された第 3の分光スぺクトルから表示用画像 を合成する画像合成部と、 を備えたことを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記表示用画像は R G B画像であることを特徴とする。 また、 本発明に係る画像処理装置は、 上記発明において、 前記対象の分光スぺ クトルから推定される色素量の数が、 前記第 1の分光スぺク トルの合成に使用さ れる色素量の数より多いことを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記対象の分光スぺ クトルから推定される色素量の数が、 前記第 1の分光スぺク トルの合成に使用さ れる色素量の数と等しいことを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記第 1の分光スぺ ク トルの合成に使用される色素量の数と前記第 2の分光スペク トルの合成に使用 される色素量の数とが等しいことを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記表示用画像を表 示する表示部をさらに備えたことを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 色素量の補正を指示 する補正指示信号が入力される操作部をさらに備えたことを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記補正指示信号に は、 前記色素量を補正する際に用いる係数に関する情報が含まれることを特徴と する。
また、 本発明に係る画像処理装置は、 上記発明において、 前記操作部は、 スラ ィダー、 ダイヤル、 およびプッシュボタンのうちいずれか一つを含むことを特徴 とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記操作部は、 スラ イダー、 ダイヤル、 およぴプッシュボタンのレ、ずれか一つを模したグラフィカル ユーザーインターフェースを含むことを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記グラフィカルュ 一ザーィンターフェースは、 前記表示用画像と同一の画面内に表示されることを 特徴とする。 また、 本発明に係る画像処理装置は、 上記発明において、 前記色素量補正部は
、 第 1の係数を前記色素量に乗じることによつて前記色素量を補正することを特 徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記色素量補正部は 、 第 2の係数を前記色素量に加えることによって前記色素量を補正することを特 徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記色素量補正部、 前記第 3のスペクトル推定部、 前記スペクトル加算部、 および前記画像合成部は 、 前記操作部によつて入力された前記補正指示信号の内容に基づく処理を行レ、、 前記表示部は、 前記補正指示信号の内容に基づく処理が反映された前記表示用画 像を表示することを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記対象は染色され た生体標本であることを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記刘—象は病理標本 であることを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記色素量推定部で 推定される色素量は、 へマトキシリンおよぴェォジンを含むことを特徴とする。 また、 本発明に係る画像処理装置は、 上記発明において、 前記色素量推定部で 推定される色素量は、 赤血球を染色したェォジンをさらに含むことを特徴とする 。
また、 本発明に係る画像処理装置は、 上記発明において、 前記第 1のスぺタト ル推定部は、 前記対'象の分光スぺクトルを推定する際に Wiener推定を用いるこ とを特徴とする。
また、 本発明に係る画像処理装置は、 上記発明において、 前記第 1のスぺタト ル推定部は、 前記対象に含まれる複数の色素量を推定する際に Lambert- Beerの 法則を用いることを特 ί敷とする。 本発明に係る画像処理方法は、 撮像された画像に対して画像処理を施すことが 可能であり、 前記画像に関する画像情報を記憶する記憶部を備えたコンピュータ が行う画像処理方法であって、 前記画像情報を前記記憶部から読み出し、 この読 み出した前記画像情報をもとに対象の分光スぺクトルを推定する第 1のスぺクト ル推定ステップと、 前記第 1のスぺクトル推定ステップで推定された対象の分光 スぺクトルを用いて前記対象に含まれる複数の色素量を推定する色素量推定ステ ップと、 前記色素量推定ステップで推定された複数の色素量を用いて第 1の分光 スぺクトルを合成する第 2のスぺクトル推定ステップと、 前記第 2のスぺクトル 推定ステップで合成された第 1の分光スぺクトルを前記対象の分光スぺクトルか ら減算することによって差分スぺクトルを算出するスぺクトル減算ステップと、 前記色素量推定ステップで推定された複数の色素量の少なくとも一部を補正する 色素量補正ステップと、 前記色素量補正ステップで補正された色素量を用いて第 2の分光スぺクトルを合成する第 3のスぺクトル推定ステップと、 前記第 3のス ぺクトル推定ステップで合成された第 2の分光スぺクトルと前記差分スぺクトル とを加算することによって第 3の分光スぺクトルを合成するスぺクトル加算ステ ップと、 前記スぺクトル加算ステップで合成された第 3の分光スぺクトルから表 示用画像を合成する画像合成ステツプと、 を有することを特徴とする。
本発明に係る画像処理プログラムは、 撮像された画像に対して画像処理を施す ことが可能であり、 前記画像に関する画像情報を記憶する記憶部を備えたコンビ ユータに、 前記画像情報を前記記憶部から読み出し、 この読み出した前記画像情 報をもとに対象の分光スぺクトルを推定する第 1のスぺクトル推定ステップ、 前 記第 1のスぺクトル推定ステップで推定された対象の分光スぺクトルを用いて前 記対象に含まれる複数の色素量を推定する色素量推定ステップ、 前記色素量推定 ステップで推定された複数の色素量を用いて第 1の分光スぺクトルを合成する第 2のスペクトル推定ステップ、 前記第 2のスペクトル推定ステップで合成された 第 1の分光スぺクトルを前記対象の分光スぺクトルから減算することによって差 分スぺクトルを算出するスぺクトル減算ステップ、 前記色素量推定ステップで推 定された複数の色素量の少なくとも一部を補正する色素量補正ステップ、 前記色 素量補正ステップで補正された色素量を用いて第 2の分光スぺクトルを合成する 第 3のスぺクトル推定ステップ、 前記第 3のスぺクトル推定ステップで合成され た第 2の分光スぺクトルと前記差分スぺクトルとを加算することによって第 3の 分光スぺクトルを合成するスぺクトル加算ステップ、 前記スぺクトル加算ステツ プで合成された第 3の分光スぺクトルから表示用画像を合成する画像合成ステツ プ、 を実行させることを特徴とする。
本発明によれば、 撮像した画像に関する画像情報をもとに対象の分光スぺクト ルを推定し、 推定された対象の分光スぺクトルから前記対象に含まれる複数の色 素量を推定し、 この推定された複数の色素量を用いて第 1の分光スペクトルを合 成し、 合成された第 1の分光スぺクトルを前記対象の分光スぺクトルから減算す ることによって差分スぺクトルを算出する一方、 推定された複数の色素量の少な くとも一部を補正し、 この補正された色素量を用いて第 2の分光スぺクトルを合 成した後、 合成された第 2の分光スぺクトルと前記差分スぺクトルとを加算する ことによって第 3の分光スペクトルを合成し、 この合成された第 3の分光スぺク トルから表示用画像を合成することにより、 画像内に不自然な色変動を引き起こ すことがなく、 染色色素量を仮想的に調整する機能を含めた画像処理を用いて染 色ばらつきを補正することができる。 図面の簡単な説明
第 1図は、 本発明の一実施の形態に係る画像処理装置の構成を示す図である。 第 2図は、 本発明の一実施の形態に係る画像処理方法の処理の概要を示す図であ る。 第 3図は、 マルチパンド画像撮像部の構成を示す図である。 第 4図は、 R G Bフィルタの構成例を模式的に示す図である。 第 5図は、 R, G, B各バンドの 分光感度の例を示す図である。 第 6 A図は、 第 1の光学フィルタの分光透過率特 性を示す図である。 第 6 B図は、 第 2の光学フィルタの分光透過率特性を示す図 である。 第 7図は、 表示部における R G B画像の表示例を示す図である。 第 8 A 図は、 操作部の構成例 (第 1例) を示す図である。 第 8B図は、 操作部の構成例 (第 2例) を示す図である。 第 8 C図は、 操作部の構成例 (第 3例) を示す図で ある。 第 9 A図は、 グラフィカノレユーザーインターフェースの構成例 (第 1例) を示す図である。 第 9B図は、 グラフィカルユーザ1 fンターフェースの構成例 (第 2例) を示す図である。 第 9 C図は、 グラフィ力ルユーザーインターフエ一 スの構成例 (第 3例) を示す図である。 第 10図は、 従来法による RGB画像の 表示例を示す図である。 発明を実施するための最良の形態
以下、 添付図面を参照して本発明を実施するための最良の形態 (以後、 「実施 の形態」 と称する) 'を説明する。
本発明の一実施の形態では、 2種類の光学フィルタと R G Bカメラとを用いて 、 H&E染色された病理標本の 6バンド画像を撮像し、 対象の各点に対して分光 透過率特性と色素量とを推定する。 その後、 推定された色素量を補正し、 補正後 の色素量を用いて再度分光透過率特性に変換し、 RGB値に変換する。 本実施の 形態においては、 色素量から分光透過率への変^ ¾の際にへマトキシリンと赤血球 以外の細胞質に含まれるェォジンの色素量のみを用レ、、 他の成分は差分スぺク ト ルとして処理する点が特徴的である。
図 1は、 本実施の形態に係る画像処理装置 1の構成を示す図である。 同図に示 す画像処理装置 1は、'マルチパンド画像撮像部 101、 第 1のスぺク トル推定部 102、 色素量推定部 103、 第 2のスぺク トル推定部 104、 スぺク トル減算 部 105、 色素量補正部 106、 第 3のスぺク トル推定部 107、 スぺク トル加 算部 108、 画像合成部 109、 表示部 1 10、 操作部 11 1、 記憶部 1 12、 およびこれら全体の動作を制御する制御部 1 13を備える。 なお、 図 1において 、 制御部 1 13から各部への接続は省略している。 この画像処理装置 1は、 CP U、 ROMヽ RAM等を備えたコンピュータによって構成される。 図 2は、 本実施の形態に係る画像処理方法の概要を示す図である。 以下、 図 1 および図 2を用いて、 画像処理装置 1の機能構成および画像処理方法の概要を説 明する。
先ず、 マルチバンド画像撮像部 101において、 対象となる標本を 6バンドの マルチバンド画像として撮像する (ステップ S 1 ) 。 マルチバンド画像撮像部 1 01は、 図 3に示すように、 標本保持部 1010、 照明部 1011、 光学系 10 12、 光学フイノレタ 1013、 光学フイノレタ切り替え部 1014、 RGBカメラ 1015力、ら;!冓成さ;τる。
ここで使用する RGBカメラ 1015は、 デジタルカメラ等で広く用いられて いるものであり、 モノクロの撮像素子上にモザイク状に RGBフィルタを配置し たものである。 図 4は、 RGBフィルタの構成例を模式的に示す図である。 同図 に示す RGBフィルタ 200を用いる場合、 各画素は R, G, Bいずれかの成分 しか撮像することができないが、 各々の近傍の画素値を利用することにより、 不 足する R, G, B成分を補間する手法が採用される。 なお、 この手法は、 例えば 特許第 3510037号公報で開示されている。
これに対して、 3 CCDタイプのカメラを用いて撮像することも可能である。 この場合には、 最初から各画素における R, G, B成分を取得することができる 本実施の形態では、 上述したうちいずれの撮像方法を用いても構わないが、 以 下に説明する処理では、 RGBカメラ 1015で撮像された画像の各画素におい て G, B成分が取得できているものとする。
照明部 101 1によって照射された光は、 標本保持部 1010に設置された標 本 Oを透過する。 透過光は光学系 1012及ぴ光学フィルタ 1013を経由した 後、 RGBカメラ 1015の撮像素子上に結像する。 光学フィルタ 1013は、 照明部 1011から RGBカメラ 1015に至る光路上のいずれかの位置に設置 されていれば良い。 照明部 101 1からの照明光を、 光学系 1012を経由し R GBカメラ 1015で撮像する際の R, G, B各パンドの分光感度の例を図 5に 示す。
光学フイノレタ 1013は、 図 6 Aに示す分光透過率特性を有する第 1の光学フ ィルタ 1013 aおよび図 6 Bに示す分光透過率特性を有する第 2の光学フィル タ 1013 bから構成されており、 例えば最初に第 1の光学フィルタ 1013 a を用いて第 1の撮像を行った後、 光学フィルタ切り替え部 1014によって第 2 の光学フィルタ 1.013 bへ切り替えられ、 第 2の撮像を行う。 第 1および第 2 の撮像ではそれぞれ 3バンドの画像が得られ、 両者の結果を合わせることによつ て 6バンドのマルチバンド画像が得られる。 撮像されたマルチバンド画像は、 記 憶部 1 12に記憶される。
次に、 第 1のスぺクトル推定部 102力 マルチバンド画像撮像部 101で撮 像された 6パンドのマルチバンド画像に関する画像情報を記憶部 112から読み 出し、 この読み出した画像情報をもとに第 1の分光透過率 (対象の分光スぺクト ル) を推定する (ステップ S 2) 。 以後の処理は、 上述した非特許文献に記載さ れたのと同様の手順に従って行い、 このステップ S 2における推定手法として、 非特許文献と同様に Wiener推定を用いる。 具体的には、 まず背景技術でも説明 した式 (3)
f(x, y) = Rss (FSE)'、(FSE)RSS (FSE)' + RNN )— 1 G(x, y) -(3)
を用いてマルチバンド画像上の点 (x, y) における画素値の行列表現
G (x, y) を変換することで対応する標本上の点における分光透過率の行列表 現 T" (x, y) を推定する。 このとき、 (x, y) は第 1の分光透過率の推定 値を表す。 以後、 分光透過率の推定値のことを単に 「分光透過率」 と称する。 な お、 式 (3) の各記号の意味は、 背景技術の項で説明した通りである。
ここで、 光学フィルタ 1013の分光透過率 F、 RGBカメラ 1015の分光 感度特性 S、 照明部 1011の分光放射特性 Eは、 使用する機器を選定の後、 分 光計を用レヽて予め測定しておく。 なお、 ここでは光学系 1012の分光透過率は 1.0と近似しているが、 この近似値 1.0からの乖離が許容できない場合には、 光学系 1 0 1 2の分光透過率も予め測定し、 照明の分光放射特性 Eに乗じておけ ばよい。
標本の分光透過率の共分散行列 Rssは、 H&E染色された典型的な病理標本を 用意し、 複数の点の分光透過率を分光計で測定することによって得られる。 この 際には、 統計的な精度を高める為に、 標本内での偏り無く 1 00点程度の測定を 行った方が良い。 これに対して、 カメラのノイズの共分散行列 Rwは、 標本を設 置しない状態でマルチパンド画像撮像部 1 0 1による第 1および第 2の撮像を行 レ、、 得られた 6バンドの画像の各バンドについて画素値の分散を求め、 これを対 角成分とする行列を生成することによって得られる。 但し、 バンド間でノイズの 相関は無いと仮定している。 このようにして得られた第 1の分光透過率
T" (x, y) は、 記憶部 1 1 2に記憶される。
続いて、 色素量推定部 1 03は、 第 1のスぺクトル推定部 1 0 2で推定された 第 1の分光透過率 IT (x, y) を記憶部 1 1 2から読み出し、 この読み出した第 1の分光透過率 (x, y) を変換することで色素量の推定を行う (ステップ S 3) 。 ここで処理の対象とする色素は、 非特許文献と同様、 へマトキシリン、 細 胞質を染色したェォジン、 赤血球を染色したェォジンであり、 それぞれ色素 H、 色素 E、 色素 Rと略記する。 具体的な処理は、 Lambert-Beerの法則より導かれ た次式 (7)
一 log t(x, y, λ) = 1¾ (λ) - dH + kB (λ) . dE + kR (λ) · dR ··· (7)
を複数の波長; lに関して連 させ、 これを dfl, dE, dKについて解く。 式 (7) の各記号の意味は上述した通りであり、 特に t ' (x, y, λ) は行列
TT (x, y, λ) の波長 λに対応する要素である。
一例として、 3つの波長 い λ2, λ3について式 (7) を連立させた場合を考 えると、 次式 (9) のように行列表記できる。
- logt(x, γ,λ,)
一 logt(x, y, 2)
-logt(x,yA3)
Figure imgf000018_0001
dRは、 次式 (1 0) のように計算さ Lる c
•(10)
Figure imgf000019_0001
このようにして推定された色素量 dH dE dRは、 記憶部 1 1 2に記憶される。 この後、 第 2のスぺクトル推定部 1 04は、 色素量推定部 1 0 3で推定された 色素量を記憶部 1 1 2から読み出し、 この読み出した色素量を変換して第 2の分 光透過率 (第 1の分光スぺク トル) を合成する (ステップ S 4) 。 このステップ S 4では、 式 (8) 力、ら色素 Rに関する項を除去し、 係数 α;„および o;Eをともに 1とおくことにより得た次式 (1 1) を用いる。
t** (X, y, λ) = exp (― (kH (λ) . dH + kE (λ) · dE )) (11)
ここで t** (x, y, X) は、 第 2の分光透過率のうち、 波長 λに対応する成分で ある。 式 (1 1) を用いて求めた複数の波長; に対する t (x, y, λ) を行列 形式にまとめたものを T** (x, y, λ) と記述すると、 この T** (x, y, λ) は 第 2の分光透過率を表す。 このようにして求められた第 2の分光透過率
T** (x, y, λ) は、 記憶部 1 1 2に記憶される。
次に、 スペク トル減算部 1 0 5は、 第 1の分光透過率 T' (x, y) およぴ第 2 の分光透過率 T*** (x, y) を記憶部 1 1 2から読み出し、 第 1の分光透過率 T" (x, y) から第 2の分光透過率 T*** (x, y) を減算することにより、 差分 スぺクトノレ
Tm(x,y) =
Figure imgf000019_0002
ー(12)
を算出する (ステップ S 5) 。 式 (1 2) によって求めた差分スペクトル Tdirf (x, y) は、 記憶部 1 1 2に記憶される。
ここで、 差分スペクトル T (x, y) を求める理由は以下の通りである。 色 素量推定部 1 0 3は、 第 1のスぺクトル推定部 1 0 2で推定された第 1の分光透 過率 T" (x, y) を色素量に変換するが、 この際に用いる物理モデルは
Lambert- Beerの法則のみである。 Lambert- Beerの法則は、 屈折や散乱が無いと 仮定した場合に半透明物体を透過する光の減衰を定式化したものであるが、 実際 の染色標本では屈折も散乱も起こり得る。 そのため、 染色標本による光の減衰を Lambert-Beerの法則のみでモデル化した場合、 このモデル化に伴つた誤差が発 生し、 第 1の分光透過率 TT (x, y) から推定された色素量を再度 Lambert - Beerの法則に当てはめて染色標本の分光透過率を算出したとしても、 一般に第 1の分光透過率 ΤΛ (x, y) とは一致しない。 しかしながら、 生体標本内での屈 折や散乱を含めたモデルの構築は極めて困難であり.、 実用上は実行不可能である 。 そこで、 本実施の形態においては、 屈折や散乱の影響を含めたモデル化の誤差 を差分スぺクトルとして取り出し、 モデルィヒが可能な情報と組み合わせることに より、 全体的な精度を向上させる構成としている。
ところで、 本実施の形態では、 第 2の分光透過率 T** (x, y) を算出する際 に、 色素 R (赤血球を染色したェォジン) に関する項を除外していた (式 (1 1 ) を参照) 。 このため、 第 2の分光透過率 T** (x, y) には、 色素 Rによる減 衰分が含まれていない。 その代わり、 第 1の分光透過率 T (x, y) に含まれて いた色素 Rに起因する光の減衰分は、 差分スペクトル Tdiff (x, y) の方に含ま れた状態で後の処理に渡されることとなる。
続レ、て、 色素量補正部 106は、 色素量 d Hおよび d Eに係数 (第 1の係数) · およびひ Eをそれぞれ乗じる補正を行う (ステップ S 6) 。 補正後の色素量は 、 それぞれひ Hd„およびひ EdEとなる。 係数 α„および c¾Eの初期値はともに 1で あるが、 後述するように操作部 1 11からの入力によってそれらの値を変更する ことができる。 なお、 係数 (第 2の係数) および Εをさらに導入し、 色素量 をそれぞれ aHd„+ /3„およぴひ EdE+ /3Eの形式で補正しても良い。 この形式では 、 推定された色素量にバイアス成分を加えることができるので、 係数を乘じるだ けの場合とは異なる強調効果が得られる。 係数 |3„および の初期値は、 ともに 0としておくと良い。 このようにして補正された色素量は、 記憶部 1 12に記憶 さ る。 上述したステップ S 6において色素 Rの色素量 dKを補正対象から除外するの . は、 色素 Rが染色状態による影響を受け難く、 通常鮮やかな赤色を呈し、 実用上 補正の必要性がないためである。 加えて、 色素 Rは色素 Hや色素 Eと比較して色 の彩度が高く、 モデル化や計算過程において発生する誤差の影響で、 最終的に出 力される RGB画像での発色が不自然になり易く、 この傾向は色素量の補正を行 うことによって更に強調される。 従って、 色素 Rの色素量 dKを補正したい何ら かの積極的な理由がない限り、 補正対象からは除外した方が好ましい。
本実施の形態では、 色素 Rを補正対象から除外するだけでなく、 上記のごとく 差分スペクトル T (x, y) に含めて処理することで、 色素 Rを含む領域 (即 ち赤血球領域) での誤差が最終的に出力される RGB画像に及ぼす影響を軽減さ せている。
続いて、 第 3のスぺクトル推定部 10 7は、 色素量補正部 1 06で補正された '色素量を記憶部 1 1 2から読み出し、 この読み出した色素量を変換して第 3の分 光透過率 (第 2の分光スぺク トル) を合成する (ステップ S 7) 。 このステップ S 7では、 背景技術の項で示した式 (8) 力 ら色素 Rに関する項を除去すること によって次式 (1 3) を得る。
Γ* (X, y λ) = exp (一 (kH (λ) · aHdH + kE (λ) ' aEdE )) (13)
ここで 《 (X) y, I) は、 第 3の分光透過率のうち、 波長 に対応する成分で ある。 式 (1 3) を用いて求めた複数の波長に対する t*** (x, y, λ) を行列形 式にまとめたものを (x, y, λ) と記述する 、 この Τ (x, y, λ) は第
3の分光透過率を表す。 このようにして求められた第 3の分光透過率データは、 記憶部 1 1 2に記憶される。
この後、 スぺクトル加算部 108は、 第 3のスぺクトル推定部 107で求めた 第 3の分光透過率 T*** (x, y, λ) と、 スぺクトル減算部 105で求めた差分ス ぺクトル Tdirr (x, y, λ) とを記憶部 1 1 2から読み出して加算し、 第 4の分 光透過率 (第 3の分光スぺクトル) T(x,y)=Tw(x,y) + Tdiff(X,y) …ひ 4) を合成する (ステップ S 8) 。 このようにして合成された第 4の分光透過率 T(x,y)は、 記憶部 1 12に記憶される。 以下、 Ϊを T〜と記載することがある。 上述したように、 差分スペクトル T (x, y) には、 散乱や拡散の影響によ るモデル化誤差、 および色素 R (赤血球を染色したェォジン) による光の減衰分 が含まれている。 これを Lambert-Beerの法則でモデル化された色素 Hおよぴ色 素 Eによる光の減衰分に加えることで、 モデル化誤差の影響を抑えた精度の高レヽ 分光透過率データを算出することが可能となる。
次に、 画像合成部 109は、 第 4の分光透過率 T— (x, y) を記憶部 1 12力 ら読み出し、 この読み出した第 4の分光透過率 T— (x, y) を用いて表示用画像 である RGB画像を合成する (ステップ S 9) 。 具体的には、 T— (x, y) を R GB値 Gra (x, y) に変換する際、 式 (2) におけるノィズ成分 Nを除外した 次式 (15) を用いる。 . .
GRGB(x,y) = FSET(x,y) …ひ 5)
ここで行列 Sは、 RGBカメラ 1015の分光感度特性に対応してレ、る。 この分 光感度特性は、 マルチバンド画像を撮像した RGBカメラ 1015のものを用い るのが簡便であるが、 他の RGBカメラのものであっても構わない。 このステツ プ S 9では、 第 4の分光透過率 T_ (x, y) を RGB値に変換する処理を全ての 点 ( X, y ) に対して反復して行うことにより、 撮像したマルチパンド画像と同 じ幅および高さを有する RGB画像が得られる。 このようにして合成された RG B画像は、 記憶部 112に記憶される。
表示部 1.10は、 画像合成部 109で生成された後、 記憶部 112に記憶され ている RGB画像を表示する。 図 7は、 表示部 110における RGB1H象の表示 例を示す図である。 同図に示す R G B画像 41は、 背景技術の項で説明した図 1 0の RGB画像 51と同じ箇所を撮像したものに本実施の形態に係る画像処理方 法を実行することによつて得られた画像である。 この RGB画像 41を RGB画- 像 51と比較した場合、 R G B画像 41の赤血球領域 41 Rの方が R G B画像 5 1の赤血球領域 5 1 Rよりも赤味を帯びており、 画像内に不自然な色変動を生じ ることなく、 より自然な色合いを呈している。 また、 : GB画像 41では、 それ 以外の領域にっレ、ても、 全体的に自然な色合レ、を呈している。
なお、 表示部 1 1 0は、 一般的なフラットパネルディスプレイ (液晶、 有機 E L等) または CRTディスプレイを使用すればょレ、。 記憶部 1 1 2に複数の RG B画像が記憶されている場合、 表示する RGB画像をユーザーが選択できるよう な幾構 ·を加えても良い。
以上説明した画像処理方法において、 ユーザー自身が調整可能な色素量の補正 機能を提供することも可能である。 この場合、 ユーザーは、 表示部 1 1 0に表示 された RGB画像を観察しながら操作部 1 1 1を操作することによって色素量の 補正を指示する補正指示信号を入力する。 この補正指示信号としては、 例えば色 素量補正部 1 06で使用される係数 α;„および a Eを変更する指示が含まれる。 操 作部 1 1 1は、 スライダー 2 1 (図 8 A;) 、 ダイヤノレ 22 (図 8 B) 、 およぴプ ッシュボタン 23 (図 8 C) 等の機器によって実現することができる。 また、 こ れらの機器を画面上で模擬的に表示するグラフィカルユーザーィンターフエース 3 1 (図 9A) 、 32 (図 9 B:) 、 および 33 (図 9 C) のいずれかを表示部 1 1 0の画面に表示し、 マウスゃタツチパネルによって操作する構成としてもよい 。 このような操作部 1 1 1を具備することにより、 ユーザーは係数 Hおよび αΕ の変更を含む補正指示信号の入力を簡便に行うことができる。
なお、 図 8Α〜図 8 C、 および図 9 A〜図 9 Cでは、 一つ分の色素を補正する 為の機器やグラフィカノレユーザーィンターフェースが図示されているが、 これら を複数個または組み合わせたものを構成し、 一または複数の色素の捕正指示信号 の入力を同時に行うことができるようにしてもよい。
このようにして操作部 1 1 1から入力された補正指示信号に応じて、 色素量補 正部 106において使用される係数 α„および Q!Eは直ちに変更され、 色素量補正 部 1 06では色素量の補正処理 (ステップ S 6) が再実行される。 この色素量補 正処理に続いて、 第 3のスぺクトル推定部 10 7、 スぺクトル加算部 1 ◦ 8、 画 像合成部 1 0 9がそれぞれ上述した処理 (ステップ S 7〜S 9) を行い、 再度合 成された RGB画像が表示部' 1 1 0に表示される (ステップ S 1 0) 。
ここで説明したユーザー自身による色素量の補正機能を画像処理装置 1に具備 させる場合には、 高速なプロセッサを画像処理装置 1に搭載することにより、 色 素量の補正操作の結果を直ちに RGB画像として反映させることができるので、 ユーザーは操作内容を確認しながら色素量の補正を行うことができ、 操作性を大 きく向上させることができる。 '
以上説明した本発明の一実施の形態によれば、 画像内に不自然な色変動を引き 起こすことがなく、 染色色素量を仮想的に調整する機能を含めた画像処理を用い て染色ばらつきを補正することができる。
また、 本実施の形態によれば、 Lambert- Beerの法則を生体標本に適用する際 の屈折や散乱等に起因するモデル化誤差を差分スぺクトノレとして処理することに より、 モデル化誤差の影響を受け難い、 精度の高い分光データ処理を行うことが 可能となる。 その結果、 視覚的な提示を行う上でより好適な RGB画像を得るこ とができる。
なお、 本実施の形態では、 第 2のスぺクトル推定部 1 04、 色素量補正部 1 0 6、 第 3のスぺクトル推定部 1 0 7において色素 Rを色素量補正の対象から除外 しているが、 敢えて補正対象に加えたい場合は、 式 (1 1) および (1 3) の代 わりに、 それぞれ次式 (1 1) ,および (1 3) 'を用いれば良い。
Γ (X, y, λ) = exp (一 (kH (λ) · dH + kE (λ) -dE+kR (λ) . dR )) …ひ 1)' t* (x, y, λ) = ex (- (kH (λ) - HdH + Ε (λ) - aEdE + lc„ (λ) · a„dR)) …ひ 3), この場合、 色素 Rの色素量 dRは、 第 1の係数 aRや第 2の係数 /3Kを用いること により、 o;RdKまたは a;KclK+ ^の形式で補正する。 係数ひ κおよび κの初期値 はそれぞれ 1および 0であるが、 操作部 1 1 1力 らの入力によってそれらの値を 変更可能な構成としてもよい。
また、 本実施の形態では、 第 2のスぺクトル推定部 1 04および第 3のスぺク トル推定部 1 0 7は別体としているが、 第 3のスぺク トル推定部 1 0 7において 係数 „および α Εをともに 1とおけば、 第 2のスぺクトル推定部 1 0 4と同一の 処理となる。 従って、 第 2のスペクトル推定部 1 0 4及び第 3のスペクトル推定 部 1 0 7を同体とし、 係数を切り替えて使い分ける構成にしても良い。 このよう にすることで装置構成を簡略化し、 低コスト化を実現することができる。
画像処理装置 1が備える C P Uは、 本実施の形態に係る画像処理方法を実行す るための画像処理プログラムを記憶部 1 1 2から読み出すことによってその画像 処理方法に関する演算処理を実行する。 なお、 本実施の形態に係る画像処理プロ グラムは、. フレキシブルディスク、 C D— R OM、 D V D - R OM, フラッシュ メモリ等のコンピュータ読み取り可能な記録媒体に記録して広く流通させること も可能である。 この意味で、 画像処理装置 1は、 前述した各種記録媒体のいずれ 力を読み取り可能な補助記憶装置を具備してもよい。
以上、 本発明を実施するための最良の形態を詳述してきたが、 本発明は上述し た一実施の形態によってのみ限定されるべきものではない。 すなわち、 本発明は 、 ここでは記載していないさまざまな実施の形態等を含みうるものであり、 特許 請求の範囲により特定される技術的思想を逸脱しない範囲内において種々の設計 変更等を施すことが可能である。 産業上め利用可能性
以上のように、 本発明に係る画像処理装置、 画像処理方法、 および画像処理プ ログラムは、 色素によって染色された生体標本の画像処理技術に有用であり、 透 過照明を用 、て病理標本をマルチパンドで撮像した画像データから表示用画像を 形成するのに適している。

Claims

請 求 の 範 囲
1 . 撮像された画像に対して画像処理を施す画像処理装置であって、
前記画像に関する画像情報を記憶する記憶部と、
前記画像情報を前記記憶部から読み出し、 この読み出した前記画像情報をもと に刘'象の分光スぺクトルを推定する第 1のスぺクトル推定部と、
前記第 1のスぺクトル推定部で推定された対象の分光スぺクトルを用いて前記 対象に含まれる複数の色素量を推定する色素量推定部と、
前記色素量推定部で推定された複数の色素量を用いて第 1の分光スぺクトルを 合成する第 2のスペクトル推定部と、
前記第 2のスぺクトル推定部で合成された第 1の分光スぺクトルを前記対象の 分光スぺクトルから減算することによって差分スぺクトルを算出するスぺクトル 減算部と、
前記色素量推定部で推定された複数の色素量の少なくとも一部を補正する色素 量補正部と、
前記色素量補正部で補正された色素量を用いて第 2の分光スぺクトルを合成す る第 3のスぺクトル推定部と、
前記第 3のス クトル推定部で合成された第 2の分光スぺクトルと前記差分ス ぺクトルとを加算することによって第 3の分光スぺクトルを合成するスぺクトル 加算部と、
前記スぺクトル加算部で合成された第 3の分光スぺクトルから表示用画像を合 成する画像合成部と、
を備えたことを特徴とする画像処理装置。
2. 前記表示用画像は R G B画像であることを特徴とする請求項 1に記載の画 像処理装置。
3 . 前記対 ·象の分光スぺクトルから推定される色素量の数が、 前記第 1の分光 スぺクトルの合成に使用される色素量の数より多いことを特徴とする請求項 1ま たは 2に記載の画像処理装置。
4 . 前記対象の分光スペクトルから推定される色素量の数が、 前記第 1の分光 スぺクトルの合成に使用される色素量の数と等しいことを特徴とする請求項 1ま たは 2に記載の画像処理装置。
5 . 前記第 1の分光スぺクトルの合成に使用される色素量の数と前記第 2の分 光スぺクトルの合成に使用される色素量の数とが等しいことを特徴とする請求項 1〜 4のいずれか一項に記載の画像処理装置。
6 . 前記表示用画像を表示する表示部をさらに備えたことを特徴とする請求項 1〜 5のいずれか一項に記載の画像処理装置。
7 . 色素量の補正を指示する補正指示信号が入力される操作部をさらに備えた ことを特徴とする請求項 1〜 6のいずれか一項に記載の画像処理装置。
8 . 前記捕正指示信号には、 前記色素量を補正する際に用いる係数に関する情 報が含まれることを特徴とする請求項 7に記載の画像処理装置。
9 . 前記操作部は、 スライダー、 ダイヤル、 およびプッシュポタンのうちいず れか一つを含むことを特徴とする請求項 7または 8に記載の画像処理装置。
1 0 . 前記-操作部は、 スライダー、 ダイヤノレ、 およびプッシュボタンのいずれ か一つを模したグラフィカルユーザーィンターフェースを含むことを特徴とする 請求項 7または 8に記載の画像処理装置。
1 1 . 前記グラフィカノレユーザーインターフェースは、 前記表示用画像と同一 の画面內に表示されることを特徴とする請求項 1 0に記載の画像処理装置。
1 2 . 前記色素量補正部は、 第 1の係数を前記色素量に乗じることによって前 記色素量を補正することを特徴とする請求項 1〜 1 1のいずれか一項に記載の画 像処理装置。
1 3 . 前記色素量補正部は、 第 2の係数を前記色素量に加えることによって前 記色素量を補正することを特徴とする請求項 1〜 1 2のいずれか一項に記載の画 像処理装置。
1 4. 前記色素量捕正部、 前記第 3のスぺクトル推定部、 前記スぺク トル加算 部、 および前記画像合成部は、 前記操作部によって入力された前記補正指示信号 の内容に基づく処理を行い、
前記表示部は、 前記補正指示信号の内容に基づく処理が反映された前記表示用 画像を表示することを特徴とする請求項 7〜 1 3のいずれか一項に記載の画像処 理装置。
1 5 . 前記対象は染色された生体標本であることを特徼とする請求項 1〜 1 4 のいずれか一項に記載の画像処理装置。
1 6 . 前記対象は病理標本であることを特徴とする請求項 1 5に記載の画像処 理装置。
1 7 . 前記色素量推定部で推定される色素量は、 へマトキシリンおよびェォジ ンを含むことを特徴とする請求項 1 6に記載の画像処理装置。
1 8 . 前記色素量推定部で推定される色素量は、 赤血球を染色したェォジンを さらに含むことを特徴とする請求項 1 7に記載の画像処理装置。
1 9 . 前記第 1のスペク トル推定部は、 前記対象の分光スペク トルを推定する 際に Wiener推定を用いることを特徴とする請求項 1〜 1 8のいずれか一項に記載 の画像処理装置。
2 0 . 前記第 1のスぺクトル推定部は、 前記対象に含まれる複数の色素量を推 定する際に Lambert- Beerの法則を用いることを特徴とする請求項 1〜 1 9のいず れか一項に記載の画像処理装置。
2 1 . 撮像された画像に対して画像処理を施すことが可能であり、 前記画像に 関する画像情報を記憶する記憶部を備えたコンピュータが行う画像処理方法であ つて、
前記画像情報を前記記憶部から読み出し、 この読み出した前記画像情報をもと に対象の分光スぺク トルを推定する第 1のスぺク トル推定ステップと、
前記第 1のスぺク トル推定ステップで推定された対象の分光ス ク トルを用い て前記対象に含まれる複数の色素量を推定する色素量推定ステップと、
前記色素量推定ステップで推定された複数の色素量を用いて第 1の分光スぺク トルを合成する第 2のスぺク トル推定ステップと、
前記第 2のスぺクトル推定ステップで合成された第 1の分光スぺク トルを前記 対象の分光スぺクトルから減算することによって差分スぺクトルを算出するスぺ クトル減算ステップと、
前記色素量推定ステップで推定された複数の色素量の少なくとも一部を補正す る色素量補正ステップと、 前記色素量補正ステツプで補正された色素量を用いて第 2の分光スぺクトルを 合成する第 3のスぺクトル推定ステップと、
前記第 3のスぺクトル推定ステップで合成された第 2の分光スぺクトルと前記 差分スぺクトルとを加算することによって第 3の分光スぺクトルを合成するスぺ クトル加算ステップと、 '
前記スぺクトル加算ステップで合成された第 3の分光スぺクトルから表示用画 像を合成する画像合成ステップと、
を有することを特徴とする画像処理方法。
2 2 . 撮像された画像に対して画像処理を施すことが可能であり、 前記画像に 関する画像情報を記憶する記憶部を備えたコンピュータに、
前記画像情報を前記記憶部から読み出し、 この読み出した前記画像情報をもと に対象の分光スぺクトルを推定する第 1のスぺクトル推定ステップ、
前記第 1のスぺクトル推定ステップで推定された対象の分光スぺクトルを用い て前記対象に含まれる複数の色素量を推定する色素量推定ステップ、
前記色素量推定ステップで推定された複数の色素量を用いて第 1の分光スぺク トルを合成する第 2のスぺクトル推定ステップ、
前記第 2のスぺク トル推定ステップで合成された第 1の分光スぺクトルを前記 対象の分光スぺクトルから減算することによって差分スぺクトルを算出するスぺ クトル減算ステップ、
前記色素量推定ステップで推定された複数の色素量の少なくとも一部を補正す る色素量ネ甫正ステップ、
前記色素量補正ステップで補正された色素量を用いて第 2の分光スぺクトルを 合成する第 3のスぺクトル推定ステップ、
前記第 3のスぺクトル推定ステップで合成された第 2の分光スペク トルと前記 差分スぺクトルとを加算することによって第 3の分光スぺク トルを合成するスぺ タトル加算ステップ、 前記スぺクトル加算ステップで合成された第 3の分光スぺクトルから表示用画 像を合成する画像合成ステップ、
を実行させることを特徴とする画像処理プログラム。
PCT/JP2007/065979 2006-08-24 2007-08-10 Image processing device, image processing method, and image processing program Ceased WO2008023629A1 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP07792608.7A EP2060903A4 (en) 2006-08-24 2007-08-10 Image processing device, image processing method, and image processing program
US12/380,137 US8068133B2 (en) 2006-08-24 2009-02-24 Image processing apparatus and image processing method

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006228269A JP4740068B2 (ja) 2006-08-24 2006-08-24 画像処理装置、画像処理方法、および画像処理プログラム
JP2006-228269 2006-08-24

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/380,137 Continuation US8068133B2 (en) 2006-08-24 2009-02-24 Image processing apparatus and image processing method

Publications (1)

Publication Number Publication Date
WO2008023629A1 true WO2008023629A1 (en) 2008-02-28

Family

ID=39106714

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/065979 Ceased WO2008023629A1 (en) 2006-08-24 2007-08-10 Image processing device, image processing method, and image processing program

Country Status (4)

Country Link
US (1) US8068133B2 (ja)
EP (1) EP2060903A4 (ja)
JP (1) JP4740068B2 (ja)
WO (1) WO2008023629A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009270890A (ja) * 2008-05-02 2009-11-19 Olympus Corp 画像処理装置および画像処理プログラム
CN111868782A (zh) * 2018-04-17 2020-10-30 赫尔实验室有限公司 使用彩色图像的盲源分离确定农作物残茬分数的系统和方法

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5161052B2 (ja) * 2008-12-04 2013-03-13 オリンパス株式会社 顕微鏡システム、標本観察方法およびプログラム
US9552518B2 (en) * 2000-07-31 2017-01-24 The United States Of America, As Represented By The Secretary Of The Navy Method of out-of-band correction for multispectral remote sensing
JP5478084B2 (ja) * 2009-01-23 2014-04-23 オリンパス株式会社 画像処理システム、画像処理装置および画像処理端末
US20100201800A1 (en) * 2009-02-09 2010-08-12 Olympus Corporation Microscopy system
JP5490568B2 (ja) 2010-02-26 2014-05-14 オリンパス株式会社 顕微鏡システム、標本観察方法およびプログラム
JP5557091B2 (ja) * 2010-03-30 2014-07-23 日本電気株式会社 画像処理装置、画像読取装置、画像処理方法及び画像処理プログラム
JP5451552B2 (ja) 2010-08-09 2014-03-26 オリンパス株式会社 顕微鏡システム、標本観察方法およびプログラム
US8433132B2 (en) * 2011-04-12 2013-04-30 Sony Corporation Method for efficient representation and processing of color pixel data in digital pathology images
JP5752985B2 (ja) * 2011-04-28 2015-07-22 オリンパス株式会社 画像処理装置、画像処理方法、画像処理プログラムおよびバーチャル顕微鏡システム
US8977017B2 (en) * 2011-09-15 2015-03-10 The General Hospital Corporation System and method for support of medical diagnosis
US20130342845A1 (en) * 2012-06-21 2013-12-26 Wei Chen Method of multispectral decomposition for the removal of out-of-band effects
KR101854815B1 (ko) * 2012-10-10 2018-05-04 광주과학기술원 분광장치 및 분광방법
US11385168B2 (en) 2015-03-31 2022-07-12 Nec Corporation Spectroscopic analysis apparatus, spectroscopic analysis method, and readable medium
JP2019190927A (ja) * 2018-04-23 2019-10-31 キヤノン株式会社 解析システム、撮像装置、および、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07120324A (ja) 1993-10-22 1995-05-12 Olympus Optical Co Ltd 色分類装置
JP2002149148A (ja) * 2000-11-08 2002-05-24 Telecommunication Advancement Organization Of Japan 色再現システム
JP2003065948A (ja) * 2001-08-27 2003-03-05 Telecommunication Advancement Organization Of Japan 顕微鏡画像処理装置、顕微鏡画像処理方法並びに顕微鏡画像処理プログラム
JP3510037B2 (ja) 1995-03-17 2004-03-22 イーストマン コダック カンパニー 適応カラー補間単一センサカラー電子カメラ
JP2005315877A (ja) * 2004-03-31 2005-11-10 Keita Sugiyama 画像解析を利用した植物体の色素含有量の定量方法

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AT400639B (de) * 1994-07-18 1996-02-26 Avl Verbrennungskraft Messtech Verfahren zur bestimmung der konzentration c eines in einer trägersubstanz homogen verteilten absorbens
JPH1196333A (ja) * 1997-09-16 1999-04-09 Olympus Optical Co Ltd カラー画像処理装置

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07120324A (ja) 1993-10-22 1995-05-12 Olympus Optical Co Ltd 色分類装置
JP3510037B2 (ja) 1995-03-17 2004-03-22 イーストマン コダック カンパニー 適応カラー補間単一センサカラー電子カメラ
JP2002149148A (ja) * 2000-11-08 2002-05-24 Telecommunication Advancement Organization Of Japan 色再現システム
JP2003065948A (ja) * 2001-08-27 2003-03-05 Telecommunication Advancement Organization Of Japan 顕微鏡画像処理装置、顕微鏡画像処理方法並びに顕微鏡画像処理プログラム
JP2005315877A (ja) * 2004-03-31 2005-11-10 Keita Sugiyama 画像解析を利用した植物体の色素含有量の定量方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
ABE T. ET AL.: "Color Correction of Pathological Images Based on Dye Amount Quantification", OPTICAL REVIEW, vol. 12, no. 4, 1 August 2005 (2005-08-01), pages 293 - 300, XP019353289 *
ABE T. ET AL.: "Multi Spectrum Gazo o Mochiita Byori Gazo no Shikisoryo no Teiryoka to Iro Hyojunka - Band-su to Keisan Seido no Kento", MEDICAL IMAGING TECHNOLOGY, vol. 24, no. 1, 25 January 2006 (2006-01-25), pages 38 - 47, XP003021067 *
See also references of EP2060903A4
TOKIYA ABE ET AL.: "Color Correction of Pathological Images Based on Dye Amount Quantification", OPTICAL REVIEW, vol. 12, no. 4, 2005, pages 293 - 300

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009270890A (ja) * 2008-05-02 2009-11-19 Olympus Corp 画像処理装置および画像処理プログラム
CN111868782A (zh) * 2018-04-17 2020-10-30 赫尔实验室有限公司 使用彩色图像的盲源分离确定农作物残茬分数的系统和方法
CN111868782B (zh) * 2018-04-17 2024-01-02 赫尔实验室有限公司 使用彩色图像的盲源分离确定农作物残茬分数的系统和方法

Also Published As

Publication number Publication date
JP2008051654A (ja) 2008-03-06
EP2060903A4 (en) 2017-07-26
JP4740068B2 (ja) 2011-08-03
US20090231421A1 (en) 2009-09-17
US8068133B2 (en) 2011-11-29
EP2060903A1 (en) 2009-05-20

Similar Documents

Publication Publication Date Title
WO2008023629A1 (en) Image processing device, image processing method, and image processing program
US9002077B2 (en) Visualization of stained samples
JP4376058B2 (ja) 定量的ビデオ顕微鏡法とそれに関連するシステム及びコンピューターソフトウェアプログラム製品
CN102227747B (zh) 产生未染色生物标本的多色图像
JP4550415B2 (ja) 定量ビデオ顕微鏡法とそれに関連するシステムおよびコンピュータソフトウェアプログラム製品
JP5478084B2 (ja) 画像処理システム、画像処理装置および画像処理端末
JP5117274B2 (ja) 画像処理装置および画像処理プログラム
JP5508792B2 (ja) 画像処理方法、画像処理装置および画像処理プログラム
US20100195903A1 (en) Image processing device, data-set generating device, computer readable storage medium storing image processing program and computer readable storage medium storing data-set generating program
US9406118B2 (en) Stain image color correcting apparatus, method, and system
JP2010156612A (ja) 画像処理装置、画像処理プログラム、画像処理方法およびバーチャル顕微鏡システム
JP5178226B2 (ja) 画像処理装置および画像処理プログラム
JP5305618B2 (ja) 画像処理装置および画像処理プログラム
JP2009014355A (ja) 画像処理装置および画像処理プログラム
JP2010261762A (ja) 標本作成装置および標本作成方法
JP5752985B2 (ja) 画像処理装置、画像処理方法、画像処理プログラムおよびバーチャル顕微鏡システム
CN112601950B (zh) 图像处理装置、摄像系统、图像处理装置的工作方法以及图像处理装置的工作程序
US20190325577A1 (en) Image processing device, image processing method, and computer-readable recording medium
JP5631682B2 (ja) 顕微鏡システムおよび配信システム
JP7215418B2 (ja) 画像処理装置及び画像処理方法並びにこれを用いた病理診断支援システム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07792608

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 2007792608

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: RU