DE602005004332T2 - Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle - Google Patents

Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle Download PDF

Info

Publication number
DE602005004332T2
DE602005004332T2 DE602005004332T DE602005004332T DE602005004332T2 DE 602005004332 T2 DE602005004332 T2 DE 602005004332T2 DE 602005004332 T DE602005004332 T DE 602005004332T DE 602005004332 T DE602005004332 T DE 602005004332T DE 602005004332 T2 DE602005004332 T2 DE 602005004332T2
Authority
DE
Germany
Prior art keywords
color
data
tissue
data set
oral cavity
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE602005004332T
Other languages
English (en)
Other versions
DE602005004332D1 (de
Inventor
Noam Babayoff
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Cadent Ltd
Original Assignee
Cadent Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=34937520&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=DE602005004332(T2) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Cadent Ltd filed Critical Cadent Ltd
Publication of DE602005004332D1 publication Critical patent/DE602005004332D1/de
Application granted granted Critical
Publication of DE602005004332T2 publication Critical patent/DE602005004332T2/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00004Operational features of endoscopes characterised by electronic signal processing
    • A61B1/00009Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00071Insertion part of the endoscope body
    • A61B1/0008Insertion part of the endoscope body characterised by distal tip features
    • A61B1/00096Optical elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0615Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements for radial illumination
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0638Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements providing two or more wavelengths
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0646Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements with illumination filters
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/24Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth
    • A61B1/247Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for the mouth, i.e. stomatoscopes, e.g. with tongue depressors; Instruments for opening or keeping open the mouth with means for viewing areas outside the direct line of sight, e.g. dentists' mirrors
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0062Arrangements for scanning
    • A61B5/0068Confocal scanning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0059Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence
    • A61B5/0082Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes
    • A61B5/0088Measuring for diagnostic purposes; Identification of persons using light, e.g. diagnosis by transillumination, diascopy, fluorescence adapted for particular medical purposes for oral or dental tissue
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1077Measuring of profiles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/103Detecting, measuring or recording devices for testing the shape, pattern, colour, size or movement of the body or parts thereof, for diagnostic purposes
    • A61B5/107Measuring physical dimensions, e.g. size of the entire body or parts thereof
    • A61B5/1079Measuring physical dimensions, e.g. size of the entire body or parts thereof using optical or photographic means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C19/00Dental auxiliary appliances
    • A61C19/04Measuring instruments specially adapted for dentistry
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61CDENTISTRY; APPARATUS OR METHODS FOR ORAL OR DENTAL HYGIENE
    • A61C9/00Impression cups, i.e. impression trays; Impression methods
    • A61C9/004Means or methods for taking digitized impressions
    • A61C9/0046Data acquisition means or methods
    • A61C9/0053Optical means or methods, e.g. scanning the teeth by a laser or light beam
    • A61C9/0066Depth determination through adaptive focusing
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0208Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using focussing or collimating elements, e.g. lenses or mirrors; performing aberration correction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0216Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using light concentrators or collectors or condensers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0218Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using optical fibers
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0224Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows using polarising or depolarising elements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0205Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows
    • G01J3/0243Optical elements not provided otherwise, e.g. optical manifolds, diffusers, windows having a through-hole enabling the optical element to fulfil an additional optical function, e.g. a mirror or grating having a throughhole for a light collecting or light injecting optical fiber
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0256Compact construction
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/10Arrangements of light sources specially adapted for spectrometry or colorimetry
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/501Colorimeters using spectrally-selective light sources, e.g. LEDs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/508Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors measuring the colour of teeth
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/255Details, e.g. use of specially adapted sources, lighting or optical systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/148Charge coupled imagers
    • H01L27/14868CCD or CID colour imagers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/10Processing, recording or transmission of stereoscopic or multi-view image signals
    • H04N13/106Processing image signals
    • H04N13/15Processing image signals for colour aspects of image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/271Image signal generators wherein the generated image signals comprise depth maps or disparity maps
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/296Synchronisation thereof; Control thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/462Computing operations in or between colour spaces; Colour management systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/51Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors using colour filters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30036Dental; Teeth

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf dreidimensionale numerische Farbdatensätze, die repräsentativ sind für Gewebe, besonders für die Mundhöhle. Im Besonderen beschäftigt sich die vorliegende Erfindung mit der Handhabung solcher Datensätze, um Daten zur Verfügung zu stellen, die nutzbar sind in Verfahren, die sich auf die Mundhöhle beziehen, im Besonderen auf Zahnoberflächen in dieser.
  • Hintergrund der Erfindung
  • Es gibt viele auf die Mundhöhle bezogene Verfahren, in denen eine genaue dreidimensionale Darstellung des Hohlraums für den praktischen Zahnarzt sehr nutzbar ist. Hierin bezieht sich der Begriff "praktischer Arzt" auf jeden aus der Gruppe bestehend aus einem Zahnarzt, einem Zahnchirurgen, einem Zahntechniker, einem Kieferorthopäden, einem Zahnprothetiker oder jeder anderen Pflegeperson, die in das Festlegen, Vorbereiten oder das Bereitstellen einer Zahnbehandlung für einen Patienten eingebunden sein können, im Besonderen in eine kieferorthopädisch Behandlung.
  • Solche Darstellungen ermöglichen es dem praktischen Arzt, die Mundhöhle von einzelnen Patienten auf eine ähnliche Weise zu untersuchen wie die Untersuchung eines herkömmlichen Gipsmodells. Bedeutender ist, dass dreidimensionale numerische Datensätze des Zahnhohlraums dem praktischen Arzt auch erlauben, alternative Verfahren oder Ansätze zu untersuchen, wenn er sich mit bestimmten Zahnproblemen eines gegebenen Patienten beschäftigt. In der Kieferorthopädie kann zum Beispiel ein Computermodell der Zähne eines Patienten verarbeitet werden, um eine optimale Anordnung von Zahnspangen zur Sicherstellung der wirksamen Behandlung von krummen Zähnen zu erreichen. Für solche Verfahren ist es oft nützlich eine dreidimensionale Darstellung der einzelnen Zähne zur Verfügung zu stellen, von denen jeder unabhängig in einer Computersimulation des kieferorthopädischen Behandlungsplans und des kieferorthopädischen Datensatzes bewegt werden kann. Bisher ist die Identifizierung und Trennung der für die einzelnen Zähne repräsentativen Datensätze manuell ausgeführt worden.
  • In US 6,739,869 , erteilt an den aktuellen Begünstigten, wird ein Verfahren zur virtuellen kieferorthopädischen Behandlung offenbart, in dem ein virtueller Satz von kieferorthopädischen Komponenten in einem virtuellen Raum mit einer ersten virtuellen dreidimensionalen Abbildung von Zähnen verknüpft wird, und dann kann mit einer Reihe von Regeln, die die Wirkung des Satzes der Zähne der Komponenten definieren, die Wirkung der virtuellen Behand lung berechnet werden. Diese virtuelle Behandlung kann verwendet werden, um die Ergebnisse einer realen kieferorthopädischen Behandlung vorherzusagen und um eine solche Behandlung zu planen.
  • Ein weiteres Verfahren bezieht sich auf die Herstellung einer Zahnprothese wie zum Beispiel einer Krone oder einer Brücke, die erfordert, dass die Präparationslinie oder die Übergangsgrenze zwischen der Prothese und der Zahnpräparation in drei Dimensionen präzise definiert wird. Die Koordinaten der Präparationslinie aus einem Computermodell zu erhalten, ist wesentlich effizienter und oft genauer als von einem Gipsabguss und erleichtert außerdem die Herstellung solch einer Prothese, zum Beispiel durch CNC Herstellung, Rapid Prototyping oder andere computerisierte Techniken, wenn erwünscht.
  • Es gibt auch Verfahren, in denen eine besonders gute dreidimensionale Definition eines großen Bereichs der Mundhöhle erforderlich ist, und es kann manchmal notwendig sein, Teile der Mundhöhle sequentiell abzutasten und die verschiedenen Datensätze dann "zusammenzufügen". Auf diese Weise werden die Oberflächentopologien von benachbarten Teilbereichen, manchmal aus zwei oder mehr unterschiedlichen Positionen aus unterschiedlichen Winkeln in Bezug auf die Struktur bestimmt und die Topologien werden auf eine per se bekannte Weise kombiniert. In der Praxis wird ein solches Zusammenfügen normalerweise automatisch ausgeführt durch Identifizieren eines Oberflächenprofils oder einer Topographie, die sich mindestens auf einen Teil der Daten des einen Datensatzes beziehen, der im Wesentlichen identisch ist mit dem eines anderen Datensatzes. Die Datensätze werden dann so verarbeitet, dass die Koordinaten des Oberflächenprofils zwischen den Datensätzen übereinstimmen, um einen größeren numerischen Datensatz zu erzielen, der diese Datensätze in ihrer richtigen räumlichen Beziehung zueinander aufweist. Die Datensätze umfassen jedoch oft Oberflächendaten, die sich auf die weichen Gewebe wie zum Beispiel Zahnfleisch, Wangen und Zunge beziehen, die sich verformen und bewegen können während die unterschiedlichen Abtastungen ausgeführt werden. Diese relative Bewegung macht das Verfahren des Zusammenfügens problematischer, da Teile der auf diese Weise erzielten Datensätze nie übereinstimmen, obwohl sie sich auf überlappende Teilbereiche der Mundhöhle beziehen.
  • In Verfahren, die sich auf die Herstellung einer Zahnprothese wie zum Beispiel einer Krone oder Brücke beziehen, oder bei anderen Zahnsanierungen, ist es wichtig, die Farbe und die Textur der Prothese zu der von den umliegenden Zähnen in der Umgebung des Zielbereichs passend auszuwählen, in dem die Prothese implantiert werden soll, um der Prothese oder der Wiederherstellung eine natürliche Erscheinung zu geben. Traditionelle Verfahren der Farbübereinstimmung basieren auf visuellem Vergleich zwischen einer entfernbaren zahnförmigen Farbkarte eines Schattierungsvorbilds, wie zum Beispiel Vita, und den umliegenden Zähnen. Der praktische Arzt kann dann die Standardschattierung wählen, die mit der allgemeinen Farbe der anderen Zähne am besten übereinstimmt. Die entsprechende Schattierungsreferenz kann dann dem Labor übermittelt werden, das die Prothese herstellen soll. Ähnliche Anpassverfahren werden routinemäßig für die Erstellung der Farbe des Füllmaterials verwendet, das an den Zahn angepasst werden soll, der eine Füllung erfordert. Es sollte beachtet werden, dass im Gegensatz zu den Zahnschattierungen des Schattierungsvorbilds, die in der Farbe gleichmäßig sind, ein Zahn viele unterschiedliche Schattierungen aufweisen kann. Zum Beispiel verändern Zahnflecken und Ähnliches die Farbe des Zahns lokal. Es wurden Versuche unternommen, um eine genauere Übereinstimmung zur Verfügung zu stellen. Zum Beispiel ist in US 5,800,164 eine Anordnung für die Auswahl der Form und der Farbstruktur von Zähnen beschrieben und umfasst sowohl mehrere Sortimente von Modellen und Abbildungen wie auch Schichtdiagramme von unterschiedlichen Zahnformen und Farbstrukturen. Es wird ein Vergleich der Form und der Farbstruktur zwischen den Zähnen des Patienten und den Modellen hergestellt, und ein geeignetes Sortiment wird ausgewählt. Die auf diese Weise erzeugten Schichtdiagramme ermöglichen, dass die Produktion der Prothese sorgfältig gesteuert wird, um die gewünschte Form und Farbstruktur zur Verfügung zu stellen. In US 4.836.674 sind ein Verfahren und eine Vorrichtung zum Erzielen der besten Farbübereinstimmung in Bezug auf benachbarte Zähne für unterschiedliche Beleuchtungsbedingungen beschrieben, berücksichtigen aber nur die allgemeine Farbe der Zähne und zielen nicht auf lokale Variationen der Farbe in den Zähnen ab. In US 6,525,819 wird ein Farbmessgerät zur Verfügung gestellt, um unter anderem das eindimensionale Array von Farbdaten entlang einer Linie auf der Oberfläche der Mundhöhle, einschließlich der Zähne, zur Verfügung zu stellen. In US 5,766,006 ist ein Verfahren zum Vergleichen der Zahnschattierung beschrieben, nachdem die Zähne des Patienten geweißt worden sind, in dem eine zweidimensionale farbige Abbildung des Zahns vor dem Weißen erzielt wird, die den Zahn repräsentative Farbinformation verglichen wird, und ein oder mehrere Zahnschattierungen mit einer kombinierten Farbe identifiziert werden, die der Farbe des Zahns entspricht. Nach dem Weißen des Zahns wird eine weitere Abbildung davon aufgenommen und mit der Abbildung vor dem Weißen verglichen.
  • Andere US Patente von allgemeinem Hintergrundinteresse umfassen die Folgenden. In US 5,851,113 , US 5,871,351 , US 6,118,521 , US 6,239,868 , US 6,246,479 , US 6,417,917 , US 6,538,726 , US 6,570,654 und US 6,573,984 werden Anordnungen zur Messung der Farbe und Verfahren wie zum Beispiel zur Bestimmung der Farbe oder anderer Merkmale von Zähnen offenbart, in denen diese Merkmale unter Verwendung einer Anordnung mit Glasfaseroptik erzielt werden, die auf einen bestimmten Bereich jedes Zahns gerichtet wird und in einer bestimmten Höhe und einem bestimmten Winkel in Bezug auf diesen Bereich. Die erzielten Farbmessdaten können verwendet werden, um Verfahren zum Ausformen der Zahnprothesen auszuführen.
  • In US 6,007,332 wenden ein Verfahren und eine Anordnung zur Bestimmung der Farbecharakteristik eines Zahns das photographische Abbilden des Zahns an und das Photographieren von visuell ausgewählten Farbstandards, um die endgültige Auswahl der besten Farbüberein stimmung zu erreichen. Die entstehenden photographischen Abbildungen, die auf einer einzelnen Photographie sein können, werden einer kolorimetrischen oder spektrophotometrischen Analyse unterzogen, um die endgültige Auswahl der besten Übereinstimmung zu erreichen.
  • In US 6,030,209 misst und stellt eine Spektralfotometervorrichtung für jeden der vorderen, mittleren und hinteren Bereiche des Zahns allgemeine kolorimetrische Daten bezüglich des Farbtons, der Farbeigenschaft, des Werts und der Transluzenz zur Verfügung. Diese kolorimetrischen Daten werden dann über einen Algorithmus in eine Anleitung umgewandelt, der der Zahnarzt oder Zahntechniker bei der Konstruktion einer Zahnsanierung folgt. Es wird auch eine Porzellananordnung zur Verfügung gestellt, die es ermöglicht, dass ein Anwender unabhängig eine Farbkomponente ändert, während er die anderen drei Farbkomponenten nicht beeinflusst.
  • In US 6,033,222 weist ein Herstellungsverfahren für durchscheinende Zahnsanierungen das Ausformen einer Zahnform durch das Abformen des Zahnstumpfs auf, in dem ein Reihe von Formabstandsstücken mit unterschiedlichen Schattierungen verwendet werden, um ein Sortiment von Zahnstumpf- oder dentalen Zahnschattierungen abzugleichen oder zu replizieren. Das Verfahren weist die Anwendung von Farbe und Tönung auf, um mit der Verschreibung des Zahnarztes überein zu stimmen, das Ausformen einer Wachsform des Zahns und nachfolgend der Zahnstruktur.
  • In US 6,190,170 und US 6,238,567 werden zum Herstellen einer Zahnprothese eine automatisierte Zahntönungsanalyse und ein Anpassungsverfahren verwendet. Eine Abbildung der Zähne wird aufgenommen, die Normalisierungsreferenzen für Schwarz und Weiß umfasst, um absolutes Schwarz und absolutes Weiß innerhalb der Abbildung festzulegen. Die Abbildung wird gemäß den Normalisierungsreferenzen normalisiert und dann durch Abgleichen der Pixel der normalisierten Abbildung mit ausgewählten Schattierungsnormen für die Prothese standardisiert.
  • In US 6,379,593 ist ein Verfahren zur Herstellung einer mehrfarbigen Zahnsanierung offenbart. Eine verdichtende Form wird mit einer Masse aus zwei oder mehr Kunststoffmaterialien mit unterschiedlichen Farben gefüllt, und der Druck wird auf die Mischung in der Form angewandt.
  • Die 3D Oberflächenstruktur der Zähne wird in keinem der oben erwähnten Patente in Betracht gezogen.
  • US 2004/0029068 A1 offenbart ein Verfahren zum Bereitstellen von Abbildungen und Zahnmodelldaten, die in mit kieferorthopädischen Verfahren nutzbar ist, die mit der Mundhöhle in Zusammenhang stehen, wobei das Verfahren die Schritte aufweist, ein strukturiertes 3D Mo dell von Zähnen zur Verfügung zu stellen, das die Überlagerung aus 3D Zahnabtastdaten und 2D Farbphotographiedaten ist, die dreidimensionalen Oberflächengeometrie und die Farbe von mindestens einem Teil der Mundhöhle darstellen, und das Verarbeiten der besagter Daten zur Darstellung, zur Behandlungsplanung durch Ändern von Farbe, Position und Parametern, um ein virtuelles Patientenmodell mit veränderten Farben, Positionen der Zähne und Parametern zur Verfügung zu stellen. Dieses Dokument lehrt oder schlägt jedoch kein Verfahren dafür vor, solche Daten basierend auf einer Anzahl von getrennten Datensätzen zur Verfügung zu stellen, die ein gemeinsames Volumen von Interesse definieren.
  • Dieses Problem wird durch ein Verfahren nach Anspruch 1 der vorliegenden Erfindung gelöst.
  • Zusammenfassung der Erfindung
  • Der Begriff "Farbe" wird hierin verwendet, um sich auf ein wahrgenommenes optisches Merkmal zu beziehen, das eines oder mehrere von den Folgenden umfasst: Farbton, Farbeigenschaft, Wert, Transluzenz, Reflexionsgrad.
  • Der Begriff "Farbton" wird hierin verwendet, um sich auf eine Farbe oder auf den Namen einer Farbe zu beziehen, zum Beispiel primäre oder andere Farben wie zum Beispielen Rot, Grün, Blau, Violett, Grün und so weiter, oder auf Farbkombination wie zum Beispiel gelbliches Grün. Die Farbtöne von Hauptinteresse hierin umfassen Rot und Schattierungen von Weiß einschließlich Gelb für Mundhöhlengewebe, und andere Farbtöne die für die Farbe von Füllungen uns so weiter repräsentativ sind.
  • Der Begriff "Farbeigenschaft" wird hierin verwendet, um sich auf Stärke, Intensität oder Sättigung des Farbtons zu beziehen.
  • Der Begriff "Wert" wird hierin verwendet, um sich auf die Helligkeit einer Farbe zu beziehen.
  • Der Begriff "Transluzenz" wird hierin verwendet, um sich auf die Qualität der Übertragung und der Ausbreitung von Licht zu beziehen und reicht im Allgemeinen von opak bis durchsichtig.
  • Der Begriff "Reflexionsgrad" wird hierin verwendet, um sich auf die Qualität der Reflexion von Licht zu beziehen, das auf den Zahn fällt.
  • Der Begriff "numerischer Datensatz" wird hierin verwendet, um einen Datensatz zu beschreiben, der mit automatisierten numerischen Verarbeitungsmitteln, wie zum Beispiel mit einem Computer, manipulierbar ist, im Besonderen auf solche Weise, dass bestimmte Daten aus diesem erzielt werden können.
  • Eine solche Handhabung kann unter manueller, interaktiver, teilweiser oder vollständig automatisierter Steuerung stattfinden.
  • Die vorliegende Erfindung ist auf ein Verfahren gerichtet, Daten zur Verfügung zu stellen, die gemäß Anspruch 1 in Zusammenhang mit der Mundhöhle nutzbar sind.
  • Das Verfahren weist Nachfolgendes auf:
    Bereitstellen von mindestens einem numerischen Datensatz, der repräsentativ ist für die dreidimensionale Oberflächengeometrie und die Farbe von mindestens einem Teil der Mundhöhle; und
    Verarbeiten des besagten Datensatzes, um erwünschte Daten von diesem zur Verfügung zu stellen.
  • Gemäß der Erfindung weist der numerische Datensatz weiterhin Daten der Oberflächengeometrie und Farbdaten auf, die mit besagtem Teil der Mundhöhle in Zusammenhang stehen. Typischerweise umfassen Farbdaten tatsächliche oder wahrgenommene visuelle Merkmale einschließlich mindestens einem aus Farbton, Farbeigenschaft, Wert, Transluzenz und Reflexionsgrad.
  • Weiterhin werden gemäß der Erfindung für das Zusammenfügen mindestens zwei der besagten Datensätze zur Verfügung gestellt, wobei mindestens ein Teilbereich der besagten Datensätze überlappende räumliche Daten aufweist, die Nachfolgendes aufweisen:
    • (a) für jeden Datensatz das Bereitstellen von mindestens einem Unterdatensatz, der einen ersten Gewebedatensatz aufweist, der Daten der Oberflächengeometrie und der Farbe aufweist, wobei besagte Farbdaten davon mit einer Farbe korrelieren, die für ein erstes Gewebe repräsentativ ist; und
    • (b) Zusammenfügen der besagten ersten Gewebedatensätze, basierend darauf, Teilbereiche des besagten Datensatzes aufzuzeichnen, der besagte überlappende räumliche Daten aufweist.
  • Optional ist ein Verfahren eingeschlossen, das besonders dafür nutzbar ist, ein erstes Gewebe von einem zweiten Gewebe zu unterscheiden, wobei besagtes erstes Gewebe wesentlich unterschiedliche Farbmerkmale zu besagtem zweitem Gewebe aufweist, wobei das Verfahren aufweist:
    Trennen besagter Daten der Oberflächengeometrie und der Farbdaten in mindestens zwei der Gewebe in mindestens zwei Datensätze, wobei
    ein erster besagter Gewebedatensatz eine Oberflächengeometrie und Farbdaten aufweist, wobei besagte Farbdaten davon korreliert sind mit einer Farbe, die repräsentativ ist für besagtes erstes Gewebe; und
    ein zweiter besagter Gewebedatensatz Daten der Oberflächengeometrie und Farbdaten aufweist, wobei besagte Farbdaten von diesem korreliert sind mit einer Farbe, die repräsentativ ist für besagtes zweites Gewebe.
  • Das erste Gewebe weist harte Gewebe wie zum Beispiel Zähne auf, und das weiche Gewebe weist mindestens eines aus Zahnfleisch, Zunge, Wangen und Lippen auf.
  • Der erste Gewebedatensatz kann einer Vielzahl von Zähnen besagter Mundhöhle entsprechen, und im nächsten Schritt wird der erste Gewebedatensatz in eine Vielzahl von Unterdatensätzen eingeteilt, wobei jeder besagte Unterdatensatz einem anderen besagten Zahn entspricht.
  • Im nächsten Schritt können die Unterdatensätze auf eine Weise verarbeitet werden, die einer Simulation einer kieferorthopädischen Behandlung an besagten Zähnen entspricht.
  • Optional können die Unterdatensätze als Abbildungen angezeigt werden, die einzelnen Zähnen entsprechen.
  • Das Verfahren kann auch für das Festlegen der Präparationslinie für eine Zahnpräparation verwendet werden.
  • Das erste Gewebe kann harte Gewebe der Mundhöhle wie zum Beispiel Zähne aufweisen.
  • Optional kann das Verfahren weiterhin den Schritt aufweisen:
    Trennen, für jeden Datensatz, besagter Oberflächengeometrie- und Farbdaten in einen zweiten Gewebedatensatz, der Oberflächengeometrie- und Farbdaten aufweist, wobei besagte Farbdaten von diesem mit einer Farbe korrelieren, die repräsentativ ist für ein zweites Gewebe.
  • Das zweite Gewebe weist typischerweise die weichen Gewebe der Mundhöhle einschließlich mindestens einem von Zahnfleisch, Zunge, Wangen und Lippen auf.
  • In einer Variation des Verfahrens weist Schritt (b) auf:
    Bereitstellen des groben Zusammenfügens der Originaldatensätze aus Schritt (a) durch Aufzeichnen von überlappenden räumlichen Daten davon, um grobe räumliche Beziehungen zwischen besagten Datensätzen festzulegen;
    Anwenden besagter grober räumlicher Beziehungen auf besagte erste Gewebedatensätze, um die Erfassung von überlappenden Teilbereichen zu erleichtern; und
    Zusammenfügen besagter erster Gewebedatensätze auf Grundlage der Erfassung besagter überlappender Teilbereiche.
  • Durch das Entfernen der mit den weichen Geweben verknüpften Daten und durch Fortfahren damit, unter Verwendung der Farbdaten nur die harten Gewebe zusammenzufügen, ist die Qualität des Verfahrens des Zusammenfügens wesentlich besser als bei der Verwendung der vollständigen intraoralen Daten für das Verfahren des Zusammenfügens.
  • Ein vergleichendes Verfahren, das nicht Teil der Erfindung ist, ist besonders nutzbar, um eine Präparationslinie für einen Präparationsbereich in besagter Mundhöhle zur Verfügung zu stellen, obwohl es auch für das virtuelle Trennen der Zähne vom Zahnfleisch verwendet werden kann. Das Verfahren weist auf:
    • (a) Vergleichen der Farbdaten für jedes Paar von räumlich benachbarten Datenpunkten in besagtem numerischem Datensatz;
    • (b) Bereitstellen eines der besagten Datenpunkte aus besagtem Paar von Datenpunkten, wenn die Farbdaten für besagtes Paar von Datenpunkten wesentlich unterschiedlich zu einander sind; und
    • (c) Anwenden eines Suchalgorithmus zur Identifikation besagter Präparationslinie in besagtem numerischem Datensatz, wobei besagter Anwendung des besagten Algorithmus anfangs auf einen Teil des besagten Datensatzes angewandt wird, der den besagten bereitgestellten Datenpunkten aus Schritt (b) entspricht.
  • Optional wird in Schritt (b) der Datenpunkt aus besagtem Paar von Datenpunkten, die einem harten Gewebe zugeordnete Farbdaten aufweisen, für den Schritt (c) zur Verfügung gestellt.
  • Unter einem anderen Aspekt der vorliegenden Erfindung wird ein computerlesbares Medium zur Verfügung gestellt, dass auf eine dinghafte Art ein ausführbares Programm verkörpert, das ausführbar ist, um Daten zur Verfügung stellen, die in Verfahren in Zusammenhang mit der Mundhöhle nutzbar sind. Das computerlesbare Medium weist auf:
    • (a) ein erster Satz von Daten, die repräsentativ sind für die dreidimensionale Oberflächengeometrie und die Farbe von mindestens einem Teil der Mundhöhle;
    • (b) Mittel zur Verarbeitung besagten ersten Datensatzes, um erwünschte Daten von diesem zur Verfügung zu stellen.
  • Das Medium kann zum Beispiel optische Scheiben, magnetische Platten oder Magnetbänder aufweisen.
  • Kurze Beschreibung der Figuren
  • Um die Erfindung zu verstehen und um zu ersehen, wie sie in der Praxis ausgeführt werden kann, wird eine bevorzugte Ausführungsform jetzt nur auf dem Weg eines nicht einschränkenden Beispiels mit Bezug auf die begleitenden Figuren ausgeführt, in denen:
  • 1 die Hauptelemente von Ausführungsformen von Vorrichtungen zur Erzeugung eines dreidimensionalen numerischen Farbdatensatzes veranschaulicht, der gemäß der vorliegenden Erfindung verarbeitet wird.
  • Die 2A, 2B und 2C graphisch die Erzeugung eines dreidimensionalen Farbdatensatzes aus einem dreidimensionalen einfarbigen Datensatz und einem zweidimensionalen Farbdatensatz veranschaulichen.
  • 3 graphisch ein Ausrichtungsverfahren gemäß der Erfindung zum Ausrichten der X-Y Koordinaten eines dreidimensionalen einfarbigen Datensatzes auf entsprechende Koordinaten eines zweidimensionalen Farbdatensatzes veranschaulicht.
  • Die 4A und 4B schematisch die Hauptelemente eines Teilbereichs einer Vorrichtung veranschaulichen, die zum Bereitstellen eines dreidimensionalen einfarbigen Datensatzes verwendet wird.
  • Die Figuren 5A, 5B und 5C in Draufsicht, Seitenansicht beziehungsweise isometrischer Ansicht, eine Sonde veranschaulichen, die in der ersten Ausführungsform der Vorrichtung gemäß 1 verwendet wird, um einen zweidimensionalen Farbdatensatz zur Verfügung zu stellen.
  • 6 in einer Seitenansicht eine Umhüllung für eine Sonde veranschaulicht, die in der zweiten Ausführungsform der Vorrichtung gemäß 1 verwendet wird, um einen zweidimensionalen Farbdatensatz zur Verfügung zu stellen.
  • 7A in einer Seitenansicht eine Sonde veranschaulicht, die in der dritten Ausführungsform der Vorrichtung gemäß 1 verwendet wird, um einen zweidimensionalen Farbdatensatz zur Verfügung zu stellen.
  • 7B die Übertragungs- und Reflexionsmerkmale einer bei der Sonde gemäß 7A verwendeten typischen dichroitischen Beschichtung veranschaulicht.
  • 8 in einer Seitenansicht die allgemeine Anordnung der Hauptelemente veranschaulicht, die in der vierten Ausführungsform der Vorrichtung gemäß 1 verwendet werden, um einen zweidimensionalen Farbdatensatz zur Verfügung zu stellen.
  • 9 eine in der Ausführungsform gemäß 8 verwendete LED Anordnung veranschaulicht.
  • 10 eine in der Ausführungsform gemäß 8 verwendete alternative Beleuchtungsanordnung veranschaulicht.
  • 10A Details von der in der Beleuchtungsanordnung gemäß 10 verwendeten Dreifarbscheibe veranschaulicht.
  • 11 in Seitenansicht die allgemeine Anordnung der Hauptelemente veranschaulicht, die in der fünften Ausführungsform der Vorrichtung gemäß 1 verwendet werden, um einen zweidimensionalen Farbdatensatz zur Verfügung zu stellen.
  • 12 in einer Seitenansicht die allgemeine Anordnung der Hauptelemente veranschaulicht, die in der sechsten Ausführungsform der Vorrichtung gemäß 1 verwendet werden, um ein zweidimensionaler Farbdatensatz zur Verfügung zu stellen.
  • 13 in einer Seitenansicht die allgemeine Anordnung der Hauptelemente veranschaulicht, die in der siebten Ausführungsform der Vorrichtung gemäß 1 verwendet werden, um ein zweidimensionaler Farbdatensatz zur Verfügung zu stellen.
  • 14 die Hauptschritte eines Verfahrens veranschaulicht, das besonders dazu angepasst ist, automatisch ein Gewebe von einem anderen Gewebe innerhalb der Mundhöhle zu unterscheiden.
  • 15 die Hauptschritte des Verfahrens gemäß der Ausführungsform der vorliegenden Erfindung veranschaulicht.
  • 16 die Hauptschritte eines Verfahrens veranschaulicht, das für das automatische Definieren der Präparationslinie einer Präparation verwendet wird.
  • 17 die Hauptschritte eines besonders auf die Tönung einer Prothese angewandten Verfahrens veranschaulicht.
  • 18 einen Teilbereich der Mundhöhle veranschaulicht, in dem es erwünscht ist, dass eine Zahnprothese implantiert wird.
  • 19 schematisch einen Transformationsschritt gemäß dem Verfahren gemäß 17 veranschaulicht.
  • 20 ein Blockdiagramm einer Anordnung ist, die die vorliegende Erfindung anwendet.
  • Detaillierte Beschreibung der Erfindung
  • Der erste Schritt des Verfahrens gemäß der vorliegenden Erfindung bezieht sich darauf, mindestens zwei numerische Datensätze zur Verfügung zu stellen, die repräsentativ sind für die dreidimensionale Oberflächengeometrie und die Farbe von mindestens einem Teil der Mundhöhle.
  • Der besagte numerische Datensatz ist typischerweise mindestens "vierdimensional", das heißt, jeder Datenpunkt des Datensatzes weist mindestens vier wesentliche unabhängige Variable auf. In den bevorzugten Ausführungsformen der Erfindung beziehen sich drei der wesentlichen unabhängigen Variablen auf räumliche Koordinaten einer Oberfläche, die typischerweise entlang orthogonaler kartesischer Achsen, x, y, z definiert sind. Alternativ dazu können diese Variablen entlang polarer Achsen oder einem beliebigen anderen geometrischen System definiert sein, in dem eine Oberfläche beschrieben werden kann. Die vierte wesentliche unabhängige Variable bezieht sich auf einen Farbparameter, der zahlenmäßig ausgedrückt wird und mit den räumlichen Koordinaten verknüpft ist. Der Farbparameter kann selbst aus unabhängigen wesentlichen Farbvariablen bestehen – die sich zum Beispiel auf die roten, blauen und grünen (RGB) Komponenten beziehen, die mit dem Farbparameter in Zusammenhang stehen. Alternativ dazu kann der Farbparameter in Bezug auf den Farbton, die Sättigung und die Intensität (Hue, Saturation and Intensity – HIS) ausgedrückt werden. Alternativ dazu kann jeder andere Farbparameter verwendet werden, umfassend Parameter, die ein Maß für den internen Reflexionsgrad und die Transluzenz oder jede andere optische Eigenschaft von Zähnen zur Verfügung stellen.
  • Auf diese Weise kann der numerische Datensatz einen Datensatz aus einer Vielzahl von 4 – dimensionalen Arrays aufweisen – (x, y, z, c), wobei jedes Array geometrischen Koordinaten x, y, z, und die Farbe c von einem Punkt auf einer Oberfläche innerhalb der Mundhöhle darstellt.
  • Jedes geeignete Mittel kann verwendet werden, um die numerischen Datensätze zur Verfügung zu stellen. Zum Beispiel kann eine dreidimensionale Oberflächenabtastung mit Farbfähigkeiten verwendet werden. Vorteilhaft macht solch eine Abtastung Gebrauch von konfokaler Bildgebung, um eine genaue dreidimensionale Darstellung der Zieloberfläche innerhalb der Mundhöhle zur Verfügung zu stellen. Danach werden zu jedem Datenpunkt dieses Datensatzes Farbwerte hinzugefügt, in dem eine zweidimensionale Farbabbildung der Zieloberflä che erzielt wird, und dann werden die Farbwerte der zweidimensionalen Abbildung auf das dreidimensionale "Bild" abgebildet.
  • Folgendes sind Beispiele, wie man den farbigen numerischen 3D Datensatz erzielen kann.
  • Zuerst wird Bezug genommen auf die 1, die die allgemeine Beziehung zwischen den verschiedenen Elementen einer Vorrichtung zum Bereitstellen eines farbigen numerischen 3D Datensatzes, im Allgemeinen mit der Ziffer 100 bezeichnet, gemäß den Ausführungsformen der hierin beschriebenen Vorrichtung veranschaulicht.
  • Die Vorrichtung 100 weist eine Hauptbeleuchtungsquelle 31 zur Beleuchtung des Objekts von Interesse 26 auf, typischerweise ein Teil der Mundhöhle, und ist optisch gekoppelt mit der Hauptoptik 41, um entlang der Oberfläche des Objekts 26 Z Werte für die Tiefe für einen Arraybereich von Koordinatenpunkten zur Verfügung zu stellen (gemäß einem bekannten Referenzgerüst). Die Erfassungsoptik 60 weist einen Abbildungssensor, typischerweise ein CCD auf, der vorzugsweise monochrom ist, um die Auflösung der Vorrichtung zu maximieren, und der typischerweise den X-Y Bereich der Referenz definiert. Alternativ kann das CCD angepasst sein, um Farbabbildungen aufzunehmen. Die Erfassungsoptik 60 empfangt Abbildungsdaten von der Hauptoptik 41, und der Bildprozessor 24 bestimmt basierend auf diesen Abbildungsdaten die Z Werte für die Tiefe für jeden auf dem Objekt 26 beleuchteten X-Y Punkt. Auf diese Weise weist ein manipulierbarer dreidimensionaler numerischer Datensatz E die Oberflächenkoordinaten des Objekts 26 auf.
  • Die Vorrichtung 100 weist weiterhin Mittel zur farbigen Beleuchtung auf, wie zum Beispiel einen Dreifarbfolgengenerator 74, um das Objekt 26 selektiv mit geeigneten Farben, typischerweise Grün, Rot und Blau, zu beleuchten, und für jede solche monochrome Beleuchtung wird von der Erfassungsoptik 60 eine zweidimensionale Abbildung des Objekts 26 aufgenommen. Der Prozessor 24 verarbeitet dann die drei unterschiedlich farbigen monochromen Abbildungen und kombiniert diese, um ein vollständiges 2D Farbbild des Objekts zur Verfügung zu stellen. Die Vorrichtung 100 ist eingerichtet, um Farbdaten für ein Array von X-Y Punkten zur Verfügung zu stellen, das demselben Referenzsystem entspricht wie das X-Y Array, das zum Erzielen des 3D Datensatzes verwendet wird.
  • Der Prozessor 24 richtet die 2D Farbabbildung auf den zuvor erzeugten 3D Datensatz aus und stellt dann Farbwerte für diesen Datensatz zur Verfügung, in dem er bei ausgerichteten X-Y Punkten Farbwerte auf den Datensatz abbildet. Eine solche Ausrichtung verläuft linear, weil sowohl die 3D Daten wie auch die 2D Farbdaten auf denselben X-Y Bereich der Referenz Bezug nehmen. Auf die 2A, 2B und 2C Bezug nehmend, wird das Angleichungsverfahren wie folgt ausgeführt. Ein dreidimensionaler numerischer Datensatz E wird erzielt durch Bestimmen der Z Werte der Tiefe für ein Gitter von X-Y Punkten, beleuchtet durch die Hauptoptik 41 und festgelegt durch den Bildprozessor 24. Der Datensatz E weist auf diese Weise ein Array von (X, Y, Z) Punkten auf, wie in 2A veranschaulicht. Die X-Y Ebene des Datensatzes E ist im Wesentlichen parallel zur abtastenden Stirnfläche des die Abbildung abtastenden Mittels der Erfassungsoptik 60, typischerweise eines CCD. Fast gleichzeitig, das heißt direkt vor oder gerade nachdem die Messwerte für das Festlegen des 3D Datensatzes E von der Erfassungsoptik 60 erzielt werden, wird mit Hilfe derselben Erfassungsoptik 60 eine 2D Farbabbildung des Objekts 26 in im Wesentlichen derselben relativen räumlichen Lage zwischen der Erfassungsoptik 60 und dem Objekt 26 aufgenommen, 2B. Wenn ein monochromes CCD verwendet wird, ist die erzielte 2D Farbabbildung eine Mischung geschaffen aus drei separaten monochromen Abbildungen, von denen jede durch Beleuchten des Objekts 26 mit einer anderen Farbe, wie zum Beispiel Rot, Grün und Blau, zur Verfügung gestellt wird. Die 2D Farbabbildung entspricht auf diese Weise einem anderen Datensatz N, der aus dem Ort und dem Farbwert jedes Pixels besteht, das diese Abbildung (X', Y', C') ausformt. Die X'-Y' Koordinaten der Pixel befinden sich auf einer Ebene, die im Wesentlichen parallele zur X-Y Ebene des Datensatzes E ist, und diese Koordinaten stellen weiterhin im Wesentlichen denselben Teil des Objekts 26 dar, wie die X-Y Koordinaten des Datensatzes E. Der Grund dafür ist, dass die optische Information, die sowohl für das Erzeugen des 3D Datensatzes E als auch des 2D Farbdatensatzes N verwendet werden, fast simultan mit einem sehr kleinen Zeitintervall dazwischen erzielt werden, und typischerweise gibt es keine ausreichende Zeit für irgendeine signifikante relative Bewegung zwischen der Abbildungsebene der Erfassungsoptik 60 und dem Objekt 26, die zwischen den beiden Abtastungen aufgetreten sein kann. Auf diese Weise stellen gleiche X-Y und X'-Y' Koordinaten in den Datensätzen E beziehungsweise N im Wesentlichen denselben Teil des Objekts 26 dar. Demgemäß kann der Farbwert C jedes Pixels des Datensatzes N auf den Datenpunkt des Datensatzes E abgebildet werden, der X-Y Koordinaten aufweist, die die gleichen sind wie die X'-Y' Koordinaten des Pixels, wodurch ein weiterer Datensatz I erzeugt wird, der Oberflächenkoordinaten und Farbdaten (X, Y, Z, C) aufweist, wie in 2C veranschaulicht.
  • Wenn sich der relative Winkel und die relative Lage zwischen der Ebene der abtastenden Stirnfläche der Erfassungsoptik 60 in Bezug auf das Objekt 26 zwischen den 2D und den 3D Abtastungen wesentlich verändert, dann könnten die X-Y Koordinaten des Datensatzes E, die gleiche Werte aufweisen wie die X'-Y' Koordinaten des Datensatzes N, unterschiedlichen Teilen des Objekts 26 entsprechen, und es kann dann auf diese Weise schwierig sein, die Farbwerte des Datensatzes N auf den Datensatz E abzubilden. Wenn jedoch nur eine kleine Bewegung zwischen der Erfassungsoptik 60 und dem Objekt 26 auftritt, im Besonderen einschließend eine relative Verschiebung oder eine Rotation entlang der Tiefenrichtung (Z), aber im Wesentlichen keine Änderung in der winkelförmigen Lage zwischen der Erfassungsoptik 60 und dem Objekt 26 über die X oder Y Achsen, kann es immer noch möglich sein, die Farbwerte des Datensatzes N auf den Datensatz E abzubilden, es muss aber zuerst ein Ausrichtungsprozess ausgeführt werden.
  • Sich auf 3 beziehend, kann solch ein Ausrichtungsprozess auf Verfahren zur optischen Zeichenerkennung (Optical Character Recognition – OCR) basieren. In der X-Y Ebene können die X-Y Koordinaten des Datensatzes E in zwei Gruppen eingeteilt werden, eine Gruppe, die der Tiefe des Objekts entsprechende Z Werte aufweist, und eine zweite Gruppe, für die kein vernünftiger Z Wert gefunden wurde, und diese Gruppe entspricht dem Hintergrund in Bezug auf das Objekt 26. Die Profile von durch die X-Y Koordinaten der ersten Gruppe des Datensatzes E dargestellten Formen, hierin wird darauf als ein weiterer Datensatz E' verwiesen, werden dann optisch mit Profilen von Formen verglichen, die den X'-Y' Koordinaten des Datensatzes N entsprechen, auf den hierin als ein weiterer Datensatz N' verwiesen wird. Demgemäß wird der Datensatz E' in Bezug auf den Datensatz N' übersetzt oder rotiert (koplanar), bis unter Verwendung von OCR Verfahren, die in der Technik gut bekannt sind, eine beste Übereinstimmung zwischen den optischen Formen zwischen den zwei Datensätzen erzielt wird. Typischerweise versucht der Bildprozessor oder ein anderer Computer, die äußere Grenze des Objekts 26 auszurichten, wie sie entlang der Z Achse zu sehen ist und in Datensatz E kodiert ist mit optischen Elementen in der 2D Farbabbildung im Datensatz N. Danach wird der Farbwert C jeder X'-Y' Koordinate des Datensatzes N auf den entsprechenden Datenpunkt des Datensatzes E abgebildet, der die entsprechend dazu ausgerichteten X-Y Koordinaten aufweist. Die Farbabbildungsoperation, um den Datensatz I zu erzeugen, kann durch beliebige geeignete Mikroprozessormittel, typischerweise den Prozessor 24 der Vorrichtung 100 (4B), ausgeführt werden.
  • Die Hauptoptik 41, die Hauptbeleuchtungsquelle 31, die Erfassungsoptik 60 und der Bildprozessor 24 werden jetzt mit Bezug auf die 4A und 4B beschrieben, die am Beispiel eines Blockdiagramms eine Ausführungsform einer Anordnung 20 für das konfokal Abbilden einer dreidimensionalen Anordnung gemäß WO 00/08415 veranschaulichen, erteilt an den gegenwärtigen Antragsteller, deren Inhalt hierin integriert wird. Alternativ dazu kann jede beliebige geeignete konfokal abbildende Anordnung mit der vorliegenden Vorrichtung verwendet werden.
  • Die Anordnung 20 weist eine mit einem Prozessor 24 gekoppelte optische Vorrichtung 22 auf. Die optische Vorrichtung 22 weist in dieser bestimmten Ausführungsform eine Halbleiterlasereinheit 28 auf, die ein Laserlicht aussendet, wie durch den Pfeil 30 dargestellt. Das Licht tritt durch ein Polarisationsfilter 32, wodurch eine gewisse Polarisation des Lichts erreicht wird, das durch den Polarisationsfilter 32 hindurch tritt. Das Licht tritt dann in einen optischen Expander 34 ein, der die numerische Apertur des Lichtstrahls 30 verbessert. Der Lichtstrahl 30 tritt dann durch ein Modul 38, das zum Beispiel ein Raster- oder ein Mikrolinsenarray sein kann, das den Ausgangsstrahl 30 in eine Vielzahl von einfallenden Lichtstrahlen 36 teilt, hier zur Leichtigkeit der Abbildung durch eine einzelnen Linie dargestellt. Die Prinzipien des Betriebs des Moduls 38 sind per se bekannt, und die Technik und diese Prinzipien werden daher hierin nicht ausgeführt.
  • Die optische Vorrichtung 22 weist weiterhin einen teilweise durchsichtigen Spiegel 40 auf, der einen kleinen zentralen Durchbruch aufweist. Er ermöglicht die Übertragung von Licht aus der Laserquelle durch die flussabwärts angeordnete Optik, reflektiert aber Licht, das sich in der entgegen gesetzten Richtung fortpflanzt. Es sollte beachtet werden, dass im Prinzip anstatt eines teilweise durchsichtigen Spiegels andere optische Komponenten mit einer ähnlichen Funktion ebenfalls verwendet werden können, zum Beispiel ein Strahlenteiler. Der Durchbruch im Spiegel 40 verbessert die Messgenauigkeit der Vorrichtung. In Folge dieser Spiegelanordnung ergeben die Lichtstrahlen einen Lichtring auf der angestrahlten Fläche des abgebildeten Objekts, solange die Fläche nicht im Fokus ist; und der Ring verwandelt sich in eine vollständig angestrahlte Stelle, wenn der Fokus einmal erreicht ist. Dies stellt sicher, dass ein Unterschied zwischen der gemessenen Intensität wenn im Fokus und wenn nicht im Fokus größer sein wird. Ein weiterer Vorteil eines Spiegels dieser Art ist im Gegensatz zu einem Strahlenteiler, dass im Falle des Spiegels interne Reflexionen, die in einem Strahlenteiler auftreten, vermieden werden, und das Verhältnis von Signal zu Rauschen daher besser wird.
  • Die Einheit weist weiterhin eine konfokale Optik 42 auf, die typischerweise in einem telezentrischen Modus arbeitet, eine Relaisoptik 44 und ein endoskopisches Messsondenelement 46. Die Elemente 42, 44 und 46 sind im Allgemeinen wie per se bekannt ausgeführt. Es sollte jedoch beachtet werden, dass telezentrische konfokale Optik durch den Abstand eingebrachte Änderungen der Vergrößerung vermeidet und dieselbe Vergrößerung der Abbildung über einen breiten Bereich von Abständen in der Z Richtung (wobei die Z Richtung die Richtung der Strahlenfortpflanzung ist) aufrecht erhält. Die Relaisoptik ermöglicht es, eine gewisse numerische Apertur der Fortpflanzung des Strahls aufrecht zu erhalten.
  • Das endoskopische Messsondenelement 46 weist typischerweise ein starres, Licht aussendendes Medium auf, das ein hohles Objekt sein kann, das innerhalb diesem einen Lichtübertragungspfad definiert, oder ein Objekt aus einem Licht übertragenden Material, zum Beispiel einem Glaskörper oder einer Röhre. An ihrem Ende weist die endoskopisches Sonde typischerweise einen Spiegel der Art auf, der eine vollständige interne Reflexion sicherstellt, und der auf diese Weise die einfallenden Lichtstrahlen in Richtung des Zahnsegments 26 leitet. Das Endoskop 46 emittiert auf diese Weise eine Vielzahl von einfallenden Lichtstrahlen 48, die auf die Oberfläche des Zahnabschnitts auftreffen.
  • Einfallende Lichtstrahlen 48 formen ein Array von Lichtstrahlen aus, das in einer X-Y Ebene im kartesischen System 50 angeordnet ist und sich entlang der Z Achse fortpflanzt. Da die Oberfläche, auf die die einfallenden Lichtstrahlen treffen eine unebene Oberfläche ist, sind die beleuchteten Stellen 52 entlang der Z Achse zu einander an unterschiedliche (Xi, Yi) Positionen verschoben. Daher können, während eine Stelle an einer Position im Fokus des optischen Elements 42 sein kann, Stellen an anderen Positionen außerhalb des Fokus sein. Deshalb wird die Lichtintensität der von den fokussierten Stellen zurückgestrahlten Lichtstrahlen (siehe unten) bei ihrem Maximum sein, während die Lichtstärke an anderen Stellen unterhalb des Maximums sein wird. Auf diese Weise wird für jede beleuchtete Stelle eine Vielzahl von Messungen der Lichtstärke an unterschiedlichen Positionen entlang der Z-Achse und für jede von diesen (Xi, Yi) Positionen ausgeführt, typischerweise wird die Ableitung der Intensität über dem Abstand (Z) ermittelt, wobei der Wert Zi das Maximum der Ableitung ergibt und Z0 der Abstand im Fokus sein wird. Wie weiter oben ausgeführt wird dort, wo in Folge der Verwendung des gelochten Spiegels 40 das einfallende Licht eine Lichtscheibe auf der Oberfläche ausformt, wenn diese sich außerhalb des Fokus befindet, und nur einen vollständigen Lichtpunkt ausformt, wenn diese im Fokus ist, die Ableitung des Abstands größer beim Annähern an die Position im Fokus und auf diese Weise wird die Genauigkeit der Messung erhöht.
  • Das von jedem der Lichtpunkte gestreute Licht umfasst einen Strahl, der anfangs in der Z-Achse entlang der entgegen gesetzten Richtung des optischen Pfads verläuft, auf dem sich die einfallenden Lichtstrahlen fortpflanzen. Jeder zurückkommende Lichtstrahl 54 entspricht einem der einfallenden Lichtstrahlen 36. Unter der Voraussetzung der unsymmetrischen Eigenschaften des Spiegels 40, werden die zurückkommenden Lichtstrahlen in die Richtung der Erfassungsoptik 60 reflektiert. Die Erfassungsoptik 60 weist ein Polarisationsfilter 62 auf, das eine Ebene bevorzugter Polarisation aufweist, die senkrecht zur Ebene der Polarisation des Polarisationsfilters 32 ausgerichtet ist. Der zurückkommende polarisierte Lichtstrahl 54 tritt durch eine Bildaufbereitungsoptik 64 hindurch, typischerweise eine Linse oder eine Vielzahl von Linsen, und dann durch eine Matrix 66, die ein Array von kleinen Löchern aufweist. Eine CCD Kamera weist eine Matrix oder Sensorelemente auf, die je ein Pixel der Abbildung darstellen und jedes entspricht einem kleinen Loch im Array 66.
  • Die CCD Kamera ist an das Bilderfassungsmodul 80 der Prozessoreinheit 24 angeschlossen. Auf diese Weise wird dann jede in jedem der Sensorelemente der CCD Kamera gemessene Lichtstärke aufgenommen und durch den Prozessor 24 auf eine Weise analysiert, die weiter unten beschrieben werden wird.
  • Die Einheit 22 weist weiterhin ein zur Steuerung des Betriebs sowohl des Halbleiterlasers 28 als auch des Motors 72 verbundenes Steuermodul 70 auf. Der Motor 72 ist mit der telezentrischen konfokalen Optik 42 verbunden, um die relative Position der fokalen Ebene der Optik 42 entlang der Z-Achse zu verändern. In einer einzelnen Abfolge des Betriebs regt die Steuereinheit 70 den Motor 72 dazu an, das optische Element 42 zu verschieben, um die Position der fokalen Ebene zu ändern, und dann regt das Steuermodul 70 nach Erhalt einer Rückmeldung, dass sich die Position geändert hat, den Laser 28 dazu an, einen Lichtimpuls zu erzeugen. Zur gleichen Zeit synchronisiert sie das Bilderfassungsmodul 80, um Daten aufzunehmen, die für die Lichtstärke von jedem der Sensorelemente repräsentativ sind. Dann ändert sich in anschließenden Abfolgen die Fokusebene auf dieselbe Weise und das Erfassen der Daten fährt über einen breiten Fokusbereich der Optik 44 fort.
  • Das Bilderfassungsmodul 80 ist mit einer CPU 82 verbunden, die dann die relative Intensität in jedem Pixel über den gesamten Bereich von fokalen Ebenen der Optik 42, 44 bestimmt. Wie weiter oben ausgeführt, wird die gemessene Intensität maximal sein, wenn ein bestimmter Lichtpunkt einmal im Fokus ist. Auf diese Weise kann, durch Bestimmen des Zi, das der maximalen Lichtstärke entspricht, oder durch Bestimmen der Ableitung der maximalen Verschiebung der Lichtstärke, für jedes Pixel die relative Position jedes Lichtpunkts entlang der Z Achse bestimmt werden. Auf diese Weise können für das dreidimensionale Muster einer Oberfläche im Zahnsegment repräsentative Daten erzielt werden. Diese dreidimensionale Darstellung kann auf einer Anzeige 84 angezeigt und durch das Anwendersteuermodul 86 (typischerweise eine Computertastatur) zur Betrachtung verarbeitet werden, zum Beispiel zur Betrachtung aus unterschiedlichen Winkeln und zum Vergrößern und Verkleinern.
  • Die Vorrichtung 100 weist weiterhin Mittel auf, um eine 2D Farbabbildung desselben Objekts 26 zur Verfügung zu stellen, und jedes geeignete Verfahren kann verwendet werden, um die Farbabbildung zur Verfügung zu stellen. Eine Anzahl von solchen Verfahren wird weiter unten beschrieben.
  • Das erste Verfahren basiert darauf, das Objekt 26 sequentiell mit drei unterschiedlichen farbigen Lichtstrahlen wie zum Beispiel Rot, Grün und Blau zu beleuchten und über das CCD 68 und die Bilderfassungsvorrichtung 80 (siehe 4A, 4B) eine jeder Farbe entsprechende monochrome Abbildung zu erfassen. Sich auf 1 beziehend, sind dreifarbige Lichtquellen 71, das heißt, eine oder mehrere Lichtquellen, die in einer Vielzahl von unterschiedlich Farben beleuchtende Strahlungen auf das Objekt 26 zur Verfügung stellen, mit einem Dreifarbfolgengenerator 74 gekoppelt, der entsprechend durch die Verarbeitungseinheit 24 gesteuert wird, um die dreifarbigen Beleuchtungen über die Zuführungsoptik 73 in ein vorgegeben Abfolge zur Verfügung zu stellen. Die farbigen Beleuchtungen werden in Bezug auf die 3D Abtastung direkt vor oder nach dieser in einem relativen kurzen Zeitintervall zur Verfügung gestellt, typischerweise im Bereich von etwa 0 bis 100 Millisekunden, in einigen Fällen in der Größenordnung von 50 Millisekunden. Geeignete Verarbeitungssoftware 82 kombiniert die drei Abbildungen, um eine 2D Farbabbildung zur Verfügung zu stellen, die ein Array von Datenpunkten aufweist, die Orts- (X, Y) und Farb- (C) Information für jedes Pixel der 2D Farbabbildung aufweisen.
  • Gemäß einer ersten Ausführungsform der Vorrichtung 100 ist die Zuführungsoptik 73 ganzheitlich mit dem Endoskop 46 ausgeführt, das in der Form eines Sondenelements 90 vorliegt, wie in den 5A, 5B und 5C veranschaulicht. Das Sondenelement 90 ist aus einem lichtdurchlässigen Material hergestellt, typischerweise Glas und weist ein vorderes Segment 91 und ein hinteres Segment 92 auf, die auf eine optisch durchlässige Weise bei 93 fest zusammen verklebt sind. Die abgeschrägte Stirnfläche 94 ist von einer vollständig reflektierenden Spiegelschicht 95 bedeckt. Die Glasplatte 96, die eine Sensoroberfläche 97 definiert, kann auf eine Weise am Boden angeordnet sein, die einen Luftspalt 98 belässt. Die Platte wird in ihrer Position durch eine Halterungsanordnung fixiert, die nicht gezeigt wird. Drei Lichtstrahlen 99 von der Hauptoptik 42 sind schematisch dargestellt. Wie ersehen werden kann, werden diese an den Wänden des Sondenelements in einem Winkel zurückgeworfen, in dem die Wände vollständig reflektierend sind und fallen zuletzt auf den Spiegel 95 ein und werden von dort durch die Sensorstirnfläche 97 hindurch reflektiert.
  • Die Lichtstrahlen fokussieren auf der Fokusebene 101, deren Position von der (nicht in dieser Figur gezeigten) Fokussierungsoptik verändert werden kann. Das Sondenelement 90 weist eine Schnittstelle 78 auf, über die die optische Kommunikation mit der Relaisoptik 44 und dem Rest der Vorrichtung 100 eingerichtet ist. Die Sonde 90 weist weiterhin eine Vielzahl von dreifarbigen LEDs 77 auf, um die farbige Beleuchtung auf dem Objekt 26 zur Verfügung zu stellen.
  • Die LEDs 77 weisen typischerweise unterschiedliche LEDs auf, um blaue Strahlung und grüne Strahlung zur Verfügung zu stellen wenn rote beleuchtende Strahlung als die Beleuchtungsquelle 31 für die Hauptoptik 41 beim Erzeugen des 3D Datensatzes verwendet wird. Alternativ dazu können, wenn eine blaue beleuchtende Strahlung als die Beleuchtungsquelle 31 verwendet wird, die LEDs 77 grüne und rote LEDs aufweisen und, wenn eine grüne beleuchtende Strahlung als die Beleuchtungsquelle 31 verwendet wird, können die LEDs 77 blaue und rote LEDs aufweisen.
  • Die dreifarbigen LEDs 77 sind jede dazu in der Lage, eine Beleuchtungsstrahlung in einer von drei Farben, typischerweise Rot, Grün oder Blau zur Verfügung zu stellen, wie dies über den Dreifarbfolgengenerator gesteuert wird. Alternativ dazu kann eine Vielzahl von LEDs in drei Gruppen zur Verfügung gestellt werden, wobei jede Gruppe die Beleuchtung in einer der gewünschten Farben zur Verfügung stellt. Die LEDs 77 sind so an der Peripherie der Schnittstelle 78 angeordnet, dass die LEDs nicht in die anderen optischen Funktionen der Vorrichtung 100 eingreifen. Im Besonderen umfassen solche Funktionen die Übertragung der beleuchtenden Strahlung für die konfokal fokussierenden Betriebszustände, und auch die Übertragung von reflektiertem Licht vom Objekt 26 zur Hauptoptik 41, um den 3D Datensatz oder den 2D Farbdatensatz zur Verfügung zu stellen. Die LEDs sind in Bezug auf die Schnittstelle 78 im Wesentlichen orthogonal befestigt und auf diese Weise wird, wie in 5C veran schaulicht, Licht von jeder der LEDs 77 durch interne Spiegelung in Bezug auf die Wände der Sonde 90 an das Ende der Anwenderschnittstelle 79 der Sonde übertragen.
  • Vorzugsweise ist die Vorrichtung 100 gemäß einer Variation der ersten Ausführungsform weiterhin dazu angepasst, auf eine ähnliche Weise wie die hierin für die vierte Ausführungsform beschriebene eine verbesserte Genauigkeit der damit erzielten Farbdaten zur Verfügung zu stellen.
  • Gemäß einer zweiten Ausführungsform der Vorrichtung 100 liegt das Endoskop 46 auch in der Form eines Sondenelements 90 vor, das im Wesentlichen ausgeführt ist wie in Bezug auf die erste Ausführungsform beschrieben, aber mit dem Unterschied, dass dort an der Schnittstelle 78 keine LEDs direkt darauf befestigt sind. In der zweiten Ausführungsform ist die Zuführungsoptik 73 in der Form einer Wegwerfmanschette, einer Einwegummantelung oder einer Einwegschutzhülle 190 ausgeführt, die die äußere Oberfläche des Sondenelements 90 bedeckt, wie in 6 veranschaulicht. Die Umhüllung 190 ist aus einem wellenleitenden Material hergestellt, wie zum Beispiel einem Acrylpolymer, das dazu in der Lage ist, eine beleuchtende Strahlung von der flussaufwärts angeordneten Stirnfläche 191 der Umhüllung dort hindurch und an die flussabwärts angeordnete Stirnfläche 192 zu übertragen. Die flussaufwärts angeordnete Stirnfläche 191 ist in der Form einer peripheren Oberfläche um die Schnittstelle 78 herum ausgeführt. Die flussabwärts angeordnete Stirnfläche 192 ist als eine periphere Auskragung ausgeformt, die ein Fenster 193 umgibt, das besagte Umhüllung 190 aufweist. Das Fenster 193 steht in Verbindung mit dem Ende der Anwenderschnittstelle 79 der Sonde 90. Eine Vielzahl von dreifarbigen LEDs 117 sind, um die farbige Beleuchtung auf das Objekt 26 zur Verfügung zu stellen, gerade flussaufwärts von der Umhüllung 190 auf die Vorrichtung 100 montiert. Die dreifarbigen LEDs 177 sind jede dazu in der Lage, eine Beleuchtungsstrahlung in einer von drei Farben, typischerweise Rot, Grün oder Blau, wie durch den Dreifarbfarbfolgengenerator 74 gesteuert zur Verfügung zu stellen. Alternativ dazu kann eine Vielzahl von LEDs in drei Gruppen zur Verfügung gestellt werden, wobei jede Gruppe eine farbige Beleuchtung zur Verfügung stellt. Die LEDs 177 befinden sich außerhalb der Hauptoptik der Vorrichtung 100, und die LEDs behindern auf diese Weise die anderen optischen Betriebszustände der Vorrichtung 100 nicht, im Besonderen umfassend die Übertragung der beleuchtenden Strahlung für die konfokal fokussierenden Betriebszustände, oder bei der Übertragung von reflektiertem Licht vom Objekt 26, um den 3D Datensatz oder den 2D Farbdatensatz zur Verfügung zu stellen. Die LEDs sind im Wesentlichen gegenüber liegend zu der flussaufwärts angeordneten Stirnfläche 191 befestigt, und auf diese Weise wird, wie in 5 veranschaulicht, Licht von jeder der LEDs 177 von der wellenleitenden Umhüllung 190 an die flussabwärts angeordnete Stirnfläche 192 übertragen und damit an das Objekt 26. In dieser Ausführungsform ist die Umhüllung 190 besonders nutzbar beim Aufrecht erhalten von hygienischen Bedingungen zwischen einem Patienten und dem Nächsten, und vermeidet die Notwendigkeit, die Sonde 90 zu sterilisieren, da die Umhüllung weg geworfen werden kann, nachdem sie mit einem Patienten verwendet wurde, und mit einer anderen sterilisierten Umhüllung ersetzt werden kann, bevor eine Begutachtung der Mundhöhle beim nächsten Patienten ausgeführt wird.
  • Vorzugsweise ist die Vorrichtung 100 gemäß einer Variation der zweiten Ausführungsform weiterhin angepasst, um auf eine ähnlich Weise wie die hierin für die vierte Ausführungsform beschriebene eine verbesserte Genauigkeit der damit erzielten Farbdaten zur Verfügung zu stellen.
  • In jeder der ersten oder zweiten Ausführungsformen, oder Variationen davon, kann ein roter Laser als die Beleuchtungsquelle 28 für die Hauptoptik verwendet werden, wenn der 3D Datensatz erzeugt wird. Als solches kann dieses Beleuchtungsmittel auch verwendet werden, um die rote monochrome Abbildung für die Erzeugung der 2D Farbabbildung durch Beleuchten des Objekts 26 und Aufzeichnen der Abbildung mit dem optischen Detektor 60 zu erzielen. Demgemäß ist es, anstatt dreifarbige LEDs oder LEDs mit drei unterschiedlichen Farben zur Verfügung zu stellen, nur notwendig, nur LEDs zur Verfügung zu stellen, die angepasst sind, um die übrigen zwei Farben, Grün und Blau zur Verfügung zu stellen. Eine ähnliche Situation ergibt sich, wenn die Beleuchtungsquelle für die Hauptoptik 41 ein grüner oder blauer Laser ist, wobei beleuchtende Strahlungen nur in den übrigen zwei Farben zur Verfügung gestellt werden müssen.
  • In diesen Ausführungsformen erfolgt die Anordnung der Beleuchtungsquellen am flussaufwärts angeordneten Ende der Sonde 90, wo es ausreichenden Raum gibt, statt an dem beim Patienten liegenden Ende der Schnittstelle 79, wo der Raum eng ist.
  • Gemäß einer dritten Ausführungsform der Vorrichtung 100 ist das Endoskop 46 ebenfalls in der Form eines Sondenelements 90 ausgeführt, im Wesentlichen wie in Bezug auf die zweite Ausführungsform beschrieben, jedoch mit den folgenden Unterschieden. Wie in 7A veranschaulicht, weist die Zuführungsoptik 73 in der dritten Ausführungsform eine Vielzahl von LEDs 277 auf, um die farbige Beleuchtung für das Objekt 26 zur Verfügung zu stellen. In dieser Ausführungsform wird ein roter Laser als die Beleuchtungsquelle für die Hauptoptik verwendet, wenn der 3D Datensatz erzeugt wird. Als solches wird dieses Beleuchtungsmittel auch verwendet, um die rote monochrome Abbildung für die Erzeugung der 2D Farbabbildung zu erzielen. Daher sind die LEDs 277 jeweils dazu in der Lage, eine Beleuchtungsstrahlung entweder in grün oder blau zur Verfügung zu stellen, wie über den Dreifarbfolgengenerator 74 gesteuert. Die LEDs 277 befinden sich auf der äußeren Seite der abgeschrägten Stirnfläche 94, und die LEDs greifen auf diese Weise nicht in die anderen optischen Betriebszustände der Vorrichtung 100 ein, im Besonderen einschließlich der Übertragung der beleuchtenden Strahlung für die konfokal fokussierenden Betriebszustände, oder bei der Übertragung von reflektiertem Licht von dem Objekt 26, um den 3D Datensatz oder den 2D Farbdatensatz zur Verfügung zu stellen. Die abgeschrägte Stirnfläche 94 weist eine dichroitische Beschichtung 278 auf der äußeren Seite davon auf, die ein relativ hohes Reflexionsvermögen und niedrige Übertragungseigenschaften in Bezug auf rotes Licht aufweist, während sie im Wesentlichen hohe Übertragungseigenschaften für blaues Licht und grünes Licht aufweist, wie in 7B veranschaulicht. Auf diese Weise wird, wie in 7A veranschaulicht, Licht von jeder der blauen oder grünen LEDs 271 wiederum durch die dichroitische Beschichtung zur Schnittstelle 79 übertragen und von dort zum Objekt 26, wie durch den Generator 74 gesteuert. Zur gleichen Zeit erlaubt die dichroitische Beschichtung die interne Spiegelung der roten Strahlung von der Hauptoptik 41 zu der Schnittstelle 79 und dem Objekt 26 und ermöglicht auf diese Weise, dass die 3D Abtastung vervollständigt wird, und ermöglicht auch, dass die rote monochrome Abbildung des Objekts 26 von der Vorrichtung 100 aufgenommen wird. Optional können, anstatt blaue und grüne LEDs anzuwenden, dreifarbige LEDs verwendet und geeignet abgestimmt werden, um entweder mit grünem oder blauem Licht zu beleuchten, wie durch den Generator 74 gesteuert. Alternativ dazu kann die Beleuchtungsquelle für die Hauptoptik 41 ein grüner oder blauer Laser sein, wobei in diesem Fall die LEDs jeweils dazu in der Lage sind, Beleuchtung in den übrigen zwei Farben zur Verfügung zu stellen, und in diesen Fällen ist die dichroitische Beschichtung dazu angepasst, die Übertragung dieser übrigen zwei Farben zu ermöglichen, während sie auf eine ähnliche Weise wie die weiter oben für den roten Laser beschriebene im Wesentlichen eine starke Reflexion für den Beleuchtungslaser der Hauptoptik zur Verfügung stellen.
  • In einer vierten Ausführungsform der Vorrichtung 100, und sich auf 8 beziehend, wird eine dreifarbige Beleuchtung innerhalb der Hauptfokusoptik 42 zur Verfügung gestellt, im Besonderen bei der Öffnungsblende der konfokalen Anordnung und gegenüber liegend der Objektlinse der Anordnung. Ein durch diese Form der Beleuchtung zur Verfügung gestellter Vorteil ist, dass die dreifarbige Beleuchtung das Objekt 26 durch die flussabwärts angeordnete Objektivlinse 142 in fast gebündeltem Licht beleuchtet, und die Objektbeleuchtung auf diese Weise sehr gleichförmig ist. Die dreifarbigen Lichtquellen 377 können auf der Ebene der Öffnungsblende 150 statisch auf die physische Öffnungsblende montiert werden, oder sie können alternativ auf eine zurückziehbare Öffnungsblende montiert werden, die auch dazu dient, die Öffnung der Anordnung im Vorschaumodus abzublenden. In dieser Ausführungsform können durch Positionieren der dreifarbigen Lichtquellen 377 in der Abblendebene, wo sich der Lichtstrahl aus der Beleuchtungsquelle 31 innerhalb der Hauptoptik 41 auf ein Minimum verengt, die externen Abmessungen der Vorrichtung 100 immer noch relativ kompakt bleiben.
  • Auf 9 verweisend, können die dreifarbigen Lichtquellen 377 zum Beispiel eine Vielzahl von dreifarbigen LEDs 385 aufweisen, die auf einem Halterungsbügel 380 montiert sind. Der Halterungsbügel 380 ist typischerweise ringförmig, weist einen zentralen Durchbruch auf, um zu ermöglichen, dass Beleuchtungslicht von der beleuchtenden Einheit 31 dort hindurch und zum Objekt 26 verläuft, und um zu ermöglichen, dass Licht, das vom Objekt 26 kommt, dort hindurch und zur Erfassungsoptik 60 verläuft, ohne vom Halterungsbügel 380 behindert zu werden. Zur gleichen Zeit positioniert der Halterungsbügel 380 die LEDs in der erforderlichen Lage flussaufwärts angeordnet zu der Objektivlinse 166. Die LEDs sind auf eine beabstandete radiale und umlaufende Weise angeordnet, wie in 9 veranschaulicht, um die mit dieser Anordnung bestmögliche gleichförmige Beleuchtung des Objekts 26 zur Verfügung zu stellen. Typischerweise wird ein roter Laser als die Beleuchtungsquelle 31 für die Hauptoptik 41 verwendet, wenn der 3D Datensatz erzeugt wird. Als solche, und wie in anderen Ausführungsformen, wird dieses Beleuchtungsmittel auch verwendet, um die rote monochrome Abbildung für die Erzeugung der 2D Farbabbildung zu erzielen. Auf diese Weise sind die LEDs 385 jede dazu in der Lage, wie über den Dreifarbfolgengenerator 74 gesteuert, eine Beleuchtungsstrahlung in entweder Grün oder Blau zur Verfügung zu stellen. Alternativ dazu kann die Beleuchtungsquelle für die Hauptoptik 41 ein grüner oder blauer Laser sein, wobei in diesem Fall die LEDs 385 jeweils dazu in der Lage sind, die Beleuchtung in den übrigen zwei Farben auf eine oben für den roten Laser dazu beschriebene ähnliche Weise zur Verfügung zu stellen. Optional können, anstatt blaue und grüne LEDs anzuwenden, dreifarbige LEDs verwendet und geeignet synchronisiert werden, um durch den Generator 74 gesteuert mit entweder grünem oder blauem Licht zu beleuchten. Weiterhin können die LEDs 385 optional verwendet werden, um sequentiell alle erforderlichen farbigen Beleuchtungen, typischerweise Rot, Grün und Blau, zur Verfügung zu stellen. Alternativ dazu stellen die LEDs 385 jeweils eine Beleuchtung in einer von mindestens drei Farben zur Verfügung. Auf diese Weise stellen manche der LEDs 385 eine blaue Beleuchtung zur Verfügung, während andere LEDs 385 eine grüne Beleuchtung zur Verfügung stellen, während nochmals andere LEDs 385 eine rote Beleuchtung zur Verfügung stellen.
  • Vorzugsweise ist die Vorrichtung 100 gemäß einer Variation der vierten Ausführungsform weiterhin dazu angepasst, eine verbesserte Genauigkeit der damit erzielte Farbdaten zur Verfügung zu stellen. In diesem Zusammenhang ist die Vorrichtung 100 gemäß dieser Variation der vierten Ausführungsform so angepasst, dass die dreifarbigen Lichtquellen 377 jede das Objekt 26 mit einem so groß als möglichen Schärfentiefenbereich, zum Beispiel bei einer niedrigen numerischen Blende, bestrahlen. Auf diese Weise beleuchtet jeder Satz von Lichtquellen 377 derselben Farbe, zum Beispiel Blau, eine bestimmte Tiefe des Objekts 26 in der z-Richtung, während sie im Wesentlichen im Fokus sind. Im Gegensatz dazu ist die numerische Blendenöffnung der konfokalen Anordnung selbst relativ hoch, um die Genauigkeit der Tiefenmessungen zu maximieren, und stellt auf diese Weise einen relativ geringeren Schärfentiefenbereich zur Verfügung.
  • Vorteilhaft ist die flussabwärts von den Lichtquellen 377 angeordnete optische Anordnung, in dieser Ausführungsform die Objektivlinse 166, chromatisch und maximiert im Besonderen die chromatische Streuung dort hindurch. Alternativ dazu oder zusätzlich kann ein chromati sches Streuelement, zum Beispiel ein optisch brechender Block mit geeignetem Brechungsindex entlang des optischen Pfads zwischen den Lichtquellen 377 und dem Objekt 26 zur Verfügung gestellt werden. Auf diese Weise beleuchtet jede der unterschiedlich farbigen Lichtquellen 377 einen unterschiedlichen Teilbereich des Objekts 26 entlang der z-Richtung. Die Lichtquellen 377, die die blaue Beleuchtung zur Verfügung stellen, beleuchten im Fokus einen Teilbereich des Objekts 26, der am nächsten zu der Vorrichtung 100 positioniert ist, und die Lichtquellen 377, die die rote Beleuchtung zur Verfügung stellen, beleuchten im Fokus und in Fokus einen Teilbereich des Objekts 26, der am weitesten von der Vorrichtung 100 positioniert ist. Zur gleichen Zeit beleuchten die Lichtquellen 377, die die grüne Beleuchtung zur Verfügung stellen, im Fokus einen Teilbereich des Objekts 26 zwischen den blauen und roten Teilbereichen, und es kann eine nicht beleuchtete Lücke zwischen den rot und grün und zwischen den grün und blau beleuchteten Teilbereichen vorhanden sein, wobei die Tiefe dieser Lücken von den Streuungseigenschaften der flussabwärts angeordneten Optik abhängig sind. Vorteilhaft sind die Lichtquellen 377 auch dazu angepasst, die Beleuchtung in Farben mit dazwischen liegenden Wellenlängen zur Verfügung zu stellen, um zum Beispielen die oben erwähnten Lücken im Fokus zu beleuchten. Auf diese Weise können die LEDs 385 angepasst sein, um sowohl solche zusätzliche farbige Beleuchtung zur Verfügung zu stellen, oder einige der LEDs 385 können angepasst sein, um eine farbige Beleuchtung mit einer ersten mittleren Wellenlänge zur Verfügung zu stellen, während ein anderer Satz von LEDs 385 angepasst sein kann, um eine farbige Beleuchtung mit einer zweiten mittleren Wellenlänge zur Verfügung zu stellen. Zum Beispiel stellt die erste mittlere Wellenlänge eine Beleuchtung in wasserblau zur Verfügung, und beleuchtet auf diese Weise im Fokus mindestens einen Teil des Objekts 26, während die zweite mittlere Wellenlänge eine Beleuchtung in Bernsteinfarbe zur Verfügung stellt und auf diese Weise im Fokus mindestens einen Teil der Lücken zwischen den grün und rot beleuchteten fokussierten Zonen beleuchtet. Natürlich können zusätzliche Lichtquellen verwendet werden, um weitere mittlere Wellenlängen zur Verfügung zu stellen und auf diese Weise weitere Tiefenbereiche abdeckende Beleuchtungen in Fokus für das Objekt zur Verfügung zu stellen.
  • Während die Vorrichtung 100 als Sucher verwendet wird, typischerweise bevor eine Tiefen- und Farbabtastung des Objekts 26 ausgeführt wird, ermöglicht die obige Anordnung, die mindestens fünf unterschiedlich farbige Beleuchtungen bei einer niedrigen numerischen Blendenöffnung verwendet, dass eine viel klarere und fokussiertere Echtzeitfarbabbildung des Objekts 26 erzielt werden kann. Auf diese Weise beleuchtet die Vorrichtung 100 gemäß dieser Variation der vierten Ausführungsform, wenn sie sich im Betriebszustand des Suchermodus befindet (auch bekannt als "Zielmodus", vor dem Ereignis der 3D Abtastung, während der Zahnarzt zum Beispiel dabei ist, die Abtastvorrichtung auf die Zieloberfläche des Zahns zu richten) das Objekt 26 wiederholt in Zyklen, wobei das Objekt 26 in jedem Zyklus gesondert in jeder der fünf Farben Blau, Wasserblau, Grün, Bernsteinfarbe und Rot in schneller Abfolge be leuchtet wird und jedes Mal eine monochrome Abbildung durch den monochromen Abbildungssensor 60 erzielt wird. Jeder Satz von fünf monochromen Abbildungen wird dann analysiert, um eine zusammengesetzte Farbabbildung zur Verfügung zu stellen, und diese Abbildung wird dann im Wesentlichen in Echtzeit durch die Steuersoftware im Anzeigefenster des Suchers angezeigt, so dass die Abfolge von solchen zusammengesetzten Abbildungen das Erscheinungsbild einer im Wesentlichen in Echtzeit erfolgenden Farbvideodarstellung des Objekts 26 ergibt.
  • Jede der einfarbigen Abbildungen in jedem bestimmtem Satz entspricht einer bestimmten Beleuchtungsfarbe oder Wellenlänge, und die Zone beziehungsweise die Zonen des Objekts 26 innerhalb des Schärfentiefenbereichs, der dieser Beleuchtung entspricht, ist auf diese Weise im Fokus, während die anderen Teile des Objekts 26 aus dem Fokus erscheinen. Auf diese Weise enthält jede solche Abbildung im oben erwähnten Satz von Abbildungen einen Teilbereich, der für die bestimmte Beleuchtungswellenlänge eine fokussierte Abbildung hohe Genauigkeit eines Teils des Objekts aufweist.
  • Beim Ausformen einer zusammengesetzten Abbildung für jeden Satz von Abbildungen werden die Abbildungen auf solch eine Weise kombiniert, dass die Genauigkeit der fokussierten Abbildung und der zugehörigen Farbe davon maximiert werden. Auf diese Weise und können zum Beispiel geeignete Algorithmen auf jede der fünf Abbildungen eines Satzes angewandt werden, die FFT Verfahren auf Bereiche der Abbildungen anwenden und die nach Hochfrequenzteilbereichen suchen, die fokussierten Flächen entsprechen, die den fokussierten Bereichen entsprechen. Auf jeden Fall sind solche Algorithmen, wie auch Software und Hardware umfassen, um dasselbe Ergebnis zu erreichen, in der Technik gut bekannt. Dann werden die fokussierten Bereiche von jeder der fünf Abbildungen verschmolzen, um eine einfarbige zusammengesetzte im Wesentlichen fokussierte Abbildung des Objekts zur Verfügung zu stellen. Danach werden die mit Hilfe der roten, grünen und blauen Beleuchtungen erzielten Abbildungen kombiniert und in eine entsprechende Lumineszenz/Farbeigenschaft (Y/C) Abbildung umgewandelt, und Verfahren um dieses auszuführen sind in der Technik gut bekannt. Schließlich wird die Lumineszenzkomponente der Lumineszenz/Farbeigenschaft (Y/C) Abbildung durch die oben erwähnte zugehörige zusammengesetzte Fokusabbildung ersetzt, und die entstehende neue Abbildung für Lumineszenz/Farbeigenschaft wird dann an die Anzeige im Sucher übertragen.
  • Für jeden Satz von Abbildungen werden diese vor dem Kombinieren der entsprechenden roten, grünen und blauen Abbildungen vorzugsweise zuerst maßstäblich skaliert, um Vergrößerungswirkungen der unterschiedlichen Wellenlängen zu kompensieren. Auf diese Weise müssen die grüne Abbildung, und mehr noch die blaue Abbildung, skaliert werden, um mit der roten Abbildung Übereinstimmung aufzuweisen.
  • Wenn der Anwender bereit ist, eine Tiefen- und Farbabtastung des Objekts 26 vorzunehmen, nachdem er die Vorrichtung 100 mit Hilfe des Suchers in Position gesteuert hat, führt die Vorrichtung 100 wie zuvor hierin beschrieben eine Tiefenabtastung in der z-Richtung aus und entweder vor oder nach dieser, aber in schneller Folge der Einen auf die Andere, führt sie eine Farbabtastung in einer ähnlichen Weise zu der oben für den Suchermodus beschriebenen durch. Anschließend können die Farbdaten und die Tiefendaten der zwei Abtastungen kombiniert werden, um die vollständigen räumlichen Daten und die Farbdaten für die abgetastete Oberfläche zur Verfügung zu stellen.
  • Vorteilhaft können eine oder mehrere Farbabtastungen auch während der Tiefenabtastung und/oder am Anfang und am Ende der Tiefenabtastung vorgenommen werden. In einem Betriebsmodus wird die Tiefenabtastung durch Verschieben der Objektivlinse 166 entlang der z-Richtung in einer fortlaufenden oder schrittweisen Bewegung erzielt. Mehrfache Farbabtastungen können dann durch Zuordnen der Farbquellen 377 zu der Objektivlinse erzielt werden, so dass diese ebenfalls entlang der z-Richtung verschoben werden. Demgemäß beleuchtet eine der farbigen Beleuchtungen – rote, grüne, blaue und dazwischen liegende Wellenlängen – einen fortschreitend tieferen Teil des Objekts entlang der z-Richtung an jeder unterschiedlichen z-Position, in der ein Satz von Abbildungen vorgenommen wird (gleichzeitig mit oder abwechselnd mit der Tiefenabtastung), während die Lichtquellen 377 während der Tiefenabtastung in der z-Richtung in Richtung des Objekts 26 bewegt werden. Natürlich ist es in einigen Fällen möglich, dass die grünen und roten Beleuchtungen am flussabwärts angeordneten Ende der Tiefenabtastung vollständig über das Objekt 26 hinausgehen, und die entsprechenden Abbildungen können verworfen oder auf sonstige Weise verarbeitet werden, um eine zusammengesetzte Farbabbildung an diesem Ort zur Verfügung zu stellen. Auf diese Weise kann eine Vielzahl von Farbabbildungen erzielt werden, jede basierend auf einer unterschiedlichen z-Position, so dass jede Beleuchtungswellenlänge verwendet wird, um einen unterschiedlichen Teil (Tiefe) des Objekts 26 in Fokus zu beleuchten. Vorteilhaft können geeignete Algorithmen verwendet werden, um eine zusammengesetzte Farbabbildung auszuformen aus dem Satz von Farbabbildungen, die mit einer bestimmten z-Abtastung des Objekts 26 verknüpft sind, um eine noch genauere und exaktere Farbabbildung zur Verfügung zu stellen, die dann mit den Tiefendaten kombiniert werden kann.
  • Alternativ dazu und auf 10 verweisend, können die dreifarbigen Lichtquellen 377 durch eine rotierende Filterbeleuchtungsanordnung 400 ersetzt werden. Die Anordnung 400 weist eine weiße Lichtquelle 410, wie zum Beispiel weiße Phosphor InGaN LEDs auf, und das Licht von diesen wird mittels einer Kondensoroptik 430 auf ein Glasfaserbündel 420 konzentriert. Zwischen der Kondensoroptik 430 und dem Faserbündel wird 420 ein rotierender Dreifarbfilter 450 zur Verfügung gestellt. Wie am besten aus 10A zu ersehen, ist der Filter 450 in drei farbige Abschnitte eingeteilt und weist darin blaue, grüne und rote Filter auf benachbarten Sektoren auf. Das Faserbündel 420 ist am flussabwärts angeordneten Ende 470 ausgestellt, um das gewünschte Beleuchtungsmuster auszuformen. Optional kann das flussabwärts angeordnete Ende 470 der Fasern in der Öffnungsblendenebene der konfokalen Optik auf einen ringförmigen Halterungsbügel, ähnlich dem in 9 veranschaulichten ringförmigen Halterungsbügel 380, montiert werden. Ein geeigneter Motor 460, typischerweise zum Beispiel ein Schrittmotor, treibt den rotierenden Filter an, so dass dieser sequentiell jeden farbigen Filter in das Licht stellt, das von der Kondensoroptik 430 zum Faserbündel 420 übertritt und durch den Folgengenerator 74 (1) synchronisiert wird, um es der Erfassungsoptik 60 zu ermöglichen, Abbildungen des Objekts 26 zu erfassen, wenn dieses selektiv mit jeder der drei Farben beleuchtet wird. Optional muss, wenn eine rote, blaue oder grüne beleuchtende Strahlung als die Beleuchtungsquelle 31 für die Hauptoptik 41 verwendet wird, wenn der 3D Datensatz erzeugt wird, der rotierende Filter 450 nur die übrigen zwei Farben aufweisen, wie weiter oben für ähnliche Situationen bezüglich der LEDs beschrieben.
  • Vorzugsweise kann die Vorrichtung 100 gemäß dieser Variation der vierten Ausführungsform weiterhin angepasst sein, um eine verbesserte Genauigkeit der damit erzielten Farbdaten zur Verfügung zu stellen, auf eine ähnliche Weise wie die hierin für eine weitere Variation der vierten Ausführungsform beschriebene. Im Besonderen ist der Filter 450 in fünf (oder mehr, wenn gewünscht) farbige Sektionen unterteilt und weist darin blaue, wasserblaue, grüne, bernsteinfarbene und rote Filter auf benachbarten Sektoren auf.
  • Eine fünfte Ausführungsform der Anordnung 100 ist im Wesentlichen ähnlich zu der vierten Ausführungsform wie hierin beschrieben mit dem folgenden Unterschied. In der fünften Ausführungsform und Bezug nehmend auf 11 werden an zwei Positionen Polarisationsfilter zur Verfügung gestellt, um den Abbildungskontrast zu erhöhen. Ein erstes polarisierendes Element 161 ist gerade flussabwärts von den Lichtquellen 377 angeordnet, um das aus den Lichtquellen 377 emittierte Licht zu polarisieren. Ein zweites polarisierendes Element 162 ist gerade flussaufwärts von dem Abbildungssensor der Erfassungsoptik 60 angeordnet, und ist in Bezug auf das erste polarisierende Element 161 gekreuzt angeordnet. Weiterhin wird eine Verzögerungsplatte einer viertel Wellenlänge 163 gerade oberhalb des Objekts 26 zur Verfügung gestellt, das heißt am flussabwärts angeordneten Ende des Endoskops 46 (4A). Das erste polarisierende Element 161 ist typischerweise ringförmig und weist einen zentralen Durchbruch auf, um zu ermöglichen, dass Beleuchtungslicht von der beleuchtenden Einheit 31 dort hindurch verläuft und zum Objekt, und um zu ermöglichen, dass vom Objekt 26 kommendes Licht dort hindurch verläuft und zur Erfassungsoptik 60, ohne dass es vom polarisierenden Element 161 behindert wird. Licht, das vom Objekt 26 reflektiert wird, kehrt jedoch auf Grund der Wirkung der Verzögerungsplatte einer viertel Wellenlänge 163 in einem Zustand gekreuzter Polarisation zur konfokalen Hauptoptik 42 zurück, und erreicht die Erfassungsoptik 60 auf diese Weise mit im Wesentlichen voller Intensität. Jegliches von der Objektivlinse 166 der konfokalen Optik 42 reflektiertes Licht wird jedoch in demselben Polarisationszustand reflektiert und wird deshalb durch das gekreuzte polarisierende Element 162 her ausgefiltert. Diese Anordnung dient als eine wirksame Anordnung zur Verbesserung des Nutzsignalverhältnisses.
  • Vorzugsweise ist die Vorrichtung 100 gemäß einer Variation der fünften Ausführungsform weiterhin dazu angepasst, auf eine ähnliche Weise wie die hierin für die vierte Ausführungsform beschriebene eine verbesserte Genauigkeit der damit erzielten Farbdaten zur Verfügung zu stellen.
  • Eine sechste Ausführungsform der Anordnung 100 ist im Wesentlichen die Gleiche, wie für die vierte Ausführungsform beschrieben, mit dem folgenden Unterschied. In der sechsten Ausführungsform und auf 12 verweisend, werden die dreifarbigen Lichtquellen 377 durch eine rotierende Filterbeleuchtungsanordnung 500 ersetzt. Die Anordnung 500 weist eine weiße Lichtquelle 510 auf, wie zum Beispiel weiße Phosphor InGaN LEDs, und das Licht von diesen wird mittels der Kondensoroptik 530 auf einen Spiegel 520 konzentriert. Zwischen der Kondensoroptik 530 und dem Spiegel 520 wird ein rotierender dreifarbiger Filter 550 zur Verfügung gestellt, der ähnlich ist dem in 11 veranschaulichten Filter 450 und daher drei farbige Abschnitte aufweist, die in benachbarten Sektoren davon blaue, grüne und rote Filter aufweisen und wird durch den Motor 560 betätigt. Die optische Achse OA der konfokalen Optik 41 ist orthogonal zu der optischen Achse OA' der Lichtquelle 510 und der Kondensoroptik 530 ausgerichtet. Der Spiegel 520 ist zwischen der Ebene der Öffnungsblende und der Objektivlinse 166 der konfokalen Optik befestigt, und in einem Winkel zur optischen Achse OA davon und zur optischen Achse OA' der Lichtquelle 510 und der Kondensoroptik 530. Der Spiegel 520 ist typischerweise ringförmig ausgebildet und weist einen zentralen Durchbruch auf, der in der optischen Achse OA ausgerichtet ist um zu ermöglichen, dass Beleuchtungslicht von der beleuchtenden Einheit 31 dort hindurch und zum Objekt 26 verläuft, und um zu ermöglichen, dass vom Objekt 26 kommendes Licht dort hindurch verläuft und zur Erfassungsoptik 60, ohne vom Spiegel 520 behindert zu werden. Zur gleichen Zeit weist der Spiegel 520 eine ausreichende reflektierende Oberfläche auf, um das Licht aus der Quelle 510 über die Objektivlinse 166 und auf das Objekt 26 zu reflektieren. Optional erfordert der rotierende Filter 550, wenn eine rote, blaue oder grüne beleuchtende Strahlung als die Beleuchtungsquelle 31 für die Hauptoptik 41 verwendet wird, wenn sie den 3D Datensatz erzeugt, nur die übrigen zwei Farben, wie für ähnliche Situationen weiter oben beschrieben.
  • Vorzugsweise ist die Vorrichtung 100 gemäß einer Variation der sechsten Ausführungsform weiterhin dazu angepasst, auf eine ähnliche Weise wie die hierin für die vierte Ausführungsform beschriebene eine verbesserte Genauigkeit der erzielten Farbdaten zur Verfügung zu stellen.
  • Gemäß einem zweiten Verfahren zum Bereitstellen der oben erwähnten 2D Farbabbildung wird das Objekt 26 mit einem weißen Licht beleuchtet, und ein Farb-CCD wird für den Emp fang des reflektierten Lichts vom Objekt 26 verwendet. Auf diese Weise weist eine siebte Ausführungsform der Anordnung 100 eine Beleuchtungsanordnung für weißes Licht 600 auf, die in 13 veranschaulicht ist. Die Anordnung 600 weist eine weiße Lichtquelle 610 auf, wie zum Beispiel Phosphor InGaN LEDs, und das Licht von diesen wird mittels der Kondensoroptik 630 über einen polarisierenden Strahlenteiler 650 auf einen Kippspiegel 620 geleitet. Die optische Achse OA der konfokalen Optik 41 ist orthogonal zur optischen Achse OA'' der Lichtquelle 610 und der Kondensoroptik 630 ausgerichtet. Der Spiegel 620 ist zwischen der Ebene der Öffnungsblende 155 und der Objektivlinse 166 der konfokalen Optik befestigt, und in einem Winkel zur optischen Achse OA davon und zur optischen Achse OA'' der Lichtquelle 610 und der Kondensoroptik 630.
  • Der Spiegel 620 ist angepasst, um von der optischen Achse OA wegzukippen, wenn die Vorrichtung 100 zum Erzeugen des 3D Datensatzes E verwendet wird. Dies ermöglicht, dass das Beleuchtungslicht von der beleuchtenden Einheit 31 dort hindurch verläuft und zum Objekt 26, und ermöglicht es, dass vom Objekt 26 kommendes Licht dort hindurch verläuft und zur Erfassungsoptik 60, ohne vom Spiegel 620 behindert zu werden. Wenn es gewünscht wird, dass eine 2D Farbabbildung aufgenommen wird, wird der Spiegel 620 in die in der 13 gezeigten Position heruntergeklappt.
  • Der polarisierende Strahlenteiler 650 polarisiert weißes Licht aus der Quelle 610 und ermöglicht, dass dieses dort hindurch verläuft und zum Spiegel 620, und von dort über das konfokale Objektiv 166 und die breitbandige Verzögerungsplatte einer viertel Wellenlange 163 zum Objekt 26. Licht, das vom Objekt 26 reflektiert wird, kehrt auf Grund der Wirkung der Verzögerungsplatte einer viertel Wellenlänge 163 zum Spiegel 620 zurück in einem Zustand gekreuzter Polarisation, und erreicht auf diese Weise mit im Wesentlichen voller Intensität den Farb-CCD 660 (und die verknüpfte Erfassungsoptik – nicht gezeigt). Jegliches von der Objektivlinse 166 der konfokalen Optik 42 reflektierte Licht wird jedoch in demselben Polarisationszustand reflektiert und wird deshalb von einem gekreuzten, gerade flussaufwärts vom CCD 660 angeordneten, polarisierenden Element 662 herausgefiltert. Diese Anordnung dient als eine wirksame Anordnung zur Verbesserung des Nutzsignalverhältnisses.
  • Alternativ dazu ist das CCD der Erfassungsoptik 60 ein Farb-CCD und wird auch für die 2D Abtastung verwendet. In solch einem Fall wird der Kippspiegel 620 durch einen feststehenden Spiegel ersetzt, der einen zentralen Durchbruch ähnlich zu dem einen zentralen Durchbruch aufweisenden Spiegel 520 aufweist, wie entsprechend für die sechste Ausführungsform beschrieben.
  • In der siebten Ausführungsform stellen die Abbildungserfassungsvorrichtung 80 und die Verarbeitungssoftware 82 (4b) automatisch eine 2D Farbabbildung zur Verfügung, die ein Array von Datenpunkten aufweist, die Orts- (X, Y) und Farb- (C) Information für jedes Pixel der Abbildung aufweisen.
  • Gemäß einem dritten Verfahren zum Bereitstellen der 2D Farbabbildung wird das Objekt mit einem weißen Licht beleuchtet, und das vom Objekt 26 reflektierte Licht wird sequentiell durch einen von drei unterschiedlichen farbigen Filtern, wie zum Beispiel rote, grüne und blaue geleitet. Jedes Mal wird eine monochrome Abbildung, die jeder der Farben entspricht, über das CCD 68 und die Abbildungserfassungsvorrichtung 80 (siehe 4A, 4B) erfasst. Geeignete Verarbeitungssoftware 82 kombiniert die drei Abbildungen, um eine 2D Farbabbildung zur Verfügung zu stellen, die ein Array von Datenpunkten aufweist, die Orts- (X, Y) und Farb- (C) Information für jedes Pixel der Abbildung aufweisen.
  • Gemäß einem vierten Verfahren zum Bereitstellen der Farbabbildung weist die Hauptbeleuchtungsquelle 31 der Vorrichtung 100 geeignete Mittel dafür auf, die drei unterschiedlichen farbigen Beleuchtungen zur Verfügung zu stellen. In einer Ausführungsform weist die Beleuchtungsquelle 31 drei unterschiedliche Laser auf, von denen jeder eine Beleuchtungsstrahlung bei einer anderen erwünschten Farbe, rot, grün oder blau zur Verfügung stellt. In einer weiteren Ausführungsform wird ein geeignetes Beleuchtungsmittel für weißes Licht zur Verfügung gestellt, das mit einem geeigneten rotierenden dreifarbigen Filter gekoppelt ist, der ähnlich ist zu den oben beschriebenen Filtern. In jedem Fall werden geeignete Steuerungsmittel zur Verfügung gestellt, die angepasst sind, um das Objekt 26 mit jeder farbigen Strahlung im Turnus zu beleuchten und die 2D Farbabbildung wird in einer mit der oben beschriebenen ähnlichen Weise erzielt. Das Objekt wird auch mit einer der farbigen Beleuchtungen beleuchtet, um die Daten der 3D Oberflächentopologie zur Verfügung zu stellen.
  • In jeder der hierin beschriebenen Ausführungsformen wird die Beleuchtungsstrahlung, die für das Erzielen der 2D Farbabbildung verwendet wird, in die optische Achse OA der konfokalen Optik 42 eingebracht, ohne deren Betrieb zu beeinflussen oder die 3D Abbildung zu verschlechtern.
  • Das Endoskop 46, die Beleuchtungseinheit 31, die Hauptoptik 41, die Farbbeleuchtung 71 und der Dreifarbfolgengenerator sind vorzugsweise zusammen in eine einheitliche Vorrichtung integriert, typischerweise eine tragbare Vorrichtung. Die Vorrichtung umfasst vorzugsweise auch die Erfassungsoptik 60, obwohl die Letztere mit dem Rest der Vorrichtung durch eine geeignete optische Verbindung, wie zum Beispiel ein Glasfaseroptikkabel, verbunden werden kann.
  • In allen Ausführungsformen könne die für die Oberflächentopologie und Farbe repräsentativen Daten, das heißt der Datensatz I, durch einen entsprechenden Datenport, zum Beispiel durch ein Modem 88 (4B), über ein beliebiges Kommunikationsnetzwerk, zum Beispiel eine Telefonleitung 90, zu einem (nicht gezeigten) Empfänger, zum Beispiel zu einer entfernten CAD/CAM Vorrichtung (nicht gezeigt) übertragen werden.
  • In dem auf diese Weise eine Abbildung aus zwei oder mehr winkelförmigen Positionen um die Struktur herum erfasst wird, zum Beispiel im Falle eines Zahnsegments aus der wangenwärts gerichteten Richtung, aus der zungenwärts gerichteten Richtung und optional von oberhalb den Zähnen, kann eine genauen dreidimensionale Farbdarstellung des Zahnsegments rekonstruiert werden. Dies kann eine virtuelle Rekonstruktion der dreidimensionalen Struktur in einer computerisierten Umgebung oder eine physische Rekonstruktion in einer CAD/CAM Vorrichtung ermöglichen.
  • Während die vorliegende Vorrichtung im Zusammenhang mit einer bestimmten Ausführungsform einer optischen Abtastvorrichtung beschrieben worden ist, die konfokale Fokussierungsverfahren zum Erzielen des 3D Datensatzes verwendet, kann die Vorrichtung beliebige andere konfokale Fokussierungsanordnungen aufweisen, wie zum Beispiel in WO 00/08415 beschrieben. In der Tat kann jedes beliebige geeignete Mittel zum Bereitstellen der 3D Abtastung verwendet werden so lange die 3D Abtastung und die 2D Farbabtastung im Wesentlichen demselben Objekt oder Teilbereich davon entsprechen, das abgetastet wird, und dieselben Bezugssysteme aufrecht erhalten werden. Typischerweise werden die Abtastungen in relativ schneller Abfolge und durch die gleichen oder unterschiedliche Abbildungsmittel ausgeführt, wie zum Beispiel CCDs, die so angeordnet sind, dass die 2D Farbabbildung im Wesentlichen dem 3D Datensatz entspricht. Dies ermöglicht, dass Farbwerte an bestimmten x, y Koordinaten der 2D Farbabbildung mit denselben x, y Koordinaten der 3D Abbildung abgeglichen werden, die auch eine z-Koordinate aufweisen.
  • Während hierin Hauptausführungsformen der vorliegenden Erfindung beschrieben worden sind, kann verstanden werden, dass das Verfahren der Erfindung für eine sehr große Vielfalt von Anwendungen verwendet werden kann, in denen Daten der Mundhöhle zur Verwendung in Verfahren in Zusammenhang mit der Mundhöhle erzielt werden.
  • Das in 14 gezeigte Verfahren, im Allgemeinen mit 1100 bezeichnet, ist besonders dazu angepasst, ein Gewebe von einem anderen Gewebe innerhalb der Mundhöhle automatisch zu unterscheiden. Wie bei allen Ausführungsformen der Erfindung besteht der erste Schritt 1110 darin, den numerischen Datensatz I zu erzielen, der einen Datensatz aufweist, der die Oberflächengeometrie und die Farbe von mindestens dem Teilbereich der Mundhöhle darstellt, der den Bereich von Interesse enthält, auf den hierin als Zielobjektoberfläche Bezug genommen wird. Die Zielobjektoberfläche weist typischerweise sowohl harte Gewebe, wie zum Beispiel die Zähne, als auch weiche Gewebe auf, die mindestens eines aus Zahnfleisch, Zunge, Wangen und Lippen aufweisen. Jeder Datenpunkt im numerischen Datensatz I weist Oberflächenkoordinaten des Gewebes auf, typischerweise ausgedrückt als kartesische (x, y, z) Koordina ten plus einem Farbparameter, der sich auf die Farbe c des Gewebes bei diesen Oberflächenkoordinaten bezieht. Der Farbwert für c kann in geeigneter Weise in Komponenteform in Bezug auf die roten, grünen und blauen Komponenten (RGB) und im Besonderen in Bezug auf einen Koeffizienten der Farbkomponenten ausgedrückt werden. Zum Beispiel kann ein rotes Koeffizientenverhältnis Rc als die Intensität der roten Komponente geteilt durch die durchschnittliche Intensität der roten, grünen und blauen Komponenten definiert werden, und ist nutzbar bei der Unterscheidung zwischen den harten und weichen Geweben. Der Datensatz I kann zum Beispiel erzielt werden durch die Verwendung der hierin mit Bezug auf die 1 bis 13 beschriebenen Vorrichtung.
  • Im nächsten Schritt 1120 wird der Wert des Farbparameters c für jeden Datenpunkt in I analysiert und mit mindestens einem Farbkriterium verglichen, und typischerweise mit mindestens zwei Farbbereichen R1, R2. Die Bereiche R1, R2 stellen die jeweils erwarteten Werte des Farbparameters für das eine oder das andere der zwei Gewebe, wie zum Beispiel die Zähne und das Zahnfleisch dar. Der Farbbereich R1 für die Zähne wird zum Beispiel typischerweise Werte für c umfassen, die den harten Geweben einschließlich der Zähne entsprechen und die alle entsprechenden Schattierungen aufweisen, die Zahnschmelz, Zahnbein, Pulpa und anderen Teilen der Zähne entsprechen. Auf ähnliche Weise wird der Farbbereich R2 für die weichen Gewebe Werte für c umfassen, die typischerweise dem Zahnfleisch, den Wangen, den Lippen und der Zunge entsprechen einschließlich aller entsprechenden Schattierungen von Rosa und Rot, die mit diesen Geweben in Zusammenhang stehen, einschließlich wenn die Gewebe mindestens teilweise von Blut entleert sind, wie dies zum Beispiel geschehen kann, wenn die Gewebe betäubt werden. In einigen Fällen kann es geeignet sein, den Wert des Farbparameters c mit einem bestimmten Wert zu vergleichen, zum Beispiel einem einzelnen (R, G, B) oder Rc Wert, anstatt einem Wertebereich.
  • Die Tabelle I listet typische RGB Werte auf, die für Zahnfleisch, Lippen und Zähne eines bestimmten Patienten gemessen werden. Wie aus der Tabelle I ersehen werden kann, zeigen Werte von Rc wesentlich größer als Eins an, dass die rote Komponente dominierend ist, was für weiche Gewebe im Allgemeinen der Fall ist. Harte Gewebe weisen andererseits eine gleichmäßigere Verteilung von Farbkomponenten auf, was zu einem Wert für Rc sehr nahe bei Eins führt. Tablle I Intraorale RGB Werte, gemessen für einen Patienten
    Gewebe Rote Komponente Grüne Komponente Blaue Komponente Rc = 3·R/(R + G + B)
    Zahnfleisch 1 76 28 28 1,6
    Zahnfleisch 2 119 79 80 1,28
    Untere Lippe 165 120 130 1,2
    Vorderer Backenzahn 168 175 167 0,99
    Schneidezahn 172 174 170 1,0
  • Auf diese Weise kann ein beispielhafter Bereich für R1 von etwa 0,9 bis zu etwa 1,1 betragen, während ein beispielhafter Bereich für R2 von weniger als etwa 1,2 bis zu einem Maximalwert von 3,0 betragen kann.
  • Die Bereiche R1, R2 sollten vorzugsweise ausreichend voneinander beabstandet sein und nicht überlappen, um die Unterscheidung zwischen den unterschiedlichen Geweben zu erleichtern und Mehrdeutigkeit zu verhindern. Zur gleichen Zeit sollte jeder Bereich alle möglichen Variationen der Farbe umfassen, die für jedes der darin eingeschlossenen Gewebe erwartet werden kann.
  • Die tatsächlichen Werte der Bereiche R1, R2 können zwischen Personen variieren. Einige Personen können zum Beispiel gelblich verfärbte Zähne und blasse weiche Gewebe aufweisen, während andere milchige weiße Zähne und rötlichen Teint aufweisen können. Optional ist es möglich, die Bereiche R1, R2 vorab zu kalibrieren, zum Beispiel durch Abtasten einer Fläche, die rein weiches Gewebe umfasst, und einer anderen Zahnfläche, die rein hartes Gewebe aufweist, und durch Verwenden der Farbwerte der zwei Abtastungen als maßgebliche Datenwerte für die zwei Bereiche R1, R2.
  • Jede Gewebeart kann optional auch mit mehr als einem Bereich von Farbwerten verknüpft werden, und auf diese Weise kann jeder der Bereiche von R1 und R2 eine Reihe von Bereichen aufweisen. R2 kann zum Beispiel tatsächlich vier separate Bereiche umfassen, von denen sich jeder auf die Farbvariationen von einem aus Zahnfleisch, den Wangen, den Lippen und der Zunge bezieht. R1 kann ebenfalls eine Anzahl von separaten Bereichen umfassen, wobei ein Bereich die Schwankungen in der Farbe von natürlichen Zähnen beschreibt, während sich die anderen Bereiche auf Farben beziehen, die mit Prothesen und/oder mit Füllungen in Zusammenhang stehen, im Besonderen wenn diese aus Materialien hergestellt sind, die keine natürliche Erscheinung der Prothesen ergeben, zum Beispiel Goldkronen oder Amalgamfüllungen.
  • Im nächsten Schritt 1130 werden die Datenpunkte für den Datensatz I gemäß den Farbkriterien in mindestens zwei Unterdatensätze I1 und I2 sortiert, das heißt zum Beispiel, ob der Wert des Farbparameters jedes Datenpunkts innerhalb R1 beziehungsweise R2 liegt. Auf diese Weise enthält I1 alle Datenpunkte, in denen der Farbparameter davon der Farbe von Zähnen entspricht, und sollte auf diese Weise die Koordinaten aufweisen, die sich innerhalb des Originaldatensatzes I nur auf die Oberflächen von Zähnen beziehen (optional einschließlich Prothesen und Füllungen). Entsprechend sollte I2 alle Datenpunkte enthalten, in denen der Farbparameter von diesen der Farbe der weichen Gewebe entspricht, und sollte daher die Koordinaten aufweisen, die sich innerhalb des Originaldatensatzes I nur auf die weichen Gewebe beziehen.
  • In einer vergleichenden Abänderung, die nicht Teil der Erfindung ist, kann es notwendig oder erwünscht sein, ein Gewebe wie zum Beispiel die Zähne zu identifizieren und alle Daten zu missachten, die sich nicht auf dieses Gewebe beziehen. In solchen Fällen ist es nur notwendig, den Wert der Farbkomponente jedes Datenpunkts mit einem einzelnen Farbkriterium, wie zum Beispiel einem vorgegebenen Bereich R1 zu vergleichen, der sich nur auf die Zähne bezieht, und dann diese Datenpunkte vom Datensatz I zu trennen, um einen Datensatz J zur Verfügung zu stellen, der Daten aufweist, die sich nur auf die Zähne beziehen. Natürlich kann es auch erwünscht sein, dass in diesen Datensatz künstliche Zähne und auch Füllungen einbezogen werden, die keine natürliche Farbe aufweisen und der Bereich R1 kann auf diese Weise optional die entsprechenden Werte für den Farbparameter umfassen, der dazu in Beziehung steht.
  • Wenn der Originaldatensatz I in zwei Datensätze getrennt worden ist oder wenn ein Datensatz I1 aus dem Originaldatensatz I erzeugt worden ist, der nur das Gewebe von Interesse aufweist, kann dieser neue Datensatz wie gewünscht weiter verarbeitet werden. In Schritt 1140 kann, wenn der neue Datensatz I1 zum Beispiel nur auf Zähne bezogene Daten aufweist, jeder einzelne Zahn darin identifiziert werden. In solch einer Situation wird der Datensatz I1 weiterhin in eine Vielzahl von kleineren Datensätzen I1' getrennt, wovon sich jeder auf einen separaten Zahn bezieht. Typischerweise wird die Trennung automatisch unter Verwendung eines beliebigen geeigneten Algorithmus ausgeführt.
  • In Schritt 1150 kann, nachdem die Daten, die sich auf die einzelnen Zähne beziehen, korrekt sortiert worden sind, eine weitere Handhabung für jeden der einzelnen Datensätze der Datensätzen I1' ausgeführt werden, um zum Beispiel eine bestimmte kieferorthopädische Behandlung für die Zähne zu simulieren.
  • Dieses Verfahren kann auch auf die Identifizierung eines Präparationslinienprofils für eine Kronen- oder Brückenprothese angewandt werden.
  • Die Präparationslinie kann als die umlaufende Begrenzung oder der Ansatz zwischen dem oberen präparierten Teilbereich des Zahns und dem unteren nicht präparierten Teilbereich des Zahns betrachtet werden. Die Präparationslinie kann über oder unterhalb der sichtbaren Zahnfleischlinie liegen, das heißt der äußeren sichtbaren Linie des Zahnfleischgewebes, das den Zahn umlaufend umgibt. Häufig verläuft die Präparationslinie unterhalb der sichtbaren Zahnfleischlinie und ist ungleichmäßig, das heißt die Präparationslinie variiert in der Höhe entlang der umlaufenden Richtung und kann in der hauptsächlichen vertikalen Richtung in der Größenordnung von einzelnen Millimeter ansteigen oder abfallen. Die Präparationslinie kann sich in einigen Fällen sogar so weit nach unten erstrecken wie die Befestigungslinie, das heißt die durch den Hals des Zahns definierte umlaufende Linie und direkt benachbartes Zahnfleischgewebe kann unterhalb der oben genannten sichtbaren Zahnfleischlinie sein. Wie die Präparationslinie ist auch die Befestigungslinie ungleichmäßig und variiert typischerweise ebenfalls mehrere Millimeter in der Höhe entlang der umlaufenden Richtung. Die Kontur der Befestigungslinie variiert sowohl von Zahn zu Zahn als auch von Patient zu Patient und ist nicht leicht sichtbar oder für den Zahnarzt zugänglich, da sie sich unterhalb der sichtbaren Zahnfleischlinie befindet. In solchen Fällen kann ein Zurückhaltering oder Draht, hergestellt aus einem elastisch deformierbaren Material, um das Präparat herum angeordnet werden, um das Zahnfleischgewebe um das Präparat herum zurück zu ziehen. Der Ring legt auf diese Weise in vielen Fällen mindestens einen Teil des auftauchenden Profils – die Oberfläche des Zahns zwischen der Präparationslinie und dem Zahnfleisch frei.
  • Der Ring übernimmt auf diese Weise ein Profil, das oft dem der Präparationslinie im Wesentlichen ähnlich ist. In dem der Ring ausreichend unterschiedlich zur Farbe der Zähne oder der weichen Gewebe eingefärbt wird, zum Beispiel in Blau, ist es relativ einfach, alle Datenpunkte aus dem Datensatz I zu trennen, die eine Farbkomponente mit einem Wert in einem spezifischen Bereich aufweisen, der der Farbe des Rings entspricht. Die Identifizierung des Rings selbst stellt einen nutzbaren Ausgangspunkt für geeignete Algorithmen zur Verfügung, die dann angewendet werden, um die Position und die Geometrie der Präparationslinie festzulegen. Solche Algorithmen sind bekannt und versuchen typischerweise Merkmale zu identifizieren, die im Allgemeinen bei Präparationslinien gefunden werden, wie zum Beispiel eine Diskontinuität in der Neigung der Zahnoberfläche oder eine hügelförmige Auskragung, die dem Präparat entspricht. Außerdem führt die Trennung des harten Gewebes vom weichen Gewebe zu einer kleineren Datenbank, die analysiert werden muss, um die Präparationslinie zu bezeichnen. Im Besonderen muss, wenn der Datensatz in Datensätze I1 getrennt worden ist, dann nur der bestimmte Datensatz I1, der dem Ring entspricht, für die Präparationslinie analysiert werden, da dieser Datensatz dem Präparat entspricht.
  • In allen Variationen dieses Verfahrens können der Vergleich des Werts für den Farbparameter c mit einem entsprechenden Bereich und das Sortieren von Datenpunkten in einen oder mehrere Datensätze gemäß diesem Vergleich mit jedem beliebigem geeignetem Computer mit der Hilfe von einem entsprechend ausgebildeten Programm ausgeführt werden. Die Handhabung der Datensätze in jedem Schritt kann in Bezug auf den Computer manuell, interaktiv oder teilweise oder vollständig automatisiert erfolgen.
  • In der Ausführungsform der vorliegenden Erfindung und Bezug nehmend auf 15, findet das Verfahren, im Wesentlichen mit 1200 bezeichnet, besondere Verwendung für das genaue Zusammenfügen von Datensätzen mit überlappenden Bereichen, die innerhalb der Mundhöhle abgetastet wurden. Im ersten Schritt 1210 kann zum Beispiel eine geeignete Abtastvorrichtung wie hierin beschrieben zum Erzielen numerischer Unterdatensätze hoher Auflösung (IS1, IS2 ... ISn) verwendet werden, die repräsentativ sind für die Oberflächentopographie und die Farbe der Zonen (A1, A2 ... An) innerhalb der Mundhöhle. Die Zonen, die abgetastet werden, sollten zusammen die Zielobjektzone von Interesse vollständig umspannen. Einige dieser Zonen können mit all den anderen Zonen überlappen, während andere Zonen nur mit einer oder zwei anderen Zonen überlappen können, und auf diese Weise sollten die entsprechenden Datensätze theoretisch einen Teilbereich ihrer Daten innerhalb der Überlappungszonen identisch mit einander aufweisen. Da sich jedoch die Abtastvorrichtung selbst in ihrer Ausrichtung und Position von Abtastung zu Abtastung bewegt, variieren die Koordinaten, die sich auf diese Überlappungszonen beziehen, normalerweise zwischen aufeinander folgenden Abtastungen, obwohl sie sich auf dasselbe räumliche Merkmal beziehen. Dennoch kann durch Identifizieren der Überlappungszone innerhalb der Datensätze die räumliche Beziehung zwischen den Datensätzen aufgebaut werden, und die verschiedenen Datensätze können zusammengefügt oder kombiniert werden, um einen globalen numerischen Datensatz auszuformen, der die vollständige Geometrie und Farbdarstellung der Zielobjektzone aufweist. Je größer die Überlappungszone ist, desto größer ist die Genauigkeit, mit der die unterschiedlichen Zonen räumlich zusammen synchronisiert werden können.
  • In Verfahren nach dem Stand der Technik können die Überlappungszonen gekennzeichnet werden durch numerisches Umwandeln der Koordinaten eines mit einer Zone verknüpften Datensatzes durch eine Reihe von Verschiebungen und Drehungen und in jedem Einzelfall das Vergleichen des Datensatzes mit dem Satz von Daten eines anderen Datensatzes. Dieses Verfahren wird wiederholt, bis mindestens ein Teilbereich der Daten des ersten Datensatzes mit mindestens einem Teilbereich der Daten eines anderen Datensatzes zusammenfällt. An dieser Stelle können die Datensätze, die die zwei Unterdatensätze aufweisen, durch Addieren beider Sätze von Koordinaten und Verwerfen jedes wiederholten Datenpunktes kombiniert werden. Es kann jedoch eine gewisse Mehrdeutigkeit auftreten, wenn solch ein Verfahren verwendet wird, wenn sich ein Teil der Mundhöhle (die einem Teil der überlappenden abgetasteten Daten in einigen der Datensätze entspricht) in Bezug auf andere Teile bewegt. Zum Beispiel kann sich ein Teil der Wange zwischen einer Abtastung und einer weiteren Abtastung relativ zu den Zähnen bewegen. Es ist dann problematisch, einen zusammengesetzten Datensatz zu erstellen, der beide Abtastungen aufweist, da mindestens ein Teil der Gewebe (in diesem Beispiel die Wange) zwei unterschiedlichen Datenteilbereichen zugeordnet wird, die repräsentativ sind für die relative Bewegung zwischen den Abtastungen.
  • In der Ausführungsform der vorliegenden Erfindung wird ein Verfahren für das Zusammenfügen unterschiedlicher Datensätze der Mundhöhle zur Verfügung gestellt, in welchem das tatsächliche Verfahren des Zusammenfügens auf Datenpunkte angewandt wird, die den harten Geweben darin entsprechen. Demgemäß werden die harten Gewebe einschließlich der Zähne, der Füllungen und der Prothesen in einem zweiten Schritt 1220 des Verfahrens von den weichen Geweben einschließlich des Zahnfleisches, der Wangen, der Lippen und der Zunge unterschieden. Im Wesentlichen kann dasselbe wie oben mit Bezug auf 4 beschriebene Verfahren verwendet werden um die Daten in jedem der Unterdatensätze (IS1, IS2 ... ISn) zu identifizieren, die mit den harten Geweben in Beziehung stehen. Die Daten in diesen Datensätzen, die den harten Geweben nicht entsprechen, können verworfen oder einfach gespeichert und zur späteren Bezugnahme beiseite gestellt werden, wodurch die modifizierte Datensätze (IS'1, IS'2, ... IS'n) zur Verfügung gestellt werden, die die Daten von Interesse aufweisen die sich zum Beispiel auf die harten Gewebe beziehen.
  • Im nächsten Schritt 1230 des Verfahrens werden die modifizierten Datensätze (IS'1, IS'2, ... IS'n) dann auf eine ähnliche Weise verarbeitet wie die in der die Originaldatensätze (I1, I2, ... In) nach dem Stand der Technik verarbeitet werden, um die verschiedenen modifizierten Datensätze (IS'1, IS'2, ... IS'n) aufzuzeichnen und zusammenzufügen, um einen zusammengesetzten Datensatz I' zur Verfügung zu stellen, der die mindestens den harten Geweben entsprechenden Datenpunkte aufweist.
  • Als ein optionaler Schritt können die Daten, die sich auf die weichen Gewebe bezieht, dann dem zusammengesetzten Datensatz I' wie folgt hinzugefügte werden. Bezug nehmend auf die Daten der weichen Gewebe, die den Datensätzen (IS''1, IS''2, ... IS''n) jeder Abtastung entsprechen, wird jeder dieser Datensätze zuerst auf genau dieselbe Weise verarbeitet wie der entsprechende Datensatz der Gruppe von modifizierten Datensätzen (IS'1, IS'2, ... IS'n) verarbeitet wurde, um den Letzteren in I' zusammenzufügen. Danach werden die Koordinaten jedes Paars von Datensätzen innerhalb der Gruppe (IS''1, IS''2, ... IS''n) wiederum verglichen. Jedes Paar von Datensätzen innerhalb der Gruppe (IS''1, IS''2, ... IS''n) wird überprüft um zu bestimmen, ob einige Datenpunkte in einem Datensatz existieren, die zwei Koordinaten aufweisen, zum Beispiel (x, y), die mit entsprechenden Datenpunkten im anderen Datensatz identisch sind, in denen aber die (z) Koordinaten unterschiedlich sind. Alle dieser Daten in entweder dem einen oder dem anderen Datensatz werden dann verworfen. Auf diese Weise kann ein zusammengesetzter Datensatz I'' für die weichen Gewebe ausgebildet werden, der dann, wenn erwünscht, zu dem zusammengesetzten Datensatz I' der zuvor erzeugten harten Gewebe hinzugefügt werden kann.
  • Typischerweise wird zuerst ein grobes Zusammenfügen der originalen Unterdatensätze (IS1, IS2 ... ISn) ausgeführt, und wenn die ungefähren Beziehungen zwischen den Unterdatensätzen bekannt ist, wird ein nächster Schritt ausgeführt, der das feine Zusammenfügen der entsprechenden getrennten Unterdatensätze (IS'1, IS'2, ... IS'n) für die harten Gewebe aufweist.
  • Auf 16 Bezug nehmend, wird das vergleichende Verfahren, das im Allgemeinen mit 1300 bezeichnet wird und nicht Gegenstand der Erfindung ist, für das automatische Definieren der Präparationslinie eines Präparats verwendet. Wie weiter oben beschrieben, kann die Präparationslinie als die umlaufende Grenzzone oder der Ansatz zwischen dem oberen präparierten Teilbereich des Zahns und dem unteren nicht präparierten Teilbereich des Zahns betrachtet werden. Die Präparationslinie kann dabei oberhalb oder unterhalb der sichtbaren Zahnfleischlinie verlaufen, das heißt der nach außen sichtbare Linie des Zahnfleischgewebes, welches den Zahn umlaufend umgibt. In Fällen, in denen die Präparationslinie aus dem Zahnfleisch herausragt, ist das vollständige umlaufende Ausmaß der Präparationslinie sichtbar und erscheint als ein weißer Schatten. Dies kann der rosaroten Farbe des umliegenden Zahnfleisches gegenübergestellt werden und zur gleichen Zeit wird angenommen, dass sich die Präparationslinie in naher Nähe zum Zahnfleisch befindet. In solch einem Fall wird das Verfahren der Erfindung gemäß der dritten Ausführungsform wie folgt ausgeführt.
  • Wie bei anderen Verfahren ist der erste Schritt 1310 einen numerischer Datensatz I zur Verfügung zu stellen, der den Zielobjektbereich geometrisch und in Bezug auf die Farbe beschreibt – in diesem Fall den Teil der Mundhöhle, der die Präparationslinie aufweist. Vorzugsweise ist der Zielobjektbereich auf den Zahn beschränkt, der die Präparation aufweist, und möglicherweise auf die benachbarten Zähne. Dann wird in Schritt 1320 ein Algorithmus auf jedes Paar von räumlich benachbarten Datenpunkten angewandt, wobei zum Beispiel der Wert des Farbparameters c von jedem dieser Punkte mit dem jeweils anderen oder in Bezug auf bestimmte Farbkriterien verglichen wird. Wenn es festgestellt wird, dass der Unterschied zwischen den Farbwerten größer ist als eine vorgegebene Schwelle, dann wird angenommen, dass sich das Paar von Datenpunkten auf entgegen gesetzten Seiten einer Grenze zwischen zwei Geweben unterschiedlicher Farbe, im Besonderen der Kante zwischen dem Zahn und dem Zahnfleisch befindet. Alternativ dazu wird der Wert des Parameters c mit zwei vorgegebenen Bereichen, R1 und R2 verglichen, wobei jedem Bereich eine Farbe entspricht, die mit Einem von Beiden bestehend aus Zähnen und Zahnfleisch in Zusammenhang steht. Dann werden, wo immer es ein Paar benachbarte Datenpunkte gibt, in denen ein Datenpunkt für den Parameter c einen Wert im Bereich von R1 aufweist und der andere Datenpunkt für den Parameter c einen Wert im Bereich von R2 aufweist, diese Datenpunkte wiederum so betrachtet, dass sie auf jeweils einer anderen Seite der Grenze zwischen einem Zahn und dem Zahnfleisch angeordnet sind. Das Verfahren wird für jedes benachbarte Paar von Punkten im Datensatz I wiederholt, wodurch in Schritt 1330 ein weiterer numerischer Datensatz IFL zur Ver fügung gestellt wird, der repräsentativ ist für die Zahnfleischlinie und sich darauf beziehende topographische (wie auch Farb-) Information aufweist.
  • Die Identifizierung der Zahnfleischlinie selbst stellt einen nutzbaren Ausgangspunkt für geeignete Algorithmen zur Verfügung, die dann in Schritt 1340 angewendet werden, um die Position und die Geometrie der Präparationslinie festzulegen. Solche Algorithmen versuchen typischerweise Merkmale zu identifizieren, die üblicherweise bei Präparationslinien gefunden werden, wie hierin für die erste Ausführungsform beschrieben worden ist. Auf diese Weise wird der Algorithmus auf den Datensatz I angewandt, jedoch beginnend mit den Oberflächendaten von diesem, die dem Datensatz IFL entsprechen.
  • In Fällen, in denen sich die Präparationslinie teilweise oder vollständig unterhalb des Zahnfleisches befindet, kann ein geeigneter Ring zwischen dem Hals der Zahnpräparation und dem Zahnfleisch angeordnet werden, um so das Letzteren zurückzuziehen und die Präparationslinie freizulegen. Das Verfahren gemäß der dritten Ausführungsform kann dann mit einer Änderung dahingehend angewandt werden, dass die Grenze zwischen dem Zahnmaterial und dem Ringmaterial gesucht wird, und zwar auf eine bezüglich der Grenze zwischen dem Zahnmaterial und dem Zahnfleisch beschriebenen ähnliche Weise, was einen Ausgangspunkt für Algorithmen zur Verfügung stellt, die dann angewendet werden, um die Präparationslinie zu identifizieren.
  • Vorzugsweise weist das Verfahren dort, wo der Datensatz I als eine zweidimensionale Farbabbildung auf einem Bildschirm betrachtbar ist, optional weiterhin den Schritt auf, auf solch einer Abbildung des Datensatzes I den Datensatz IFL der Präparationslinie anzuzeigen, vorzugsweise in einer Farbe, die einen hohen Kontrast in Bezug auf I aufweist, um dem praktischen Arzt zu ermöglichen, das Ergebnis zu überprüfen.
  • Das Verfahren gemäß dieser Ausführungsform kann modifiziert werden, um die weichen Gewebe von den harten Geweben zu trennen, sobald die Abgrenzungslinie, wie weiter oben bestimmt, zwischen den zwei Geweben bekannt ist.
  • Auf 17 Bezug nehmend, wird das vergleichende Verfahren, im Allgemeinen mit 1400 bezeichnet und nicht Gegenstand dieser Erfindung, besonders auf die Schattierung einer Prothese angewandt. Wie bei den anderen Ausführungsformen der Erfindung schließt der erste Schritt 1410 die Erzeugung eines numerischen Datensatzes I eines Bereichs von Interesse innerhalb der Mundhöhle ein. Sich auf 18 beziehend, umfasst der Bereich von Interesse R in diesem Fall den Präparationsbereich P der Mundhöhle, in dem die Prothese angebracht werden soll, einschließlich sowohl benachbarte Zähne A und B, wie auch die gegenüber liegenden Zähne C, D und E auf dem gegenüber liegenden Kiefer. Der Bereich von Interesse R kann optional oder alternativ dazu mindestens einen Zahn oder Zähne auf der anderen Seite desselben Kiefers umfassen, die zu dem Zahn oder den Zähnen gehören, für die die Prothese entworfen ist um diese zu ersetzen. Die erwünschten Daten in dieser Ausführungsform, von denen erwünscht ist, dass sie aus dem Datensatz I erzeugt werden, beziehen sich auf Information zur Schattierung für die Prothese, wie zum Beispiel um ein natürlich aussehendes Erscheinungsbild für diese zur Verfügung zu stellen, das mit den anderen Zähnen des Patienten kompatibel ist. Die Schattierungsmerkmale der Prothese gemäß der Erfindung sollen auf den Schattierungsmerkmalen mindestens eines Zahns des Patienten basieren, und auf diese Weise gemäß einem erwünschten Satz von Regeln oder Algorithmen dieselbe Farbe, dieselben Schwankungen im Farbton und anderen Merkmale teilen, wie zum Beispiel reflektierende Eigenschaften und Transluzenz, die bei einem oder mehreren Zähnen des Patienten gefunden werden können.
  • In den nächsten Schritten 1420, 1430 und 1440, wird der Datensatz I verarbeitet, um so zum Beispiel die Daten zu extrahieren, die nur den Zähnen entsprechen, und um diese Daten in einen Satz von diskreten Datensätzen I1 zu trennen, von denen jeder einen einzelnen der Zähne darstellt, im Wesentlichen wie hierin betreffend die Schritte 1120, 1130 beziehungsweise 1140 für die erste Ausführungsform beschrieben.
  • Dann wird in Schritt 1450 die Entscheidung getroffen in Bezug darauf, welche der Zähne zum Modellieren der Schattierung der Prothese auf diesen betrachtet werden sollen. Diese Entscheidung kann automatisch ausgeführt werden, zum Beispiel nur die benachbarten Zähne A und B einbeziehend oder den Zahn D direkt gegenüber liegend zum Präparationsbereich P, oder jeden anderen geeigneten Zahn oder eine Kombination von Zähnen. Ein geeigneter Algorithmus kann zur Verfügung gestellt werden, der erkennt, welcher Datensatz in I1 dem Bereich P entspricht, zum Beispiel durch Festlegen der Höhe jedes Zahndatensatzes und Ausarbeiten des Datensatzes, der die geringste Höhe aufweist. Die Höhe jedes Zahns kann durch geeignete Algorithmen und Routinen aus dem entsprechenden Datensatz I1 erhalten werden, die in der Technik bekannt sind. Die räumliche Beziehung zwischen dem Datensatz der dem Bereich P entspricht und den Datensätzen, die den anderen Zähnen entsprechen, kann dann durch Verwendung einfacher geometrischer Regeln auf eine automatisierte Weise festgelegt werden.
  • Alternativ dazu kann die Auswahl manuell ausgeführt werden, und dies kann zum Beispiel ausgeführt werden durch Anzeigen der abgetasteten und unterteilten Zahndatensätze auf einer geeigneten Anzeige, wie zum Beispiel einem Computerbildschirm, und durch nachfolgendes Markieren des gewünschten Zahns oder der gewünschten Zähne mittels eines Cursors oder Ähnlichem. Es kann bevorzugt werden, diese Auswahl manuell auszuführen, da es wichtig sein könnte, bestimmte Zähne mit bestimmtem visuellen Fehlern oder Unregelmäßigkeiten, wie zum Beispiel Hohlräumen, Teilen die einer Sanierung bedürfen, Flecken die entfernt werden müssen usw., von denen nicht gewünscht wird, dass sie in der Prothese wiederholt werden, nicht einzuschließen.
  • Die Datensätze Ip1', die den ausgewählten Zähne entsprechen, werden dann wiederum analysiert und in Schritt 1460 wird auf Grundlage der von der Datenbasis Ip1' zur Verfügung gestellten Farbdaten ein Farbabbild für die Prothese zur Verfügung gestellt.
  • Auf 19 Bezug nehmend, werden die entsprechenden Datensätze für jeden der ausgewählten Zähne jeweils geometrisch transformiert, um einer vorgegebenen geometrischen Form zu entsprechen, zum Zweck des Beispiels in dieser Figur als Zylinder veranschaulicht, um einen transformierten Datensatz T zur Verfügung zu stellen. Während des Transformationsprozesses wird die Oberflächengeometrie von Ip1' in die Oberflächengeometrie von T transformiert, und die mit jedem Datenpunkt verknüpften Werte der Farbparameter c werden dementsprechend übertragen. In der Auswirkung werden dann die Farbattribute jedes einzelnen Datensatzes I1', wie zum Beispiel die Merkmale z1, z2 und z3 und die zwei unterschiedlich gefärbten Zonen z4 und z5, beispielhaft in 19 veranschaulicht, auf diese Weise auf den Datensatz T in Bereiche Z1, Z2, Z3, Z4 beziehungsweise Z5 abgebildet.
  • Wenn nur ein Zahn ausgewählt wird, um die Schattierung der Prothese darauf zu basieren, das heißt nur einem einzelnen Datensatz IP1' entsprechend, wird der auf diese Weise erzielte transformierte Datensatz T dann erneut transformiert, um die Form der Prothese anzunehmen, wodurch ein Prothesendatensatz X zur Verfügung gestellt wird, in dem alle Farbmerkmale des Datensatzes IP1' wirksam darauf abgebildet sind. Die Form der Prothese wird zuvor durch beliebige geeignete Mittel festgelegt, und dies stellt keinen Teil der vorliegenden Erfindung dar. Der Datensatz X weist auf diese Weise die Oberflächengeometrie der Prothese auf und die Schattierungsinformation in Bezug auf diese Geometrie einschließlich der Merkmale x1 bis x5, die von den entsprechenden Merkmalen Z1 bis Z5 übertragen wurden, die eine ähnliche Erscheinung wie die des Zahns zur Verfügung stellt, nach dem die Farbe modelliert wurde. In solch einem Fall kann der Zwischenschritt des Transformieren von IP1' in T ausgelassen werden, und der Datensatz IP1' kann auf diese Weise direkt in die Form der Kronenprothese transformiert werden, wodurch die Werte der Farbe c für diesen zur Verfügung gestellt werden.
  • Dennoch kann die Einbeziehung des Zwischendatensatzes T nützlich sein.
  • Optional kann der Zahn in drei allgemeine Zonen eingeteilt werden: eine Zahnfleischzone nahe dem Zahnfleisch, eine mittlere Körperzone und eine Schneidekantenzone, die die Spitze des Zahns aufweist. Die Farben können unabhängig voneinander in jede der Zonen abgebildet werden und können dann zwischen den Zonen geglättet werden, um scharfe Diskontinuitäten in der Farbe zu vermeiden.
  • Wenn eine Anzahl von Zähnen gewählt wird um als die Basis für die Schattierung der Prothese zu dienen, werden die Datensätze I1', die jedem dieser Zähne entsprechen, kombiniert, um einen gemeinsamen Datensatz T derselben Form zur Verfügung zu stellen, der aber eine zusammengesetzte Schattierungsinformation aufweist, die aus allen Datensätzen I1' erzielt wurde. Der Farbwert an jedem geometrischen Punkt könnte zum Beispiel für alle die Datensätze T' gemittelt werden. Alternativ dazu könnte ein gewichteter Durchschnittswert der Farben zur Verfügung gestellt werden, wobei mehr Gewicht auf die Zähne gelegt wird, die in der Position und/oder Funktion näher liegen als zu anderen Zähnen. Wiederum ist es, wenn solch eine Kombination der Farbinformation bewirkt wird, wichtig sicher zu stellen, dass die verschiedenen Datensätze T' in Bezug auf die individuellen rumpfwärts gelegenen, zungenwärts gerichteten und die Zungenseiten ausgerichtet werden. Der zusammengesetzte Datensatz T wird dann geometrisch transformiert, um sich wie zuvor beschrieben der Form der Prothese anzupassen und um den Datensatz X zur Verfügung zu stellen, wobei aber die zusammengesetzten Farbwerte für den Parameter c jetzt auf die geometrische Form des Datensatzes übertragen werden.
  • Im oben beschriebenen Beispiel ist eine Krone als Beispiel für die Prothese verwendet worden. Trotzdem kann das Verfahren auf eine Weise ähnlich der beschriebenen entsprechend auf eine Brückenprothese, eine Füllung, eine Restauration oder ein Zahntransplantat angewandt werden.
  • Während die oben dargestellten Ausführungsformen als Operationen beschrieben worden sind, die an diskreten Datenpunkten ausgeführt wurden, ist es klar, dass das Verfahren gemäß der Erfindung auf ähnliche Operationen anwendbar ist, die auf neue Datenpunkte ausgeführt werden, die in Bezug auf die originalen Datenpunkte interpolierte Datenpunkte sind. Weiterhin ist es auch möglich, das Verfahren gemäß der Erfindung auszuführen, wenn der numerische Datensatz auf eine unterschiedliche Weise zu der hierin beschrieben strukturiert ist. Zum Beispiel könnte die Oberfläche der Mundhöhle, anstatt als Reihe von diskreten Datenpunkten auf einer Oberfläche beschrieben zu werden, durch geeignete Formeln als Reihe von Segmenten beschrieben werden oder durch ein beliebiges anderes geometrisches Modellierungsverfahren.
  • 20 ist ein Blockdiagramm einer Anordnung 1500, die die vorliegende Erfindung anwendet. Die Anordnung 1500 zeigt zum Beispiel eine an eine virtuelle Behandlungsanordnung 1510 anschließbare Software-/Hardwarevorrichtung. Die Anordnung 1500 weist solche Hauptelemente auf wie die Folgenden:
    • – ein Eingabevorrichtung 1520 zum Empfangen von Daten, die bezeichnend sind für dreidimensionale Farbdaten der Mundhöhle, direkt erzielt unter Verwendung der Abtastvorrichtung 1525 (zum Beispiel die Vorrichtung 100 hierin wie in Bezug auf 1 bis 13 beschrieben) oder auf andere Weise erzielt und an die Eingabeeinrichtung übertragen über ein beliebiges Kommunikationsmedium 1535, das zum Beispiel das Internet, ein Intranet usw. umfasst;
    • – eine Datenspeichervorrichtung 1530 zum Abspeichern der Daten;
    • – eine Prozessorvorrichtung 1540 zum Verarbeiten besagten ersten Datensatzes, um erwünschte Daten aus diesem zur Verfügung zu stellen, im Besonderen unter Verwendung jedes der Algorithmen gemäß dem vorliegenden Verfahren; und
    • – eine Ausgabevorrichtung 1550.
  • Die Anordnung 1500 kann mit einer Anzeige 1560 oder einem Drucker (nicht gezeigt) zum visuellen Anzeigen der verarbeiteten Datensätze verbunden werden. Die Anordnung 1500 kann auch verbindbar sein mit einer zusätzlichen Vorrichtung, wie zum Beispiel einer virtuellen Behandlungsanordnung 1510.
  • In einem weiteren Gesichtspunkt der vorliegenden Erfindung wird ein computerlesbares Medium zur Verfügung gestellt, das auf eine dinghafte Weise ein Programm verkörpert, das ausführbar ist, um Daten zur Verfügung zu stellen, die in Verfahren in Zusammenhang mit der Mundhöhle nutzbar sind. Das computerlesbare Medium weist auf:
    • (a) einen ersten Satz von Daten, der repräsentativ ist für die dreidimensionale Oberflächengeometrie und die Farbe von mindestens einem Teil der Mundhöhle;
    • (b) Mittel zur Verarbeitung besagten ersten Datensatzes, um erwünschte Daten aus diesem zur Verfügung zu stellen.
  • Das Medium kann zum Beispiel optische Scheiben, magnetische Platten, Magnetbänder usw. aufweisen.
  • In den Verfahrensansprüchen, die folgen, werden alphabetische Zeichen und römische Ziffern, die verwendet werden, um Anspruchsschritte zu bezeichnen, nur zur Annehmlichkeit zur Verfügung gestellt und implizieren keine bestimmte Reihenfolge der Ausführung der Schritte.
  • Schließlich sollte beachtet werden, dass das Wort "aufweisen", wie es überall in den angehängten Ansprüchen verwendet wird, so interpretiert werden soll, dass es "einschließend, aber nicht begrenzt auf" bedeutet.

Claims (13)

  1. Verfahren zur Bereitstellung von Daten, die in Arbeitsabläufen in Zusammenhang mit der Mundhöhle nutzbar sind, dadurch gekennzeichnet, dass es Nachfolgendes umfasst: Bereitstellen von mindestens zwei numerischen Datensätzen (I1, I2, ... In), wobei jeder numerische Datensatz kennzeichnend ist für die dreidimensionale Oberflächengeometrie und die Farbe von mindestens einem Teil der Mundhöhle, wobei dieser numerische Datensatz Oberflächengeometrie- und Farbdaten umfasst, die mit diesem Teil der Mundhöhle in Zusammenhang stehen; wobei mindestens ein Teil dieser Datensätze (I1, I2, ... In) überlappende räumliche Daten umfasst, die Nachfolgendes umfassen: (a) für jeden Datensatz Bereitstellen von mindestens einem Unterdatensatz (IS'1, IS'2, ... IS'n), der einen ersten Gewebedatensatz umfasst, der Oberflächengeometrie und Farbdaten umfasst, wobei diese Farbdaten mit einer Farbe korrelieren, die für ein erstes Gewebe kennzeichnend ist; und (b) Zusammenfügen dieser ersten Gewebedatensätze basierend auf dem Aufzeichnen von Teilen dieses Datensatzes, die diese überlappenden räumlichen Daten (I1, I2, ... In) umfassen, und Verarbeiten dieses Datensatzes, um erwünschte Daten von diesem zur Verfügung zu stellen.
  2. Verfahren nach Anspruch 1, wobei diese Farbdaten tatsächliche oder wahrgenommene visuelle Merkmale einschließlich mindestens einem aus Farbton, Farbeigenschaft, Farbwert, Transluzenz und Reflexionsgrad umfassen.
  3. Verfahren nach Anspruch 1, das im Besonderen dazu nutzbar ist, ein erstes Gewebe von einem zweiten Gewebe zu unterscheiden, wobei dieses erste Gewebe wesentlich unterschiedliche Farbmerkmale zu jenen des zweiten Gewebes umfasst, wobei das Verfahren Nachfolgendes umfasst: Trennen dieser Oberflächengeometrie- und Farbdaten in mindestens zwei Gewebedatensätze, wobei ein erster Gewebedatensatz Oberflächengeometrie- und Farbdaten umfasst, wobei diese Farbdaten mit einer Farbe korrelieren, die für dieses erste Gewebe kennzeichnend ist; und ein zweiter Gewebedatensatz Oberflächengeometrie- und Farbdaten umfasst, wobei diese Farbdaten mit einer Farbe korrelieren, die für dieses zweite Gewebe kennzeichnend ist.
  4. Verfahren nach Anspruch 3, wobei dieses erste Gewebe und diese zweiten Gewebe harte Gewebe beziehungsweise weiche Gewebe der Mundhöhle umfassen.
  5. Verfahren nach Anspruch 4, wobei dieses erste Gewebe optional Zähne umfasst, wobei weiterhin optional dieses zweite Gewebe mindestens eines von Zahnfleisch, Zunge, Wangen und Lippen umfasst, und wobei weiterhin optional dieser erste Gewebedatensatz einer Vielzahl von Zähnen dieser Mundhöhle entspricht.
  6. Verfahren nach Anspruch 4, wobei dieser erste Gewebedatensatz einer Vielzahl von Zähnen dieser Mundhöhle entspricht, und wobei dieser erste Gewebedatensatz in eine Vielzahl von Unterdatensätzen eingeteilt ist, wobei jeder dieser Unterdatensätze einem anderen Zahn entspricht.
  7. Verfahren nach Anspruch 6, optional weiterhin umfassend den Schritt, diese Unterdatensätze auf eine Weise zu verarbeiten, die eine kieferorthopädische Behandlung an diesen Zähnen simuliert, und weiterhin optional weiterhin den Schritt umfasst, diese Unterdatensätze als Abbildungen anzuzeigen, die einzelnen Zähnen entsprechen.
  8. Verfahren nach Anspruch 1, weiterhin umfassend den Schritt: Trennen dieser Oberflächengeometrie- und Farbdaten für jeden Datensatz (I1, I2, ... In) in einen zweiten Gewebedatensatz (IS1'', IS2'', ... ISn''), der Oberflächengeometrie- und Farbdaten umfasst, wobei die Farbdaten von diesem mit einer Farbe korrelieren, die für ein zweites Gewebe kennzeichnend ist.
  9. Verfahren nach Anspruch 1, wobei dieses erste Gewebe harte Gewebe der Mundhöhle umfasst, optional umfassend Zähne.
  10. Verfahren nach Anspruch 8, wobei dieses zweite Gewebe weiche Gewebe der Mundhöhle umfasst, die optional mindestens eines von Zahnfleisch, Zunge, Wangen und Lippen umfassen.
  11. Verfahren nach Anspruch 1, wobei Schritt (b) umfasst: Bereitstellen eines groben Zusammenfügens der Originaldatensätze (I1, I2, ... In) aus Schritt (a) durch Aufzeichnen überlappender räumlicher Daten davon, um eine grobe räumliche Beziehungen zwischen diesen Datensätzen (I1, I2, ... In) zu bestimmen, Anwenden dieser groben räumlichen Beziehung auf diese ersten Gewebedatensätze, um das Aufzeichnen überlappender Teile zu erleichtern; und Zusammenfügen dieser ersten Gewebedatensätze (I1, I2, ... In) basierend auf der Aufzeichnung dieser überlappenden Teile.
  12. Computerlesbares Medium, das auf eine dinghafte Weise ein Programm verkörpert, das ausführbar ist, um Daten zur Verfügung zu stellen, die in Verfahren in Zusammenhang mit der Mundhöhle nutzbar sind, umfassend: (a) einen ersten Satz von Daten, die kennzeichnend sind für die dreidimensionale Oberflächengeometrie und die Farbe von mindestens einem Teil der Mundhöhle; (b) Mittel zur Verarbeitung dieses ersten Datensatzes, um erwünschte Daten davon entsprechend dem Verfahren, wie in den Ansprüchen 1 bis 11 definiert, zur Verfügung zu stellen.
  13. Medium nach Anspruch 12, wobei das Medium mindestens eines aus optischen Platten, Magnetplatten und Magnetbändern umfasst.
DE602005004332T 2004-06-17 2005-06-17 Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle Active DE602005004332T2 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US58010804P 2004-06-17 2004-06-17
US58010904P 2004-06-17 2004-06-17
US580108P 2004-06-17
US580109P 2004-06-17

Publications (2)

Publication Number Publication Date
DE602005004332D1 DE602005004332D1 (de) 2008-03-06
DE602005004332T2 true DE602005004332T2 (de) 2009-01-08

Family

ID=34937520

Family Applications (2)

Application Number Title Priority Date Filing Date
DE602005009432T Active DE602005009432D1 (de) 2004-06-17 2005-06-17 Verfahren und Gerät zur Farbbildformung einer dreidimensionalen Struktur
DE602005004332T Active DE602005004332T2 (de) 2004-06-17 2005-06-17 Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE602005009432T Active DE602005009432D1 (de) 2004-06-17 2005-06-17 Verfahren und Gerät zur Farbbildformung einer dreidimensionalen Struktur

Country Status (4)

Country Link
US (21) US7698068B2 (de)
EP (2) EP1607041B1 (de)
AT (2) ATE406850T1 (de)
DE (2) DE602005009432D1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014224554A1 (de) * 2014-12-01 2016-06-02 Olympus Soft Imaging Solutions Gmbh Verfahren und System zum Erzeugen von digitalen Farbbildern oder Videosequenzen
US11041799B2 (en) 2019-06-04 2021-06-22 Carl Zeiss Industrielle Messtechnik Gmbh Device for 3D measurement of object coordinates
DE102021117116A1 (de) 2021-07-02 2023-01-05 Stiftung für Lasertechnologien in der Medizin und Meßtechnik an der Universität Ulm ILM, Körperschaft des öffentlichen Rechts Messvorrichtung zur optischen Vermessung eines Objekts

Families Citing this family (300)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
IL125659A (en) 1998-08-05 2002-09-12 Cadent Ltd Method and device for three-dimensional simulation of a structure
US11026768B2 (en) 1998-10-08 2021-06-08 Align Technology, Inc. Dental appliance reinforcement
US9113846B2 (en) 2001-07-26 2015-08-25 Given Imaging Ltd. In-vivo imaging device providing data compression
US7347817B2 (en) * 2001-08-02 2008-03-25 Given Imaging Ltd. Polarized in vivo imaging device, system and method
US20040199052A1 (en) 2003-04-01 2004-10-07 Scimed Life Systems, Inc. Endoscopic imaging system
US7330577B2 (en) * 2004-01-27 2008-02-12 Densys Ltd. Three-dimensional modeling of the oral cavity by projecting a two-dimensional array of random patterns
US9492245B2 (en) 2004-02-27 2016-11-15 Align Technology, Inc. Method and system for providing dynamic orthodontic assessment and treatment profiles
EP1607041B1 (de) 2004-06-17 2008-01-16 Cadent Ltd. Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
US7862336B2 (en) * 2004-11-26 2011-01-04 Cadent Ltd. Method and system for providing feedback data useful in prosthodontic procedures associated with the intra oral cavity
US8360968B2 (en) * 2004-12-01 2013-01-29 Vision—Sciences Inc. Endoscopic sheath with illumination
US7236842B2 (en) 2004-12-02 2007-06-26 Cadent Ltd. System and method for manufacturing a dental prosthesis and a dental prosthesis manufactured thereby
US7623942B2 (en) * 2005-01-06 2009-11-24 Touchstone C Alex Method and apparatus for selecting non-opacious dental materials
EP2921131B1 (de) 2005-06-30 2020-11-04 Biomet 3i, LLC Verfahren zur herstellung von komponenten eines dentalimplantats
US7555403B2 (en) 2005-07-15 2009-06-30 Cadent Ltd. Method for manipulating a dental virtual model, method for creating physical entities based on a dental virtual model thus manipulated, and dental models thus created
US20070086762A1 (en) * 2005-10-13 2007-04-19 3M Innovative Properties Company Front end for 3D imaging camera
US11219511B2 (en) 2005-10-24 2022-01-11 Biomet 3I, Llc Methods for placing an implant analog in a physical model of the patient's mouth
US8257083B2 (en) 2005-10-24 2012-09-04 Biomet 3I, Llc Methods for placing an implant analog in a physical model of the patient's mouth
US20070161854A1 (en) * 2005-10-26 2007-07-12 Moshe Alamaro System and method for endoscopic measurement and mapping of internal organs, tumors and other objects
JP2007194779A (ja) * 2006-01-18 2007-08-02 Pentax Corp 三次元撮影装置
US7302359B2 (en) * 2006-02-08 2007-11-27 Honeywell International Inc. Mapping systems and methods
US8551155B2 (en) * 2006-06-16 2013-10-08 The Invention Science Fund I, Llc Stent customization system and method
US20090024152A1 (en) * 2007-07-17 2009-01-22 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Custom-fitted blood vessel sleeve
US8478437B2 (en) * 2006-06-16 2013-07-02 The Invention Science Fund I, Llc Methods and systems for making a blood vessel sleeve
US8550344B2 (en) * 2006-06-16 2013-10-08 The Invention Science Fund I, Llc Specialty stents with flow control features or the like
US20080133040A1 (en) * 2006-06-16 2008-06-05 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Methods and systems for specifying a blood vessel sleeve
US20080172073A1 (en) * 2006-06-16 2008-07-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Active blood vessel sleeve
US8442283B2 (en) * 2006-08-30 2013-05-14 Anatomage Inc. Patient-specific three-dimensional dentition model
WO2008051129A1 (en) 2006-10-27 2008-05-02 Nobel Biocare Services Ag A dental impression tray for use in obtaining an impression of a dental structure
ES2584168T3 (es) * 2006-10-27 2016-09-26 Nobel Biocare Services Ag Procedimiento y aparato para la obtención de datos para un componente dental y un modelo dental físico
DE502006005469D1 (de) * 2006-12-18 2010-01-07 X Rite Europe Gmbh Spektraler fotoelektrischer Messwandler mit optischem Ablenkelement
DE502006008891D1 (de) * 2006-12-21 2011-03-24 X Rite Europe Gmbh Abtastvorrichtung mit elektronischer Abstandsregelung und ohne Abstandsmessfühler
DE502006007126D1 (de) * 2006-12-21 2010-07-15 X Rite Europe Gmbh Farbmesskopf und damit ausgestattete Abtastvorrichtung
US20080219303A1 (en) * 2007-03-02 2008-09-11 Lucent Technologies Inc. Color mixing light source and color control data system
DE102007012584A1 (de) * 2007-03-13 2008-09-18 Paul Weigl Verfahren zur Kontrolle einer Präparation eines präparierten Zahns mit CAD-Verfahren
US8055466B2 (en) * 2007-03-30 2011-11-08 Mitutoyo Corporation Global calibration for stereo vision probe
EP1982652A1 (de) 2007-04-20 2008-10-22 Medicim NV Verfahren zum Ableiten von Forminformationen
US8206153B2 (en) * 2007-05-18 2012-06-26 Biomet 3I, Inc. Method for selecting implant components
US7878805B2 (en) 2007-05-25 2011-02-01 Align Technology, Inc. Tabbed dental appliance
EP2164424B1 (de) * 2007-06-29 2019-02-27 3M Innovative Properties Company Grafische Benutzeroberfläche zur Randmarkierung eines Gebisses
US7767980B2 (en) * 2007-07-17 2010-08-03 Fujifilm Corporation Image processing system, image processing method and computer readable medium
EP2039288A1 (de) * 2007-09-18 2009-03-25 Olympus Corporation Zahnbeobachtungsvorrichtung
US8738394B2 (en) 2007-11-08 2014-05-27 Eric E. Kuo Clinical data file
US8777612B2 (en) 2007-11-16 2014-07-15 Biomet 3I, Llc Components for use with a surgical guide for dental implant placement
US7929151B2 (en) * 2008-01-11 2011-04-19 Carestream Health, Inc. Intra-oral camera for diagnostic and cosmetic imaging
KR101420684B1 (ko) * 2008-02-13 2014-07-21 삼성전자주식회사 컬러 영상과 깊이 영상을 매칭하는 방법 및 장치
US8108189B2 (en) 2008-03-25 2012-01-31 Align Technologies, Inc. Reconstruction of non-visible part of tooth
DE102008017481B4 (de) * 2008-04-03 2013-10-24 Sirona Dental Systems Gmbh Vorrichtung und Verfahren zur optischen 3D-Vermessung und zur Farbmessung
US8651858B2 (en) * 2008-04-15 2014-02-18 Biomet 3I, Llc Method of creating an accurate bone and soft-tissue digital dental model
EP3000430B1 (de) 2008-04-16 2017-11-15 Biomet 3i, LLC Verfahren zur virtuellen entwicklung einer chirurgischen führung für zahnärztliche implantate
JP5276006B2 (ja) * 2008-05-13 2013-08-28 パナソニック株式会社 口腔内測定装置及び口腔内測定システム
KR100902170B1 (ko) * 2008-05-19 2009-06-10 (주)펨트론 표면형상 측정장치
US8092215B2 (en) 2008-05-23 2012-01-10 Align Technology, Inc. Smile designer
US9492243B2 (en) 2008-05-23 2016-11-15 Align Technology, Inc. Dental implant positioning
US8172569B2 (en) 2008-06-12 2012-05-08 Align Technology, Inc. Dental appliance
EP3892231A1 (de) 2008-07-03 2021-10-13 Align Technology, Inc. Verfahren, vorrichtung und system zur verwendung in dentalen eingriffen
US8509932B2 (en) 2008-07-17 2013-08-13 Cadent Ltd. Methods, systems and accessories useful for procedures relating to dental implants
CH699575A1 (de) * 2008-10-06 2010-04-15 Nectar Imaging S R L Optisches System für ein Konfokalmikroskop.
US8152518B2 (en) 2008-10-08 2012-04-10 Align Technology, Inc. Dental positioning appliance having metallic portion
JP5433381B2 (ja) * 2009-01-28 2014-03-05 合同会社IP Bridge1号 口腔内測定装置及び口腔内測定方法
US8936464B2 (en) * 2009-02-24 2015-01-20 Cadent Ltd. Method, system and model for indirect bonding
JP2012518844A (ja) * 2009-02-25 2012-08-16 ディメンジョナル フォトニクス インターナショナル,インコーポレイテッド 三次元計測システムのための輝度およびカラー表示
US8292617B2 (en) 2009-03-19 2012-10-23 Align Technology, Inc. Dental wire attachment
AT508060B1 (de) * 2009-03-30 2011-07-15 Evk Di Kerschhaggl Gmbh Verfahren, beleuchtungseinrichtung und system zum optischen detektieren von bewegten objekten
WO2014143014A1 (en) 2013-03-15 2014-09-18 Triagenics, Llc Therapeutic tooth bud ablation
CA2761652C (en) 2009-05-11 2019-10-01 Leigh E. Colby Therapeutic tooth bud ablation
US10022202B2 (en) 2013-03-15 2018-07-17 Triagenics, Llc Therapeutic tooth bud ablation
US8570530B2 (en) * 2009-06-03 2013-10-29 Carestream Health, Inc. Apparatus for dental surface shape and shade imaging
EP2442720B1 (de) 2009-06-17 2016-08-24 3Shape A/S Fokus-scanner
US8768016B2 (en) * 2009-06-19 2014-07-01 Carestream Health, Inc. Method for quantifying caries
DE102009034994B3 (de) * 2009-07-28 2011-01-27 Carl Zeiss Surgical Gmbh Verfahren zum Erzeugen einer Darstellung eines OCT-Datensatzes und ein OCT-System zur Durchführung desselben
US8765031B2 (en) 2009-08-13 2014-07-01 Align Technology, Inc. Method of forming a dental appliance
EP2335640B1 (de) 2009-12-21 2017-07-19 Align Technology, Inc. Verwendung einer Positionierhilfe mit dentalen Analogen und Modellen
JP2011158549A (ja) * 2010-01-29 2011-08-18 Olympus Corp 内視鏡装置およびプログラム
US8134719B2 (en) * 2010-03-19 2012-03-13 Carestream Health, Inc. 3-D imaging using telecentric defocus
US9211166B2 (en) 2010-04-30 2015-12-15 Align Technology, Inc. Individualized orthodontic treatment index
US9241774B2 (en) 2010-04-30 2016-01-26 Align Technology, Inc. Patterned dental positioning appliance
CN102469918B (zh) * 2010-05-19 2014-08-06 奥林巴斯医疗株式会社 内窥镜、内窥镜用罩及内窥镜装置
US9642687B2 (en) 2010-06-15 2017-05-09 The Procter & Gamble Company Methods for whitening teeth
EP4029471B1 (de) * 2010-07-12 2023-11-22 3Shape A/S 3d-modellierung eines objekts unter verwendung von strukturmerkmalen
US8571281B2 (en) * 2010-07-13 2013-10-29 Carestream Health, Inc. Dental shade mapping
ES2848157T3 (es) * 2010-07-19 2021-08-05 Align Technology Inc Procedimientos y sistemas para crear e interactuar con modelos virtuales tridimensionales
US9050027B2 (en) * 2010-07-30 2015-06-09 Adventus Technologies, Inc. Intraoperative imaging system and apparatus
WO2012021212A1 (en) * 2010-08-10 2012-02-16 Boston Scientific Scimed, Inc. Endoscopic system for enhanced visualization
US9157733B2 (en) * 2010-09-10 2015-10-13 Dimensional Photonics International, Inc. Method of data acquisition for three-dimensional imaging
CN102753082B (zh) * 2010-10-26 2016-10-12 奥林巴斯株式会社 内窥镜
EP2462893B8 (de) 2010-12-07 2014-12-10 Biomet 3i, LLC Universelles Abtastelement zur Verwendung auf Zahnimplantaten und Modellimplantaten
ES2884700T3 (es) 2010-12-21 2021-12-10 3Shape As Compensación de desenfoque de movimiento
WO2012083967A1 (en) 2010-12-21 2012-06-28 3Shape A/S Optical system in 3D focus scanner
US9763758B2 (en) 2011-01-13 2017-09-19 Align Technology, Inc. Virtual and physical dental models of dental surfaces and analog socket structure of a dental implant and related procedures
EP2486892B1 (de) 2011-02-14 2015-09-02 Ivoclar Vivadent AG Verfahren zur Herstellung eines dentalen Restaurationsteils sowie CAD/CAM-Vorrichtung
BR112013021378B1 (pt) 2011-02-23 2021-06-15 3Shape A/S Método para modificar a parte gengival de um modelo virtual de um conjunto de dentes
CA2829497A1 (en) 2011-03-24 2012-09-27 Sanofi-Aventis Deutschland Gmbh Device and method for detecting an actuation action performable with a medical device
EP2697770B1 (de) * 2011-04-12 2015-07-01 Tripath Imaging, Inc. Verfahren zur herstellung von quantitativer videomikroskopie und zugehöriges system
KR101792588B1 (ko) * 2011-04-12 2017-11-01 삼성전자주식회사 복수의 광선을 이용하는 광 간섭 단층촬영 장치 및 방법
US8944816B2 (en) 2011-05-16 2015-02-03 Biomet 3I, Llc Temporary abutment with combination of scanning features and provisionalization features
WO2012174401A2 (en) * 2011-06-16 2012-12-20 Lenny Lipton Stereoscopic camera with polarizing apertures
NO337687B1 (no) * 2011-07-08 2016-06-06 Norsk Elektro Optikk As Hyperspektralt kamera og metode for å ta opp hyperspektrale data
US8577693B2 (en) 2011-07-13 2013-11-05 The Invention Science Fund I, Llc Specialty stents with flow control features or the like
JP6133855B2 (ja) 2011-07-15 2017-05-24 3シェイプ アー/エス 剛体を3d走査する際の可動物体の検出
DE102011080180B4 (de) * 2011-08-01 2013-05-02 Sirona Dental Systems Gmbh Verfahren zur Registrierung mehrerer dreidimensionaler Aufnahmen eines dentalen Objektes
US9403238B2 (en) 2011-09-21 2016-08-02 Align Technology, Inc. Laser cutting
US9089382B2 (en) 2012-01-23 2015-07-28 Biomet 3I, Llc Method and apparatus for recording spatial gingival soft tissue relationship to implant placement within alveolar bone for immediate-implant placement
US9452032B2 (en) 2012-01-23 2016-09-27 Biomet 3I, Llc Soft tissue preservation temporary (shell) immediate-implant abutment with biological active surface
US9375300B2 (en) 2012-02-02 2016-06-28 Align Technology, Inc. Identifying forces on a tooth
US9220580B2 (en) 2012-03-01 2015-12-29 Align Technology, Inc. Determining a dental treatment difficulty
ES2951058T3 (es) * 2012-03-09 2023-10-17 3Shape As Escáner 3D con punta autoclavable por vapor que contiene un elemento óptico calentado
US9429417B2 (en) * 2012-05-17 2016-08-30 Hong Kong Applied Science and Technology Research Institute Company Limited Touch and motion detection using surface map, object shadow and a single camera
US9414897B2 (en) 2012-05-22 2016-08-16 Align Technology, Inc. Adjustment of tooth position in a virtual dental model
EP2866644B1 (de) 2012-06-27 2023-11-08 3Shape A/S Itraoraler 3d-scanner intraorale zur fluoreszenzmessung
US9163938B2 (en) 2012-07-20 2015-10-20 Google Inc. Systems and methods for image acquisition
DE102012214467B4 (de) * 2012-08-14 2019-08-08 Sirona Dental Systems Gmbh Verfahren zur Registrierung von einzelnen dreidimensionalen optischen Aufnahmen eines dentalen Objekts
US20140080092A1 (en) 2012-09-14 2014-03-20 Biomet 3I, Llc Temporary dental prosthesis for use in developing final dental prosthesis
US9192305B2 (en) * 2012-09-28 2015-11-24 Align Technology, Inc. Estimating a surface texture of a tooth
US9117267B2 (en) * 2012-10-18 2015-08-25 Google Inc. Systems and methods for marking images for three-dimensional image generation
EP2914200B1 (de) 2012-10-30 2019-05-22 University of Southern California Kieferorthopädische vorrichtung mit eingeschnapptem rutschfestem bogendraht
US8948482B2 (en) 2012-11-01 2015-02-03 Align Technology, Inc. Motion compensation in a three dimensional scan
KR101660323B1 (ko) * 2012-11-09 2016-09-29 후지필름 가부시키가이샤 카메라 시스템, 이것에 사용되는 색변환 장치 및 방법 그리고 색변환 프로그램
US9554094B1 (en) * 2012-11-30 2017-01-24 Cognex Corporation System and method for determining a displaced substrate with a vision system
US8905757B2 (en) 2012-12-03 2014-12-09 E. Kats Enterprises Ltd. Method and apparatus for measuring a location and orientation of a plurality of implants
US10617489B2 (en) 2012-12-19 2020-04-14 Align Technology, Inc. Creating a digital dental model of a patient's teeth using interproximal information
US9668829B2 (en) 2012-12-19 2017-06-06 Align Technology, Inc. Methods and systems for dental procedures
US8926328B2 (en) 2012-12-27 2015-01-06 Biomet 3I, Llc Jigs for placing dental implant analogs in models and methods of doing the same
KR101941907B1 (ko) * 2013-01-03 2019-01-24 삼성전자주식회사 깊이 정보를 이용하는 내시경 및 깊이 정보를 이용하는 내시경에 의한 용종 검출 방법
US9325971B2 (en) * 2013-01-10 2016-04-26 The Regents Of The University Of Colorado, A Body Corporate Engineered point spread function for simultaneous extended depth of field and 3D ranging
US9565996B2 (en) 2013-01-18 2017-02-14 Ricoh Company, Ltd. Plenoptic otoscope
CN103932661B (zh) * 2013-01-18 2017-01-11 株式会社理光 全光耳镜
WO2014125037A1 (en) 2013-02-13 2014-08-21 3Shape A/S Focus scanning apparatus recording color
US20140253686A1 (en) * 2013-03-08 2014-09-11 Victor C. Wong Color 3-d image capture with monochrome image sensor
DE202013002483U1 (de) * 2013-03-15 2014-06-16 Csb-System Ag Vorrichtung zur Vermessung einer Schlachttierkörperhälfte
US9438264B1 (en) 2015-09-10 2016-09-06 Realtek Semiconductor Corp. High-speed capacitive digital-to-analog converter and method thereof
JP5966982B2 (ja) * 2013-03-15 2016-08-10 オムロン株式会社 共焦点計測装置
JP6368354B2 (ja) * 2013-04-22 2018-08-01 サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング 注射デバイスとともに使用するための補足デバイス
EP2799032A1 (de) * 2013-04-29 2014-11-05 3M Innovative Properties Company Verfahren zur Datenerfassung eines Patientengebisses und System zur Durchführung eines solchen Verfahrens
DE102013008278B4 (de) 2013-05-15 2020-11-05 Nanofocus Ag Verfahren und Vorrichtung zur 3 D-Vermessung der Hautoberfläche und oberflächennaher Hautschichten
KR20150010230A (ko) * 2013-07-18 2015-01-28 삼성전자주식회사 단일 필터를 이용하여 대상체의 컬러 영상 및 깊이 영상을 생성하는 방법 및 장치.
US9393087B2 (en) 2013-08-01 2016-07-19 Align Technology, Inc. Methods and systems for generating color images
US20150045619A1 (en) * 2013-08-09 2015-02-12 Chang Bing Show Chwan Memorial Hospital System and method for mosaicing endoscope images using wide angle view endoscope
DE102013223894B3 (de) * 2013-11-22 2015-02-19 Sirona Dental Systems Gmbh Optisches Messsystem und Verfahren zur dreidimensionalen optischen Vermessung eines Objekts
US9733152B2 (en) * 2013-12-17 2017-08-15 Bioptigen, Inc. Immersion lens assemblies for use in optical coherence tomography systems
EP3094283A4 (de) 2013-12-20 2018-01-24 Biomet 3i, LLC Zahnärztliches system zur entwicklung von angepassten prothesen durch abtasten von codierten elementen
CN103759696B (zh) * 2013-12-31 2016-04-13 广西玉柴机器股份有限公司 腔体内腔结构三维扫描检测法
DE102014101059A1 (de) * 2014-01-29 2015-07-30 Heraeus Kulzer Gmbh Gingiva-Indexierungsvorrichtung und Verfahren zur Indexierung der Gingiva
US10010387B2 (en) 2014-02-07 2018-07-03 3Shape A/S Detecting tooth shade
US10111581B2 (en) * 2014-02-27 2018-10-30 Align Technology, Inc. Thermal defogging system and method
DE102014207022A1 (de) * 2014-04-11 2015-10-29 Siemens Aktiengesellschaft Tiefenbestimmung einer Oberfläche eines Prüfobjektes
US9510757B2 (en) * 2014-05-07 2016-12-06 Align Technology, Inc. Identification of areas of interest during intraoral scans
EP3143381B1 (de) * 2014-05-12 2021-02-24 Cellomics, Inc Automatisierte bildgebung von chromophormarkierten proben
EP2947417B1 (de) * 2014-05-23 2019-12-18 VOCO GmbH Vorrichtung und Verfahren zum Erfassen einer 3D-Struktur eines Objekts
CN106574897B (zh) * 2014-06-10 2020-02-14 赛诺菲-安万特德国有限公司 用于确定与表面反射特征相关的信息的设备
DE102014108789A1 (de) * 2014-06-24 2016-01-07 Byk-Gardner Gmbh Mehrstufiges Verfahren zur Untersuchung von Oberflächen sowie entsprechende Vorrichtung
US9491863B2 (en) 2014-06-26 2016-11-08 Align Technology, Inc. Mounting system that maintains stability of optics as temperature changes
JP7010589B2 (ja) * 2014-06-27 2022-01-26 株式会社キーエンス 多波長共焦点測定装置
US9261356B2 (en) 2014-07-03 2016-02-16 Align Technology, Inc. Confocal surface topography measurement with fixed focal positions
US9261358B2 (en) * 2014-07-03 2016-02-16 Align Technology, Inc. Chromatic confocal system
US9439568B2 (en) 2014-07-03 2016-09-13 Align Technology, Inc. Apparatus and method for measuring surface topography optically
US10772506B2 (en) 2014-07-07 2020-09-15 Align Technology, Inc. Apparatus for dental confocal imaging
US9970862B2 (en) 2014-07-16 2018-05-15 International Business Machines Corporation Reflective tag and polarized light sensor for transmitting information
US9693839B2 (en) 2014-07-17 2017-07-04 Align Technology, Inc. Probe head and apparatus for intraoral confocal imaging using polarization-retarding coatings
US9675430B2 (en) * 2014-08-15 2017-06-13 Align Technology, Inc. Confocal imaging apparatus with curved focal surface
US9724177B2 (en) 2014-08-19 2017-08-08 Align Technology, Inc. Viewfinder with real-time tracking for intraoral scanning
US9700390B2 (en) 2014-08-22 2017-07-11 Biomet 3I, Llc Soft-tissue preservation arrangement and method
US9660418B2 (en) 2014-08-27 2017-05-23 Align Technology, Inc. VCSEL based low coherence emitter for confocal 3D scanner
US9610141B2 (en) 2014-09-19 2017-04-04 Align Technology, Inc. Arch expanding appliance
US10449016B2 (en) 2014-09-19 2019-10-22 Align Technology, Inc. Arch adjustment appliance
EP3018461A1 (de) * 2014-11-07 2016-05-11 3M Innovative Properties Company Verfahren zur Herstellung eines Zahnersatzes
US9744001B2 (en) 2014-11-13 2017-08-29 Align Technology, Inc. Dental appliance with cavity for an unerupted or erupting tooth
IL235952A0 (en) 2014-11-27 2015-02-26 Imaging Solutions Ltd Ab Intraoral 3D scanner
US10504386B2 (en) 2015-01-27 2019-12-10 Align Technology, Inc. Training method and system for oral-cavity-imaging-and-modeling equipment
EP3058970A1 (de) * 2015-02-19 2016-08-24 Sanofi-Aventis Deutschland GmbH Datensammlungsvorrichtung zur Befestigung an einer Injektionsvorrichtung
CA2977073A1 (en) 2015-02-23 2016-09-01 Li-Cor, Inc. Fluorescence biopsy specimen imager and methods
US9451873B1 (en) * 2015-03-06 2016-09-27 Align Technology, Inc. Automatic selection and locking of intraoral images
EP3267936A4 (de) 2015-03-09 2018-12-26 Stephen J. Chu Eiförmiges zahnfleisch-pontic und verfahren zur verwendung davon
EP3268935A1 (de) * 2015-03-09 2018-01-17 Carestream Dental Technology Topco Limited Vorrichtung und verfahren zur texturabbildung für zahnärztlichen 3d-scanner
US9844426B2 (en) 2015-03-12 2017-12-19 Align Technology, Inc. Digital dental tray
WO2016153834A1 (en) * 2015-03-25 2016-09-29 3M Innovative Properties Company A dental imaging and illumination device
US9547903B2 (en) * 2015-04-16 2017-01-17 Carestream Health, Inc. Method for quantifying caries
KR101755094B1 (ko) * 2015-04-23 2017-07-06 순천향대학교 산학협력단 깊이 카메라를 이용한 수면 중 호흡률 모니터링 장치
US10666848B2 (en) 2015-05-05 2020-05-26 Microsoft Technology Licensing, Llc Remote depth sensing via relayed depth from diffusion
CN112206381B (zh) 2015-06-09 2023-10-27 赛诺菲-安万特德国有限公司 用于附接到注射装置的数据采集装置
EP3314234B1 (de) 2015-06-26 2021-05-19 Li-Cor, Inc. Bildgeber für fluoreszenzbiopsieproben
US11571278B2 (en) 2015-07-07 2023-02-07 Align Technology, Inc. Systems, apparatuses and methods for dental appliances with integrally formed features
US10248883B2 (en) 2015-08-20 2019-04-02 Align Technology, Inc. Photograph-based assessment of dental treatments and procedures
US10098529B2 (en) 2015-10-28 2018-10-16 Ricoh Company, Ltd. Optical design of a light field otoscope
US11554000B2 (en) 2015-11-12 2023-01-17 Align Technology, Inc. Dental attachment formation structure
US11103330B2 (en) 2015-12-09 2021-08-31 Align Technology, Inc. Dental attachment placement structure
US11596502B2 (en) 2015-12-09 2023-03-07 Align Technology, Inc. Dental attachment placement structure
TWI596318B (zh) * 2016-01-13 2017-08-21 德律科技股份有限公司 光學測量系統以及光學成像系統
US10007987B1 (en) * 2016-02-04 2018-06-26 Dennis Braunston Enhanced tooth shade matching system
CN108885098B (zh) * 2016-03-22 2020-12-04 三菱电机株式会社 距离计测装置和距离计测方法
US10168144B2 (en) 2016-03-25 2019-01-01 Sony Corporation Optical apparatus for 3D data collection
WO2017184940A1 (en) 2016-04-21 2017-10-26 Li-Cor, Inc. Multimodality multi-axis 3-d imaging
JP6378793B2 (ja) * 2016-05-10 2018-08-22 正樹 神原 歯肉診断支援装置および歯肉診断支援システム
US10966803B2 (en) * 2016-05-31 2021-04-06 Carestream Dental Technology Topco Limited Intraoral 3D scanner with fluid segmentation
EP3471599A4 (de) 2016-06-17 2020-01-08 Align Technology, Inc. Intraorale geräte mit sensor
US10383705B2 (en) 2016-06-17 2019-08-20 Align Technology, Inc. Orthodontic appliance performance monitor
EP3475919A1 (de) 2016-06-23 2019-05-01 Li-Cor, Inc. Komplementärfarbblinken für mehrkanalbilddarstellung
US10136972B2 (en) 2016-06-30 2018-11-27 Align Technology, Inc. Historical scan reference for intraoral scans
US10390913B2 (en) 2018-01-26 2019-08-27 Align Technology, Inc. Diagnostic intraoral scanning
EP3490439B1 (de) 2016-07-27 2023-06-07 Align Technology, Inc. Intraoraler scanner mit zahnmedizinischen diagnosefähigkeiten
US10507087B2 (en) 2016-07-27 2019-12-17 Align Technology, Inc. Methods and apparatuses for forming a three-dimensional volumetric model of a subject's teeth
US11883132B2 (en) 2016-10-28 2024-01-30 University Of Washington System and method for ranking bacterial activity leading to tooth and gum disease
EP4295748A2 (de) 2016-11-04 2023-12-27 Align Technology, Inc. Verfahren und vorrichtungen für zahnbilder
DE102016222187A1 (de) * 2016-11-11 2018-05-17 Trumpf Laser- Und Systemtechnik Gmbh Verfahren zum Bestimmen eines Strahlprofils eines Laserstrahls und Bearbeitungsmaschine
US10993622B2 (en) 2016-11-23 2021-05-04 Li-Cor, Inc. Motion-adaptive interactive imaging method
CN110177521A (zh) 2016-12-02 2019-08-27 斯威夫特健康系统有限公司 用于托槽放置的间接正畸粘结系统和方法
EP3547952B1 (de) 2016-12-02 2020-11-04 Align Technology, Inc. Palatalexpander
US11026831B2 (en) 2016-12-02 2021-06-08 Align Technology, Inc. Dental appliance features for speech enhancement
CN113440273A (zh) 2016-12-02 2021-09-28 阿莱恩技术有限公司 一系列腭扩张器及其形成方法和形成设备
WO2018102770A1 (en) 2016-12-02 2018-06-07 Align Technology, Inc. Force control, stop mechanism, regulating structure of removable arch adjustment appliance
US10548700B2 (en) 2016-12-16 2020-02-04 Align Technology, Inc. Dental appliance etch template
US10695150B2 (en) 2016-12-16 2020-06-30 Align Technology, Inc. Augmented reality enhancements for intraoral scanning
US10456043B2 (en) 2017-01-12 2019-10-29 Align Technology, Inc. Compact confocal dental scanning apparatus
DE102017000296B4 (de) * 2017-01-15 2021-02-11 Baden-Württemberg Stiftung Ggmbh Messsystem und Verfahren zur kombinierten Erfassung der Oberflächentopographie und hyperspektralen Bildgebung
CN110366395B (zh) 2017-01-31 2022-06-17 斯威夫特健康系统有限公司 混合正畸弓丝
US10779718B2 (en) 2017-02-13 2020-09-22 Align Technology, Inc. Cheek retractor and mobile device holder
US10499793B2 (en) 2017-02-17 2019-12-10 Align Technology, Inc. Longitudinal analysis and visualization under limited accuracy system
DK3367054T3 (da) 2017-02-28 2020-07-13 Phenospex B V System til optisk registrering af objekter
US10296780B2 (en) 2017-03-07 2019-05-21 Ricoh Company, Ltd. Automatic eardrum registration from light field data
EP3372193B1 (de) * 2017-03-08 2021-04-21 Ivoclar Vivadent AG Verfahren zur festlegung einer materialfarbe einer dentalrestauration
US10275644B2 (en) 2017-03-08 2019-04-30 Ricoh Company, Ltd Automatic classification of eardrum shape
JP6786424B2 (ja) * 2017-03-13 2020-11-18 株式会社モリタ製作所 三次元スキャナ
US11007035B2 (en) 2017-03-16 2021-05-18 Viax Dental Technologies Llc System for preparing teeth for the placement of veneers
EP3375406A1 (de) * 2017-03-17 2018-09-19 a.tron3d GmbH Vorrichtung und verfahren zum optischen erfassen von dreidimensionalen oberflächengeometrien
EP3378379A1 (de) * 2017-03-21 2018-09-26 a.tron3d GmbH Verfahren zur erfassung der dreidimensionalen oberflächengeometrie eines objekts
US11612458B1 (en) 2017-03-31 2023-03-28 Swift Health Systems Inc. Method of tongue preconditioning in preparation for lingual orthodontic treatment
US10613515B2 (en) 2017-03-31 2020-04-07 Align Technology, Inc. Orthodontic appliances including at least partially un-erupted teeth and method of forming them
CN114129289A (zh) 2017-04-21 2022-03-04 斯威夫特健康系统有限公司 间接粘接托盘、非滑动正畸矫正器和使用其的配准系统
EP3616158A1 (de) 2017-04-25 2020-03-04 Li-Cor, Inc. Biopsieprobenbildgeber und verfahren für draufsicht und drehseitenansicht
GB201708520D0 (en) 2017-05-27 2017-07-12 Dawood Andrew A method for reducing artefact in intra oral scans
US10347037B2 (en) * 2017-05-31 2019-07-09 Verizon Patent And Licensing Inc. Methods and systems for generating and providing virtual reality data that accounts for level of detail
US10311630B2 (en) 2017-05-31 2019-06-04 Verizon Patent And Licensing Inc. Methods and systems for rendering frames of a virtual scene from different vantage points based on a virtual entity description frame of the virtual scene
US10586377B2 (en) 2017-05-31 2020-03-10 Verizon Patent And Licensing Inc. Methods and systems for generating virtual reality data that accounts for level of detail
US11045283B2 (en) 2017-06-09 2021-06-29 Align Technology, Inc. Palatal expander with skeletal anchorage devices
US10708574B2 (en) * 2017-06-15 2020-07-07 Align Technology, Inc. Three dimensional imaging apparatus with color sensor
KR102573669B1 (ko) * 2017-06-21 2023-09-04 코닌클리케 필립스 엔.브이. 조기 우식 검출을 위한 방법 및 장치
US10639134B2 (en) 2017-06-26 2020-05-05 Align Technology, Inc. Biosensor performance indicator for intraoral appliances
JP2020526362A (ja) 2017-06-30 2020-08-31 フレッシュ ヘルス インコーポレイテッド 個別化された口腔洗浄のためのシステムおよび方法
US11281816B2 (en) 2020-07-21 2022-03-22 Fresh Health Inc. Systems and methods for manufacturing personalized oral care devices
US10885521B2 (en) 2017-07-17 2021-01-05 Align Technology, Inc. Method and apparatuses for interactive ordering of dental aligners
US11419702B2 (en) 2017-07-21 2022-08-23 Align Technology, Inc. Palatal contour anchorage
CN116327391A (zh) 2017-07-27 2023-06-27 阿莱恩技术有限公司 用于通过光学相干断层扫描术来处理正畸矫正器的系统和方法
WO2019023461A1 (en) 2017-07-27 2019-01-31 Align Technology, Inc. TINT, TRANSPARENCY AND DENTAL ENAMEL
WO2019035979A1 (en) 2017-08-15 2019-02-21 Align Technology, Inc. EVALUATION AND CALCULATION OF BUCCAL CORRIDOR
WO2019036677A1 (en) 2017-08-17 2019-02-21 Align Technology, Inc. SURVEILLANCE OF CONFORMITY OF DENTAL DEVICE
US10813720B2 (en) 2017-10-05 2020-10-27 Align Technology, Inc. Interproximal reduction templates
US10895642B2 (en) * 2017-10-18 2021-01-19 Tdk Taiwan Corp. Distance measuring device
EP3700458B1 (de) 2017-10-27 2023-06-07 Align Technology, Inc. Alternative bisseinstellungsstrukturen
US11576752B2 (en) 2017-10-31 2023-02-14 Align Technology, Inc. Dental appliance having selective occlusal loading and controlled intercuspation
KR102106579B1 (ko) * 2017-10-31 2020-05-28 숭실대학교산학협력단 선형 모터를 이용한 비접촉 수직 이송 장치
CN115252177A (zh) 2017-11-01 2022-11-01 阿莱恩技术有限公司 自动治疗规划
US11534974B2 (en) 2017-11-17 2022-12-27 Align Technology, Inc. Customized fabrication of orthodontic retainers based on patient anatomy
WO2019108978A1 (en) 2017-11-30 2019-06-06 Align Technology, Inc. Sensors for monitoring oral appliances
KR102042024B1 (ko) 2017-12-14 2019-11-07 주식회사 바텍 구강 스캐너
US11432908B2 (en) 2017-12-15 2022-09-06 Align Technology, Inc. Closed loop adaptive orthodontic treatment methods and apparatuses
US10980613B2 (en) 2017-12-29 2021-04-20 Align Technology, Inc. Augmented reality enhancements for dental practitioners
US10952816B2 (en) 2018-01-26 2021-03-23 Align Technology, Inc. Visual prosthetic and orthodontic treatment planning
CN108332662B (zh) * 2018-02-06 2020-02-11 新石器龙码(北京)科技有限公司 一种物体测量方法和装置
WO2019158442A1 (en) 2018-02-16 2019-08-22 3Shape A/S Intraoral scanning with surface differentiation
CN108550182B (zh) * 2018-03-15 2022-10-18 维沃移动通信有限公司 一种三维建模方法和终端
KR102033426B1 (ko) 2018-03-20 2019-10-17 주식회사 바텍 구강 스캐너
WO2019200008A1 (en) 2018-04-11 2019-10-17 Align Technology, Inc. Releasable palatal expanders
US10753734B2 (en) 2018-06-08 2020-08-25 Dentsply Sirona Inc. Device, method and system for generating dynamic projection patterns in a confocal camera
WO2019243202A1 (en) * 2018-06-21 2019-12-26 3Shape A/S Method, device and system for correlating at least one additional 2d-image to a 3d-representation of at least a part of tooth
US11096765B2 (en) 2018-06-22 2021-08-24 Align Technology, Inc. Light field intraoral 3D scanner with structured light illumination
EP3824621A4 (de) 2018-07-19 2022-04-27 Activ Surgical, Inc. Systeme und verfahren zur multimodalen erfassung der tiefe in sichtsystemen für automatisierte chirurgische roboter
KR102102942B1 (ko) * 2018-07-31 2020-04-21 서울대학교산학협력단 3d 영상 정합 제공 장치 및 그 방법
TWI708207B (zh) 2018-08-30 2020-10-21 廣達電腦股份有限公司 牙齒螢光反應區域之影像處理方法及其影像處理裝置
US11151753B2 (en) * 2018-09-28 2021-10-19 Align Technology, Inc. Generic framework for blurring of colors for teeth in generated images using height map
US11017500B2 (en) * 2018-10-08 2021-05-25 Verily Life Sciences Llc Image acquisition using time-multiplexed chromatic illumination
US10386177B1 (en) * 2018-10-09 2019-08-20 Dentsply Sirona Inc. Device and method for determining surface topology and associated color
US10315353B1 (en) 2018-11-13 2019-06-11 SmileDirectClub LLC Systems and methods for thermoforming dental aligners
KR20200075623A (ko) * 2018-12-18 2020-06-26 (주)제노레이 2차원 의료 영상 및 3차원 의료 영상의 정합을 이용한 치과 치료 계획 장치 및 방법
KR102056910B1 (ko) * 2018-12-21 2019-12-17 주식회사 디오에프연구소 3차원 구강 스캐너 및 이를 이용한 구강 스캔 방법
US20220051406A1 (en) * 2019-02-01 2022-02-17 Andrew Timothy Jang Dental imaging mixed reality system
US11455721B2 (en) * 2019-02-01 2022-09-27 Andrew Timothy Jang Multiwave dental imaging system
US11007042B2 (en) 2019-02-06 2021-05-18 Sdc U.S. Smilepay Spv Systems and methods for marking models for dental aligner fabrication
US10482192B1 (en) 2019-02-12 2019-11-19 SmileDirectClub LLC Systems and methods for selecting and marking a location on a dental aligner
US11367192B2 (en) 2019-03-08 2022-06-21 Align Technology, Inc. Foreign object filtering for intraoral scanning
CA3133657A1 (en) 2019-04-05 2020-10-08 Align Technology, Inc. Intraoral scanner sleeve authentication and identification
CN113950279B (zh) 2019-04-08 2023-04-14 艾科缇弗外科公司 用于医疗成像的系统和方法
CA3137021A1 (en) 2019-04-15 2020-10-22 Fresh Health Inc. Systems and methods for personalized oral care
US11455727B2 (en) 2019-05-02 2022-09-27 Align Technology, Inc. Method and apparatus for excessive materials removal from intraoral scans
US10849723B1 (en) 2019-05-07 2020-12-01 Sdc U.S. Smilepay Spv Scanning device
EP3979938A4 (de) 2019-06-06 2023-06-28 TriAgenics, Inc. Ablationssondensysteme
JP7354608B2 (ja) * 2019-06-21 2023-10-03 ソニーグループ株式会社 医療用観察システム、医療用観察方法、および情報処理装置
US11563929B2 (en) 2019-06-24 2023-01-24 Align Technology, Inc. Intraoral 3D scanner employing multiple miniature cameras and multiple miniature pattern projectors
CN114206253A (zh) 2019-07-29 2022-03-18 阿莱恩技术有限公司 用于口腔内装置的全扫描仪屏障
US11399129B2 (en) * 2019-07-30 2022-07-26 Gopro, Inc. Image capture device with extended depth of field
US11707238B2 (en) 2019-09-10 2023-07-25 Align Technology, Inc. Dental panoramic views
US11250580B2 (en) 2019-09-24 2022-02-15 Dentsply Sirona Inc. Method, system and computer readable storage media for registering intraoral measurements
DE102019129932B4 (de) * 2019-11-06 2023-12-21 Technische Universität Braunschweig Optische Detektionseinrichtung und Verfahren zum Betreiben einer optischen Detektionseinrichtung
US11557056B2 (en) * 2019-12-06 2023-01-17 Canon Kabushiki Kaisha Image-capturing control apparatus, image-capturing control method, and storage medium for evaluating appearance of object
WO2021127100A1 (en) * 2019-12-17 2021-06-24 Teufel Clayton Adams Intraoral scanning with raw depth data
KR102269897B1 (ko) * 2020-01-08 2021-06-28 주식회사 메디트 이미지 필터링 방법
CN220089438U (zh) 2020-02-26 2023-11-28 盖特-格林公司 口内适配器
US20230116070A1 (en) * 2020-02-27 2023-04-13 Fuji Corporation Image correction method, imaging device, and inspection device
US11582436B2 (en) * 2020-07-17 2023-02-14 Shenzhen GOODIX Technology Co., Ltd. Passive three-dimensional image sensing based on chromatic focal differentiation
DE102020124521B3 (de) * 2020-09-21 2021-09-30 Agrippa Holding & Consulting Gmbh Optische Vorrichtung und Verfahren zur Untersuchung eines Gegenstandes
US11806210B2 (en) 2020-10-12 2023-11-07 Align Technology, Inc. Method for sub-gingival intraoral scanning
WO2023022953A1 (en) * 2021-08-14 2023-02-23 Get-Grin Inc. System and method for intraoral identification

Family Cites Families (424)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2467432A (en) 1943-07-23 1949-04-19 Harold D Kesling Method of making orthodontic appliances and of positioning teeth
US2531222A (en) 1946-11-25 1950-11-21 Harold D Kesling Tooth positioning appliance
US2779470A (en) 1953-05-01 1957-01-29 William R Walters Shaker screen constructions
US3013467A (en) 1957-11-07 1961-12-19 Minsky Marvin Microscopy apparatus
US3407500A (en) 1966-05-06 1968-10-29 Peter C. Kesling Tooth positioner
US3660900A (en) 1969-11-10 1972-05-09 Lawrence F Andrews Method and apparatus for improved orthodontic bracket and arch wire technique
US3600808A (en) 1970-01-22 1971-08-24 James Jackson Reeve Anterior root-torquing auxiliary wire
US3860803A (en) 1970-08-24 1975-01-14 Diecomp Inc Automatic method and apparatus for fabricating progressive dies
US3683502A (en) 1970-09-14 1972-08-15 Melvin Wallshein Orthodontic systems
US3738005A (en) 1972-03-22 1973-06-12 M Cohen Method and apparatus for applying orthodontic brackets and the like
US3916526A (en) 1973-05-10 1975-11-04 Fred Frank Schudy Method and apparatus for orthodontic treatment
US3922786A (en) 1974-01-30 1975-12-02 Joseph L Lavin Method and apparatus for forming and fitting orthodontic appliances
US3983628A (en) 1975-01-24 1976-10-05 Raul Acevedo Dental articulator, new bite registration guide, and diagnostic procedure associated with stereodont orthodontic study model
US3950851A (en) 1975-03-05 1976-04-20 Bergersen Earl Olaf Orthodontic positioner and method for improving retention of tooth alignment therewith
US3971065A (en) 1975-03-05 1976-07-20 Eastman Kodak Company Color imaging array
US4014096A (en) 1975-03-25 1977-03-29 Dellinger Eugene L Method and apparatus for orthodontic treatment
JPS573259Y2 (de) 1976-10-21 1982-01-21
JPS5358191A (en) 1976-11-05 1978-05-25 Osamu Yoshii Method of producing dental correction treating instrument using silicon resin material
US4348178A (en) 1977-01-03 1982-09-07 Kurz Craven H Vibrational orthodontic appliance
US4195046A (en) 1978-05-04 1980-03-25 Kesling Peter C Method for molding air holes into a tooth positioning and retaining appliance
US4324547A (en) 1978-09-16 1982-04-13 Vishay Intertechnology, Inc. Dentistry technique
JPS5596406A (en) 1979-01-19 1980-07-22 Hitachi Ltd Device for determining roughness of surface
US4253828A (en) 1979-04-09 1981-03-03 Coles Donna C Orthodontic appliance
DE2936847A1 (de) 1979-09-12 1981-03-19 Paul Dr. 6054 Rodgau Heitlinger Verfahren zur herstellung von zahnersatz und vorrichtung zur durchfuehrung des verfahrens
US4349277A (en) 1980-06-11 1982-09-14 General Electric Company Non-contact measurement of surface profile
US4575805A (en) 1980-12-24 1986-03-11 Moermann Werner H Method and apparatus for the fabrication of custom-shaped implants
DE3203937C2 (de) 1982-02-05 1985-10-03 Luc Dr. 4150 Krefeld Barrut Verfahren und Vorrichtung zum maschinellen Sanieren oder Korrigieren mindestens eines Zahnes oder zum maschinellen Vorbereiten mindestens eines Zahnes für eine festsitzende prothetische Restaurierung und zum maschinellen Herstellen der festsitzenden prothetischen Restaurierung
FR2525103B1 (fr) 1982-04-14 1985-09-27 Duret Francois Dispositif de prise d'empreinte par des moyens optiques, notamment en vue de la realisation automatique de protheses
US4663720A (en) 1984-02-21 1987-05-05 Francois Duret Method of and apparatus for making a prosthesis, especially a dental prosthesis
US4500294A (en) 1983-10-03 1985-02-19 Epic International Corporation Method and device for detecting dental cavities
US4526540A (en) 1983-12-19 1985-07-02 Dellinger Eugene L Orthodontic apparatus and method for treating malocclusion
US4640620A (en) 1983-12-29 1987-02-03 Robotic Vision Systems, Inc. Arrangement for rapid depth measurement using lens focusing
US4629324A (en) 1983-12-29 1986-12-16 Robotic Vision Systems, Inc. Arrangement for measuring depth based on lens focusing
DE3415006A1 (de) 1984-04-19 1985-11-07 Helge Dr. 8000 München Fischer-Brandies Zahntechnisches verfahren und vorrichtung zum biegen und tordieren eines drahtstueckes
US4798534A (en) 1984-08-03 1989-01-17 Great Lakes Orthodontic Laboratories Inc. Method of making a dental appliance
US4575330A (en) 1984-08-08 1986-03-11 Uvp, Inc. Apparatus for production of three-dimensional objects by stereolithography
US4609349A (en) 1984-09-24 1986-09-02 Cain Steve B Active removable orthodontic appliance and method of straightening teeth
US4591341A (en) 1984-10-03 1986-05-27 Andrews Lawrence F Orthodontic positioner and method of manufacturing same
US4664626A (en) 1985-03-19 1987-05-12 Kesling Peter C System for automatically preventing overtipping and/or overuprighting in the begg technique
US4763791A (en) 1985-06-06 1988-08-16 Excel Dental Studios, Inc. Dental impression supply kit
GB2176402B (en) 1985-06-20 1989-04-19 Craig Med Prod Ltd Wound management appliance for use on the human skin
FR2591470B1 (fr) 1985-12-13 1992-05-15 Bertin & Cie Procede et dispositif de determination de la couleur, en particulier d'une prothese dentaire
US4936862A (en) 1986-05-30 1990-06-26 Walker Peter S Method of designing and manufacturing a human joint prosthesis
CH672722A5 (de) 1986-06-24 1989-12-29 Marco Brandestini
CA1284040C (en) 1986-06-26 1991-05-14 Peter C. Kesling Edgewise bracket to provide both free crown tipping and a predetermineddegree of root uprighting
US4877398A (en) 1987-04-16 1989-10-31 Tp Orthodontics, Inc. Bracket for permitting tipping and limiting uprighting
US4676747A (en) 1986-08-06 1987-06-30 Tp Orthodontics, Inc. Torquing auxiliary
US4983334A (en) 1986-08-28 1991-01-08 Loren S. Adell Method of making an orthodontic appliance
JPH0428359Y2 (de) 1986-10-24 1992-07-09
US4895431A (en) 1986-11-13 1990-01-23 Olympus Optical Co., Ltd. Method of processing endoscopic images
US4755139A (en) 1987-01-29 1988-07-05 Great Lakes Orthodontics, Ltd. Orthodontic anchor appliance and method for teeth positioning and method of constructing the appliance
US4727416A (en) 1987-03-05 1988-02-23 Fuji Optical Systems, Inc. Electronic video dental camera
US4850864A (en) 1987-03-30 1989-07-25 Diamond Michael K Bracket placing instrument
US4802846A (en) 1987-04-27 1989-02-07 Posca Jorge E Automatic surveyor for dental models
US4850865A (en) 1987-04-30 1989-07-25 Napolitano John R Orthodontic method and apparatus
US5186623A (en) 1987-05-05 1993-02-16 Great Lakes Orthodontics, Ltd. Orthodontic finishing positioner and method of construction
US4856991A (en) 1987-05-05 1989-08-15 Great Lakes Orthodontics, Ltd. Orthodontic finishing positioner and method of construction
US4836778A (en) 1987-05-26 1989-06-06 Vexcel Corporation Mandibular motion monitoring system
DE3723555C2 (de) 1987-07-16 1994-08-11 Steinbichler Hans Verfahren zur Herstellung von Zahnersatz
NL8702391A (nl) 1987-10-07 1989-05-01 Elephant Edelmetaal Bv Werkwijze voor het met behulp van een cad-cam systeem vervaardigen van een dentaalkroon voor een gebitspreparatie.
US4858001A (en) 1987-10-08 1989-08-15 High-Tech Medical Instrumentation, Inc. Modular endoscopic apparatus with image rotation
US4793803A (en) 1987-10-08 1988-12-27 Martz Martin G Removable tooth positioning appliance and method
US4880380A (en) 1987-10-13 1989-11-14 Martz Martin G Orthodonture appliance which may be manually installed and removed by the patient
IL85862A (en) 1988-03-24 1993-01-14 Orbot Systems Ltd Telecentric imaging system
DE3810455A1 (de) 1988-03-26 1989-10-05 Michael Dr Radu Verfahren und vorrichtung zur beruehrungsfreien raeumlichen erfassung eines unregelmaessigen koerpers
US5130064A (en) 1988-04-18 1992-07-14 3D Systems, Inc. Method of making a three dimensional object by stereolithography
US4983120A (en) 1988-05-12 1991-01-08 Specialty Appliance Works, Inc. Method and apparatus for constructing an orthodontic appliance
IL90318A (en) 1988-05-19 1994-05-30 Refractive Laser Res & Dev Device for performing surgery using laser energy
US4941826A (en) 1988-06-09 1990-07-17 William Loran Apparatus for indirect dental machining
US5372502A (en) 1988-09-02 1994-12-13 Kaltenbach & Voight Gmbh & Co. Optical probe and method for the three-dimensional surveying of teeth
FR2637368B1 (fr) 1988-09-09 1990-12-07 Bertin & Cie Procede de determination de la couleur d'un objet, en particulier d'une prothese dentaire
US5100316A (en) 1988-09-26 1992-03-31 Wildman Alexander J Orthodontic archwire shaping method
US5055039A (en) 1988-10-06 1991-10-08 Great Lakes Orthodontics, Ltd. Orthodontic positioner and methods of making and using same
FR2637980A1 (fr) 1988-10-17 1990-04-20 Bertin & Cie Appareil de prise d'informations colorimetriques in situ, en particulier sur une dent en bouche
US4935635A (en) * 1988-12-09 1990-06-19 Harra Dale G O System for measuring objects in three dimensions
IL88842A (en) 1988-12-30 1990-07-26 Shafir Aaron Apparatus and method for digitizing the contour of a surface particularly useful for preparing a dental crown
JPH04504510A (ja) 1989-01-24 1992-08-13 ドルフィン イメージング システムス インコーポレーテッド 頭蓋計測イメージの作成方法及び装置
US5011405A (en) 1989-01-24 1991-04-30 Dolphin Imaging Systems Method for determining orthodontic bracket placement
US4889238A (en) 1989-04-03 1989-12-26 The Procter & Gamble Company Medicament package for increasing compliance with complex therapeutic regimens
US4975052A (en) 1989-04-18 1990-12-04 William Spencer Orthodontic appliance for reducing tooth rotation
US5184306A (en) 1989-06-09 1993-02-02 Regents Of The University Of Minnesota Automated high-precision fabrication of objects of complex and unique geometry
US5257203A (en) 1989-06-09 1993-10-26 Regents Of The University Of Minnesota Method and apparatus for manipulating computer-based representations of objects of complex and unique geometry
US5121333A (en) 1989-06-09 1992-06-09 Regents Of The University Of Minnesota Method and apparatus for manipulating computer-based representations of objects of complex and unique geometry
US5128870A (en) 1989-06-09 1992-07-07 Regents Of The University Of Minnesota Automated high-precision fabrication of objects of complex and unique geometry
US5027281A (en) 1989-06-09 1991-06-25 Regents Of The University Of Minnesota Method and apparatus for scanning and recording of coordinates describing three dimensional objects of complex and unique geometry
JPH039712U (de) 1989-06-20 1991-01-30
US5193124A (en) 1989-06-29 1993-03-09 The Research Foundation Of State University Of New York Computational methods and electronic camera apparatus for determining distance of objects, rapid autofocusing, and obtaining improved focus images
JP2928548B2 (ja) 1989-08-02 1999-08-03 株式会社日立製作所 立体形状検出方法及びその装置
US5151856A (en) 1989-08-30 1992-09-29 Technion R & D Found. Ltd. Method of displaying coronary function
WO1991003988A1 (de) 1989-09-22 1991-04-04 Peter Rohleder Vorrichtung zur herstellung von zahnersatzteilen
FR2652256A1 (fr) 1989-09-26 1991-03-29 Jourda Gerard Dispositif pour etablir le trace d'une plaque dentaire partielle amovible.
US5003166A (en) 1989-11-07 1991-03-26 Massachusetts Institute Of Technology Multidimensional range mapping with pattern projection and cross correlation
US5474448A (en) 1990-01-19 1995-12-12 Ormco Corporation Low profile orthodontic appliance
US5368478A (en) 1990-01-19 1994-11-29 Ormco Corporation Method for forming jigs for custom placement of orthodontic appliances on teeth
US5533895A (en) 1990-01-19 1996-07-09 Ormco Corporation Orthodontic appliance and group standardized brackets therefor and methods of making, assembling and using appliance to straighten teeth
US5431562A (en) * 1990-01-19 1995-07-11 Ormco Corporation Method and apparatus for designing and forming a custom orthodontic appliance and for the straightening of teeth therewith
US5395238A (en) 1990-01-19 1995-03-07 Ormco Corporation Method of forming orthodontic brace
US5447432A (en) 1990-01-19 1995-09-05 Ormco Corporation Custom orthodontic archwire forming method and apparatus
US5454717A (en) 1990-01-19 1995-10-03 Ormco Corporation Custom orthodontic brackets and bracket forming method and apparatus
US5139419A (en) 1990-01-19 1992-08-18 Ormco Corporation Method of forming an orthodontic brace
CA2078115A1 (en) * 1990-03-13 1991-09-14 Heinz V. Wenz Process and device for measuring the dimensions of a space, in particular a buccal cavity
US5440326A (en) 1990-03-21 1995-08-08 Gyration, Inc. Gyroscopic pointer
US5562448A (en) 1990-04-10 1996-10-08 Mushabac; David R. Method for facilitating dental diagnosis and treatment
US5569578A (en) 1990-04-10 1996-10-29 Mushabac; David R. Method and apparatus for effecting change in shape of pre-existing object
JPH0428359A (ja) 1990-05-24 1992-01-30 Mitsubishi Petrochem Co Ltd 歯列矯正用マウスピースの製造法
CA2017518A1 (en) 1990-05-24 1991-11-24 Her Majesty The Queen, In Right Of Canada, As Represented By The Ministe R Of The National Research Council Of Canada Colour-range imaging
US5691905A (en) 1990-06-11 1997-11-25 Dentsply Research & Development Corp. Prosthetic teeth and mold making and polishing therefor
US5452219A (en) 1990-06-11 1995-09-19 Dentsply Research & Development Corp. Method of making a tooth mold
US5340309A (en) 1990-09-06 1994-08-23 Robertson James G Apparatus and method for recording jaw motion
US5155558A (en) 1990-09-19 1992-10-13 E. I. Du Pont De Nemours And Company Method and apparatus for analyzing the appearance features of a surface
US5168386A (en) 1990-10-22 1992-12-01 Tencor Instruments Flat field telecentric scanner
DE4034007C2 (de) 1990-10-25 2001-05-10 Sirona Dental Systems Gmbh Verfahren und Vorrichtung zur optischen Erfassung von Oberflächenstrukturen an Zähnen
US5239178A (en) 1990-11-10 1993-08-24 Carl Zeiss Optical device with an illuminating grid and detector grid arranged confocally to an object
SE468198B (sv) 1990-12-12 1992-11-23 Nobelpharma Ab Foerfarande och anordning foer framstaellning av individuellt utformade tredimensionella kroppar anvaendbara som tandersaettningar, proteser, etc
US5305430A (en) 1990-12-26 1994-04-19 Xerox Corporation Object-local sampling histories for efficient path tracing
GB9102903D0 (en) * 1991-02-12 1991-03-27 Oxford Sensor Tech An optical sensor
US5131844A (en) 1991-04-08 1992-07-21 Foster-Miller, Inc. Contact digitizer, particularly for dental applications
US5131843A (en) 1991-05-06 1992-07-21 Ormco Corporation Orthodontic archwire
US5145364A (en) 1991-05-15 1992-09-08 M-B Orthodontics, Inc. Removable orthodontic appliance
JPH0560528A (ja) 1991-09-03 1993-03-09 Hitachi Ltd 立体情報入力装置
FR2682490B1 (fr) 1991-10-11 1993-12-17 Oreal Appareil pour observer in vivo la structure microscopique de la peau ou d'un tissu similaire.
DE4134117C2 (de) 1991-10-15 1996-02-01 Kaltenbach & Voigt Verfahren zur optischen Vermessung von Objekten
US5176517A (en) 1991-10-24 1993-01-05 Tru-Tain, Inc. Dental undercut application device and method of use
SE469158B (sv) 1991-11-01 1993-05-24 Nobelpharma Ab Dental avkaenningsanordning avsedd att anvaendas i samband med styrning av en verkstadsutrustning
DE4200741C2 (de) 1992-01-14 2000-06-15 Kaltenbach & Voigt Einrichtung zum Erkennen von Karies an Zähnen
US5328362A (en) 1992-03-11 1994-07-12 Watson Sherman L Soft resilient interocclusal dental appliance, method of forming same and composition for same
JPH05269146A (ja) * 1992-03-23 1993-10-19 Nikon Corp クラウン設計時におけるマ−ジンラインの抽出方法
US5273429A (en) 1992-04-03 1993-12-28 Foster-Miller, Inc. Method and apparatus for modeling a dental prosthesis
US5384862A (en) 1992-05-29 1995-01-24 Cimpiter Corporation Radiographic image evaluation apparatus and method
FR2693096B1 (fr) 1992-07-06 1994-09-23 Deshayes Marie Josephe Procédé de modélisation de la morphologie crânienne et faciale à partir d'une radiographie du crâne.
DE4226990C3 (de) 1992-08-14 1999-04-29 Sirona Dental Systems Gmbh Videokamera zum Betrachten von Objekten im Munde eines Patienten
DE69316306T2 (de) 1992-10-15 1998-04-23 Fuji Photo Film Co Ltd System zur analyse des Okklusionszustandes
US5456600A (en) 1992-11-09 1995-10-10 Ormco Corporation Coordinated orthodontic archwires and method of making same
JP3380553B2 (ja) 1992-11-09 2003-02-24 オルムコ コーポレイション 注文歯科矯正器具形成方法及び装置
US5542842A (en) 1992-11-09 1996-08-06 Ormco Corporation Bracket placement jig assembly and method of placing orthodontic brackets on teeth therewith
JP3321866B2 (ja) 1992-12-28 2002-09-09 株式会社日立製作所 表面形状検出装置およびその方法
US5455899A (en) 1992-12-31 1995-10-03 International Business Machines Corporation High speed image data processing circuit
US5495429A (en) 1993-02-12 1996-02-27 West Virginia University Method and apparatus for measuring the color of three dimensional objects
US5528735A (en) 1993-03-23 1996-06-18 Silicon Graphics Inc. Method and apparatus for displaying data within a three-dimensional information landscape
JP3321886B2 (ja) 1993-03-31 2002-09-09 ソニー株式会社 減衰全反射型薄膜評価装置
SE501333C2 (sv) 1993-05-27 1995-01-16 Sandvik Ab Metod för framställning av keramiska tandrestaurationer
FR2707018B1 (de) 1993-06-22 1995-07-21 Commissariat Energie Atomique
SE501410C2 (sv) 1993-07-12 1995-02-06 Nobelpharma Ab Förfarande och anordning i samband med framställning av tand, brygga, etc
SE501411C2 (sv) 1993-07-12 1995-02-06 Nobelpharma Ab Förfarande och anordning vid tredimensionell kropp användbar i människokroppen
CN1054737C (zh) 1993-07-12 2000-07-26 欧索-泰公司 一种可供多种族使用的预成型正牙治疗用具
NL9301308A (nl) 1993-07-26 1995-02-16 Willem Frederick Van Nifterick Werkwijze voor het vastzetten van een tandprothese op implantaten in het kaakbeen van een patiënt en middel te gebruiken daarbij.
US5382164A (en) 1993-07-27 1995-01-17 Stern; Sylvan S. Method for making dental restorations and the dental restoration made thereby
US5381224A (en) 1993-08-30 1995-01-10 A. E. Dixon Scanning laser imaging system
US5532873A (en) 1993-09-08 1996-07-02 Dixon; Arthur E. Scanning beam laser microscope with wide range of magnification
KR950704670A (ko) 1993-09-30 1995-11-20 가따다 데쯔야 공초점광학장치
US5435902A (en) 1993-10-01 1995-07-25 Andre, Sr.; Larry E. Method of incremental object fabrication
US5363159A (en) 1993-11-03 1994-11-08 Kevin Melvin Three-dimensional photograph
US5338198A (en) 1993-11-22 1994-08-16 Dacim Laboratory Inc. Dental modeling simulator
US5491510A (en) 1993-12-03 1996-02-13 Texas Instruments Incorporated System and method for simultaneously viewing a scene and an obscured object
US5749830A (en) * 1993-12-03 1998-05-12 Olympus Optical Co., Ltd. Fluorescent endoscope apparatus
US5608529A (en) 1994-01-31 1997-03-04 Nikon Corporation Optical three-dimensional shape measuring apparatus
SE502427C2 (sv) 1994-02-18 1995-10-16 Nobelpharma Ab Metod och anordning utnyttjande artikulator och datorutrustning
US5512036A (en) 1994-03-15 1996-04-30 Welch Allyn, Inc. Dental imaging system
US5880961A (en) 1994-08-02 1999-03-09 Crump; Craig D. Appararus and method for creating three-dimensional modeling data from an object
US5621648A (en) 1994-08-02 1997-04-15 Crump; Craig D. Apparatus and method for creating three-dimensional modeling data from an object
US5662586A (en) 1994-08-18 1997-09-02 Welch Allyn, Inc. Hand held diagnostic instrument with video imaging
JPH0868941A (ja) 1994-08-30 1996-03-12 Nikon Corp 高倍率ズームレンズ
SE503498C2 (sv) 1994-10-04 1996-06-24 Nobelpharma Ab Metod och anordning vid produkt avsedd att ingå i människokroppen och avscanningsanordning för modell till produkten
US5615003A (en) 1994-11-29 1997-03-25 Hermary; Alexander T. Electromagnetic profile scanner
EP0720125B1 (de) 1994-12-29 2002-05-08 Koninklijke Philips Electronics N.V. Bilderzeugungsgerät und Verfahren zur Verbesserung geometrischer optischer Bildverzerrungen
US5675407A (en) 1995-03-02 1997-10-07 Zheng Jason Geng Color ranging method for high speed low-cost three dimensional surface profile measurement
US5549476A (en) 1995-03-27 1996-08-27 Stern; Sylvan S. Method for making dental restorations and the dental restoration made thereby
JP3672966B2 (ja) 1995-04-14 2005-07-20 株式会社ユニスン 歯科用予測模型の作成方法および作成装置
US5645421A (en) 1995-04-28 1997-07-08 Great Lakes Orthodontics Ltd. Orthodontic appliance debonder
US5702249A (en) 1995-05-19 1997-12-30 Cooper; David H. Modular intra-oral imaging system video camera
JP3481631B2 (ja) 1995-06-07 2003-12-22 ザ トラスティース オブ コロンビア ユニヴァーシティー イン ザ シティー オブ ニューヨーク 能動型照明及びデフォーカスに起因する画像中の相対的なぼけを用いる物体の3次元形状を決定する装置及び方法
JP3869005B2 (ja) 1995-06-22 2007-01-17 3ディブイ・システムズ・リミテッド テレセントリック立体カメラと方法
US5766006A (en) * 1995-06-26 1998-06-16 Murljacic; Maryann Lehmann Tooth shade analyzer system and methods
US5730151A (en) 1995-06-30 1998-03-24 John D. Summer Tooth contact sensing apparatus and method
DE19524855A1 (de) 1995-07-07 1997-01-09 Siemens Ag Verfahren und Vorrichtung zur rechnergestützten Restauration von Zähnen
US5655653A (en) 1995-07-11 1997-08-12 Minnesota Mining And Manufacturing Company Pouch for orthodontic appliance
US6263233B1 (en) 1995-07-13 2001-07-17 Lucid, Inc. Handheld imaging microscope
US5788639A (en) 1995-07-13 1998-08-04 Lucid Technologies, Inc. Confocal imaging through thick dermal tissue
EP0840574B1 (de) 1995-07-21 2003-02-19 Cadent Ltd. Verfahren und system zur dreidimensionalen bilderfassung von zähnen
GB9515311D0 (en) * 1995-07-26 1995-09-20 3D Scanners Ltd Stripe scanners and methods of scanning
US5690486A (en) 1995-07-28 1997-11-25 Dentalase Corporation Dental tooth color detector apparatus and method
US5742700A (en) 1995-08-10 1998-04-21 Logicon, Inc. Quantitative dental caries detection system and method
DE19530477C2 (de) 1995-08-18 2000-08-10 Storz Karl Gmbh & Co Kg Endoskop mit variabler Vergrößerung
JPH0961132A (ja) 1995-08-28 1997-03-07 Olympus Optical Co Ltd 3次元形状計測装置
US5737084A (en) 1995-09-29 1998-04-07 Takaoka Electric Mtg. Co., Ltd. Three-dimensional shape measuring apparatus
DE19536297C2 (de) 1995-09-29 2003-10-02 Daimler Chrysler Ag Verfahren zur geometrischen Kalibrierung von optischen 3D-Sensoren zur dreidimensionalen Vermessung von Objekten und Vorrichtung hierzu
US5793900A (en) 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US5759030A (en) * 1996-01-02 1998-06-02 Lj Laboratories, L.L.C. Method for determing optical characteristics of teeth
US5880826A (en) 1997-07-01 1999-03-09 L J Laboratories, L.L.C. Apparatus and method for measuring optical characteristics of teeth
US6118521A (en) 1996-01-02 2000-09-12 Lj Laboratories, L.L.C. Apparatus and method for measuring optical characteristics of an object
US6239868B1 (en) * 1996-01-02 2001-05-29 Lj Laboratories, L.L.C. Apparatus and method for measuring optical characteristics of an object
US6382975B1 (en) 1997-02-26 2002-05-07 Technique D'usinage Sinlab Inc. Manufacturing a dental implant drill guide and a dental implant superstructure
US5725376A (en) 1996-02-27 1998-03-10 Poirier; Michel Methods for manufacturing a dental implant drill guide and a dental implant superstructure
US5847832A (en) 1996-03-15 1998-12-08 Hughes Aircraft Company Moire topographic measurement
US6044170A (en) * 1996-03-21 2000-03-28 Real-Time Geometry Corporation System and method for rapid shape digitizing and adaptive mesh generation
DE19611122A1 (de) 1996-03-21 1997-09-25 Gerhard Pfau System zur Form- und Farbbestimmung von Zähnen
US5692894A (en) 1996-04-08 1997-12-02 Raintree Essix, Inc. Thermoformed plastic dental retainer and method of construction
US5743730A (en) * 1996-05-07 1998-04-28 Clester; Kenneth E. Dental porcelain shading guide and method of use therefore
JP3462006B2 (ja) 1996-05-20 2003-11-05 株式会社ミツトヨ オートフォーカス装置
US6038067A (en) 1996-05-23 2000-03-14 The Regents Of The University Of California Scanning computed confocal imager
US6061091A (en) 1996-05-30 2000-05-09 Agfa Gevaert N.V. Detection of and correction for specular reflections in digital image acquisition
US5799100A (en) 1996-06-03 1998-08-25 University Of South Florida Computer-assisted method and apparatus for analysis of x-ray images using wavelet transforms
US5823778A (en) 1996-06-14 1998-10-20 The United States Of America As Represented By The Secretary Of The Air Force Imaging method for fabricating dental devices
JP2960684B2 (ja) 1996-08-02 1999-10-12 株式会社日立製作所 立体形状検出方法及びその装置
US5725378A (en) 1996-08-16 1998-03-10 Wang; Hong-Chi Artificial tooth assembly
DE19636354A1 (de) 1996-09-02 1998-03-05 Ruedger Dipl Ing Rubbert Verfahren und Vorrichtung zur Durchführung von optischen Aufnahmen
US5754298A (en) 1996-09-05 1998-05-19 Optometrix, Inc. Method and apparatus for imaging semiconductor device properties
JPH1075963A (ja) 1996-09-06 1998-03-24 Nikon Corp 歯科補綴物モデルの設計方法およびこの方法を実行するプログラムを記録した媒体
US6026172A (en) 1996-09-06 2000-02-15 Lewis, Jr.; Clarence A. System and method for zoom lens calibration and method using same
US6007332A (en) * 1996-09-26 1999-12-28 O'brien; William J. Tooth color matching system
DE19640495C2 (de) 1996-10-01 1999-12-16 Leica Microsystems Vorrichtung zur konfokalen Oberflächenvermessung
AUPO280996A0 (en) 1996-10-04 1996-10-31 Dentech Investments Pty Ltd Creation and utilization of 3D teeth models
US6137893A (en) 1996-10-07 2000-10-24 Cognex Corporation Machine vision calibration targets and methods of determining their location and orientation in an image
US6858826B2 (en) 1996-10-25 2005-02-22 Waveworx Inc. Method and apparatus for scanning three-dimensional objects
US5864640A (en) 1996-10-25 1999-01-26 Wavework, Inc. Method and apparatus for optically scanning three dimensional objects using color information in trackable patches
US7098435B2 (en) * 1996-10-25 2006-08-29 Frederick E. Mueller Method and apparatus for scanning three-dimensional objects
JP2824424B2 (ja) 1996-11-07 1998-11-11 株式会社エフ・エーラボ 三次元加工方法
US5912768A (en) 1996-12-31 1999-06-15 Cognex Corporation Depth-from-defocus optical apparatus with invariance to surface reflectance properties
US6301004B1 (en) * 2000-05-31 2001-10-09 Lj Laboratories, L.L.C. Apparatus and method for measuring optical characteristics of an object
FR2758076A1 (fr) 1997-01-09 1998-07-10 Sabban Joseph Cohen Procede et dispositif optoelectroniques de retrodigitalisation en odontologie
US5760901A (en) 1997-01-28 1998-06-02 Zetetic Institute Method and apparatus for confocal interference microscopy with background amplitude reduction and compensation
US6217334B1 (en) 1997-01-28 2001-04-17 Iris Development Corporation Dental scanning method and apparatus
JPH10239023A (ja) 1997-02-28 1998-09-11 Olympus Optical Co Ltd 三次元計測装置
EP0972220B1 (de) 1997-04-04 2001-11-14 Isis Innovation Limited Abbildungssystem und -verfahren für mikroskopie
DE19714178C2 (de) * 1997-04-07 2003-09-18 Ivoclar Vivadent Ag Verfahren zur Herstellung eines mehrfarbigen Formkörpers für die Weiterverarbeitung zu einer Zahnrestauration und zugehöriger Formkörper
SE509141C2 (sv) 1997-04-10 1998-12-07 Nobel Biocare Ab Arrangemang och system för dental produktframställning och informationsgivning
US6420698B1 (en) 1997-04-24 2002-07-16 Cyra Technologies, Inc. Integrated system for quickly and accurately imaging and modeling three-dimensional objects
US6033222A (en) * 1997-04-25 2000-03-07 Schneider, Ii; George J. Method of fabrication of translucent dental restorations without opacious substructures
US5957686A (en) 1997-04-29 1999-09-28 Anthony; Wayne L. Incisor block
US5848115A (en) 1997-05-02 1998-12-08 General Electric Company Computed tomography metrology
US5879158A (en) 1997-05-20 1999-03-09 Doyle; Walter A. Orthodontic bracketing system and method therefor
US5878152A (en) 1997-05-21 1999-03-02 Cognex Corporation Depth from focal gradient analysis using object texture removal by albedo normalization
US5866058A (en) 1997-05-29 1999-02-02 Stratasys Inc. Method for rapid prototyping of solid models
US6409504B1 (en) * 1997-06-20 2002-06-25 Align Technology, Inc. Manipulating a digital dentition model to form models of individual dentition components
US6183248B1 (en) 1998-11-30 2001-02-06 Muhammad Chishti System and method for releasing tooth positioning appliances
US6705863B2 (en) 1997-06-20 2004-03-16 Align Technology, Inc. Attachment devices and methods for a dental appliance
AU744385B2 (en) 1997-06-20 2002-02-21 Align Technology, Inc. Method and system for incrementally moving teeth
US5975893A (en) 1997-06-20 1999-11-02 Align Technology, Inc. Method and system for incrementally moving teeth
US6309215B1 (en) 1997-06-20 2001-10-30 Align Technology Inc. Attachment devices and method for a dental applicance
US6208347B1 (en) * 1997-06-23 2001-03-27 Real-Time Geometry Corporation System and method for computer modeling of 3D objects and 2D images by mesh constructions that incorporate non-spatial data such as color or texture
DE19727281C1 (de) 1997-06-27 1998-10-22 Deutsch Zentr Luft & Raumfahrt Verfahren und Vorrichtung zur geometrischen Kalibrierung von CCD-Kameras
US6870616B2 (en) 1998-06-30 2005-03-22 Jjl Technologies Llc Spectrometer apparatus for determining an optical characteristic of an object or material having one or more sensors for determining a physical position or non-color property
US5912735A (en) 1997-07-29 1999-06-15 Kla-Tencor Corporation Laser/white light viewing laser imaging system
US6219461B1 (en) 1997-07-29 2001-04-17 Cognex Corporation Determining a depth
US6097854A (en) 1997-08-01 2000-08-01 Microsoft Corporation Image mosaic construction system and apparatus with patch-based alignment, global block adjustment and pair-wise motion-based local warping
US7028899B2 (en) 1999-06-07 2006-04-18 Metrologic Instruments, Inc. Method of speckle-noise pattern reduction and apparatus therefore based on reducing the temporal-coherence of the planar laser illumination beam before it illuminates the target object by applying temporal phase modulation techniques during the transmission of the plib towards the target
US6152731A (en) 1997-09-22 2000-11-28 3M Innovative Properties Company Methods for use in dental articulation
US5951475A (en) 1997-09-25 1999-09-14 International Business Machines Corporation Methods and apparatus for registering CT-scan data to multiple fluoroscopic images
US6030209A (en) * 1997-10-15 2000-02-29 Jeneric/Pentron Incorporated Method for accurately preparing the color of a dental restoration
US6148120A (en) 1997-10-30 2000-11-14 Cognex Corporation Warping of focal images to correct correspondence error
BE1011528A3 (nl) * 1997-11-04 1999-10-05 Padema Naamloze Vennootschap Pekelinrichting.
US6281931B1 (en) 1997-11-04 2001-08-28 Tien Ren Tsao Method and apparatus for determining and correcting geometric distortions in electronic imaging systems
DE19749974C2 (de) 1997-11-05 2002-06-06 Fraunhofer Ges Forschung Verfahren und Apparat zur Erzeugung einer 3D-Punktwolke
JP2001523827A (ja) 1997-11-13 2001-11-27 スリーディーヴィー システムズ リミテッド 二波長光を用いた三角測量による三次元画像化
IL122807A0 (en) 1997-12-30 1998-08-16 Cadent Ltd Virtual orthodontic treatment
US6276934B1 (en) 1998-02-19 2001-08-21 Miratech Dental Imaging, Ltd. Dental camera
US6252659B1 (en) 1998-03-26 2001-06-26 Minolta Co., Ltd. Three dimensional measurement apparatus
US5934288A (en) 1998-04-23 1999-08-10 General Electric Company Method and apparatus for displaying 3D ultrasound data using three modes of operation
US6190170B1 (en) * 1998-05-05 2001-02-20 Dentech, Llc Automated tooth shade analysis and matching system
AU3991799A (en) * 1998-05-14 1999-11-29 Metacreations Corporation Structured-light, triangulation-based three-dimensional digitizer
US6081739A (en) 1998-05-21 2000-06-27 Lemchen; Marc S. Scanning device or methodology to produce an image incorporating correlated superficial, three dimensional surface and x-ray images and measurements of an object
US6246479B1 (en) * 1998-06-08 2001-06-12 Lj Laboratories, L.L.C. Integrated spectrometer assembly and methods
US6019721A (en) 1998-06-09 2000-02-01 Integra Medical Camera with improved focus mechanism
US6573984B2 (en) * 1998-06-30 2003-06-03 Lj Laboratories Llc Apparatus and method for measuring optical characteristics of teeth
EP1093562A1 (de) 1998-07-08 2001-04-25 PPT Vision, Inc. Bildverarbeitung und halbleiterhandhabung
US6249348B1 (en) 1998-11-23 2001-06-19 Lj Laboratories, L.L.C. Integrated spectrometer assembly and methods
US6538726B2 (en) * 1998-07-10 2003-03-25 Lj Laboratories, Llc Apparatus and method for measuring optical characteristics of an object
US6208788B1 (en) * 1998-07-29 2001-03-27 Ultradent Products, Inc. Apparatus and methods for concentrating light through fiber optic funnels coupled to dental light guides
US5971754A (en) 1998-07-30 1999-10-26 Sondhi; Anoop Indirect bonding method and adhesive for orthodontic treatment
IL125659A (en) * 1998-08-05 2002-09-12 Cadent Ltd Method and device for three-dimensional simulation of a structure
US6157454A (en) * 1998-09-02 2000-12-05 Colorimeter, Llc Miniature colorimeter
US5964587A (en) 1998-09-16 1999-10-12 Sato; Mikio Bite control point and a method to form a projection on tooth surface
IL126838A (en) 1998-11-01 2003-04-10 Cadent Ltd Dental image processing method and system
JP4230113B2 (ja) 1998-11-03 2009-02-25 シェード アナライジング テクノロジーズ インコーポレイテッド 双方向歯科治療ネットワーク
US6572372B1 (en) 2000-04-25 2003-06-03 Align Technology, Inc. Embedded features and methods of a dental appliance
US6262738B1 (en) 1998-12-04 2001-07-17 Sarah F. F. Gibson Method for estimating volumetric distance maps from 2D depth images
US6123544A (en) 1998-12-18 2000-09-26 3M Innovative Properties Company Method and apparatus for precise bond placement of orthodontic appliances
US6179611B1 (en) 1999-01-22 2001-01-30 The Regents Of The University Of California Dental optical coherence domain reflectometry explorer
US6294807B1 (en) * 1999-02-26 2001-09-25 Agere Systems Guardian Corp. Semiconductor device structure including a tantalum pentoxide layer sandwiched between silicon nitride layers
JP3961729B2 (ja) 1999-03-03 2007-08-22 株式会社デンソー 全焦点撮像装置
US6222174B1 (en) 1999-03-05 2001-04-24 Hewlett-Packard Company Method of correlating immediately acquired and previously stored feature information for motion sensing
US7068825B2 (en) 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
US6181474B1 (en) 1999-03-22 2001-01-30 Kovex Corporation Scanning confocal microscope with objective lens position tracking
US6190165B1 (en) 1999-03-23 2001-02-20 Ormco Corporation Plastic orthodontic appliance having mechanical bonding base and method of making same
US6594539B1 (en) 1999-03-29 2003-07-15 Genex Technologies, Inc. Three-dimensional dental imaging method and apparatus having a reflective member
EP1041378A1 (de) 1999-03-29 2000-10-04 Ncr International Inc. Produkterkennungssytem mit Erfassung der Produktgestaltdaten
US7099732B2 (en) 1999-03-29 2006-08-29 Genex Technologies, Inc. Sanitary sleeve or tip for intra-oral three-dimensional camera
DE19918689C2 (de) 1999-04-23 2003-05-28 Rudolf Groskopf Vorrichtung zur dreidimensionalen konfocalen optischen Untersuchung eines Objektes mit Beleuchtung durch eine Lochplatte
DE19919584A1 (de) 1999-04-29 2000-11-02 Klaus Koerner Verfahren und Anordnung zur 3D-Aufnahme
US6614539B1 (en) 1999-05-11 2003-09-02 Minolta Co., Ltd. Telecentric optical system
JP3657197B2 (ja) 1999-05-13 2005-06-08 アライン テクノロジー, インコーポレイテッド 歯の最終的位置を決定するためのシステム
CA2373284A1 (en) 1999-05-14 2000-11-23 3D Metrics, Incorporated Color structured light 3d-imaging system
DE19922870A1 (de) 1999-05-19 2000-12-07 Paul Weigl Verfahren zur automatischen, individuell angepaßten Farb-, Transluzenz-, Helligkeits- und Fluoreszenzgebung von zahntechnischen Restaurationen
JP2001066112A (ja) 1999-06-25 2001-03-16 Mitsutoyo Corp 画像計測方法及び装置
JP2001078175A (ja) 1999-07-07 2001-03-23 Fuji Photo Film Co Ltd 蛍光観察装置
US6806899B1 (en) 1999-07-17 2004-10-19 David F. Schaack Focusing systems for perspective dimensional measurements and optical metrology
US6819318B1 (en) * 1999-07-23 2004-11-16 Z. Jason Geng Method and apparatus for modeling via a three-dimensional image mosaic system
JP2001046321A (ja) 1999-08-09 2001-02-20 Asahi Optical Co Ltd 内視鏡装置
JP2001074422A (ja) 1999-08-31 2001-03-23 Hitachi Ltd 立体形状検出装置及びハンダ付検査装置並びにそれらの方法
JP4309523B2 (ja) 1999-09-10 2009-08-05 株式会社キーエンス 三次元測定共焦点顕微鏡
US6788210B1 (en) 1999-09-16 2004-09-07 The Research Foundation Of State University Of New York Method and apparatus for three dimensional surface contouring and ranging using a digital video projection system
DE19944516B4 (de) 1999-09-16 2006-08-17 Brainlab Ag Dreidimensionale Formerfassung mit Kamerabildern
JP3400393B2 (ja) 1999-10-13 2003-04-28 株式会社ミツトヨ レーザ干渉装置
US6519359B1 (en) 1999-10-28 2003-02-11 General Electric Company Range camera controller for acquiring 3D models
DE19955702C2 (de) 1999-11-18 2001-11-15 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Antasten der Oberfläche eines dreidimensionalen Objekts sowie Verfahren und Vorrichtung zur Vermessung zumindest eines Teiles der Oberfläche eines dreidimensionalen Objekts
US7160110B2 (en) 1999-11-30 2007-01-09 Orametrix, Inc. Three-dimensional occlusal and interproximal contact detection and display using virtual tooth models
US6315553B1 (en) 1999-11-30 2001-11-13 Orametrix, Inc. Method and apparatus for site treatment of an orthodontic patient
US6632089B2 (en) 1999-11-30 2003-10-14 Orametrix, Inc. Orthodontic treatment planning with user-specified simulation of tooth movement
US6648640B2 (en) 1999-11-30 2003-11-18 Ora Metrix, Inc. Interactive orthodontic care system based on intra-oral scanning of teeth
US7296996B2 (en) * 1999-11-30 2007-11-20 Orametrix, Inc. Virtual bracket placement and evaluation
US6350120B1 (en) 1999-11-30 2002-02-26 Orametrix, Inc. Method and apparatus for designing an orthodontic apparatus to provide tooth movement
US7013191B2 (en) 1999-11-30 2006-03-14 Orametrix, Inc. Interactive orthodontic care system based on intra-oral scanning of teeth
US6362888B1 (en) 1999-12-23 2002-03-26 Lj Laboratories, L.L.C. Spectrometer assembly
US6519037B2 (en) 1999-12-23 2003-02-11 Lj Laboratories, Llc Spectrometer having optical unit including a randomized fiber optic implement
GB2375392B (en) 2000-01-07 2004-12-15 Cyberoptics Corp Phase profilometry system with telecentric projector
US6414750B2 (en) 2000-01-10 2002-07-02 Lj Laboratories, L.L.C. Spectrometric apparatus and method for measuring optical characteristics of an object
US6937348B2 (en) 2000-01-28 2005-08-30 Genex Technologies, Inc. Method and apparatus for generating structural pattern illumination
US6633789B1 (en) 2000-02-17 2003-10-14 Align Technology, Inc. Effiicient data representation of teeth model
US6463344B1 (en) 2000-02-17 2002-10-08 Align Technology, Inc. Efficient data representation of teeth model
US6379370B1 (en) * 2000-02-18 2002-04-30 Matthew Feinsod Incising apparatus for use in cataract surgery
US7065242B2 (en) * 2000-03-28 2006-06-20 Viewpoint Corporation System and method of three-dimensional image capture and modeling
US6958766B2 (en) 2000-04-06 2005-10-25 Gendex Corporation Dental video imaging system
EP2204136B1 (de) * 2000-04-19 2013-08-28 OraMetrix, Inc. Orthodontischer Bogendraht
US6524101B1 (en) 2000-04-25 2003-02-25 Align Technology, Inc. System and methods for varying elastic modulus appliances
US7084868B2 (en) * 2000-04-26 2006-08-01 University Of Louisville Research Foundation, Inc. System and method for 3-D digital reconstruction of an oral cavity from a sequence of 2-D images
US6621491B1 (en) * 2000-04-27 2003-09-16 Align Technology, Inc. Systems and methods for integrating 3D diagnostic data
US7027642B2 (en) 2000-04-28 2006-04-11 Orametrix, Inc. Methods for registration of three-dimensional frames to create three-dimensional virtual models of objects
US7471821B2 (en) 2000-04-28 2008-12-30 Orametrix, Inc. Method and apparatus for registering a known digital object to scanned 3-D model
JP2001337166A (ja) 2000-05-26 2001-12-07 Minolta Co Ltd 3次元入力方法および3次元入力装置
US6750873B1 (en) 2000-06-27 2004-06-15 International Business Machines Corporation High quality texture reconstruction from multiple scans
US6402707B1 (en) 2000-06-28 2002-06-11 Denupp Corporation Bvi Method and system for real time intra-orally acquiring and registering three-dimensional measurements and images of intra-oral objects and features
US6450949B1 (en) 2000-06-30 2002-09-17 Inner Vision Imaging, Inc. Endoscope
US6530882B1 (en) 2000-06-30 2003-03-11 Inner Vision Imaging, L.L.C. Endoscope having microscopic and macroscopic magnification
US6816625B2 (en) 2000-08-16 2004-11-09 Lewis Jr Clarence A Distortion free image capture system and method
US7625335B2 (en) 2000-08-25 2009-12-01 3Shape Aps Method and apparatus for three-dimensional optical scanning of interior surfaces
US6482298B1 (en) 2000-09-27 2002-11-19 International Business Machines Corporation Apparatus for electroplating alloy films
US20020057438A1 (en) 2000-11-13 2002-05-16 Decker Derek Edward Method and apparatus for capturing 3D surface and color thereon in real time
US6788338B1 (en) 2000-11-20 2004-09-07 Petko Dimitrov Dinev High resolution video camera apparatus having two image sensors and signal processing
WO2002056756A2 (en) 2001-01-19 2002-07-25 Framtidartaekni Ehf. Hand-held digital imaging diagnostic and operational instrument with wireless transmission data of image
US20020100884A1 (en) * 2001-01-29 2002-08-01 Maddock Brian L.W. Digital 3-D model production method and apparatus
US8032337B2 (en) * 2001-03-02 2011-10-04 3Shape A/S Method for modeling customized earpieces
US20040131348A1 (en) 2001-03-30 2004-07-08 Kohtaro Ohba Real-time omnifocus microscope camera
US7156655B2 (en) 2001-04-13 2007-01-02 Orametrix, Inc. Method and system for comprehensive evaluation of orthodontic treatment using unified workstation
US7717708B2 (en) * 2001-04-13 2010-05-18 Orametrix, Inc. Method and system for integrated orthodontic treatment planning using unified workstation
DE60112245T2 (de) 2001-04-23 2006-03-30 Cicero Dental Systems B.V. Herstellungsverfahren für einen künstlichen Zahn
EP1256831A1 (de) 2001-05-11 2002-11-13 MVTec Software GmbH Verfahren und System zur Kalibrierung eines Bildentfernungsmessgerätes
WO2002091913A1 (en) 2001-05-17 2002-11-21 Oticon A/S Method and apparatus for obtaining geometrical data relating to a canal
US6925198B2 (en) * 2002-05-24 2005-08-02 Ronald S. Scharlack Method and system for three-dimensional modeling of object fields
DE10125772C2 (de) 2001-05-26 2003-06-18 Duerr Dental Gmbh Co Kg Dentale oder endoskopische Kamera
US6511183B2 (en) 2001-06-02 2003-01-28 Koninklijke Philips Electronics N.V. Digital image projector with oriented fixed-polarization-axis polarizing beamsplitter
US7061628B2 (en) 2001-06-27 2006-06-13 Southwest Research Institute Non-contact apparatus and method for measuring surface profile
US7127090B2 (en) * 2001-07-30 2006-10-24 Accuimage Diagnostics Corp Methods and systems for combining a plurality of radiographic images
US20030031596A1 (en) 2001-08-09 2003-02-13 Yokogawa Electric Corporation Biochip reader and fluorometric imaging apparatus
EP1436658B1 (de) 2001-09-11 2008-06-18 Leica Microsystems CMS GmbH Verfahren und vorrichtung zur optischen untersuchung eines objektes
WO2003038503A1 (fr) 2001-11-02 2003-05-08 Olympus Corporation Microscope de balayage confocal
US7034820B2 (en) * 2001-12-03 2006-04-25 Canon Kabushiki Kaisha Method, apparatus and program for processing a three-dimensional image
JP3855756B2 (ja) 2001-12-07 2006-12-13 ブラザー工業株式会社 3次元色形状検出装置及び3次元スキャナー
WO2003052347A2 (de) 2001-12-19 2003-06-26 Werth Messtechnik Gmbh Verfahren zur dreidimensionalen messung einer oberfläche
GB0200819D0 (en) 2002-01-15 2002-03-06 Cole Polytechnique Federale De Microscopy imaging apparatus and method for generating an image
US7397505B2 (en) 2002-01-17 2008-07-08 Zoran Corporation CMOS sensor with over-saturation abatement
US7591780B2 (en) 2002-03-18 2009-09-22 Sterling Lc Miniaturized imaging device with integrated circuit connector system
US7295702B2 (en) 2002-03-28 2007-11-13 Color Savvy Systems Limited Method for segmenting an image
US7031512B2 (en) * 2002-04-18 2006-04-18 Stmicroelectronics, Inc. Method and system for 3D smoothing within the bound of error regions of matching curves
EP1371939A1 (de) 2002-05-15 2003-12-17 Icos Vision Systems N.V. Vorrichtung zur Messung in drei Dimensionen der topographischen Oberflächenform eines Gegenstandes
US7104790B2 (en) 2002-05-31 2006-09-12 Cronauer Edward A Orthodontic appliance with embedded wire for moving teeth and method
US20030222977A1 (en) 2002-06-03 2003-12-04 Kazutora Yoshino Intelligent system and 3D virtual object generator
AU2003253626A1 (en) * 2002-06-07 2003-12-22 University Of North Carolina At Chapel Hill Methods and systems for laser based real-time structured light depth extraction
WO2003106921A1 (en) 2002-06-17 2003-12-24 Zygo Corporation Interferometric optical system and methods providing simultaneously scanned optical path length and focus
JP4197898B2 (ja) 2002-06-27 2008-12-17 オリンパス株式会社 顕微鏡、三次元画像生成方法、三次元画像を生成する制御をコンピュータに行わせるプログラム、及びそのプログラムを記録した記録媒体
CA2390072C (en) 2002-06-28 2018-02-27 Adrian Gh Podoleanu Optical mapping apparatus with adjustable depth resolution and multiple functionality
WO2004008981A2 (en) 2002-07-22 2004-01-29 Cadent Ltd. A method for defining a finish line of a dental prosthesis
EP1528380A4 (de) 2002-07-26 2009-12-09 Olympus Corp Bildverarbeitungssystem
JP3762343B2 (ja) 2002-07-31 2006-04-05 キヤノン株式会社 投写型表示装置
AU2003284066A1 (en) 2002-10-11 2004-05-04 Smal Camera Technologies Optical system comprising a solid-state image sensor with microlenses and a non-telecentric taking lens
US20040125205A1 (en) 2002-12-05 2004-07-01 Geng Z. Jason System and a method for high speed three-dimensional imaging
US20040122306A1 (en) 2002-12-20 2004-06-24 Eastman Kodak Company Intra-oral imaging system and method for dimensional measurement below the gumline
US6977732B2 (en) 2002-12-26 2005-12-20 National Taiwan University Miniature three-dimensional contour scanner
DE60326881D1 (de) 2002-12-31 2009-05-07 D4D Technologies Llc Digitalisierungssystem mit einem laser für zahntechnische anwendungen
JP4062100B2 (ja) 2003-01-20 2008-03-19 トヨタ自動車株式会社 形状測定装置
EP1606576A4 (de) * 2003-03-24 2006-11-22 D3D L P Laserdigitalisierersystem für zahnmedizinische anwendungen
JP4286569B2 (ja) 2003-03-25 2009-07-01 日本山村硝子株式会社 容器の口部検査装置
DK1610708T3 (da) * 2003-04-03 2020-02-24 Align Technology Inc Fremgangsmåde og system til fabrikation af en tandkappe
US7064830B2 (en) 2003-06-12 2006-06-20 Eastman Kodak Company Dental color imaging system
DE10328040A1 (de) 2003-06-18 2005-01-13 Aglaia Gesellschaft für Bildverarbeitung und Kommunikation mbH Abbildende Optik für Entfernungsmesssysteme mit schräggestelltem Sensor und Erfassung des Unschärfeverlaufs
WO2004114224A1 (ja) 2003-06-20 2004-12-29 Nippon Telegraph And Telephone Corporation 仮想視点画像生成方法及び3次元画像表示方法並びに装置
US7215810B2 (en) 2003-07-23 2007-05-08 Orametrix, Inc. Method for creating single 3D surface model from a point cloud
JP4379056B2 (ja) 2003-08-12 2009-12-09 富士ゼロックス株式会社 三次元画像撮像装置および方法
IL157877A0 (en) 2003-09-11 2004-03-28 Imagine It S Happening Ltd Color edge based 3d scanner
US7747067B2 (en) * 2003-10-08 2010-06-29 Purdue Research Foundation System and method for three dimensional modeling
US7349104B2 (en) 2003-10-23 2008-03-25 Technest Holdings, Inc. System and a method for three-dimensional imaging systems
US20050089213A1 (en) * 2003-10-23 2005-04-28 Geng Z. J. Method and apparatus for three-dimensional modeling via an image mosaic system
JP2005172805A (ja) 2003-11-21 2005-06-30 Olympus Corp 試料情報測定方法および走査型共焦点顕微鏡
DE10356412A1 (de) 2003-11-24 2005-06-23 Universität Stuttgart Multifokales konfokales Verfahren und konfokale Anordnung für wenig kooperative Objekte
DE10359104B3 (de) 2003-12-17 2005-10-13 Universität Karlsruhe Verfahren zur dynamischen, dreidimensionalen Erfassung und Darstellung einer Oberfläche
US8537204B2 (en) 2004-07-08 2013-09-17 Gyoung Il Cho 3D television broadcasting system
EP1566617B1 (de) 2004-02-20 2015-11-11 Carestream Health, Inc. Vorrichtung und Verfahren zur Zahnfarbenbestimmung
DE102004014048B4 (de) 2004-03-19 2008-10-30 Sirona Dental Systems Gmbh Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
JP2005279028A (ja) 2004-03-30 2005-10-13 Hamamatsu Univ School Of Medicine 内視鏡
US20050225849A1 (en) 2004-04-05 2005-10-13 Fujifilm Electronic Imaging Ltd. Slit confocal microscope and method
US20050243330A1 (en) 2004-04-28 2005-11-03 Simon Magarill Methods and apparatus for determining three dimensional configurations
JP4111166B2 (ja) 2004-05-07 2008-07-02 コニカミノルタセンシング株式会社 3次元形状入力装置
DE102004024494B4 (de) 2004-05-16 2019-10-17 Dürr Dental SE Medizinische Kamera
JP4479457B2 (ja) 2004-05-27 2010-06-09 ソニー株式会社 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
EP1607041B1 (de) 2004-06-17 2008-01-16 Cadent Ltd. Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
US20060017720A1 (en) 2004-07-15 2006-01-26 Li You F System and method for 3D measurement and surface reconstruction
JP5461753B2 (ja) 2004-07-30 2014-04-02 オリンパス株式会社 内視鏡装置
EP1791491A1 (de) 2004-09-14 2007-06-06 Oratio B.V. Verfahren zur herstellung und anbringung eines keramischen dentalimplantats mit einem ästhetischen implantatwiderlager
KR101134208B1 (ko) 2004-10-01 2012-04-09 더 보드 어브 트러스티스 어브 더 리랜드 스탠포드 주니어 유니버시티 촬상 장치 및 그 방법
US7536053B2 (en) 2004-10-27 2009-05-19 Quality Vision International, Inc. Method and apparatus for the correction of nonlinear field of view distortion of a digital imaging system
US7309230B2 (en) 2004-12-14 2007-12-18 Align Technology, Inc. Preventing interference between tooth models
JP2006153851A (ja) 2004-11-08 2006-06-15 Matsushita Electric Ind Co Ltd 共焦点光学装置及び球面収差補正方法
DE102004059526B4 (de) 2004-12-09 2012-03-08 Sirona Dental Systems Gmbh Vermessungseinrichtung und Verfahren nach dem Grundprinzip der konfokalen Mikroskopie
US7494338B2 (en) 2005-01-11 2009-02-24 Duane Durbin 3D dental scanner
US7210814B2 (en) 2005-04-29 2007-05-01 Ultradent Products, Inc. Dental curing light with specially arranged LEDs
KR100756300B1 (ko) 2005-11-10 2007-09-06 광주과학기술원 3차원 초점도 측정 연산자를 이용한 3차원 형상의 측정방법
KR100765300B1 (ko) 2006-05-19 2007-10-12 학교법인 동서학원 도전성 발포체
US8101122B2 (en) 2009-05-06 2012-01-24 General Electric Company NiCrMoCb alloy with improved mechanical properties
EP2442720B1 (de) 2009-06-17 2016-08-24 3Shape A/S Fokus-scanner
EP2866644B1 (de) 2012-06-27 2023-11-08 3Shape A/S Itraoraler 3d-scanner intraorale zur fluoreszenzmessung
DE102015209402A1 (de) 2015-05-22 2016-11-24 Sirona Dental Systems Gmbh Vorrichtung zur optischen 3D-Vermessung eines Objekts
DE102015209404B4 (de) 2015-05-22 2018-05-03 Sirona Dental Systems Gmbh Verfahren und Kamera zur dreidimensionalen Vermessung eines dentalen Objekts
DE102015209410B4 (de) 2015-05-22 2018-05-09 Sirona Dental Systems Gmbh Kamera und Verfahren zur dreidimensionalen Vermessung eines dentalen Objekts
US10751152B2 (en) 2016-12-21 2020-08-25 National Yang-Ming University Jaw motion tracking system and operating method using the same
US10456043B2 (en) 2017-01-12 2019-10-29 Align Technology, Inc. Compact confocal dental scanning apparatus

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014224554A1 (de) * 2014-12-01 2016-06-02 Olympus Soft Imaging Solutions Gmbh Verfahren und System zum Erzeugen von digitalen Farbbildern oder Videosequenzen
DE102014224554B4 (de) 2014-12-01 2018-11-22 Olympus Soft Imaging Solutions Gmbh Verfahren und System zum Erzeugen von digitalen Farbbildern oder Videosequenzen
US11041799B2 (en) 2019-06-04 2021-06-22 Carl Zeiss Industrielle Messtechnik Gmbh Device for 3D measurement of object coordinates
DE102019208114B4 (de) 2019-06-04 2022-03-17 Carl Zeiss Industrielle Messtechnik Gmbh Vorrichtung und Verfahren zur 3D Vermessung von Objektkoordinaten
DE102021117116A1 (de) 2021-07-02 2023-01-05 Stiftung für Lasertechnologien in der Medizin und Meßtechnik an der Universität Ulm ILM, Körperschaft des öffentlichen Rechts Messvorrichtung zur optischen Vermessung eines Objekts
DE102021117116B4 (de) 2021-07-02 2023-10-26 Stiftung für Lasertechnologien in der Medizin und Meßtechnik an der Universität Ulm ILM, Körperschaft des öffentlichen Rechts Messvorrichtung, Verfahren und medizintechnisches Messgerät zur optischen Vermessung eines Objekts

Also Published As

Publication number Publication date
US8102538B2 (en) 2012-01-24
US20130070985A1 (en) 2013-03-21
US8363228B2 (en) 2013-01-29
US7319529B2 (en) 2008-01-15
EP1607041B1 (de) 2008-01-16
US20050283065A1 (en) 2005-12-22
US8675207B2 (en) 2014-03-18
US20210152805A1 (en) 2021-05-20
US10764557B2 (en) 2020-09-01
US10750151B2 (en) 2020-08-18
US20140119622A1 (en) 2014-05-01
EP1607041A3 (de) 2006-02-15
US20230224446A1 (en) 2023-07-13
US7511829B2 (en) 2009-03-31
US20190281272A1 (en) 2019-09-12
US9404740B2 (en) 2016-08-02
US8451456B2 (en) 2013-05-28
US11418770B2 (en) 2022-08-16
US20150022824A1 (en) 2015-01-22
US10812773B2 (en) 2020-10-20
US20210152806A1 (en) 2021-05-20
EP1607064A2 (de) 2005-12-21
US20120092678A1 (en) 2012-04-19
US20190238820A1 (en) 2019-08-01
US10944953B2 (en) 2021-03-09
ATE383817T1 (de) 2008-02-15
US20080024768A1 (en) 2008-01-31
US20060001739A1 (en) 2006-01-05
EP1607041A2 (de) 2005-12-21
US20190230336A1 (en) 2019-07-25
US11528463B2 (en) 2022-12-13
US8885175B2 (en) 2014-11-11
US9101433B2 (en) 2015-08-11
US7698068B2 (en) 2010-04-13
ATE406850T1 (de) 2008-09-15
US20100208275A1 (en) 2010-08-19
US20200186777A1 (en) 2020-06-11
US10750152B2 (en) 2020-08-18
US10924720B2 (en) 2021-02-16
DE602005004332D1 (de) 2008-03-06
US20130243284A1 (en) 2013-09-19
US7724378B2 (en) 2010-05-25
DE602005009432D1 (de) 2008-10-16
EP1607064B1 (de) 2008-09-03
US20190174110A1 (en) 2019-06-06
EP1607064A3 (de) 2006-01-11
US20090153858A1 (en) 2009-06-18
US10728519B2 (en) 2020-07-28
US20200236336A1 (en) 2020-07-23
US20160295191A1 (en) 2016-10-06
US20150297329A1 (en) 2015-10-22

Similar Documents

Publication Publication Date Title
DE602005004332T2 (de) Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
DE60021417T2 (de) Optisches Meßgerät
DE69928453T2 (de) Vermessen eines dreidimensionalen Körpers durch konfokale Fokussierung mit einem Spiegel mit zentraler Apertur
US10776533B2 (en) 3D modeling of a dental restoration using textural features
DE3723555C2 (de) Verfahren zur Herstellung von Zahnersatz
EP0250993B1 (de) Verfahren und Vorrichtung zur Bestimmung und Darstellung der dreidimensionalen Gestalt von präparierten Zähnen
DE202017007142U1 (de) lntraoraler Scanner mit Zahndiagnosefähigkeiten
DE102017000296B4 (de) Messsystem und Verfahren zur kombinierten Erfassung der Oberflächentopographie und hyperspektralen Bildgebung
EP2256470A1 (de) Dentalfarben-Analysevorrichtung
DE112009000099T5 (de) Bildsignaturen zur Verwendung in einer bewegungsbasierten dreidimensionalen Rekonstruktion
DE3829925A1 (de) Optische sonde zur 3d-vermessung von zaehnen in der mundhoehle
EP2263061A1 (de) Vorrichtung und verfahren zur optischen 3d-vermessung und zur farbmessung
EP0935737A1 (de) Verfahren zur erhöhung der signifikanz der dreidimensionalen vermessung von objekten
DE10023840A1 (de) Farbfestlegungsvorrichtung sowie Verfahren zur Bestimmung und Festlegung von Farben für Zähne und Zahnrestaurationen
EP0447531B1 (de) Verfahren und vorrichtung zur dreidimensionalen optischen vermessung von insbesondere zähnen in der mundhöhle von patienten
DE19524855A1 (de) Verfahren und Vorrichtung zur rechnergestützten Restauration von Zähnen
DE102012207499B3 (de) Verfahren zur Vermessung einer Zahnsituation
DE19502472A1 (de) Verfahren und Vorrichtung zum Aufnehmen eines Objektes
DE60132701T2 (de) System zur farbabstimmung
EP1849411B1 (de) Verfahren zum Bereitstellen von Daten im Zusammenhang mit der Mundhöhle
DE102020008179B4 (de) Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten
JP2002369833A (ja) 歯の分光学的特性に基づく歯色識別法と歯色判定器
DE19752595C1 (de) Gerät und Verfahren zum Bestimmen einer Vielzahl von Parametern einer gekrümmten Oberfläche, insbesondere einer Hornhautoberfläche
DE102020127894B4 (de) Verfahren und Vorrichtung zur optischen dreidimensionalen Vermessung von Objekten
DE102021122356B3 (de) Verfahren und Vorrichtung zur automatisierten Auswahl von Restaurationsmaterialien für die Restauration eines Zahns

Legal Events

Date Code Title Description
8364 No opposition during term of opposition