JP6904727B2 - Endoscope device - Google Patents
- ️Wed Jul 21 2021
JP6904727B2 - Endoscope device - Google Patents
Endoscope device Download PDFInfo
-
Publication number
- JP6904727B2 JP6904727B2 JP2017033935A JP2017033935A JP6904727B2 JP 6904727 B2 JP6904727 B2 JP 6904727B2 JP 2017033935 A JP2017033935 A JP 2017033935A JP 2017033935 A JP2017033935 A JP 2017033935A JP 6904727 B2 JP6904727 B2 JP 6904727B2 Authority
- JP
- Japan Prior art keywords
- unit
- brightness
- distance
- subject
- image Prior art date
- 2017-02-24 Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Endoscopes (AREA)
- Studio Devices (AREA)
Description
本発明は、人や機械構造物等の被検体内を観察する内視鏡装置に関する。 The present invention relates to an endoscopic device for observing the inside of a subject such as a person or a mechanical structure.
従来、医療分野や工業分野において、人や機械構造物等の被検体内を観察する内視鏡装置が知られている(例えば、特許文献1参照)。
特許文献1に記載の内視鏡装置は、被検体内に挿入され、先端から当該被検体内の被写体像を取り込む挿入部と、当該被写体像を撮像して画像信号を出力する撮像部(撮像素子)と、当該画像信号を処理して表示用の映像信号を生成する制御装置と、当該映像信号に基づく画像を表示する表示装置とを備える。
Conventionally, in the medical field and the industrial field, an endoscope device for observing the inside of a subject such as a person or a mechanical structure is known (see, for example, Patent Document 1).
The endoscope device described in Patent Document 1 includes an insertion unit that is inserted into a subject and captures a subject image in the subject from the tip, and an imaging unit that captures the subject image and outputs an image signal (imaging). An element), a control device that processes the image signal to generate a video signal for display, and a display device that displays an image based on the video signal.
特開2015−134039号公報Japanese Unexamined Patent Publication No. 2015-134039
ところで、手術等で内視鏡装置を使用する場合には、被検体内(生体内)に挿入部と電気メス等の処置具とをそれぞれ挿入し、表示装置に表示された画像を確認しながら、処置対象とする生体組織を当該処置具にて処置(接合(若しくは吻合)及び切離等))する場合がある。
このような場合において、挿入部の先端と被写体(処置対象とする生体組織)との被写体距離が短いと、処置時に発生するミストにより挿入部の先端が汚れてしまう場合がある。特に、内視鏡装置では、挿入部を生体内に挿入しているため、医師等は、被写体距離が短いか否かを目視することができない。そして、挿入部の先端が汚れてしまった場合には、当該汚れが被写体像に含まれるため、表示装置に表示された画像から処置対象とする生体組織を認識することが難しくなり、処置を円滑に実行することができない。このため、医師等は、生体内から挿入部を引き抜き、当該挿入部の先端の汚れを除去した後、改めて当該挿入部を生体内に挿入し、処置を継続する必要がある。すなわち、医師等に煩雑な作業を強いることとなり、利便性の向上を図ることができない、という問題がある。
By the way, when using an endoscopic device for surgery, etc., insert the insertion part and the treatment tool such as an electric knife into the subject (in vivo), and check the image displayed on the display device. , The biological tissue to be treated may be treated (joining (or anastomosis) and dissection, etc.) with the treatment tool.
In such a case, if the subject distance between the tip of the insertion portion and the subject (living tissue to be treated) is short, the tip of the insertion portion may become dirty due to the mist generated during the treatment. In particular, in an endoscope device, since the insertion portion is inserted into the living body, a doctor or the like cannot visually check whether or not the subject distance is short. When the tip of the insertion portion becomes dirty, the dirt is included in the subject image, so that it becomes difficult to recognize the biological tissue to be treated from the image displayed on the display device, and the treatment is smooth. Cannot be executed. Therefore, it is necessary for a doctor or the like to pull out the insertion portion from the living body, remove the dirt on the tip of the insertion portion, insert the insertion portion into the living body again, and continue the treatment. That is, there is a problem that complicated work is forced on a doctor or the like, and convenience cannot be improved.
本発明は、上記に鑑みてなされたものであって、利便性の向上を図ることができる内視鏡装置を提供することを目的とする。 The present invention has been made in view of the above, and an object of the present invention is to provide an endoscope device capable of improving convenience.
上述した課題を解決し、目的を達成するために、本発明に係る内視鏡装置は、被検体内に挿入され、先端から当該被検体内の被写体像を取り込む挿入部と、前記被写体像を撮像する撮像部と、前記撮像部による撮像で得られる撮像画像の明るさを変更するための明るさパラメータに応じて、当該撮像画像の明るさを変更する明るさ変更部と、前記明るさパラメータに基づいて、前記挿入部の先端と被写体との被写体距離を算出する被写体距離算出部と、前記被写体距離に関する距離情報を報知する距離情報報知部と、前記被写体距離が基準距離以内であるか否かを判定する距離判定部と、光軸に沿って移動することで焦点を調整するフォーカスレンズを有し、前記挿入部にて取り込まれた前記被写体像を前記撮像部に結像するレンズユニットと、前記フォーカスレンズを移動させるレンズ駆動部と、前記レンズ駆動部の動作を制御するレンズ制御部とを備え、前記距離情報報知部は、前記距離判定部にて前記被写体距離が前記基準距離を超えていると判定された場合と当該基準距離以内であると判定された場合とで、異なる報知状態で前記距離情報を報知し、前記レンズ制御部は、前記距離判定部にて前記被写体距離が前記基準距離以内であると判定された場合に、前記レンズ駆動部を動作させ、当該被写体距離が当該基準距離の時に前記被写体像が合焦状態となるレンズ位置に前記フォーカスレンズを移動させることを特徴とする。 In order to solve the above-mentioned problems and achieve the object, the endoscope device according to the present invention has an insertion portion that is inserted into a subject and captures a subject image in the subject from the tip, and the subject image. An imaging unit for imaging, a brightness changing unit for changing the brightness of the captured image according to a brightness parameter for changing the brightness of the captured image obtained by imaging by the imaging unit, and the brightness parameter. The subject distance calculation unit that calculates the subject distance between the tip of the insertion unit and the subject, the distance information notification unit that notifies the distance information regarding the subject distance, and whether or not the subject distance is within the reference distance. A lens unit that has a distance determination unit that determines whether or not the lens is used, and a focus lens that adjusts the focus by moving along the optical axis, and images the subject image captured by the insertion unit on the imaging unit. A lens driving unit that moves the focus lens and a lens control unit that controls the operation of the lens driving unit are provided. In the distance information notification unit, the subject distance exceeds the reference distance in the distance determination unit. The distance information is notified in different notification states depending on whether the lens is determined to be within the reference distance or within the reference distance, and the lens control unit determines that the subject distance is within the reference distance. When it is determined that the distance is within the reference distance, the lens driving unit is operated to move the focus lens to a lens position where the subject image is in focus when the subject distance is the reference distance. And.
また、本発明に係る内視鏡装置では、上記発明において、前記撮像部は、複数の画素を有する撮像素子を備え、前記明るさ変更部は、前記撮像素子を含み、前記明るさパラメータである前記画素の露光時間を変更して前記撮像画像の明るさを変更することを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the image pickup unit includes an image pickup element having a plurality of pixels, and the brightness change section includes the image pickup element and is the brightness parameter. It is characterized in that the brightness of the captured image is changed by changing the exposure time of the pixel.
また、本発明に係る内視鏡装置では、上記発明において、前記撮像部は、複数の画素を有し、前記被写体像を撮像してアナログ信号を出力する撮像素子と、前記アナログ信号にアナログゲインを乗算する信号処理部とを備え、前記明るさ変更部は、前記信号処理部を含み、前記明るさパラメータである前記アナログゲインを変更して前記撮像画像の明るさを変更することを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the image pickup unit has a plurality of pixels, an image pickup element that captures the subject image and outputs an analog signal, and an analog gain on the analog signal. The brightness changing unit includes the signal processing unit and changes the analog gain, which is the brightness parameter, to change the brightness of the captured image. do.
また、本発明に係る内視鏡装置では、上記発明において、前記撮像部は、複数の画素を有し、前記被写体像を撮像してアナログ信号を出力する撮像素子と、前記アナログ信号をデジタル信号に変換する信号処理部とを備え、前記明るさ変更部は、前記デジタル信号に前記明るさパラメータであるデジタルゲインを乗算するデジタルゲイン乗算部を含み、当該デジタルゲインを変更して前記撮像画像の明るさを変更することを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the imaging unit has a plurality of pixels, an imaging element that captures the subject image and outputs an analog signal, and the analog signal as a digital signal. The brightness changing unit includes a digital gain multiplying unit that multiplies the digital signal by the digital gain which is the brightness parameter, and changes the digital gain to change the digital gain of the captured image. It is characterized by changing the brightness.
また、本発明に係る内視鏡装置では、上記発明において、前記挿入部の先端から被写体に照射する光を当該挿入部に供給する光源装置をさらに備え、前記明るさ変更部は、前記光源装置を含み、前記明るさパラメータである光量を変更して前記撮像画像の明るさを変更することを特徴とする。 Further, the endoscope device according to the present invention further includes, in the above invention, a light source device that supplies light irradiating the subject from the tip of the insertion portion to the insertion portion, and the brightness changing portion is the light source device. hints, change the Oh Ru light amount by the brightness parameter and changes the brightness of the captured image.
また、本発明に係る内視鏡装置では、上記発明において、前記撮像画像における画素毎の輝度信号に基づいて、前記明るさパラメータを算出するパラメータ算出部と、前記パラメータ算出部にて算出された前記明るさパラメータに基づいて、前記明るさ変更部の動作を制御する明るさ制御部とをさらに備え、前記被写体距離算出部は、前記明るさパラメータを前記被写体距離に換算することを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the brightness parameter is calculated by the parameter calculation unit and the parameter calculation unit based on the brightness signal for each pixel in the captured image. A brightness control unit that controls the operation of the brightness changing unit based on the brightness parameter is further provided, and the subject distance calculation unit converts the brightness parameter into the subject distance. ..
また、本発明に係る内視鏡装置では、上記発明において、前記被写体距離算出部は、前記撮像画像における画素毎の輝度信号と前記明るさパラメータとに基づいて前記明るさ変更部にて明るさが変更される前の前記撮像画像における画素毎の輝度信号を算出し、当該明るさが変更される前の撮像画像における画素毎の輝度信号に基づいて前記被写体距離を算出することを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the subject distance calculation unit uses the brightness change unit based on the brightness signal for each pixel in the captured image and the brightness parameter. The subject distance is calculated based on the luminance signal for each pixel in the captured image before the change in brightness and the luminance signal for each pixel in the captured image before the brightness is changed. ..
また、本発明に係る内視鏡装置では、上記発明において、前記撮像画像は、前記被写体像と、当該被写体像以外のマスク領域とを含み、当該内視鏡装置は、前記撮像画像における画素毎の輝度信号に基づいて、前記被写体像及び前記マスク領域の境界点を検出するエッジ検出部と、前記撮像画像における前記エッジ検出部にて検出された境界点で囲まれる領域内の画素毎の輝度信号に基づいて、前記明るさパラメータを算出するパラメータ算出部と、前記パラメータ算出部にて算出された前記明るさパラメータに基づいて、前記明るさ変更部の動作を制御する明るさ制御部とをさらに備えることを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the captured image includes the subject image and a mask region other than the subject image, and the endoscope device is used for each pixel in the captured image. The brightness of each pixel in the region surrounded by the edge detection unit that detects the boundary point between the subject image and the mask region and the boundary point detected by the edge detection unit in the captured image based on the brightness signal of. A parameter calculation unit that calculates the brightness parameter based on the signal, and a brightness control unit that controls the operation of the brightness change unit based on the brightness parameter calculated by the parameter calculation unit. It is characterized by further preparation.
また、本発明に係る内視鏡装置では、上記発明において、前記被検体内に挿入される処置具の使用状態を検出する処置具検出部をさらに備え、前記基準距離は、第1基準距離と、当該第1基準距離よりも長い第2基準距離の2つ設けられ、前記距離判定部は、前記処置具検出部にて前記処置具の使用状態が検出されていない場合には前記基準距離として前記第1基準距離を用い、前記処置具検出部にて前記処置具の使用状態が検出された場合には前記基準距離として前記第2基準距離を用いることを特徴とする。 Further, the endoscope device according to the present invention further includes a treatment tool detection unit that detects the usage state of the treatment tool inserted into the subject in the above invention, and the reference distance is the first reference distance. , Two second reference distances longer than the first reference distance are provided, and the distance determination unit is used as the reference distance when the use state of the treatment tool is not detected by the treatment tool detection unit. The first reference distance is used, and when the treatment tool detection unit detects the usage state of the treatment tool, the second reference distance is used as the reference distance.
また、本発明に係る内視鏡装置では、上記発明において、前記処置具検出部は、前記撮像画像に基づいて、当該撮像画像内の前記被写体像に前記処置具が含まれているか否かを判定することにより前記使用状態を検出し、前記距離判定部は、前記処置具検出部にて前記撮像画像内の前記被写体像に前記処置具が含まれていないと判定された場合には前記基準距離として前記第1基準距離を用い、前記処置具検出部にて前記撮像画像内の前記被写体像に前記処置具が含まれていると判定された場合には前記基準距離として前記第2基準距離を用いることを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the treatment tool detection unit determines whether or not the treatment tool is included in the subject image in the captured image based on the captured image. The usage state is detected by the determination, and when the treatment tool detection unit determines that the subject image in the captured image does not include the treatment tool, the distance determination unit determines the reference. The first reference distance is used as the distance, and when the treatment tool detection unit determines that the subject image in the captured image includes the treatment tool, the second reference distance is used as the reference distance. Is characterized by using.
また、本発明に係る内視鏡装置では、上記発明において、前記距離情報報知部は、前記距離情報を表示する表示部と、前記表示部の動作を制御する表示制御部とを備えることを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the distance information notification unit includes a display unit that displays the distance information and a display control unit that controls the operation of the display unit. And.
また、本発明に係る内視鏡装置では、上記発明において、前記距離情報報知部は、前記距離情報を音声出力する音声出力部と、前記音声出力部の動作を制御する音声制御部とを備えることを特徴とする。 Further, in the endoscope device according to the present invention, in the above invention, the distance information notification unit includes a voice output unit that outputs the distance information by voice and a voice control unit that controls the operation of the voice output unit. It is characterized by that.
また、本発明に係る内視鏡装置では、上記発明において、前記撮像画像に含まれる前記被写体像を拡大する像拡大部をさらに備えることを特徴とする。 Further, the endoscope device according to the present invention is characterized in that, in the above invention, an image magnifying unit for enlarging the subject image included in the captured image is further provided.
本発明に係る内視鏡装置は、撮像画像の明るさを変更するための明るさパラメータに基づいて、被写体距離を算出する。そして、当該内視鏡装置は、当該被写体距離に関する距離情報を報知する。
このため、内視鏡装置の利用者は、報知された距離情報に基づいて、挿入部の先端が被写体に対して不要に近付き過ぎているか否かを判断することができ、不要に近付き過ぎていると判断した場合には、被写体から挿入部の先端を遠ざけることができる。例えば、本発明に係る内視鏡装置を医療分野に用いた場合には、処置具の処置対象とする生体組織に挿入部の先端が近付き過ぎることを回避することができ、処置具による処置時に発生するミストにて当該挿入部の先端が汚れてしまうことを回避することができる。すなわち、挿入部を生体内から引き抜いて当該挿入部の先端の汚れを除去するという煩雑な作業を医師等に行わせることを回避することができる。
以上のことから、本発明に係る内視鏡装置によれば、利便性の向上を図ることができる、という効果を奏する。
The endoscope device according to the present invention calculates the subject distance based on the brightness parameter for changing the brightness of the captured image. Then, the endoscope device notifies the distance information regarding the subject distance.
Therefore, the user of the endoscope device can determine whether or not the tip of the insertion portion is unnecessarily too close to the subject based on the notified distance information, and is too close to the subject. If it is determined that the insertion portion is present, the tip of the insertion portion can be moved away from the subject. For example, when the endoscopic device according to the present invention is used in the medical field, it is possible to prevent the tip of the insertion portion from coming too close to the living tissue to be treated by the treatment tool, and during treatment with the treatment tool. It is possible to prevent the tip of the insertion portion from becoming dirty due to the generated mist. That is, it is possible to avoid having a doctor or the like perform the complicated work of pulling out the insertion portion from the living body and removing the dirt on the tip of the insertion portion.
From the above, the endoscope device according to the present invention has the effect of improving convenience.
図1は、本実施の形態1に係る内視鏡装置の概略構成を示す図である。FIG. 1 is a diagram showing a schematic configuration of an endoscope device according to the first embodiment. 図2は、カメラヘッド及び制御装置の構成を示すブロック図である。FIG. 2 is a block diagram showing a configuration of a camera head and a control device. 図3は、レンズ制御部によるAF処理を説明する図である。FIG. 3 is a diagram illustrating AF processing by the lens control unit. 図4は、レンズ制御部によるAF処理を説明する図である。FIG. 4 is a diagram illustrating AF processing by the lens control unit. 図5は、レンズ制御部によるAF処理を説明する図である。FIG. 5 is a diagram illustrating AF processing by the lens control unit. 図6は、明るさパラメータと輝度平均値との関係の一例を示す図である。FIG. 6 is a diagram showing an example of the relationship between the brightness parameter and the brightness average value. 図7は、内視鏡装置の動作を示すフローチャートである。FIG. 7 is a flowchart showing the operation of the endoscope device. 図8は、第1報知状態の一例を示す図である。FIG. 8 is a diagram showing an example of the first notification state. 図9は、第2報知状態の一例を示す図である。FIG. 9 is a diagram showing an example of the second notification state. 図10は、本実施の形態2に係る内視鏡装置の概略構成を示す図である。FIG. 10 is a diagram showing a schematic configuration of an endoscope device according to the second embodiment. 図11は、内視鏡装置の動作を示すフローチャートである。FIG. 11 is a flowchart showing the operation of the endoscope device. 図12は、本実施の形態3に係る内視鏡装置の概略構成を示す図である。FIG. 12 is a diagram showing a schematic configuration of an endoscope device according to the third embodiment. 図13は、内視鏡装置の動作を示すフローチャートである。FIG. 13 is a flowchart showing the operation of the endoscope device. 図14は、マスクエッジ検出処理を説明する図である。FIG. 14 is a diagram illustrating a mask edge detection process. 図15は、本実施の形態4に係る内視鏡装置の概略構成を示す図である。FIG. 15 is a diagram showing a schematic configuration of an endoscope device according to the fourth embodiment. 図16は、内視鏡装置の動作を示すフローチャートである。FIG. 16 is a flowchart showing the operation of the endoscope device. 図17は、処置具検出処理を説明する図である。FIG. 17 is a diagram illustrating a treatment tool detection process. 図18は、処置具検出処理を説明する図である。FIG. 18 is a diagram illustrating a treatment tool detection process. 図19は、ステップS17での第1報知状態の一例を示す図である。FIG. 19 is a diagram showing an example of the first notification state in step S17. 図20は、ステップS18での第2報知状態の一例を示す図である。FIG. 20 is a diagram showing an example of the second notification state in step S18.
以下に、図面を参照して、本発明を実施するための形態(以下、実施の形態)について説明する。なお、以下に説明する実施の形態によって本発明が限定されるものではない。さらに、図面の記載において、同一の部分には同一の符号を付している。 Hereinafter, embodiments for carrying out the present invention (hereinafter referred to as embodiments) will be described with reference to the drawings. The present invention is not limited to the embodiments described below. Further, in the description of the drawings, the same parts are designated by the same reference numerals.
(実施の形態1)
〔内視鏡装置の概略構成〕
図1は、本実施の形態1に係る内視鏡装置1の概略構成を示す図である。
内視鏡装置1は、医療分野において用いられ、生体内を観察する装置である。この内視鏡装置1は、図1に示すように、挿入部2と、光源装置3と、ライトガイド4と、カメラヘッド5と、第1伝送ケーブル6と、表示装置7と、第2伝送ケーブル8と、制御装置9と、第3伝送ケーブル10とを備える。
(Embodiment 1)
[Outline configuration of endoscope device]
FIG. 1 is a diagram showing a schematic configuration of an endoscope device 1 according to the first embodiment.
The endoscope device 1 is a device used in the medical field for observing the inside of a living body. As shown in FIG. 1, the endoscope device 1 includes an insertion unit 2, a light source device 3, a light guide 4, a camera head 5, a first transmission cable 6, a display device 7, and a second transmission. A cable 8, a control device 9, and a third transmission cable 10 are provided.
挿入部2は、硬性鏡で構成されている。すなわち、挿入部2は、硬質または少なくとも一部が軟質で細長形状を有し、生体内に挿入される。この挿入部2内には、1または複数のレンズを用いて構成され、被写体像を集光する光学系が設けられている。
光源装置3は、ライトガイド4の一端が接続され、制御装置9による制御の下、当該ライトガイド4の一端に生体内を照明するための光を供給する。
ライトガイド4は、一端が光源装置3に着脱自在に接続されるとともに、他端が挿入部2に着脱自在に接続される。そして、ライトガイド4は、光源装置3から供給された光を一端から他端に伝達し、挿入部2に供給する。挿入部2に供給された光は、当該挿入部2の先端から出射され、生体内に照射される。生体内に照射され、当該生体内で反射された光(被写体像)は、挿入部2内の光学系により集光される。
The insertion portion 2 is composed of a rigid mirror. That is, the insertion portion 2 is hard or at least partially soft and has an elongated shape, and is inserted into the living body. An optical system that is configured by using one or a plurality of lenses and that collects a subject image is provided in the insertion portion 2.
One end of the light guide 4 is connected to the light source device 3, and under the control of the control device 9, light for illuminating the inside of the living body is supplied to one end of the light guide 4.
One end of the light guide 4 is detachably connected to the light source device 3, and the other end is detachably connected to the insertion portion 2. Then, the light guide 4 transmits the light supplied from the light source device 3 from one end to the other end and supplies the light to the insertion portion 2. The light supplied to the insertion portion 2 is emitted from the tip of the insertion portion 2 and is irradiated into the living body. The light (subject image) that is irradiated into the living body and reflected in the living body is collected by the optical system in the insertion unit 2.
カメラヘッド5は、挿入部2の基端(接眼部21(図1))に着脱自在に接続される。そして、カメラヘッド5は、制御装置9による制御の下、挿入部2にて集光された被写体像を撮像し、当該撮像による画像信号(RAW信号)を出力する。当該画像信号は、例えば、4K以上の画像信号である。
なお、カメラヘッド5の詳細な構成については、後述する。
The camera head 5 is detachably connected to the base end (eyepiece portion 21 (FIG. 1)) of the insertion portion 2. Then, the camera head 5 captures the subject image focused by the insertion unit 2 under the control of the control device 9, and outputs the image signal (RAW signal) obtained by the imaging. The image signal is, for example, an image signal of 4K or more.
The detailed configuration of the camera head 5 will be described later.
第1伝送ケーブル6は、一端がコネクタCN1(図1)を介して制御装置9に着脱自在に接続され、他端がコネクタCN2(図1)を介してカメラヘッド5に着脱自在に接続される。そして、第1伝送ケーブル6は、カメラヘッド5から出力される画像信号等を制御装置9に伝送するとともに、制御装置9から出力される制御信号、同期信号、クロック、及び電力等をカメラヘッド5にそれぞれ伝送する。
なお、第1伝送ケーブル6を介したカメラヘッド5から制御装置9への画像信号等の伝送は、当該画像信号等を光信号で伝送してもよく、あるいは、電気信号で伝送しても構わない。第1伝送ケーブル6を介した制御装置9からカメラヘッド5への制御信号、同期信号、クロックの伝送も同様である。
One end of the first transmission cable 6 is detachably connected to the control device 9 via the connector CN1 (FIG. 1), and the other end is detachably connected to the camera head 5 via the connector CN2 (FIG. 1). .. Then, the first transmission cable 6 transmits the image signal and the like output from the camera head 5 to the control device 9, and also transmits the control signal, the synchronization signal, the clock, the electric power, and the like output from the control device 9 to the camera head 5. To transmit to each.
The image signal or the like may be transmitted from the camera head 5 to the control device 9 via the first transmission cable 6 by an optical signal or an electric signal. do not have. The same applies to the transmission of the control signal, the synchronization signal, and the clock from the control device 9 to the camera head 5 via the first transmission cable 6.
表示装置7は、制御装置9による制御の下、当該制御装置9からの映像信号に基づく表示画像を表示するとともに、当該制御装置9からの制御信号に応じて音声を出力する。この表示装置7は、表示部71と、音声出力部72とを備える(図2参照)。
表示部71は、液晶または有機EL(Electro Luminescence)等を用いた表示ディスプレイを用いて構成され、制御装置9からの映像信号に基づく表示画像を表示する。
音声出力部72は、スピーカ等を用いて構成され、制御装置9からの制御信号に応じて挿入部2の先端と被写体との被写体距離に関する距離情報を音声出力する。
第2伝送ケーブル8は、一端が表示装置7に着脱自在に接続され、他端が制御装置9に着脱自在に接続される。そして、第2伝送ケーブル8は、制御装置9にて処理された映像信号、及び制御装置9から出力される制御信号を表示装置7に伝送する。
Under the control of the control device 9, the display device 7 displays a display image based on the video signal from the control device 9, and outputs audio in response to the control signal from the control device 9. The display device 7 includes a display unit 71 and an audio output unit 72 (see FIG. 2).
The display unit 71 is configured by using a display using a liquid crystal or an organic EL (Electro Luminescence), and displays a display image based on a video signal from the control device 9.
The voice output unit 72 is configured by using a speaker or the like, and outputs voice information regarding the distance between the tip of the insertion unit 2 and the subject in response to a control signal from the control device 9.
One end of the second transmission cable 8 is detachably connected to the display device 7, and the other end is detachably connected to the control device 9. Then, the second transmission cable 8 transmits the video signal processed by the control device 9 and the control signal output from the control device 9 to the display device 7.
制御装置9は、CPU(Central Processing Unit)等を含んで構成され、光源装置3、カメラヘッド5、及び表示装置7の動作を統括的に制御する。
なお、制御装置9の詳細な構成については、後述する。
第3伝送ケーブル10は、一端が光源装置3に着脱自在に接続され、他端が制御装置9に着脱自在に接続される。そして、第3伝送ケーブル10は、制御装置9からの制御信号を光源装置3に伝送する。
The control device 9 includes a CPU (Central Processing Unit) and the like, and comprehensively controls the operations of the light source device 3, the camera head 5, and the display device 7.
The detailed configuration of the control device 9 will be described later.
One end of the third transmission cable 10 is detachably connected to the light source device 3, and the other end is detachably connected to the control device 9. Then, the third transmission cable 10 transmits the control signal from the control device 9 to the light source device 3.
〔カメラヘッドの構成〕
次に、カメラヘッド5の構成について説明する。
図2は、カメラヘッド5及び制御装置9の構成を示すブロック図である。
なお、図2では、説明の便宜上、制御装置9及びカメラヘッド5と第1伝送ケーブル6との間のコネクタCN1,CN2、制御装置9及び表示装置7と第2伝送ケーブル8との間のコネクタ、制御装置9及び光源装置3と第3伝送ケーブル10との間のコネクタの図示を省略している。
カメラヘッド5は、図2に示すように、レンズユニット51と、レンズ駆動部52と、レンズ位置検出部53と、撮像部54と、通信部55とを備える。
[Camera head configuration]
Next, the configuration of the camera head 5 will be described.
FIG. 2 is a block diagram showing the configurations of the camera head 5 and the control device 9.
In FIG. 2, for convenience of explanation, the connectors CN1 and CN2 between the control device 9 and the camera head 5 and the first transmission cable 6, and the connectors between the control device 9 and the display device 7 and the second transmission cable 8 are shown. , The illustration of the connector between the control device 9 and the light source device 3 and the third transmission cable 10 is omitted.
As shown in FIG. 2, the camera head 5 includes a lens unit 51, a lens driving unit 52, a lens position detecting unit 53, an imaging unit 54, and a communication unit 55.
レンズユニット51は、光軸に沿って移動可能な複数のレンズを用いて構成され、挿入部2にて集光された被写体像を撮像部54(撮像素子541(図2))の撮像面に結像する。このレンズユニット51は、図2に示すように、フォーカスレンズ511と、ズームレンズ512とを備える。
フォーカスレンズ511は、1または複数のレンズを用いて構成され、光軸に沿って移動することにより、焦点を調整する。
ズームレンズ512は、1または複数のレンズを用いて構成され、光軸に沿って移動することにより、画角を調整する。そして、ズームレンズ512は、本発明に係る像拡大部としての機能を有する。
また、レンズユニット51には、フォーカスレンズ511を光軸に沿って移動させるフォーカス機構(図示略)やズームレンズ512を光軸に沿って移動させる光学ズーム機構(図示略)が設けられている。
レンズ駆動部52は、図2に示すように、上述したフォーカス機構や光学ズーム機構を動作させるモータ521と、当該モータ521を駆動するドライバ522とを備える。そして、レンズ駆動部52は、制御装置9による制御の下、レンズユニット51の焦点や画角を調整する。
The lens unit 51 is configured by using a plurality of lenses that can move along the optical axis, and the subject image collected by the insertion unit 2 is placed on the imaging surface of the imaging unit 54 (imaging element 541 (FIG. 2)). Image image. As shown in FIG. 2, the lens unit 51 includes a focus lens 511 and a zoom lens 512.
The focus lens 511 is configured with one or more lenses and adjusts the focus by moving along the optical axis.
The zoom lens 512 is configured by using one or more lenses, and adjusts the angle of view by moving along the optical axis. The zoom lens 512 has a function as an image magnifying unit according to the present invention.
Further, the lens unit 51 is provided with a focus mechanism (not shown) for moving the focus lens 511 along the optical axis and an optical zoom mechanism (not shown) for moving the zoom lens 512 along the optical axis.
As shown in FIG. 2, the lens driving unit 52 includes a motor 521 that operates the above-mentioned focus mechanism and optical zoom mechanism, and a driver 522 that drives the motor 521. Then, the lens driving unit 52 adjusts the focal point and the angle of view of the lens unit 51 under the control of the control device 9.
レンズ位置検出部53は、フォトインタラプタ等の位置センサを用いて構成され、フォーカスレンズ511のレンズ位置(以下、フォーカス位置と記載)やズームレンズ512のレンズ位置(以下、ズーム位置と記載)を検出する。そして、レンズ位置検出部53は、第1伝送ケーブル6を介して、フォーカス位置及びズーム位置に応じた検出信号を制御装置9に出力する。 The lens position detection unit 53 is configured by using a position sensor such as a photo interrupter, and detects the lens position of the focus lens 511 (hereinafter referred to as the focus position) and the lens position of the zoom lens 512 (hereinafter referred to as the zoom position). do. Then, the lens position detection unit 53 outputs a detection signal according to the focus position and the zoom position to the control device 9 via the first transmission cable 6.
撮像部54は、制御装置9による制御の下、生体内を撮像する。この撮像部54は、図2に示すように、撮像素子541と、信号処理部542とを備える。
撮像素子541は、挿入部2にて集光され、レンズユニット51が結像した被写体像を受光して電気信号(アナログ信号)に変換するCCD(Charge Coupled Device)またはCMOS(Complementary Metal Oxide Semiconductor)等で構成されている。
信号処理部542は、撮像素子541からの電気信号(アナログ信号)に対して信号処理を行って画像信号(RAW信号(デジタル信号))を出力する。
例えば、信号処理部542は、撮像素子541からの電気信号(アナログ信号)に対して、リセットノイズを除去する処理、当該アナログ信号を増幅するアナログゲインを乗算する処理、及びA/D変換等の信号処理を行う。
The imaging unit 54 images the inside of the living body under the control of the control device 9. As shown in FIG. 2, the image pickup unit 54 includes an image pickup device 541 and a signal processing unit 542.
The image sensor 541 is a CCD (Charge Coupled Device) or CMOS (Complementary Metal Oxide Semiconductor) that is focused by the insertion unit 2 and receives an image of the subject imaged by the lens unit 51 and converts it into an electric signal (analog signal). It is composed of etc.
The signal processing unit 542 performs signal processing on the electric signal (analog signal) from the image pickup element 541 and outputs an image signal (RAW signal (digital signal)).
For example, the signal processing unit 542 performs processing for removing reset noise, processing for multiplying an analog gain that amplifies the analog signal, processing for A / D conversion, and the like with respect to an electric signal (analog signal) from the image pickup element 541. Perform signal processing.
通信部55は、第1伝送ケーブル6を介して、撮像部54から出力される画像信号(RAW信号(デジタル信号))を制御装置9に送信するトランスミッタとして機能する。この通信部55は、例えば、第1伝送ケーブル6を介して、制御装置9との間で、1Gbps以上の伝送レートで画像信号の通信を行う高速シリアルインターフェースで構成されている。 The communication unit 55 functions as a transmitter that transmits an image signal (RAW signal (digital signal)) output from the image pickup unit 54 to the control device 9 via the first transmission cable 6. The communication unit 55 is composed of, for example, a high-speed serial interface that communicates an image signal with the control device 9 at a transmission rate of 1 Gbps or more via the first transmission cable 6.
〔制御装置の構成〕
次に、制御装置9の構成について図2を参照しながら説明する。
制御装置9は、図2に示すように、通信部91と、画像処理部92と、検波処理部93と、表示制御部94と、制御部95と、入力部96と、出力部97と、記憶部98とを備える。
通信部91は、第1伝送ケーブル6を介して、カメラヘッド5(通信部55)から出力される画像信号(RAW信号(デジタル信号))を受信するレシーバとして機能する。この通信部91は、例えば、通信部55との間で、1Gbps以上の伝送レートで画像信号の通信を行う高速シリアルインターフェースで構成されている。
[Control device configuration]
Next, the configuration of the control device 9 will be described with reference to FIG.
As shown in FIG. 2, the control device 9 includes a communication unit 91, an image processing unit 92, a detection processing unit 93, a display control unit 94, a control unit 95, an input unit 96, an output unit 97, and the like. A storage unit 98 is provided.
The communication unit 91 functions as a receiver that receives an image signal (RAW signal (digital signal)) output from the camera head 5 (communication unit 55) via the first transmission cable 6. The communication unit 91 is composed of, for example, a high-speed serial interface that communicates an image signal with the communication unit 55 at a transmission rate of 1 Gbps or more.
画像処理部92は、制御部95による制御の下、カメラヘッド5(通信部55)から出力され、通信部91にて受信した画像信号(RAW信号(デジタル信号))を処理する。
例えば、画像処理部92は、画像信号(RAW信号(デジタル信号))に対して、当該デジタル信号を増幅するデジタルゲインを乗算する。すなわち、画像処理部92は、本発明に係るデジタルゲイン乗算部としての機能を有する。また、画像処理部92は、デジタルゲインを乗算した後の画像信号(RAW信号(デジタル信号))に対してオプティカルブラック減算処理、デモザイク処理等のRAW処理を施し、当該RAW信号(画像信号)をRGB信号(画像信号)に変換する。さらに、画像処理部92は、当該RGB信号(画像信号)に対して、ホワイトバランス、RGBガンマ補正、及びYC変換(RGB信号を輝度信号及び色差信号(Y,CB/CR信号)に変換)等のRGB処理を施す。また、画像処理部92は、当該Y,CB/CR信号(画像信号)に対して、色差補正及びノイズリダクション等のYC処理を実行する。
The image processing unit 92 processes an image signal (RAW signal (digital signal)) output from the camera head 5 (communication unit 55) and received by the communication unit 91 under the control of the control unit 95.
For example, the image processing unit 92 multiplies the image signal (RAW signal (digital signal)) by the digital gain that amplifies the digital signal. That is, the image processing unit 92 has a function as a digital gain multiplication unit according to the present invention. Further, the image processing unit 92 performs RAW processing such as optical black subtraction processing and demosaic processing on the image signal (RAW signal (digital signal)) after multiplying the digital gain, and obtains the RAW signal (image signal). Converts to an RGB signal (image signal). Further, the image processing section 92, conversion on the RGB signals (image signals), white balance, RGB gamma correction, and YC conversion to (RGB signals a luminance signal and color difference signals (Y, to C B / C R signal) ) And other RGB processing. Further, the image processing unit 92 executes YC processing such as color difference correction and noise reduction on the Y, C B / CR signals (image signals).
検波処理部93は、画像処理部92にて処理された画像信号(Y,CB/CR信号)を入力し、当該画像信号(Y,CB/CR信号)に基づいて、検波処理を実行する。
例えば、検波処理部93は、撮像素子541にて撮像された1フレームの撮像画像全体における所定の領域(以下、検波領域と記載)の画素毎の画素情報(輝度信号(Y信号))に基づいて、当該検波領域内の画像のコントラストや周波数成分を検出するとともに、当該検波領域内の画像の輝度平均値を検出する。そして、検波処理部93は、当該検出により得られた検波情報(コントラストや周波数成分、及び輝度平均値)を制御部95に出力する。
Detection processing unit 93, processed image signal by the image processing unit 92 (Y, C B / C R signal) is input, based on the image signals (Y, C B / C R signal), the detection process To execute.
For example, the detection processing unit 93 is based on pixel information (brightness signal (Y signal)) for each pixel in a predetermined region (hereinafter, referred to as a detection region) in the entire captured image of one frame captured by the image sensor 541. Therefore, the contrast and frequency components of the image in the detection area are detected, and the brightness average value of the image in the detection area is detected. Then, the detection processing unit 93 outputs the detection information (contrast, frequency component, and brightness average value) obtained by the detection to the control unit 95.
表示制御部94は、制御部95による制御の下、OSD(オンスクリーンディスプレイ)処理等により、画像処理部92にて処理された画像信号(Y,CB/CR信号)に基づく撮像画像上に挿入部2の先端と被写体との被写体距離に関する距離情報を重畳した表示用の映像信号を生成する。そして、表示制御部94は、第2伝送ケーブル8を介して、当該映像信号を表示装置7(表示部71)に出力する。 The display control unit 94, under the control of the control unit 95, OSD by (on-screen display) processing, etc., processed image signal by the image processing unit 92 (Y, C B / C R signal) on the basis captured image A video signal for display is generated by superimposing distance information on the subject distance between the tip of the insertion unit 2 and the subject. Then, the display control unit 94 outputs the video signal to the display device 7 (display unit 71) via the second transmission cable 8.
制御部95は、例えば、CPU等を用いて構成され、第1〜第3伝送ケーブル6,8,10を介して制御信号を出力することで、光源装置3、カメラヘッド5、及び表示装置7の動作を制御するとともに、制御装置9全体の動作を制御する。この制御部95は、図2に示すように、レンズ制御部951と、パラメータ算出部952と、明るさ制御部953と、被写体距離算出部954と、距離判定部955と、音声制御部956とを備える。 The control unit 95 is configured by using, for example, a CPU or the like, and outputs a control signal via the first to third transmission cables 6, 8 and 10, so that the light source device 3, the camera head 5, and the display device 7 are output. While controlling the operation of the control device 9, the operation of the entire control device 9 is controlled. As shown in FIG. 2, the control unit 95 includes a lens control unit 951, a parameter calculation unit 952, a brightness control unit 953, a subject distance calculation unit 954, a distance determination unit 955, and a voice control unit 956. To be equipped.
レンズ制御部951は、レンズ駆動部52を動作させ、レンズユニット51の焦点や画角を調整(フォーカス位置やズーム位置を変更)する。例えば、レンズ制御部951は、以下に示すように、レンズ位置検出部53にて検出されたフォーカス位置、及び検波処理部93から出力された検波情報に基づいて、AF処理を実行する。
図3ないし図5は、レンズ制御部951によるAF処理を説明する図である。具体的に、図3は、挿入部2の先端と被写体Suとの被写体距離DSを示す図である。図4は、被写体距離DSが基準距離D1よりも長い場合でのレンズ制御部951によるAF処理を説明する図である。図5は、被写体距離DSが基準距離D1以内である場合でのレンズ制御部951によるAF処理を説明する図である。
具体的に、レンズ制御部951は、検波処理部93から出力された検波情報(コントラストや周波数成分)に基づいて、撮像画像に含まれる被写体像の合焦状態を評価するための合焦評価値を算出する。例えば、レンズ制御部951は、検波処理部93にて検出されたコントラストや、検波処理部93にて検出された周波数成分のうち高周波成分の和を合焦評価値とする。なお、合焦評価値は、値が大きいほどフォーカスが合っていることを示す。
The lens control unit 951 operates the lens drive unit 52 to adjust the focus and angle of view of the lens unit 51 (change the focus position and zoom position). For example, as shown below, the lens control unit 951 executes the AF process based on the focus position detected by the lens position detection unit 53 and the detection information output from the detection processing unit 93.
3 to 5 are views for explaining the AF process by the lens control unit 951. Specifically, FIG. 3 is a diagram showing a subject distance DS between the tip of the insertion portion 2 and the subject Su. FIG. 4 is a diagram illustrating AF processing by the lens control unit 951 when the subject distance DS is longer than the reference distance D1. FIG. 5 is a diagram illustrating AF processing by the lens control unit 951 when the subject distance DS is within the reference distance D1.
Specifically, the lens control unit 951 is an in-focus evaluation value for evaluating the in-focus state of the subject image included in the captured image based on the detection information (contrast and frequency component) output from the detection processing unit 93. Is calculated. For example, the lens control unit 951 uses the contrast detected by the detection processing unit 93 and the sum of the high frequency components among the frequency components detected by the detection processing unit 93 as the focusing evaluation value. As for the in-focus evaluation value, the larger the value, the more in focus.
そして、レンズ制御部951は、図4に示すように、レンズ駆動部52を動作させ、フォーカス位置を変更しながら、順次、合焦評価値を算出するとともに、レンズ位置検出部53にて検出されたフォーカス位置と当該フォーカス位置に対応した合焦評価値とを関連付けたフォーカス情報を記憶部98に順次、記憶させる。この後、レンズ制御部951は、記憶部98に記憶させた複数のフォーカス情報に基づいて、合焦評価値が最大値となるピーク位置(フォーカス位置P1)を算出する。また、レンズ制御部951は、当該フォーカス位置P1とレンズ位置検出部53にて検出された現時点のフォーカス位置とに基づいて、当該現時点のフォーカス位置から当該フォーカス位置P1にフォーカスレンズ511を移動させるための移動方向と移動量とを算出する。そして、レンズ制御部951は、当該移動方向及び当該移動量に応じた制御信号をレンズ駆動部52に出力し、当該フォーカス位置P1にフォーカスレンズ511を位置付ける。以上のように、本実施の形態1では、レンズ制御部951は、所謂、山登り法によりAF処理を実行する。
なお、上述したAF処理は、常時、実行する所謂、コンティニュアスAFを採用してもよく、あるいは、カメラヘッド5等に設けられた操作ボタン(図示略)の操作に応じて実行する所謂、ワンタッチAFを採用しても構わない。
Then, as shown in FIG. 4, the lens control unit 951 operates the lens drive unit 52, changes the focus position, sequentially calculates the focusing evaluation value, and detects it by the lens position detection unit 53. The storage unit 98 sequentially stores the focus information associated with the focus position and the focus evaluation value corresponding to the focus position. After that, the lens control unit 951 calculates the peak position (focus position P1) at which the focusing evaluation value becomes the maximum value based on the plurality of focus information stored in the storage unit 98. Further, the lens control unit 951 moves the focus lens 511 from the current focus position to the focus position P1 based on the focus position P1 and the current focus position detected by the lens position detection unit 53. Calculate the movement direction and movement amount of. Then, the lens control unit 951 outputs a control signal corresponding to the movement direction and the movement amount to the lens drive unit 52, and positions the focus lens 511 at the focus position P1. As described above, in the first embodiment, the lens control unit 951 executes the AF process by the so-called hill climbing method.
The AF process described above may be a so-called continuous AF that is always executed, or a so-called continuous AF that is executed in response to an operation of an operation button (not shown) provided on the camera head 5 or the like. One-touch AF may be adopted.
ここで、被写体距離DSが基準距離D1以内である場合には、検波処理が行われる検波領域は、被写体Suの極めて狭い領域となる。このため、検波処理の精度が悪くなり、図5に示すように、フォーカス位置を変更しても合焦評価値に目立ったピークが存在しない。すなわち、レンズ制御部951は、撮像装置に含まれる被写体像が合焦状態とならない誤ったピーク位置(フォーカス位置P2(図5))を算出し、当該フォーカス位置P2にフォーカスレンズ511を位置付けてしまう場合がある。そして、AF処理がワンタッチAFである場合には、医師等は、撮像装置に含まれる被写体像を合焦状態とするために、カメラヘッド5等に設けられた操作ボタン(図示略)を何度も操作することとなる。 Here, when the subject distance DS is within the reference distance D1, the detection region where the detection processing is performed is an extremely narrow region of the subject Su. Therefore, the accuracy of the detection process deteriorates, and as shown in FIG. 5, there is no conspicuous peak in the focusing evaluation value even if the focus position is changed. That is, the lens control unit 951 calculates an erroneous peak position (focus position P2 (FIG. 5)) in which the subject image included in the image pickup apparatus is not in focus, and positions the focus lens 511 at the focus position P2. In some cases. Then, when the AF process is one-touch AF, the doctor or the like repeatedly presses the operation buttons (not shown) provided on the camera head 5 or the like in order to bring the subject image included in the image pickup apparatus into the focused state. Will also be operated.
パラメータ算出部952は、検波処理部93から出力された検波情報(輝度平均値)に基づいて、撮像部54による撮像で得られる撮像画像の明るさを基準となる明るさに変更する(検波処理により得られる輝度平均値を基準となる輝度平均値に変更する)ための明るさパラメータを算出する。
本実施の形態1では、パラメータ算出部952は、撮像素子541における各画素の露光時間、信号処理部542にて乗算されるアナログゲイン、画像処理部92にて乗算されるデジタルゲイン、及び光源装置3から挿入部2に供給される光の光量の4つの明るさパラメータをそれぞれ算出する。
The parameter calculation unit 952 changes the brightness of the captured image obtained by imaging by the imaging unit 54 to a reference brightness based on the detection information (luminance average value) output from the detection processing unit 93 (detection processing). The brightness parameter for changing the brightness average value obtained by the above method to the reference brightness average value) is calculated.
In the first embodiment, the parameter calculation unit 952 includes an exposure time of each pixel in the image sensor 541, an analog gain multiplied by the signal processing unit 542, a digital gain multiplied by the image processing unit 92, and a light source device. The four brightness parameters of the amount of light supplied from 3 to the insertion unit 2 are calculated respectively.
図6は、明るさパラメータと輝度平均値との関係の一例を示す図である。具体的に、図6(a)は、露光時間と輝度平均値との関係を示している。図6(b)は、アナログゲインと輝度平均値との関係を示している。図6(c)は、デジタルゲインと輝度平均値との関係を示している。図6(d)は、光量と輝度平均値との関係を示している。なお、図6に示した横軸は、輝度平均値を示しており、右に向かうにしたがって輝度平均値が高い(左に向かうにしたがって輝度平均値が低い)ものである。
具体的に、パラメータ算出部952は、例えば、図6(a)に示した関係を用いて、検波処理部93から出力された検波情報(輝度平均値)に対応する露光時間(明るさパラメータ)を算出する。なお、図6(a)において、輝度平均値BV1は、輝度平均値BV2よりも高い値である。また、露光時間ET1は、露光時間ET2よりも短い時間である。そして、図6(a)の例では、露光時間と輝度平均値との関係として、輝度平均値BV1よりも高い輝度平均値である場合には露光時間ET1とし、輝度平均値BV2よりも低い輝度平均値である場合には露光時間ET2とし、輝度平均値BV1から輝度平均値BV2にかけて露光時間を露光時間ET1から露光時間ET2まで一定の割合で増加させた関係を示している。
FIG. 6 is a diagram showing an example of the relationship between the brightness parameter and the brightness average value. Specifically, FIG. 6A shows the relationship between the exposure time and the average luminance value. FIG. 6B shows the relationship between the analog gain and the average luminance value. FIG. 6C shows the relationship between the digital gain and the average luminance value. FIG. 6D shows the relationship between the amount of light and the average brightness. The horizontal axis shown in FIG. 6 indicates the average luminance value, and the average luminance value increases toward the right (the average luminance value decreases toward the left).
Specifically, the parameter calculation unit 952 uses the relationship shown in FIG. 6A, for example, to expose the exposure time (brightness parameter) corresponding to the detection information (luminance average value) output from the detection processing unit 93. Is calculated. In FIG. 6A, the brightness average value BV1 is higher than the brightness average value BV2. Further, the exposure time ET1 is shorter than the exposure time ET2. Then, in the example of FIG. 6A, as the relationship between the exposure time and the brightness average value, when the brightness average value is higher than the brightness average value BV1, the exposure time ET1 is set and the brightness is lower than the brightness average value BV2. When it is an average value, the exposure time is ET2, and the relationship is shown in which the exposure time is increased from the exposure time ET1 to the exposure time ET2 at a constant rate from the brightness average value BV1 to the brightness average value BV2.
また、パラメータ算出部952は、例えば、図6(b)に示した関係を用いて、検波処理部93から出力された検波情報(輝度平均値)に対応するアナログゲイン(明るさパラメータ)を算出する。なお、図6(b)において、輝度平均値BV3は、輝度平均値BV2よりも低い値である。また、アナログゲインAG1は、アナログゲインAG2よりも小さい値である。そして、図6(b)の例では、アナログゲインと輝度平均値との関係として、輝度平均値BV2よりも高い輝度平均値である場合にはアナログゲインAG1とし、輝度平均値BV3よりも低い輝度平均値である場合にはアナログゲインAG2とし、輝度平均値BV2から輝度平均値BV3にかけてアナログゲインをアナログゲインAG1からアナログゲインAG2まで一定の割合で増加させた関係を示している。 Further, the parameter calculation unit 952 calculates the analog gain (brightness parameter) corresponding to the detection information (luminance average value) output from the detection processing unit 93, for example, using the relationship shown in FIG. 6 (b). do. In FIG. 6B, the brightness average value BV3 is lower than the brightness average value BV2. Further, the analog gain AG1 is a value smaller than that of the analog gain AG2. Then, in the example of FIG. 6B, as the relationship between the analog gain and the brightness average value, when the brightness average value is higher than the brightness average value BV2, the analog gain AG1 is set and the brightness is lower than the brightness average value BV3. When it is an average value, the analog gain is AG2, and the relationship is shown in which the analog gain is increased from the analog gain AG1 to the analog gain AG2 at a constant rate from the brightness average value BV2 to the brightness average value BV3.
また、パラメータ算出部952は、例えば、図6(c)に示した関係を用いて、検波処理部93から出力された検波情報(輝度平均値)に対応するデジタルゲイン(明るさパラメータ)を算出する。なお、図6(c)において、輝度平均値BV4は、輝度平均値BV3よりも低い値である。また、デジタルゲインDG1は、デジタルゲインDG2よりも小さい値である。そして、図6(c)の例では、デジタルゲインと輝度平均値との関係として、輝度平均値BV3よりも高い輝度平均値である場合にはデジタルゲインDG1とし、輝度平均値BV4よりも低い輝度平均値である場合にはデジタルゲインDG2とし、輝度平均値BV3から輝度平均値BV4にかけてデジタルゲインをデジタルゲインDG1からデジタルゲインDG2まで一定の割合で増加させた関係を示している。 Further, the parameter calculation unit 952 calculates the digital gain (brightness parameter) corresponding to the detection information (luminance average value) output from the detection processing unit 93, for example, using the relationship shown in FIG. 6 (c). do. In FIG. 6C, the brightness average value BV4 is lower than the brightness average value BV3. Further, the digital gain DG1 is a smaller value than the digital gain DG2. Then, in the example of FIG. 6C, as the relationship between the digital gain and the brightness average value, when the brightness average value is higher than the brightness average value BV3, the digital gain DG1 is set and the brightness is lower than the brightness average value BV4. When it is an average value, the digital gain DG2 is used, and the relationship is shown in which the digital gain is increased at a constant rate from the digital gain DG1 to the digital gain DG2 from the brightness average value BV3 to the brightness average value BV4.
また、パラメータ算出部952は、例えば、図6(d)に示した関係を用いて、検波処理部93から出力された検波情報(輝度平均値)に対応する光量(明るさパラメータ)を算出する。そして、図6(d)の例では、光量と輝度平均値との関係として、輝度平均値BV1よりも低い輝度平均値である場合には光量AL1とし、輝度平均値が輝度平均値BV1よりも低くなるにしたがって光量を光量AL1から一定の割合で減少させた関係を示している。
以上説明した明るさパラメータと輝度平均値との関係(例えば、図6に示した関係)は、例えば、LUT(ルックアップテーブル)等で記憶部98に予め記憶されている。
Further, the parameter calculation unit 952 calculates the amount of light (brightness parameter) corresponding to the detection information (luminance average value) output from the detection processing unit 93, for example, using the relationship shown in FIG. 6D. .. Then, in the example of FIG. 6D, as the relationship between the light amount and the brightness average value, when the brightness average value is lower than the brightness average value BV1, the light amount is set to AL1, and the brightness average value is higher than the brightness average value BV1. It shows the relationship in which the amount of light is reduced at a constant rate from the amount of light AL1 as it becomes lower.
The relationship between the brightness parameter and the brightness average value described above (for example, the relationship shown in FIG. 6) is stored in advance in the storage unit 98 by, for example, a LUT (look-up table) or the like.
明るさ制御部953は、パラメータ算出部952にて算出された明るさパラメータに基づいて、撮像素子541、信号処理部542、画像処理部92、及び光源装置3の動作を制御する。
具体的に、明るさ制御部953は、第1伝送ケーブル6を介して撮像部54に制御信号を出力し、撮像素子541の各画素の露光時間をパラメータ算出部952にて算出された露光時間(明るさパラメータ)とする。また、明るさ制御部953は、第1伝送ケーブル6を介して撮像部54に制御信号を出力し、信号処理部542にて乗算されるアナログゲインをパラメータ算出部952にて算出されたアナログゲイン(明るさパラメータ)とする。さらに、明るさ制御部953は、画像処理部92に制御信号を出力し、当該画像処理部92にて乗算されるデジタルゲインをパラメータ算出部952にて算出されたデジタルゲイン(明るさパラメータ)とする。また、明るさ制御部953は、第3伝送ケーブル10を介して光源装置3に制御信号を出力し、当該光源装置3から挿入部2に供給される光の光量をパラメータ算出部952にて算出された光量(明るさパラメータ)とする。
すなわち、撮像素子541、信号処理部542、画像処理部92、及び光源装置3は、撮像部54による撮像で得られる撮像画像の明るさを変更する本発明に係る明るさ変更部100(図2)に相当する。
The brightness control unit 953 controls the operations of the image sensor 541, the signal processing unit 542, the image processing unit 92, and the light source device 3 based on the brightness parameters calculated by the parameter calculation unit 952.
Specifically, the brightness control unit 953 outputs a control signal to the image pickup unit 54 via the first transmission cable 6, and the exposure time of each pixel of the image pickup element 541 is calculated by the parameter calculation unit 952. (Brightness parameter). Further, the brightness control unit 953 outputs a control signal to the image pickup unit 54 via the first transmission cable 6, and the analog gain multiplied by the signal processing unit 542 is calculated by the parameter calculation unit 952. (Brightness parameter). Further, the brightness control unit 953 outputs a control signal to the image processing unit 92, and the digital gain multiplied by the image processing unit 92 is combined with the digital gain (brightness parameter) calculated by the parameter calculation unit 952. do. Further, the brightness control unit 953 outputs a control signal to the light source device 3 via the third transmission cable 10, and the parameter calculation unit 952 calculates the amount of light supplied from the light source device 3 to the insertion unit 2. Let it be the amount of light (brightness parameter).
That is, the image sensor 541, the signal processing unit 542, the image processing unit 92, and the light source device 3 change the brightness of the captured image obtained by the image pickup by the image pickup unit 54. The brightness change unit 100 according to the present invention (FIG. 2). ) Corresponds.
被写体距離算出部954は、被写体距離DSを算出する。
ところで、明るさ変更部100にて撮像画像の明るさを基準となる明るさに変更せずに(明るさパラメータを基準となる明るさパラメータに維持した状態で)、被写体距離DSを変更した場合には、被写体距離DSが短いほど検波処理部93にて検出される輝度平均値は高くなる。すなわち、被写体距離DSと輝度平均値との間には相関関係がある。したがって、当該相関関係を利用すれば、輝度平均値から被写体距離DSを算出することが可能となる。しかしながら、上述したように、撮像画像の明るさは、明るさ変更部100により基準となる明るさに変更される。すなわち、被写体距離DSを変更しても、検波処理部93にて検出される輝度平均値は、基準となる輝度平均値で一定となる。このため、上述した相関関係を利用しても、当該輝度平均値から被写体距離DSを算出することはできない。
ここで、パラメータ算出部952にて算出される明るさパラメータは、明るさ変更部100にて撮像画像の明るさが基準となる明るさに変更される前に検波処理部93にて検出された輝度平均値に基づいて算出されたものである。このため、当該明るさパラメータから、撮像画像の明るさが基準となる明るさに変更される前の輝度平均値、ひいては、被写体距離DSを算出することができる。
そこで、被写体距離算出部954は、パラメータ算出部952にて算出された明るさパラメータを所定の関係式やLUTを利用して被写体距離DSに換算する。
なお、本実施の形態1では、被写体距離算出部954は、被写体Suに挿入部2の先端が接触している状態を「0」とし、被写体Suから挿入部2の先端が十分に離間している状態を「100」として、「0」〜「100」の範囲で被写体距離DSを算出する。
The subject distance calculation unit 954 calculates the subject distance DS.
By the way, when the subject distance DS is changed by the brightness changing unit 100 without changing the brightness of the captured image to the reference brightness (while maintaining the brightness parameter as the reference brightness parameter). The shorter the subject distance DS, the higher the average brightness detected by the detection processing unit 93. That is, there is a correlation between the subject distance DS and the average brightness. Therefore, if the correlation is used, the subject distance DS can be calculated from the average luminance value. However, as described above, the brightness of the captured image is changed to the reference brightness by the brightness changing unit 100. That is, even if the subject distance DS is changed, the brightness average value detected by the detection processing unit 93 is constant at the reference brightness average value. Therefore, even if the above-mentioned correlation is used, the subject distance DS cannot be calculated from the brightness average value.
Here, the brightness parameter calculated by the parameter calculation unit 952 was detected by the detection processing unit 93 before the brightness of the captured image was changed to the reference brightness by the brightness change unit 100. It is calculated based on the average brightness value. Therefore, from the brightness parameter, it is possible to calculate the average brightness value before the brightness of the captured image is changed to the reference brightness, and thus the subject distance DS.
Therefore, the subject distance calculation unit 954 converts the brightness parameter calculated by the parameter calculation unit 952 into the subject distance DS by using a predetermined relational expression or LUT.
In the first embodiment, the subject distance calculation unit 954 sets the state in which the tip of the insertion unit 2 is in contact with the subject Su as “0”, and the tip of the insertion unit 2 is sufficiently separated from the subject Su. The subject distance DS is calculated in the range of "0" to "100", assuming that the state is "100".
距離判定部955は、被写体距離算出部954にて算出された被写体距離DSと基準距離DS1とを比較し、被写体距離DSが基準距離DS1以内であるか否かを判定する。
なお、基準距離DS1は、上述したように当該基準距離DS1以内の被写体距離DSである場合に誤ったフォーカス位置P2にフォーカスレンズ511を位置付けてしまう可能性の高い被写体距離DSのうち、最も長い被写体距離DSに相当する。また、基準距離DS1は、図3に示すように、電気メス等の処置具Ttによる処置時に発生するミストMiにより挿入部2の先端が汚れない被写体距離DSのうち、最も短い被写体距離DSに相当する。
なお、本実施の形態1では、基準距離DS1を「20」とする(被写体距離DSの範囲:「0」〜「100」)。この基準距離DS1は、記憶部98に予め記憶されている。
The distance determination unit 955 compares the subject distance DS calculated by the subject distance calculation unit 954 with the reference distance DS1 and determines whether or not the subject distance DS is within the reference distance DS1.
As described above, the reference distance DS1 is the longest subject among the subject distance DSs that are likely to position the focus lens 511 at the wrong focus position P2 when the subject distance DS is within the reference distance DS1. Corresponds to the distance DS. Further, as shown in FIG. 3, the reference distance DS1 corresponds to the shortest subject distance DS among the subject distance DSs in which the tip of the insertion portion 2 is not contaminated by the mist Mi generated during treatment with the treatment tool Tt such as an electric knife. do.
In the first embodiment, the reference distance DS1 is set to "20" (the range of the subject distance DS: "0" to "100"). The reference distance DS1 is stored in the storage unit 98 in advance.
音声制御部956は、距離判定部955にて被写体距離DSが基準距離DS1以内であると判定された場合に、第2伝送ケーブル8を介して、制御信号を表示装置7(音声出力部72)に出力し、音声出力部72から音声を出力させる。
以上説明した表示部71、表示制御部94、音声出力部72、及び音声制御部956は、本発明に係る距離情報報知部200(図2)に相当する。
When the distance determination unit 955 determines that the subject distance DS is within the reference distance DS1, the voice control unit 956 displays a control signal via the second transmission cable 8 (voice output unit 72). And output the sound from the sound output unit 72.
The display unit 71, the display control unit 94, the voice output unit 72, and the voice control unit 956 described above correspond to the distance information notification unit 200 (FIG. 2) according to the present invention.
入力部96は、マウス、キーボード、及びタッチパネル等の操作デバイスを用いて構成され、ユーザによる操作を受け付ける。
出力部97は、スピーカやプリンタ等を用いて構成され、各種情報を出力する。
記憶部98は、制御部95が実行するプログラムや、制御部95の処理に必要な情報等を記憶する。
The input unit 96 is configured by using an operation device such as a mouse, a keyboard, and a touch panel, and accepts operations by the user.
The output unit 97 is configured by using a speaker, a printer, or the like, and outputs various information.
The storage unit 98 stores a program executed by the control unit 95, information necessary for processing by the control unit 95, and the like.
〔内視鏡装置の動作〕
次に、上述した内視鏡装置1の動作について説明する。
図7は、内視鏡装置1の動作を示すフローチャートである。
なお、以下では、検波処理部93、パラメータ算出部952、被写体距離算出部954、距離判定部955、及び距離情報報知部200の動作を主に説明する。
先ず、検波処理部93は、制御部95による制御の下、検波処理を実行する(ステップS1)。そして、検波処理部93は、検波処理により得られた検波情報を制御部95に出力する。
[Operation of endoscope device]
Next, the operation of the endoscope device 1 described above will be described.
FIG. 7 is a flowchart showing the operation of the endoscope device 1.
In the following, the operations of the detection processing unit 93, the parameter calculation unit 952, the subject distance calculation unit 954, the distance determination unit 955, and the distance information notification unit 200 will be mainly described.
First, the detection processing unit 93 executes the detection processing under the control of the control unit 95 (step S1). Then, the detection processing unit 93 outputs the detection information obtained by the detection processing to the control unit 95.
ステップS1の後、パラメータ算出部952は、ステップS1の検波処理により得られた検波情報(輝度平均値)に基づいて、明るさパラメータ(露光時間、アナログゲイン、デジタルゲイン、及び光量)を算出する(ステップS2)。
ステップS2の後、被写体距離算出部954は、ステップS2で算出された明るさパラメータ(露光時間、アナログゲイン、デジタルゲイン、及び光量)に基づいて、被写体距離DS(「0」〜「100」の範囲)を算出する(ステップS3)。
ステップS3の後、距離判定部955は、ステップS3で算出された被写体距離DSと基準距離DS1とを比較し(ステップS4)、被写体距離DSが基準距離DS1以内であるか否かを判定する(ステップS5)。
After step S1, the parameter calculation unit 952 calculates the brightness parameters (exposure time, analog gain, digital gain, and light intensity) based on the detection information (luminance average value) obtained by the detection process in step S1. (Step S2).
After step S2, the subject distance calculation unit 954 sets the subject distance DS (“0” to “100”) based on the brightness parameters (exposure time, analog gain, digital gain, and light intensity) calculated in step S2. Range) is calculated (step S3).
After step S3, the distance determination unit 955 compares the subject distance DS calculated in step S3 with the reference distance DS1 (step S4), and determines whether or not the subject distance DS is within the reference distance DS1 (step S4). Step S5).
被写体距離DSが基準距離DS1を超えていると判定された場合(ステップS5:No)には、距離情報報知部200は、当該被写体距離DSに関する距離情報を第1報知状態で報知する(ステップS6)。この後、内視鏡装置1は、ステップS1に戻る。
図8は、第1報知状態の一例を示す図である。
例えば、距離情報報知部200は、ステップS6において、図8に示すように、被写体距離DSに関する距離情報を第1報知状態で報知する。
具体的に、表示制御部94は、図8に示すように、被写体像SIを含む撮像画像CI上に被写体距離レベルメータLMを重畳した表示画像DIを表示装置7(表示部71)に表示させる。
ここで、被写体距離レベルメータLMは、図8に示すように、レベルバーLBと、スライダSLと、閾値マークSMとが配置されたものである。
レベルバーLBは、被写体距離DSの範囲(「0」〜「100」)に対応するスケールである。
スライダSLは、ステップS3で算出された被写体距離DSに対応するレベルバーLB上の位置を指示する。なお、図8の例では、スライダSLは、ステップS3で算出された被写体距離DSが基準距離DS1(「20」)を超えている(ステップS5:No)ため、当該被写体距離DSに対応するレベルバーLB上の位置に位置付けられている。
閾値マークSMは、基準距離DS1(「20」)を指し示すマークである。
When it is determined that the subject distance DS exceeds the reference distance DS1 (step S5: No), the distance information notification unit 200 notifies the distance information related to the subject distance DS in the first notification state (step S6). ). After this, the endoscope device 1 returns to step S1.
FIG. 8 is a diagram showing an example of the first notification state.
For example, in step S6, the distance information notification unit 200 notifies the distance information regarding the subject distance DS in the first notification state, as shown in FIG.
Specifically, as shown in FIG. 8, the display control unit 94 causes the display device 7 (display unit 71) to display the display image DI in which the subject distance level meter LM is superimposed on the captured image CI including the subject image SI. ..
Here, as shown in FIG. 8, the subject distance level meter LM has a level bar LB, a slider SL, and a threshold mark SM arranged.
The level bar LB is a scale corresponding to the range of the subject distance DS (“0” to “100”).
The slider SL indicates a position on the level bar LB corresponding to the subject distance DS calculated in step S3. In the example of FIG. 8, since the subject distance DS calculated in step S3 exceeds the reference distance DS1 (“20”) (step S5: No), the slider SL has a level corresponding to the subject distance DS. It is positioned on the bar LB.
The threshold mark SM is a mark indicating the reference distance DS1 (“20”).
一方、ステップS5において、被写体距離DSが基準距離DS1以内であると判定された場合(ステップS5:Yes)には、距離情報報知部200は、当該被写体距離DSに関する情報をステップS6での第1報知状態とは異なる第2報知状態で報知する(ステップS7)。この後、内視鏡装置1は、ステップS1に戻る。
図9は、第2報知状態の一例を示す図である。
例えば、距離情報報知部200は、ステップS7において、図9に示すように、被写体距離DSに関する距離情報を第2報知状態で報知する。
具体的に、表示制御部94は、図9に示すように、上述した第1報知状態(図8)と同様に、撮像画像CI上に被写体距離レベルメータLMを重畳した表示画像DIを表示装置7(表示部71)に表示させる。
第2報知状態での被写体距離レベルメータLMでは、スライダSLは、図9に示すように、ステップS3で算出された被写体距離DSに対応するレベルバーLB上の位置を指示するとともに、点滅表示されている。なお、図9の例では、スライダSLは、ステップS3で算出された被写体距離DSが基準距離DS1(「20」)以内である(ステップS5:Yes)ため、当該被写体距離DSに対応するレベルバーLB上の位置に位置付けられている。
さらに、音声制御部956は、図9に示すように、表示装置7(音声出力部72)から警告音(図9の例では「ピピピッ」という音)を発生させる。
On the other hand, when it is determined in step S5 that the subject distance DS is within the reference distance DS1 (step S5: Yes), the distance information notification unit 200 provides information on the subject distance DS to the first step S6. Notification is performed in a second notification state different from the notification state (step S7). After this, the endoscope device 1 returns to step S1.
FIG. 9 is a diagram showing an example of the second notification state.
For example, in step S7, the distance information notification unit 200 notifies the distance information regarding the subject distance DS in the second notification state, as shown in FIG.
Specifically, as shown in FIG. 9, the display control unit 94 displays a display image DI in which the subject distance level meter LM is superimposed on the captured image CI, as in the first notification state (FIG. 8) described above. 7 (display unit 71) is displayed.
In the subject distance level meter LM in the second notification state, as shown in FIG. 9, the slider SL indicates the position on the level bar LB corresponding to the subject distance DS calculated in step S3, and is displayed in blinking. ing. In the example of FIG. 9, in the slider SL, since the subject distance DS calculated in step S3 is within the reference distance DS1 (“20”) (step S5: Yes), the level bar corresponding to the subject distance DS. It is positioned on the LB.
Further, as shown in FIG. 9, the voice control unit 956 generates a warning sound (a beeping sound in the example of FIG. 9) from the display device 7 (voice output unit 72).
図8に示した被写体距離レベルメータLMは、第1報知状態での本発明に係る距離情報に相当する。また、図9に示した被写体距離レベルメータLM及び警告音は、第2報知状態での本発明に係る距離情報に相当する。すなわち、距離情報報知部200は、距離判定部955にて被写体距離DSが基準距離DS1を超えていると判定された場合と基準距離DS1以内であると判定された場合とで、互いに異なる報知状態(第1,第2報知状態)で本発明に係る距離情報を報知する。 The subject distance level meter LM shown in FIG. 8 corresponds to the distance information according to the present invention in the first notification state. Further, the subject distance level meter LM and the warning sound shown in FIG. 9 correspond to the distance information according to the present invention in the second notification state. That is, the distance information notification unit 200 has different notification states depending on whether the distance determination unit 955 determines that the subject distance DS exceeds the reference distance DS1 or is within the reference distance DS1. The distance information according to the present invention is notified in (first and second notification states).
以上説明した本実施の形態1によれば、以下の効果を奏する。
本実施の形態1に係る内視鏡装置1は、明るさパラメータを所定の関係式やLUTを利用して被写体距離DSに換算する。また、内視鏡装置1は、被写体距離DSが基準距離DS1以内であるか否かを判定する。すなわち、内視鏡装置1は、挿入部2の先端が処置具Ttによる処置時に発生するミストMiにて汚れてしまう範囲内、あるいは、誤ったフォーカス位置P2(被写体像SIが合焦状態とならない位置)にフォーカスレンズ511を位置付けてしまう可能性の高い範囲内に位置しているか否かを判定する。そして、内視鏡装置1は、被写体距離DSが基準距離DS1を超えている場合と基準距離DS1以内である場合とで、異なる報知状態(第1報知状態(図8)及び第2報知状態(図9))により、被写体距離DSに関する距離情報を報知する。
このため、医師等は、距離情報の報知状態の変化を認識することで、挿入部2の先端が処置具Ttによる処置時に発生するミストMiにて汚れてしまう範囲内に位置しているか否かを判断することができる。そして、医師等は、挿入部2の先端が当該範囲内に位置していると判断し、かつ、処置具Ttにて処置を実行する場合には、被写体Suから挿入部2の先端を遠ざけることで、ミストMiにて挿入部2の先端が汚れてしまうことを回避することができる。したがって、生体内から挿入部2を引き抜いて挿入部2の先端の汚れを除去するという煩雑な作業を医師等に行わせることを回避することができる。
また、医師等は、距離情報の報知状態の変化を認識することで、挿入部2の先端が誤ったフォーカス位置P2にフォーカスレンズ511を位置付けてしまう可能性の高い範囲内に位置しているか否かを判断することができる。そして、医師等は、挿入部2の先端が当該範囲内に位置していると判断した場合には、被写体Suから挿入部2の先端を遠ざけることができる。したがって、AF処理がワンタッチAFである場合において、被写体像SIを合焦状態とするためにカメラヘッド5等に設けられた操作ボタン(図示略)を何度も操作するという煩雑な作業を医師等に行わせることを回避することができる。
以上のことから、本実施の形態1に係る内視鏡装置1によれば、利便性の向上を図ることができる、という効果を奏する。
According to the first embodiment described above, the following effects are obtained.
The endoscope device 1 according to the first embodiment converts the brightness parameter into the subject distance DS by using a predetermined relational expression or LUT. Further, the endoscope device 1 determines whether or not the subject distance DS is within the reference distance DS1. That is, in the endoscope device 1, the tip of the insertion portion 2 is within the range where the tip is contaminated by the mist Mi generated during the treatment with the treatment tool Tt, or the wrong focus position P2 (the subject image SI is not in the focused state). It is determined whether or not the focus lens 511 is located within a range in which the focus lens 511 is likely to be positioned at the position). Then, the endoscope device 1 has different notification states (first notification state (FIG. 8) and second notification state (1st notification state (FIG. 8)) depending on whether the subject distance DS exceeds the reference distance DS1 and is within the reference distance DS1. The distance information regarding the subject distance DS is notified according to FIG. 9)).
Therefore, the doctor or the like recognizes the change in the notification state of the distance information, and whether or not the tip of the insertion portion 2 is located within the range where the mist Mi generated during the treatment with the treatment tool Tt becomes dirty. Can be judged. Then, the doctor or the like determines that the tip of the insertion portion 2 is located within the range, and when performing the treatment with the treatment tool Tt, keep the tip of the insertion portion 2 away from the subject Su. Therefore, it is possible to prevent the tip of the insertion portion 2 from becoming dirty with the mist Mi. Therefore, it is possible to avoid having a doctor or the like perform the complicated work of pulling out the insertion portion 2 from the living body to remove the dirt on the tip of the insertion portion 2.
Further, the doctor or the like recognizes the change in the notification state of the distance information, and whether or not the tip of the insertion portion 2 is located within a range where there is a high possibility that the focus lens 511 is positioned at the erroneous focus position P2. Can be determined. Then, when the doctor or the like determines that the tip of the insertion portion 2 is located within the range, the tip of the insertion portion 2 can be kept away from the subject Su. Therefore, when the AF process is one-touch AF, a doctor or the like performs a complicated operation of repeatedly operating an operation button (not shown) provided on the camera head 5 or the like in order to bring the subject image SI into the focused state. Can be avoided.
From the above, according to the endoscope device 1 according to the first embodiment, it is possible to improve the convenience.
また、本実施の形態1に係る内視鏡装置1は、画角を変化させるズームレンズ512を備える。すなわち、ズームレンズ512により被写体像SIが拡大されている場合には、医師等は、表示画像DIを確認しただけでは、挿入部2の先端が被写体Suに対して不要に近付き過ぎているか否かを判断することが難しい。このため、ズームレンズ512を備えた内視鏡装置1に本発明を適用すれば、上述した利便性の向上を図ることができる、という効果を好適に実現することができる。 Further, the endoscope device 1 according to the first embodiment includes a zoom lens 512 that changes the angle of view. That is, when the subject image SI is magnified by the zoom lens 512, whether or not the tip of the insertion portion 2 is unnecessarily too close to the subject Su just by checking the display image DI. Is difficult to judge. Therefore, if the present invention is applied to the endoscope device 1 provided with the zoom lens 512, the above-mentioned effect of improving convenience can be suitably realized.
(実施の形態2)
次に、本発明の実施の形態2について説明する。
以下の説明では、上述した実施の形態1と同様の構成には同一符号を付し、その詳細な説明は省略または簡略化する。
図10は、図2に対応した図であって、本実施の形態2に係る内視鏡装置1Aの概略構成を示す図である。図11は、内視鏡装置1Aの動作を示すフローチャートである。
本実施の形態2に係る内視鏡装置1A(制御装置9A(制御部95A)では、図10に示すように、上述した実施の形態1で説明した内視鏡装置1に対して、被写体距離算出部954の代わりに、当該被写体距離算出部954とは異なる方法で被写体距離DSを算出する被写体距離算出部954Aを採用している点が異なる。
以下、被写体距離算出部954Aの機能について、図11を参照しながら説明する。
(Embodiment 2)
Next, Embodiment 2 of the present invention will be described.
In the following description, the same components as those in the first embodiment will be designated by the same reference numerals, and detailed description thereof will be omitted or simplified.
FIG. 10 is a diagram corresponding to FIG. 2, and is a diagram showing a schematic configuration of the endoscope device 1A according to the second embodiment. FIG. 11 is a flowchart showing the operation of the endoscope device 1A.
In the endoscope device 1A (control device 9A (control unit 95A)) according to the second embodiment, as shown in FIG. 10, the subject distance is relative to the endoscope device 1 described in the first embodiment described above. The difference is that instead of the calculation unit 954, the subject distance calculation unit 954A that calculates the subject distance DS by a method different from that of the subject distance calculation unit 954 is adopted.
Hereinafter, the function of the subject distance calculation unit 954A will be described with reference to FIG.
本実施の形態2に係る内視鏡装置1Aの動作は、図11に示すように、上述した実施の形態1で説明した内視鏡装置1の動作(図7)に対して、ステップS8が追加されているとともに、ステップS3の代わりにステップS3Aが採用されている点が異なる。このため、以下では、ステップS8,S3Aについて説明する。
ステップS8は、ステップS2の後に実行される。
具体的に、被写体距離算出部954Aは、ステップS8において、画像処理部92にて処理された画像信号(Y,CB/CR信号)のうち輝度信号(Y信号)を取得する。当該輝度信号(Y信号)は、ステップS2で算出された明るさパラメータに応じて明るさ変更部100にて基準となる明るさに変更された後の輝度信号(Y信号)である。そして、被写体距離算出部954Aは、ステップS2で算出された明るさパラメータと、画像処理部92から取得した上記輝度信号(Y信号)とに基づいて、明るさ変更部100にて基準となる明るさに変更される前の輝度信号(Y信号)を算出する。
As shown in FIG. 11, the operation of the endoscope device 1A according to the second embodiment is described in step S8 with respect to the operation of the endoscope device 1 described in the above-described first embodiment (FIG. 7). The difference is that step S3A is adopted instead of step S3 as well as being added. Therefore, steps S8 and S3A will be described below.
Step S8 is executed after step S2.
Specifically, the subject distance calculator 954A in step S8, to obtain the luminance signal (Y signal) among the processed image signal by the image processing unit 92 (Y, C B / C R signal). The luminance signal (Y signal) is a luminance signal (Y signal) after being changed to a reference brightness by the brightness changing unit 100 according to the brightness parameter calculated in step S2. Then, the subject distance calculation unit 954A uses the brightness parameter calculated in step S2 and the brightness signal (Y signal) acquired from the image processing unit 92 as a reference brightness in the brightness changing unit 100. The brightness signal (Y signal) before the change is calculated.
ステップS3Aは、ステップS8の後に実行される。
具体的に、被写体距離算出部954Aは、ステップS3Aにおいて、ステップS8で算出した基準となる明るさに変更される前の輝度信号(Y信号)のうち、検波処理が行われる検波領域と同一の領域の画素毎の輝度信号(Y信号)に基づいて、当該領域内の画像の輝度平均値を算出する。そして、被写体距離算出部954Aは、当該算出した輝度平均値を所定の関係式やLUTを利用して被写体距離DSに換算する。
そして、ステップS3Aの後、内視鏡装置1Aは、ステップS4に移行する。
Step S3A is executed after step S8.
Specifically, the subject distance calculation unit 954A is the same as the detection region in which the detection process is performed among the luminance signals (Y signals) before being changed to the reference brightness calculated in step S8 in step S3A. Based on the luminance signal (Y signal) for each pixel in the region, the brightness average value of the image in the region is calculated. Then, the subject distance calculation unit 954A converts the calculated luminance average value into the subject distance DS by using a predetermined relational expression or LUT.
Then, after step S3A, the endoscope device 1A shifts to step S4.
以上説明した本実施の形態2のように被写体距離DSを算出した場合であっても、上述した実施の形態1と同様の効果を奏する。 Even when the subject distance DS is calculated as in the second embodiment described above, the same effect as that of the first embodiment described above can be obtained.
(実施の形態3)
次に、本発明の実施の形態3について説明する。
以下の説明では、上述した実施の形態1と同様の構成には同一符号を付し、その詳細な説明は省略または簡略化する。
図12は、図2に対応した図であって、本実施の形態3に係る内視鏡装置1Bの概略構成を示す図である。図13は、内視鏡装置1Bの動作を示すフローチャートである。
本実施の形態3に係る内視鏡装置1B(制御装置9B)では、図12に示すように、上述した実施の形態1で説明した内視鏡装置1に対して、マスクエッジ検出処理を実行するエッジ検出部99が追加されているとともに、検波処理部93の代わりに当該検波処理部93とは検波領域が異なる検波処理部93Bを採用している点が異なる。
以下、エッジ検出部99及び検波処理部93Bの機能について、図13を参照しながら説明する。
(Embodiment 3)
Next, Embodiment 3 of the present invention will be described.
In the following description, the same components as those in the first embodiment will be designated by the same reference numerals, and detailed description thereof will be omitted or simplified.
FIG. 12 is a diagram corresponding to FIG. 2, and is a diagram showing a schematic configuration of the endoscope device 1B according to the third embodiment. FIG. 13 is a flowchart showing the operation of the endoscope device 1B.
In the endoscope device 1B (control device 9B) according to the third embodiment, as shown in FIG. 12, the mask edge detection process is executed on the endoscope device 1 described in the above-described first embodiment. The edge detection unit 99 is added, and the detection processing unit 93B, which has a different detection region from the detection processing unit 93, is used instead of the detection processing unit 93.
Hereinafter, the functions of the edge detection unit 99 and the detection processing unit 93B will be described with reference to FIG.
本実施の形態3に係る内視鏡装置1Bの動作は、図13に示すように、上述した実施の形態1で説明した内視鏡装置1の動作(図7)に対して、ステップS9が追加されているとともに、ステップS1の代わりにステップS1Bが採用されている点が異なる。このため、以下では、ステップS9,図1Bについて説明する。
ステップS9において、エッジ検出部99は、マスクエッジ検出処理を実行する。
図14は、マスクエッジ検出処理を説明する図である。具体的に、図14(a)は、撮像画像CIの一例を示す図である。図14(b)は、図14(a)に示した撮像画像CI中の水平ラインL5での輝度値の分布を示す図である。
ここで、生体内にて反射され、挿入部2内に集光された光(被写体像)は、断面略円形である。このため、撮像画像CI内の被写体像SIは、図14(a)に示すように、略円形となる。すなわち、撮像画像CIは、被写体像SIと、当該被写体像SI以外のマスク領域MA(図14(a)の黒塗りの部分)とを含む。
As shown in FIG. 13, the operation of the endoscope device 1B according to the third embodiment is described in step S9 with respect to the operation of the endoscope device 1 described in the above-described first embodiment (FIG. 7). The difference is that step S1B is adopted instead of step S1 as well as being added. Therefore, in the following, steps S9 and FIG. 1B will be described.
In step S9, the edge detection unit 99 executes the mask edge detection process.
FIG. 14 is a diagram illustrating a mask edge detection process. Specifically, FIG. 14A is a diagram showing an example of the captured image CI. FIG. 14B is a diagram showing the distribution of the luminance values on the horizontal line L5 in the captured image CI shown in FIG. 14A.
Here, the light (subject image) that is reflected in the living body and condensed in the insertion portion 2 has a substantially circular cross section. Therefore, the subject image SI in the captured image CI has a substantially circular shape as shown in FIG. 14A. That is, the captured image CI includes the subject image SI and the mask region MA (black-painted portion in FIG. 14A) other than the subject image SI.
そして、エッジ検出部99は、ステップS9でマスクエッジ検出処理を実行することにより、被写体像SIとマスク領域MAとの境界点BP(図14(a))を検出する。
具体的に、エッジ検出部99は、図14(a)に示すように、画像処理部92にて処理された画像信号(Y,CB/CR信号)のうち輝度信号(Y信号)を取得する。そして、エッジ検出部99は、当該輝度信号(Y信号)に基づいて、撮像画像CI内の複数本(本実施の形態3では14本)の水平ラインL1〜L14での輝度値の分布をそれぞれ検出する。ここで、撮像画像CIにおいて、被写体像SIの領域は、マスク領域MAよりも輝度値が高い。すなわち、例えば、水平ラインL5での輝度分布は、図14(b)に示すように、被写体像SIとマスク領域MAとの2つの境界点BP間で輝度値が高くなり、その他の部分で輝度値が低くなる。このため、エッジ検出部99は、複数本の水平ラインL1〜L14での輝度値の分布をそれぞれ検出することにより、被写体像SIとマスク領域MAとの複数の境界点BPを認識することができる。また、エッジ検出部99は、認識した複数の境界点BPに基づいて、当該複数の境界点BPで囲まれる被写体像SIの領域を認識する。
Then, the edge detection unit 99 detects the boundary point BP (FIG. 14A) between the subject image SI and the mask area MA by executing the mask edge detection process in step S9.
Specifically, the edge detection unit 99, as shown in FIG. 14 (a), the processed image signal by the image processing unit 92 (Y, C B / C R signal) luminance signal of the (Y signal) get. Then, the edge detection unit 99 distributes the brightness values of a plurality of lines (14 lines in the third embodiment) in the captured image CI on the horizontal lines L1 to L14 based on the brightness signal (Y signal). To detect. Here, in the captured image CI, the region of the subject image SI has a higher luminance value than the mask region MA. That is, for example, in the luminance distribution on the horizontal line L5, as shown in FIG. 14B, the luminance value becomes high between the two boundary points BP between the subject image SI and the mask region MA, and the luminance is increased in other portions. The value will be low. Therefore, the edge detection unit 99 can recognize the plurality of boundary points BP between the subject image SI and the mask area MA by detecting the distribution of the brightness values on the plurality of horizontal lines L1 to L14, respectively. .. Further, the edge detection unit 99 recognizes a region of the subject image SI surrounded by the plurality of boundary point BPs based on the recognized plurality of boundary point BPs.
ステップS1Bは、ステップS9の後に実行される。
具体的に、検波処理部93Bは、ステップS1Bにおいて、画像処理部92にて処理された画像信号(Y,CB/CR信号)のうち輝度信号(Y信号)を取得する。また、検波処理部93Bは、ステップS9で検出された複数の境界点BPで囲まれる被写体像SIの領域を検波領域とする。そして、検波処理部93Bは、当該取得した輝度信号(Y信号)のうち、当該検波領域の画素毎の輝度信号(Y信号)に基づいて、当該検波領域内の画像のコントラストや周波数成分を検出するとともに、当該検波領域内の画像の輝度平均値を検出する。そして、検波処理部93Bは、当該検出により得られた検波情報(コントラストや周波数成分、及び輝度平均値)を制御部95に出力する。
ステップS1Bの後、内視鏡装置1Bは、ステップS2に移行する。
Step S1B is executed after step S9.
Specifically, the detection processing section 93B, in step S1B, acquires the luminance signal (Y signal) among the processed image signal by the image processing unit 92 (Y, C B / C R signal). Further, the detection processing unit 93B sets the region of the subject image SI surrounded by the plurality of boundary points BP detected in step S9 as the detection region. Then, the detection processing unit 93B detects the contrast and frequency components of the image in the detection region based on the brightness signal (Y signal) for each pixel in the detection region among the acquired brightness signals (Y signals). At the same time, the average brightness of the images in the detection region is detected. Then, the detection processing unit 93B outputs the detection information (contrast, frequency component, and brightness average value) obtained by the detection to the control unit 95.
After step S1B, the endoscope device 1B shifts to step S2.
以上説明した本実施の形態3によれば、上述した実施の形態1と同様の効果の他、以下の効果を奏する。
本実施の形態3に係る内視鏡装置1Bでは、マスクエッジ検出処理により被写体像SIとマスク領域MAとの複数の境界点BPを検出し、当該複数の境界点BPで囲まれる被写体像SIの領域を検波領域として検波処理を行う。
このため、マスク領域MAを含まない最大限に広い検波領域(被写体像SIの略全領域)で検波処理を行うことができる。すなわち、当該検波処理で得られた検波情報に基づく処理(例えば、AF処理や明るさパラメータの算出処理等)を精度良く実行することができる。
According to the third embodiment described above, in addition to the same effects as those of the first embodiment described above, the following effects are exhibited.
In the endoscope device 1B according to the third embodiment, a plurality of boundary point BPs between the subject image SI and the mask area MA are detected by mask edge detection processing, and the subject image SI surrounded by the plurality of boundary point BPs. The detection process is performed with the region as the detection region.
Therefore, the detection process can be performed in the widest possible detection area (substantially the entire area of the subject image SI) that does not include the mask area MA. That is, processing based on the detection information obtained by the detection processing (for example, AF processing, brightness parameter calculation processing, etc.) can be executed with high accuracy.
(実施の形態4)
次に、本発明の実施の形態4について説明する。
以下の説明では、上述した実施の形態1と同様の構成には同一符号を付し、その詳細な説明は省略または簡略化する。
図15は、図2に対応した図であって、本実施の形態4に係る内視鏡装置1Cの概略構成を示す図である。図16は、内視鏡装置1Cの動作を示すフローチャートである。
本実施の形態4に係る内視鏡装置1C(制御装置9C)では、図15に示すように、上述した実施の形態1で説明した内視鏡装置1に対して、画像処理部92の代わりに当該画像処理部92に新たな機能を追加した画像処理部92Cを採用し、レンズ制御部951の代わりに当該レンズ制御部951に新たな機能を追加したレンズ制御部951Cを採用し、距離判定部955の代わりに当該距離判定部955に新たな機能を追加した距離判定部955Cを採用している点が異なる。
以下、画像処理部92C、レンズ制御部951C、及び距離判定部955Cの機能について、図16を参照しながら説明する。
(Embodiment 4)
Next, Embodiment 4 of the present invention will be described.
In the following description, the same components as those in the first embodiment will be designated by the same reference numerals, and detailed description thereof will be omitted or simplified.
FIG. 15 is a diagram corresponding to FIG. 2 and is a diagram showing a schematic configuration of the endoscope device 1C according to the fourth embodiment. FIG. 16 is a flowchart showing the operation of the endoscope device 1C.
In the endoscope device 1C (control device 9C) according to the fourth embodiment, as shown in FIG. 15, the image processing unit 92 is replaced with the endoscope device 1 described in the first embodiment described above. The image processing unit 92C with a new function added to the image processing unit 92 is adopted, and the lens control unit 951C with a new function added to the lens control unit 951 is adopted instead of the lens control unit 951 to determine the distance. The difference is that the distance determination unit 955C, which is a distance determination unit 955 with a new function added, is used instead of the unit 955.
Hereinafter, the functions of the image processing unit 92C, the lens control unit 951C, and the distance determination unit 955C will be described with reference to FIG.
本実施の形態4に係る内視鏡装置1Cの動作は、図16に示すように、上述した実施の形態1で説明した内視鏡装置1の動作(図7)に対して、ステップS4,S5が省略されているとともに、ステップS10〜S18が追加されている点が異なる。このため、以下では、ステップS10〜S18について説明する。
ステップS10は、ステップS3の後に実行される。
図17及び図18は、処置具検出処理を説明する図である。
具体的に、画像処理部92Cは、ステップS10において、例えば、パターンマッチング等の公知の手法を用いて、撮像画像CI内の被写体像SIに含まれる処置具Ttを検出する処置具検出処理を実行する。
ステップS10の後、画像処理部92Cは、撮像画像CI内の被写体像SIに処置具Ttが含まれているか否かを判定する(ステップS11)。そして、画像処理部92Cは、撮像画像CI内の被写体像SIに処置具Ttが含まれていないと判定した場合(図17)には、処置具Ttが非使用状態であることを示す検出信号を制御部95に出力する。一方、画像処理部92Cは、撮像画像CI内の被写体像SIに処置具Ttが含まれていると判定した場合(図18)には、処置具Ttが使用状態であることを示す検出信号を制御部95に出力する。
すなわち、画像処理部92Cは、本発明に係る処置具検出部としての機能を有する。
As shown in FIG. 16, the operation of the endoscope device 1C according to the fourth embodiment is the operation of the endoscope device 1 described in the above-described first embodiment (FIG. 7) in steps S4 and S4. The difference is that S5 is omitted and steps S10 to S18 are added. Therefore, steps S10 to S18 will be described below.
Step S10 is executed after step S3.
17 and 18 are views for explaining the treatment tool detection process.
Specifically, in step S10, the image processing unit 92C executes the treatment tool detection process for detecting the treatment tool Tt included in the subject image SI in the captured image CI by using a known method such as pattern matching. do.
After step S10, the image processing unit 92C determines whether or not the treatment tool Tt is included in the subject image SI in the captured image CI (step S11). Then, when the image processing unit 92C determines that the subject image SI in the captured image CI does not include the treatment tool Tt (FIG. 17), the detection signal indicating that the treatment tool Tt is not in use. Is output to the control unit 95. On the other hand, when the image processing unit 92C determines that the subject image SI in the captured image CI includes the treatment tool Tt (FIG. 18), the image processing unit 92C outputs a detection signal indicating that the treatment tool Tt is in use. Output to the control unit 95.
That is, the image processing unit 92C has a function as a treatment tool detection unit according to the present invention.
処置具Ttが含まれていると判定された場合(ステップS11:Yes)には、距離判定部955Cは、ステップS3で算出された被写体距離DSと第2基準距離とを比較し(ステップS12)、被写体距離DSが当該第2基準距離以内であるか否かを判定する(ステップS13)。
ここで、第2基準距離は、処置具Ttによる処置時に発生するミストMiにより挿入部2の先端が汚れない被写体距離DSのうち、最も短い被写体距離DSに相当する。また、以下で記載する第1基準距離は、当該第1基準距離以内の被写体距離DSである場合に誤ったフォーカス位置P2にフォーカスレンズ511を位置付けてしまう可能性の高い被写体距離DSのうち、最も長い被写体距離DSに相当する。
すなわち、本実施の形態4では、上述した実施の形態1で説明した基準距離DS1を第1,第2基準距離の2つに分けている。また、本実施の形態4では、第1基準距離を「10」とし、第2基準距離を第1基準距離よりも長い「20」とする(被写体距離DSの範囲:「0」〜「100」)。
When it is determined that the treatment tool Tt is included (step S11: Yes), the distance determination unit 955C compares the subject distance DS calculated in step S3 with the second reference distance (step S12). , It is determined whether or not the subject distance DS is within the second reference distance (step S13).
Here, the second reference distance corresponds to the shortest subject distance DS among the subject distance DSs in which the tip of the insertion portion 2 is not contaminated by the mist Mi generated during the treatment with the treatment tool Tt. Further, the first reference distance described below is the most likely subject distance DS in which the focus lens 511 is likely to be positioned at the wrong focus position P2 when the subject distance DS is within the first reference distance. Corresponds to a long subject distance DS.
That is, in the fourth embodiment, the reference distance DS1 described in the first embodiment described above is divided into the first and second reference distances. Further, in the fourth embodiment, the first reference distance is set to "10" and the second reference distance is set to "20" which is longer than the first reference distance (subject distance DS range: "0" to "100"). ).
被写体距離DSが第2基準距離を超えていると判定された場合(ステップS13:No)には、内視鏡装置1Cは、ステップS6に移行する。
一方、被写体距離DSが第2基準距離以内であると判定された場合(ステップS13:Yes)には、内視鏡装置1Cは、ステップS7に移行する。
ステップS7の後、レンズ制御部951Cは、被写体距離DSが第2基準距離の時に被写体像SIが合焦状態となるフォーカス位置にフォーカスレンズ511を位置付ける(ステップS14)。この後、内視鏡装置1Cは、ステップS1に戻る。
When it is determined that the subject distance DS exceeds the second reference distance (step S13: No), the endoscope device 1C shifts to step S6.
On the other hand, when it is determined that the subject distance DS is within the second reference distance (step S13: Yes), the endoscope device 1C shifts to step S7.
After step S7, the lens control unit 951C positions the focus lens 511 at the focus position where the subject image SI is in focus when the subject distance DS is the second reference distance (step S14). After this, the endoscope device 1C returns to step S1.
ステップS11において、処置具Ttが含まれていないと判定された場合(ステップS11:No)には、距離判定部955Cは、ステップS3で算出された被写体距離DSと第1基準距離とを比較し(ステップS15)、被写体距離DSが当該第1基準距離以内であるか否かを判定する(ステップS16)。
被写体距離DSが第1基準距離を超えていると判定された場合(ステップS16:No)には、距離情報報知部200は、被写体距離DSに関する距離情報を第1報知状態で報知する(ステップS17)。この後、内視鏡装置1Cは、ステップS1に戻る。
図19は、ステップS17での第1報知状態の一例を示す図である。
例えば、距離情報報知部200は、ステップS17において、図19に示すように、上述した実施の形態1で説明した図8と同様に、被写体距離DSに関する距離情報を第1報知状態で報知する。
なお、ステップS17での被写体距離レベルメータLMでは、閾値マークSMは、第1基準距離(「10」)を指し示している(図8では、閾値マークSMは、第2基準距離(「20」)を指し示している)。
When it is determined in step S11 that the treatment tool Tt is not included (step S11: No), the distance determination unit 955C compares the subject distance DS calculated in step S3 with the first reference distance. (Step S15), it is determined whether or not the subject distance DS is within the first reference distance (step S16).
When it is determined that the subject distance DS exceeds the first reference distance (step S16: No), the distance information notification unit 200 notifies the distance information regarding the subject distance DS in the first notification state (step S17). ). After this, the endoscope device 1C returns to step S1.
FIG. 19 is a diagram showing an example of the first notification state in step S17.
For example, in step S17, the distance information notification unit 200 notifies the distance information regarding the subject distance DS in the first notification state in the same manner as in FIG. 8 described in the above-described first embodiment, as shown in FIG.
In the subject distance level meter LM in step S17, the threshold mark SM indicates the first reference distance (“10”) (in FIG. 8, the threshold mark SM is the second reference distance (“20”)). Pointing to).
一方、被写体距離DSが第1基準距離以内であると判定された場合(ステップS16:Yes)には、距離情報報知部200は、被写体距離DSに関する距離情報をステップS17での第1報知状態とは異なる第2報知状態で報知する(ステップS18)。この後、内視鏡装置1Cは、ステップS1に戻る。
図20は、ステップS18での第2報知状態の一例を示す図である。
例えば、距離情報報知部200は、ステップS18において、図20に示すように、上述した実施の形態1で説明した図9と同様に、被写体距離DSに関する距離情報を第2報知状態で報知する。
なお、ステップS18での被写体距離レベルメータLMでは、図20に示すように、図19で示した被写体距離レベルメータLMと同様に、閾値マークSMは、第1基準距離(「10」)を指し示している。
On the other hand, when it is determined that the subject distance DS is within the first reference distance (step S16: Yes), the distance information notification unit 200 sets the distance information regarding the subject distance DS as the first notification state in step S17. Is notified in a different second notification state (step S18). After this, the endoscope device 1C returns to step S1.
FIG. 20 is a diagram showing an example of the second notification state in step S18.
For example, in step S18, the distance information notification unit 200 notifies the distance information regarding the subject distance DS in the second notification state in the same manner as in FIG. 9 described in the first embodiment described above, as shown in FIG.
In the subject distance level meter LM in step S18, as shown in FIG. 20, the threshold mark SM points to the first reference distance (“10”) as in the subject distance level meter LM shown in FIG. ing.
図19に示した被写体距離レベルメータLMは、第1報知状態での本発明に係る距離情報に相当する。また、図20に示した被写体距離レベルメータLM及び警告音は、第2報知状態での本発明に係る距離情報に相当する。すなわち、距離情報報知部200は、距離判定部955Cにて被写体距離DSが第1基準距離を超えていると判定された場合と第1基準距離以内であると判定された場合とで、互いに異なる報知状態(第1,第2報知状態)で本発明に係る距離情報を報知する。 The subject distance level meter LM shown in FIG. 19 corresponds to the distance information according to the present invention in the first notification state. Further, the subject distance level meter LM and the warning sound shown in FIG. 20 correspond to the distance information according to the present invention in the second notification state. That is, the distance information notification unit 200 differs from each other depending on whether the distance determination unit 955C determines that the subject distance DS exceeds the first reference distance or is within the first reference distance. The distance information according to the present invention is notified in the notification state (first and second notification states).
以上説明した本実施の形態4によれば、上述した実施の形態1と同様の効果の他、以下の効果を奏する。
本実施の形態4に係る内視鏡装置1Cは、処置具Ttが非使用状態である場合に被写体距離DSが第1基準距離以内であるか否かを判定し、処置具Ttが使用状態である場合に被写体距離DSが第2基準距離以内であるか否かを判定する。
このため、処置具Ttが使用状態であり、ミストMiにて挿入部2の先端が汚れる虞がある場合に限り、被写体距離DSを第2基準距離よりも長くなるように被写体Suから挿入部2の先端を遠ざけることを医師等に促すことができる。すなわち、医師等は、処置具Ttが非使用状態であり、ミストMiにて挿入部2の先端が汚れる虞がない場合には、上述したように促されることがないため、被写体距離DSを第2基準距離よりも短い好みの被写体距離DSに設定することができる。
特に、処置具検出処理では、画像処理(パターンマッチング)により処置具Ttの非使用状態及び使用状態を検出している。すなわち、処置具Ttの非使用状態及び使用状態は、内視鏡装置1Cにて自動的に検出される。このため、例えば、内視鏡装置1Cに操作ボタンを設け、医師等による当該操作ボタンの操作に応じて処置具Ttの使用状態を当該内視鏡装置1Cが検出する構成と比較して、当該操作を医師等に行わせる必要がなく、利便性の向上を図ることができる。
According to the fourth embodiment described above, in addition to the same effects as those of the first embodiment described above, the following effects are exhibited.
The endoscope device 1C according to the fourth embodiment determines whether or not the subject distance DS is within the first reference distance when the treatment tool Tt is not in use, and the treatment tool Tt is in the used state. In a certain case, it is determined whether or not the subject distance DS is within the second reference distance.
Therefore, only when the treatment tool Tt is in use and there is a risk that the tip of the insertion portion 2 will be soiled by the mist Mi, the subject distance DS will be longer than the second reference distance from the subject Su to the insertion portion 2. It is possible to urge doctors and the like to move away from the tip of the. That is, when the treatment tool Tt is not in use and there is no risk that the tip of the insertion portion 2 will be soiled by the mist Mi, the doctor or the like will not be prompted as described above. 2 It is possible to set a preferred subject distance DS shorter than the reference distance.
In particular, in the treatment tool detection process, the non-use state and the use state of the treatment tool Tt are detected by image processing (pattern matching). That is, the non-use state and the use state of the treatment tool Tt are automatically detected by the endoscope device 1C. Therefore, for example, the operation button is provided in the endoscope device 1C, and the usage state of the treatment tool Tt is detected by the endoscope device 1C in response to the operation of the operation button by a doctor or the like. It is not necessary to have a doctor or the like perform the operation, and the convenience can be improved.
また、本実施の形態4に係る内視鏡装置1Cは、被写体距離DSが第2基準距離以内である場合には、被写体像SIが当該第2基準距離の時に合焦状態となるフォーカス位置にフォーカスレンズ511を位置付ける。
このため、医師等は、表示装置7(表示部71)に表示された表示画像DIを確認しながら、被写体像SIが合焦状態となるまで被写体Suから挿入部2の先端を遠ざければ、ミストMiにて挿入部2の先端が汚れる虞がない位置に容易に位置付けることができる。
Further, the endoscope device 1C according to the fourth embodiment is set to a focus position in which the subject image SI is in focus when the subject image SI is within the second reference distance when the subject distance DS is within the second reference distance. Position the focus lens 511.
Therefore, while checking the display image DI displayed on the display device 7 (display unit 71), the doctor or the like can move the tip of the insertion unit 2 away from the subject Su until the subject image SI is in focus. It can be easily positioned at a position where the tip of the insertion portion 2 is not likely to be soiled by the mist Mi.
(その他の実施の形態)
ここまで、本発明を実施するための形態を説明してきたが、本発明は上述した実施の形態1〜4によってのみ限定されるべきものではない。
上述した実施の形態1〜4では、本発明に係る明るさ変更部100は、撮像素子541、信号処理部542、画像処理部92、及び光源装置3の4つで構成していたが、これに限らず、当該4つの少なくともいずれかで構成してもよく、あるいは、その他の構成を追加しても構わない。なお、明るさパラメータも同様である。
(Other embodiments)
Although the embodiments for carrying out the present invention have been described so far, the present invention should not be limited only to the above-described embodiments 1 to 4.
In the above-described first to fourth embodiments, the brightness changing unit 100 according to the present invention is composed of the image sensor 541, the signal processing unit 542, the image processing unit 92, and the light source device 3. However, it may be configured by at least one of the four, or other configurations may be added. The same applies to the brightness parameter.
上述した実施の形態1〜4において、カメラヘッド5に設けられていた構成(レンズユニット51、レンズ駆動部52、レンズ位置検出部53、及び撮像部54)の少なくとも一部を挿入部2内の先端に設けても構わない。また、挿入部2としては、硬性鏡に限らず、軟性鏡としても構わない。
また、上述した実施の形態1〜4において、制御部95,95Aの機能の少なくとも一部を制御装置9,9A〜9Cの外部(カメラヘッド5、コネクタCN1,CN2等)に設けても構わない。
さらに、上述した実施の形態1〜4において、本発明に係る音声出力部の配設位置は、表示装置7に限らず、制御装置9,9A〜9Cやカメラヘッド5としても構わない。
In the above-described first to fourth embodiments, at least a part of the configuration (lens unit 51, lens driving unit 52, lens position detecting unit 53, and imaging unit 54) provided in the camera head 5 is inserted in the insertion unit 2. It may be provided at the tip. Further, the insertion portion 2 is not limited to a rigid mirror, and may be a flexible mirror.
Further, in the above-described first to fourth embodiments, at least a part of the functions of the control units 95 and 95A may be provided outside the control devices 9, 9A to 9C (camera head 5, connectors CN1, CN2, etc.). ..
Further, in the above-described first to fourth embodiments, the arrangement position of the audio output unit according to the present invention is not limited to the display device 7, and may be the control devices 9, 9A to 9C or the camera head 5.
上述した実施の形態1〜4において、第1,第2報知状態(図8,図9,図19,図20)は、あくまでも一例であり、被写体距離レベルメータLMとは異なる表示状態で本発明に係る距離情報を表示してもよく、警告音とは異なる音声出力状態で本発明に係る距離情報を報知してもよい。
上述した実施の形態1〜4において、内視鏡装置1,1A〜1Cは、工業分野で用いられ、機械構造物等の被検体内部を観察する内視鏡装置としても構わない。
上述した実施の形態1〜4において、本発明に係る像拡大部として、ズームレンズ512を採用していたが、これに限らず、画像処理部92,92Cに被写体像SIの一部を拡大する電子ズーム機能を持たせ、当該画像処理部92,92Cを本発明に係る像拡大部としてもよい。
In the above-described first to fourth embodiments, the first and second notification states (FIGS. 8, 9, 19, 19 and 20) are merely examples, and the present invention is in a display state different from that of the subject distance level meter LM. The distance information according to the present invention may be displayed, or the distance information according to the present invention may be notified in a voice output state different from the warning sound.
In the above-described first to fourth embodiments, the endoscope devices 1, 1A to 1C are used in the industrial field and may be used as an endoscope device for observing the inside of a subject such as a mechanical structure.
In the above-described first to fourth embodiments, the zoom lens 512 is used as the image magnifying unit according to the present invention, but the present invention is not limited to this, and a part of the subject image SI is enlarged by the image processing units 92 and 92C. The image processing units 92 and 92C may be provided with an electronic zoom function and may be used as the image enlargement unit according to the present invention.
上述した実施の形態2では、パラメータ算出部952が検波情報(輝度平均値)に基づいて自動的に明るさパラメータを算出する構成としていたが、これに限らない。例えば、明るさパラメータが複数段階で予め設けられており、医師等が入力部96等を操作することで当該複数段階の明るさパラメータのいずれかを選択する構成としても構わない。そして、明るさ制御部953は、医師等にて選択された明るさパラメータに基づいて、明るさ変更部100の動作を制御する。
上述した実施の形態4において、処置具検出処理は、上述した実施の形態4で説明した画像処理(パターンマッチング)に限らず、処置具Ttを用いることを示す操作信号を出力する操作ボタンの操作に応じて、処置具Ttの使用状態や非使用状態を検出する構成を採用しても構わない。
In the second embodiment described above, the parameter calculation unit 952 is configured to automatically calculate the brightness parameter based on the detection information (luminance average value), but the present invention is not limited to this. For example, the brightness parameter may be provided in advance in a plurality of stages, and a doctor or the like may operate the input unit 96 or the like to select one of the plurality of stages of the brightness parameter. Then, the brightness control unit 953 controls the operation of the brightness changing unit 100 based on the brightness parameter selected by a doctor or the like.
In the above-described fourth embodiment, the treatment tool detection process is not limited to the image processing (pattern matching) described in the above-described fourth embodiment, and the operation of the operation button that outputs an operation signal indicating that the treatment tool Tt is used is operated. Depending on the situation, a configuration for detecting the used state or the non-used state of the treatment tool Tt may be adopted.
1,1A〜1C 内視鏡装置
2 挿入部
3 光源装置
4 ライトガイド
5 カメラヘッド
6 第1伝送ケーブル
7 表示装置
8 第2伝送ケーブル
9,9A〜9C 制御装置
10 第3伝送ケーブル
21 接眼部
51 レンズユニット
52 レンズ駆動部
53 レンズ位置検出部
54 撮像部
55 通信部
71 表示部
72 音声出力部
91 通信部
92,92C 画像処理部
93,93B 検波処理部
94 表示制御部
95,95A 制御部
96 入力部
97 出力部
98 記憶部
99 エッジ検出部
100 明るさ変更部
200 距離情報報知部
511 フォーカスレンズ
512 ズームレンズ
521 モータ
522 ドライバ
541 撮像素子
542 信号処理部
951,951C レンズ制御部
952 パラメータ算出部
953 明るさ制御部
954,954A 被写体距離算出部
955,955C 距離判定部
956 音声制御部
AG1,AG2 アナログゲイン
AL1 光量
BP 境界点
BV1〜BV4 輝度平均値
CI 撮像画像
CN1,CN2 コネクタ
D1 基準距離
DG1,DG2 デジタルゲイン
DI 表示画像
DS 被写体距離
ET1,ET2 露光時間
L1〜L14 水平ライン
LB レベルバー
LM 被写体距離レベルメータ
MA マスク領域
Mi ミスト
P1,P2 フォーカス位置
SI 被写体像
SL スライダ
SM 閾値マーク
Su 被写体
Tt 処置具
1,1A to 1C Endoscope device 2 Insert 3 Light source device 4 Light guide 5 Camera head 6 1st transmission cable 7 Display device 8 2nd transmission cable 9, 9A to 9C Control device 10 3rd transmission cable 21 Eyepiece 51 Lens unit 52 Lens drive unit 53 Lens position detection unit 54 Imaging unit 55 Communication unit 71 Display unit 72 Audio output unit 91 Communication unit 92, 92C Image processing unit 93, 93B Detection processing unit 94 Display control unit 95, 95A Control unit 96 Input unit 97 Output unit 98 Storage unit 99 Edge detection unit 100 Brightness change unit 200 Distance information notification unit 511 Focus lens 512 Zoom lens 521 Motor 522 Driver 541 Image pickup element 542 Signal processing unit 951, 951C Lens control unit 952 Parameter calculation unit 953 Brightness control unit 954,954A Subject distance calculation unit 955,955C Distance judgment unit 956 Voice control unit AG1, AG2 Analog gain AL1 Light amount BP Boundary point BV1 to BV4 Brightness average value CI imaged image CN1, CN2 Connector D1 Reference distance DG1, DG2 Digital Gain DI Display Image DS Subject Distance ET1, ET2 Exposure Time L1 to L14 Horizontal Line LB Level Bar LM Subject Distance Level Meter MA Mask Area Mi Mist P1, P2 Focus Position SI Subject Image SL Slider SM Threshold Mark Su Subject Tt Treatment Tool
Claims (13)
被検体内に挿入され、先端から当該被検体内の被写体像を取り込む挿入部と、
前記被写体像を撮像する撮像部と、
前記撮像部による撮像で得られる撮像画像の明るさを変更するための明るさパラメータに応じて、当該撮像画像の明るさを変更する明るさ変更部と、
前記明るさパラメータに基づいて、前記挿入部の先端と被写体との被写体距離を算出する被写体距離算出部と、
前記被写体距離に関する距離情報を報知する距離情報報知部と、
前記被写体距離が基準距離以内であるか否かを判定する距離判定部と、
光軸に沿って移動することで焦点を調整するフォーカスレンズを有し、前記挿入部にて取り込まれた前記被写体像を前記撮像部に結像するレンズユニットと、
前記フォーカスレンズを移動させるレンズ駆動部と、
前記レンズ駆動部の動作を制御するレンズ制御部とを備え、
前記距離情報報知部は、
前記距離判定部にて前記被写体距離が前記基準距離を超えていると判定された場合と当該基準距離以内であると判定された場合とで、異なる報知状態で前記距離情報を報知し、
前記レンズ制御部は、
前記距離判定部にて前記被写体距離が前記基準距離以内であると判定された場合に、前記レンズ駆動部を動作させ、当該被写体距離が当該基準距離の時に前記被写体像が合焦状態となるレンズ位置に前記フォーカスレンズを移動させる
ことを特徴とする内視鏡装置。
An insertion part that is inserted into the subject and captures the subject image in the subject from the tip,
An imaging unit that captures the subject image and
A brightness changing unit that changes the brightness of the captured image according to a brightness parameter for changing the brightness of the captured image obtained by the imaging unit.
A subject distance calculation unit that calculates the subject distance between the tip of the insertion unit and the subject based on the brightness parameter, and a subject distance calculation unit.
A distance information notification unit that notifies distance information related to the subject distance , and
A distance determination unit that determines whether or not the subject distance is within the reference distance, and
A lens unit having a focus lens that adjusts the focus by moving along an optical axis and forming an image of the subject image captured by the insertion portion on the imaging portion.
A lens driving unit that moves the focus lens and
A lens control unit that controls the operation of the lens drive unit is provided.
The distance information notification unit
The distance information is notified in different notification states depending on whether the distance determination unit determines that the subject distance exceeds the reference distance or is within the reference distance.
The lens control unit
A lens that operates the lens driving unit when the distance determination unit determines that the subject distance is within the reference distance, and the subject image is in focus when the subject distance is the reference distance. An endoscope device characterized by moving the focus lens to a position.
前記撮像部は、
複数の画素を有する撮像素子を備え、
前記明るさ変更部は、
前記撮像素子を含み、前記明るさパラメータである前記画素の露光時間を変更して前記撮像画像の明るさを変更する
ことを特徴とする請求項1に記載の内視鏡装置。
The imaging unit
Equipped with an image sensor having multiple pixels
The brightness changing part is
The endoscope device according to claim 1, further comprising the image pickup element and changing the exposure time of the pixel, which is the brightness parameter, to change the brightness of the captured image.
前記撮像部は、
複数の画素を有し、前記被写体像を撮像してアナログ信号を出力する撮像素子と、
前記アナログ信号にアナログゲインを乗算する信号処理部とを備え、
前記明るさ変更部は、
前記信号処理部を含み、前記明るさパラメータである前記アナログゲインを変更して前記撮像画像の明るさを変更する
ことを特徴とする請求項1または2に記載の内視鏡装置。
The imaging unit
An image sensor that has a plurality of pixels, images the subject image, and outputs an analog signal.
A signal processing unit for multiplying the analog signal by an analog gain is provided.
The brightness changing part is
The endoscope device according to claim 1 or 2, which includes the signal processing unit and changes the brightness of the captured image by changing the analog gain which is the brightness parameter.
前記撮像部は、
複数の画素を有し、前記被写体像を撮像してアナログ信号を出力する撮像素子と、
前記アナログ信号をデジタル信号に変換する信号処理部とを備え、
前記明るさ変更部は、
前記デジタル信号に前記明るさパラメータであるデジタルゲインを乗算するデジタルゲイン乗算部を含み、当該デジタルゲインを変更して前記撮像画像の明るさを変更する
ことを特徴とする請求項1〜3のいずれか一つに記載の内視鏡装置。
The imaging unit
An image sensor that has a plurality of pixels, images the subject image, and outputs an analog signal.
A signal processing unit that converts the analog signal into a digital signal is provided.
The brightness changing part is
Any of claims 1 to 3, further comprising a digital gain multiplying unit for multiplying the digital signal by the digital gain which is the brightness parameter, and changing the digital gain to change the brightness of the captured image. The endoscopic device described in one or the other.
前記挿入部の先端から被写体に照射する光を当該挿入部に供給する光源装置をさらに備え、
前記明るさ変更部は、
前記光源装置を含み、前記明るさパラメータである光量を変更して前記撮像画像の明るさを変更する
ことを特徴とする請求項1〜4のいずれか一つに記載の内視鏡装置。
A light source device that supplies light irradiating the subject from the tip of the insertion portion to the insertion portion is further provided.
The brightness changing part is
Wherein said light source device, the endoscope apparatus according to any one of claims 1 to 4 by changing the Oh Ru light amount by the brightness parameter and changes the brightness of the captured image ..
前記撮像画像における画素毎の輝度信号に基づいて、前記明るさパラメータを算出するパラメータ算出部と、
前記パラメータ算出部にて算出された前記明るさパラメータに基づいて、前記明るさ変更部の動作を制御する明るさ制御部とをさらに備え、
前記被写体距離算出部は、
前記明るさパラメータを前記被写体距離に換算する
ことを特徴とする請求項1〜5のいずれか一つに記載の内視鏡装置。
A parameter calculation unit that calculates the brightness parameter based on the brightness signal for each pixel in the captured image,
A brightness control unit that controls the operation of the brightness changing unit is further provided based on the brightness parameter calculated by the parameter calculation unit.
The subject distance calculation unit
The endoscope device according to any one of claims 1 to 5, wherein the brightness parameter is converted into the subject distance.
前記被写体距離算出部は、
前記撮像画像における画素毎の輝度信号と前記明るさパラメータとに基づいて前記明るさ変更部にて明るさが変更される前の前記撮像画像における画素毎の輝度信号を算出し、当該明るさが変更される前の撮像画像おける画素毎の輝度信号に基づいて前記被写体距離を算出する
ことを特徴とする請求項1〜5のいずれか一つに記載の内視鏡装置。
The subject distance calculation unit
Based on the brightness signal for each pixel in the captured image and the brightness parameter, the brightness signal for each pixel in the captured image before the brightness is changed by the brightness changing unit is calculated, and the brightness is calculated. The endoscope device according to any one of claims 1 to 5, wherein the subject distance is calculated based on the brightness signal for each pixel in the captured image before the change.
前記撮像画像は、
前記被写体像と、当該被写体像以外のマスク領域とを含み、
当該内視鏡装置は、
前記撮像画像における画素毎の輝度信号に基づいて、前記被写体像及び前記マスク領域の境界点を検出するエッジ検出部と、
前記撮像画像における前記エッジ検出部にて検出された境界点で囲まれる領域内の画素毎の輝度信号に基づいて、前記明るさパラメータを算出するパラメータ算出部と、
前記パラメータ算出部にて算出された前記明るさパラメータに基づいて、前記明るさ変更部の動作を制御する明るさ制御部とをさらに備える
ことを特徴とする請求項1〜7のいずれか一つに記載の内視鏡装置。
The captured image is
The subject image and a mask area other than the subject image are included.
The endoscope device is
An edge detection unit that detects a boundary point between the subject image and the mask region based on the luminance signal for each pixel in the captured image.
A parameter calculation unit that calculates the brightness parameter based on the brightness signal for each pixel in the region surrounded by the boundary point detected by the edge detection unit in the captured image.
Any one of claims 1 to 7, further comprising a brightness control unit that controls the operation of the brightness change unit based on the brightness parameter calculated by the parameter calculation unit. The endoscopic device described in.
前記被検体内に挿入される処置具の使用状態を検出する処置具検出部をさらに備え、
前記基準距離は、
第1基準距離と、当該第1基準距離よりも長い第2基準距離の2つ設けられ、
前記距離判定部は、
前記処置具検出部にて前記処置具の使用状態が検出されていない場合には前記基準距離として前記第1基準距離を用い、前記処置具検出部にて前記処置具の使用状態が検出された場合には前記基準距離として前記第2基準距離を用いる
ことを特徴とする請求項1〜8のいずれか一つに記載の内視鏡装置。
A treatment tool detection unit for detecting the usage state of the treatment tool inserted into the subject is further provided.
The reference distance is
Two are provided, a first reference distance and a second reference distance longer than the first reference distance.
The distance determination unit
When the treatment tool detection unit did not detect the usage state of the treatment tool, the first reference distance was used as the reference distance, and the treatment tool detection unit detected the usage state of the treatment tool. The endoscope device according to any one of claims 1 to 8, wherein the second reference distance is used as the reference distance in the case.
前記処置具検出部は、
前記撮像画像に基づいて、当該撮像画像内の前記被写体像に前記処置具が含まれているか否かを判定することにより前記使用状態を検出し、
前記距離判定部は、
前記処置具検出部にて前記撮像画像内の前記被写体像に前記処置具が含まれていないと判定された場合には前記基準距離として前記第1基準距離を用い、前記処置具検出部にて前記撮像画像内の前記被写体像に前記処置具が含まれていると判定された場合には前記基準距離として前記第2基準距離を用いる
ことを特徴とする請求項9に記載の内視鏡装置。
The treatment tool detection unit
Based on the captured image, the usage state is detected by determining whether or not the treatment tool is included in the subject image in the captured image.
The distance determination unit
When the treatment tool detection unit determines that the subject image in the captured image does not include the treatment tool, the treatment tool detection unit uses the first reference distance as the reference distance. The endoscope device according to claim 9 , wherein when it is determined that the treatment tool is included in the subject image in the captured image, the second reference distance is used as the reference distance. ..
前記距離情報報知部は、
前記距離情報を表示する表示部と、
前記表示部の動作を制御する表示制御部とを備える
ことを特徴とする請求項1〜10のいずれか一つに記載の内視鏡装置。
The distance information notification unit
A display unit that displays the distance information and
The endoscope device according to any one of claims 1 to 10 , further comprising a display control unit that controls the operation of the display unit.
前記距離情報報知部は、
前記距離情報を音声出力する音声出力部と、
前記音声出力部の動作を制御する音声制御部とを備える
ことを特徴とする請求項1〜11のいずれか一つに記載の内視鏡装置。
The distance information notification unit
An audio output unit that outputs the distance information by audio and
The endoscope device according to any one of claims 1 to 11 , further comprising a voice control unit that controls the operation of the voice output unit.
前記撮像画像に含まれる前記被写体像を拡大する像拡大部をさらに備える
ことを特徴とする請求項1〜12のいずれか一つに記載の内視鏡装置。
The endoscope device according to any one of claims 1 to 12 , further comprising an image magnifying unit that magnifies the subject image included in the captured image.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017033935A JP6904727B2 (en) | 2017-02-24 | 2017-02-24 | Endoscope device |
US15/893,796 US10485629B2 (en) | 2017-02-24 | 2018-02-12 | Endoscope device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017033935A JP6904727B2 (en) | 2017-02-24 | 2017-02-24 | Endoscope device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018138141A JP2018138141A (en) | 2018-09-06 |
JP6904727B2 true JP6904727B2 (en) | 2021-07-21 |
Family
ID=63450805
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017033935A Active JP6904727B2 (en) | 2017-02-24 | 2017-02-24 | Endoscope device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6904727B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11694335B2 (en) * | 2018-12-05 | 2023-07-04 | Stryker Corporation | Systems and methods for displaying medical imaging data |
JP7454409B2 (en) | 2020-03-03 | 2024-03-22 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical control device and control method for medical control device |
CN111818712A (en) * | 2020-07-06 | 2020-10-23 | 浙江华诺康科技有限公司 | Brightness adjustment method, apparatus, computer equipment and storage medium |
CN111956168A (en) * | 2020-07-22 | 2020-11-20 | 上海安翰医疗技术有限公司 | Capsule endoscope system and distance measuring method for capsule endoscope |
JP7587991B2 (en) | 2021-01-18 | 2024-11-21 | ソニー・オリンパスメディカルソリューションズ株式会社 | Medical control device and medical observation system |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3594254B2 (en) * | 1994-10-06 | 2004-11-24 | オリンパス株式会社 | Endoscope device |
JP4885479B2 (en) * | 2004-10-12 | 2012-02-29 | オリンパス株式会社 | Endoscope device for measurement and program for endoscope |
JP4804062B2 (en) * | 2005-07-29 | 2011-10-26 | オリンパス株式会社 | Endoscope system |
JP5271062B2 (en) * | 2008-12-09 | 2013-08-21 | 富士フイルム株式会社 | Endoscope apparatus and method of operating the same |
JP5401205B2 (en) * | 2009-08-10 | 2014-01-29 | 富士フイルム株式会社 | Endoscope device |
JP2011200283A (en) * | 2010-03-24 | 2011-10-13 | Olympus Corp | Controller, endoscope system, program, and control method |
JP5865606B2 (en) * | 2011-05-27 | 2016-02-17 | オリンパス株式会社 | Endoscope apparatus and method for operating endoscope apparatus |
JP6000838B2 (en) * | 2012-12-12 | 2016-10-05 | オリンパス株式会社 | Endoscope device |
JP2014158577A (en) * | 2013-02-20 | 2014-09-04 | Canon Inc | Endoscope system |
KR102087595B1 (en) * | 2013-02-28 | 2020-03-12 | 삼성전자주식회사 | Endoscope system and control method thereof |
JP2015156938A (en) * | 2014-02-24 | 2015-09-03 | ソニー株式会社 | Image processing device and image processing method |
-
2017
- 2017-02-24 JP JP2017033935A patent/JP6904727B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018138141A (en) | 2018-09-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10485629B2 (en) | 2019-11-26 | Endoscope device |
JP6904727B2 (en) | 2021-07-21 | Endoscope device |
US10694933B2 (en) | 2020-06-30 | Image processing apparatus and image processing method for image display including determining position of superimposed zoomed image |
EP3590415A1 (en) | 2020-01-08 | Endoscope system, processor device, and method of operating endoscope system |
CN107005646B (en) | 2020-05-19 | Focus control device, endoscope device, and control method for focus control device |
US10827906B2 (en) | 2020-11-10 | Endoscopic surgery image processing apparatus, image processing method, and program |
CN110099599B (en) | 2021-12-24 | Medical image processing apparatus, medical image processing method, and program |
CN113164023B (en) | 2024-02-23 | Endoscope system, image processing method for endoscope, and computer-readable storage medium |
JP6453905B2 (en) | 2019-01-16 | FOCUS CONTROL DEVICE, ENDOSCOPE DEVICE, AND FOCUS CONTROL DEVICE CONTROL METHOD |
JP6860378B2 (en) | 2021-04-14 | Endoscope device |
JP2017192594A (en) | 2017-10-26 | Endoscope system, processor device, and operation method of endoscope system |
JP7016681B2 (en) | 2022-02-07 | Endoscope system |
JP6873740B2 (en) | 2021-05-19 | Endoscope device and edge detection method |
US11980348B2 (en) | 2024-05-14 | Medical control apparatus and method of controlling medical control apparatus |
JP2013183836A (en) | 2013-09-19 | Endoscope apparatus and focus control method |
JP7171274B2 (en) | 2022-11-15 | Medical image processing device and medical observation device |
JP6210923B2 (en) | 2017-10-11 | Living body observation system |
JP7454417B2 (en) | 2024-03-22 | Medical control device and medical observation system |
JP7456385B2 (en) | 2024-03-27 | Image processing device, image processing method, and program |
US20210290035A1 (en) | 2021-09-23 | Medical control device and medical observation system |
JP6999369B2 (en) | 2022-01-18 | Endoscope device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
2020-01-22 | A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200122 |
2020-11-19 | A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20201118 |
2020-12-08 | A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201208 |
2021-01-28 | A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210128 |
2021-03-09 | A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210309 |
2021-03-22 | A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210322 |
2021-05-27 | TRDD | Decision of grant or rejection written | |
2021-06-01 | A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210601 |
2021-06-28 | A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210624 |
2021-06-28 | R150 | Certificate of patent or registration of utility model |
Ref document number: 6904727 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |