JPWO2007135884A1 - Ultrasonic diagnostic apparatus and ultrasonic diagnostic method - Google Patents
Ultrasonic diagnostic apparatus and ultrasonic diagnostic method Download PDFInfo
- Publication number
- JPWO2007135884A1 JPWO2007135884A1 JP2008516604A JP2008516604A JPWO2007135884A1 JP WO2007135884 A1 JPWO2007135884 A1 JP WO2007135884A1 JP 2008516604 A JP2008516604 A JP 2008516604A JP 2008516604 A JP2008516604 A JP 2008516604A JP WO2007135884 A1 JPWO2007135884 A1 JP WO2007135884A1
- Authority
- JP
- Japan
- Prior art keywords
- boundary
- ultrasonic
- regions
- image
- ultrasonic diagnostic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000002405 diagnostic procedure Methods 0.000 title claims description 7
- 238000000605 extraction Methods 0.000 claims abstract description 93
- 210000000056 organ Anatomy 0.000 claims abstract description 27
- 239000000523 sample Substances 0.000 claims description 22
- 238000002604 ultrasonography Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 20
- 238000001514 detection method Methods 0.000 claims description 11
- 238000000926 separation method Methods 0.000 claims description 9
- 238000003745 diagnosis Methods 0.000 claims description 6
- 238000005311 autocorrelation function Methods 0.000 claims description 4
- 239000011159 matrix material Substances 0.000 claims description 4
- 238000012935 Averaging Methods 0.000 claims 1
- 230000005540 biological transmission Effects 0.000 claims 1
- 239000006185 dispersion Substances 0.000 claims 1
- 238000012545 processing Methods 0.000 description 10
- 238000010586 diagram Methods 0.000 description 7
- 238000000034 method Methods 0.000 description 6
- 238000005259 measurement Methods 0.000 description 5
- 238000007796 conventional method Methods 0.000 description 4
- 239000000284 extract Substances 0.000 description 4
- 210000005240 left ventricle Anatomy 0.000 description 4
- 210000001519 tissue Anatomy 0.000 description 4
- 238000003384 imaging method Methods 0.000 description 3
- 238000005452 bending Methods 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 206010028980 Neoplasm Diseases 0.000 description 1
- 238000002592 echocardiography Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002307 prostate Anatomy 0.000 description 1
- 239000011800 void material Substances 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5215—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
- A61B8/5223—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/13—Edge detection
-
- G—PHYSICS
- G16—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
- G16H—HEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
- G16H50/00—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
- G16H50/30—ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for calculating health indices; for individual health risk assessment
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/08—Detecting organic movements or changes, e.g. tumours, cysts, swellings
- A61B8/0883—Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the heart
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/46—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
- A61B8/467—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
- A61B8/469—Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means for selection of a region of interest
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/48—Diagnostic techniques
- A61B8/486—Diagnostic techniques involving arbitrary m-mode
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B8/00—Diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/52—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
- A61B8/5269—Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10132—Ultrasound image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30048—Heart; Cardiac
Landscapes
- Health & Medical Sciences (AREA)
- Engineering & Computer Science (AREA)
- Life Sciences & Earth Sciences (AREA)
- Public Health (AREA)
- Physics & Mathematics (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Pathology (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Surgery (AREA)
- Animal Behavior & Ethology (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- Biophysics (AREA)
- Veterinary Medicine (AREA)
- Radiology & Medical Imaging (AREA)
- Physiology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Epidemiology (AREA)
- Primary Health Care (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
超音診断装置において、表示手段に表示された超音波画像上に、被検体の臓器の境界の位置を検出するための部位を選択する選択手段と、前記超音波画像上に所定の間隔が空けられた2つの領域から成る境界抽出フィルタを設定する境界抽出フィルタ設定手段と、前記選択手段により選択された部位近傍で、境界抽出フィルタ設定手段により設定された境界抽出フィルタ内の画素データを解析することにより、前記境界の位置を検出する境界位置検出手段を備え、前記境界位置検出手段により検出された境界位置は、制御手段による制御の基に前記表示手段に表示される。In the ultrasonic diagnostic apparatus, a selection unit that selects a part for detecting the position of the boundary of the organ of the subject on the ultrasonic image displayed on the display unit, and a predetermined interval on the ultrasonic image. Boundary extraction filter setting means for setting a boundary extraction filter composed of the two regions obtained, and analyzing pixel data in the boundary extraction filter set by the boundary extraction filter setting means in the vicinity of the part selected by the selection means Accordingly, a boundary position detecting means for detecting the position of the boundary is provided, and the boundary position detected by the boundary position detecting means is displayed on the display means under the control of the control means.
Description
本発明は、超音波診断装置及び超音波診断方法に係わり、特に、臓器等の対象組織の境界(輪郭)を正確に描出することが可能な超音波診断装置及び超音波診断方法に関する。 The present invention relates to an ultrasonic diagnostic apparatus and an ultrasonic diagnostic method, and more particularly to an ultrasonic diagnostic apparatus and an ultrasonic diagnostic method that can accurately depict a boundary (contour) of a target tissue such as an organ.
超音波診断装置を用いた超音波診断においては、注目する臓器等の境界(輪郭)情報が有用な診断情報となる。例えば、心臓のような臓器では、左心室の境界(輪郭)を描出して、該境界(輪郭)に囲まれた領域の面積を求めたり、境界(輪郭)より左心室の体積を推定することが診断において有用とされている。 In ultrasonic diagnosis using an ultrasonic diagnostic apparatus, boundary (contour) information of an organ or the like of interest is useful diagnostic information. For example, in an organ such as the heart, the boundary (contour) of the left ventricle is drawn, the area of the region surrounded by the boundary (contour) is obtained, or the volume of the left ventricle is estimated from the boundary (contour) Is considered useful in diagnosis.
組織の境界(輪郭)を抽出して表示する技術として、例えば特許文献1記載の従来技術がある。
As a technique for extracting and displaying a tissue boundary (contour), for example, there is a conventional technique described in
特許文献1記載の従来技術によれば、例えば断層像に各点の画像信号のグラジェントを表すスカラ量の極大点を求め、その極大点から組織の境界(輪郭)を描出している。
According to the prior art described in
しかしながら、本発明者らは上記従来技術を検討した結果以下の問題点を見出した。
すなわち、超音波画像にはスペックルノイズと呼ばれる雑音が混入している。このスペックルノイズは、超音波の波長に比べて十分小さい生体組織内の反射体群による散乱波がさまざまな位相で発生して干渉することにより出現すると考えられている(スペックルノイズに関する公知技術として、特許文献2参照。)。However, the present inventors have found the following problems as a result of examining the above prior art.
That is, noise called speckle noise is mixed in the ultrasonic image. This speckle noise is thought to appear when the scattered waves from the reflectors in the living tissue that are sufficiently smaller than the wavelength of the ultrasonic waves are generated and interfered with in various phases (known techniques related to speckle noise). (See Patent Document 2).
上記特許文献1記載の従来技術によれば、臓器の境界(輪郭)を、前記グラジェントを表すスカラ量の極大点を基に抽出しているため、スペックルノイズのより生じるぼけの影響が考慮されていなかった。そのため、臓器の境界(輪郭)ではぼけ幅分、画素濃度の高い領域が画素濃度の低い領域まではみ出して境界が抽出されてしまうという問題が生じていた。例えば、心臓の左心室の境界(輪郭)を抽出しようとすると、心壁がぼけ幅分内側に抽出されるため、実際より左心室の大きさが小さくなるという問題が生じていた。
According to the prior art described in
本発明によれば、被検体に超音波を送受信する超音波探触子と、前記超音波探触子に接続され、前記超音波探触子により得られた超音波信号を基に超音波画像を生成する画像生成手段と、前記超音波探触子及び前記画像生成手段に接続され、それらの制御を行う制御部と、前記画像生成手段及び前記制御部に接続され、前記制御部による制御の基に前記画像生成手段で生成された超音波画像を表示する表示手段を備えた超音診断装置において、
前記表示手段に表示された画像上に、前記被検体の臓器の境界の位置を検出するための部位を選択する選択手段と、前記超音波画像上に所定の間隔が空けられた2つの領域から成る境界抽出フィルタを設定する境界抽出フィルタ設定手段と、前記選択手段により選択された部位近傍で、前記境界抽出フィルタ設定手段により設定された境界抽出フィルタ内の画素データを解析することにより、前記境界の位置を検出する境界位置検出手段を備え、前記境界位置検出手段により検出された境界位置は、前記制御手段による制御の基に前記表示手段に表示されることを特徴とする超音波診断装置が提供される。According to the present invention, an ultrasound probe that transmits and receives ultrasound to and from a subject, and an ultrasound image connected to the ultrasound probe and based on an ultrasound signal obtained by the ultrasound probe. Connected to the ultrasonic probe and the image generation means, and controls them, and connected to the image generation means and the control section, and controlled by the control section In an ultrasonic diagnostic apparatus comprising display means for displaying an ultrasonic image generated by the image generation means based on:
On the image displayed on the display means, a selection means for selecting a part for detecting the position of the boundary of the organ of the subject, and two regions spaced by a predetermined interval on the ultrasound image Analyzing the pixel data in the boundary extraction filter set by the boundary extraction filter setting means in the vicinity of the part selected by the selection means; An ultrasonic diagnostic apparatus comprising: boundary position detection means for detecting a position of the boundary; and the boundary position detected by the boundary position detection means is displayed on the display means under the control of the control means. Provided.
また、本発明によれば、超音波画像上に表れる臓器の境界の位置を抽出することが可能な超音波診断方法において、
(1)前記超音波画像上に、前記境界を抽出するための部位を指定する工程と、
(2)前記工程(1)により設定された部位近傍の画像のぼけ幅を計算する工程と、
(3)前記工程(2)により計算されたぼけ幅に応じた間隔を持つ2つの領域を境界抽出フィルタとして設定する工程と、
(4)前記工程(3)により設定された境界抽出フィルタの位置及び/あるいは傾きを変化させながら、前記2つの領域内の画素値を解析して境界強度を求める工程と、
(5)前記工程(4)において、前記境界強度が最大あるいは所定の値以上となる前記位置及び/あるいは傾きを求めることにより、前記境界の位置を抽出する工程と、
(6)前記工程(5)により求めた境界位置を基に、前記境界で囲まれた領域の面積あるいは、前記境界で囲まれた領域を表す臓器の体積を算出する工程を備えたことを特徴とする超音波診断方法が提供される。Further, according to the present invention, in the ultrasonic diagnostic method capable of extracting the position of the boundary of the organ appearing on the ultrasonic image,
(1) On the ultrasonic image, designating a part for extracting the boundary;
(2) calculating the blur width of the image of the vicinity of the site set in the step (1);
(3) a step of setting two regions having an interval according to the blur width calculated in the step (2) as a boundary extraction filter;
(4) While changing the position and / or inclination of the boundary extraction filter set in the step (3), analyzing the pixel values in the two regions to obtain the boundary strength;
(5) in the step (4), the step of extracting the position of the boundary by obtaining the position and / or the slope at which the boundary strength is maximum or a predetermined value or more;
(6) Based on the boundary position obtained in the step (5), comprising the step of calculating the area of the region surrounded by the boundary or the volume of the organ representing the region surrounded by the boundary An ultrasonic diagnostic method is provided.
本発明の目的は、超音波画像を用いて臓器の境界(輪郭)抽出をする超音波診断装置において、画像上に現れるぼけ幅を考慮して高精度に輪郭抽出することにある。 An object of the present invention is to extract a contour with high accuracy in consideration of a blur width appearing on an image in an ultrasonic diagnostic apparatus that extracts an organ boundary (contour) using an ultrasonic image.
7 境界抽出部位指定手段、8 境界抽出演算手段、9 臓器演算手段、10 画像ぼけ幅計算手段、11 フィルタ形状作成・変形手段、12 境界強度計算手段、13 境界位置検出手段 7 Boundary extraction part designation means, 8 Boundary extraction calculation means, 9 Organ calculation means, 10 Image blur width calculation means, 11 Filter shape creation / deformation means, 12 Boundary strength calculation means, 13 Boundary position detection means
以下に、図面に基づいて本発明の実施の形態に係る超音波診断装置を説明する。 Hereinafter, an ultrasonic diagnostic apparatus according to an embodiment of the present invention will be described based on the drawings.
図1は、本発明の実施例1に係る超音波診断装置の全体構成を示すブロック図である。
FIG. 1 is a block diagram showing the overall configuration of the ultrasonic diagnostic apparatus according to
図1によれば、超音波診断装置は、超音波の送受信を行う超音波プローブ1と、超音波プローブ1に接続され、超音波プローブにより受信した超音波信号を基に超音波画像を生成する画像生成部2と、超音波診断装置の各構成要素に接続され、各構成要素の動作の制御や演算処理を行うCPU(Central Processing Unit:中央処理装置)等の制御部3と、超音波診断装置の各構成要素に接続され、医療従事者等の操作者が入力機器(キーボード、マウス、トラックボール、タッチパネル等)を用いて超音波診断装置の操作を行う操作部4と、超音波診断装置の各構成要素に接続され、画像データやプログラム等を保存する記憶部5と、超音波診断装置の各構成要素に接続され、画像や計測結果等を表示するCRTや液晶表示装置等の表示部6とから構成される。
According to FIG. 1, the ultrasound diagnostic apparatus generates an ultrasound image based on an
超音波プローブ1は、被検体の生体内に対して超音波を送受信するものであり、振動子が直線状に配列されているリニア型、時間差をつけて振動子を駆動することによりビームの角度を変えることができるセクタ型、振動子を凸状に配列し振動子群をシフトさせながらスキャンを行うコンベックス型等がある。超音波プローブ1は被検体の生体内から反射して戻ってきた超音波(超音波エコー)を電気信号に変換して画像生成部2に送る。
The
画像生成部2は、超音波プローブ1が受信し電気信号に変換した信号を入力信号として、Bモード画像を生成する。当該入力信号は、画像生成部2内の整相加算器、対数増幅器、包絡線検波器、A/D変換器、スキャンコンバータを経てBモード画像に変換される。
The image generation unit 2 generates a B-mode image using the signal received by the
制御部3は、記憶部5等に格納される超音波診断装置の制御プログラムをロードして実行される。制御部3は、超音波診断装置の各構成要素に動作の指示を行い、タイミング制御や演算処理を行う。 The control unit 3 is executed by loading a control program for the ultrasonic diagnostic apparatus stored in the storage unit 5 or the like. The control unit 3 instructs each component of the ultrasonic diagnostic apparatus to perform an operation, and performs timing control and arithmetic processing.
操作部4は、超音波診断装置上にキーボード、マウス、トラックボール、タッチパネル等の入力機器であり、医療従事者等の診断者が、画質の調整、計測の指示、情報の入力等に用いる。 The operation unit 4 is an input device such as a keyboard, a mouse, a trackball, and a touch panel on the ultrasonic diagnostic apparatus, and is used by a diagnostician such as a medical staff for image quality adjustment, measurement instruction, information input, and the like.
記憶部5は、画像データや制御プログラム等を保存する装置であり、ハードディスクや汎用メモリやフレームメモリ等である。記憶部5が保存する画像データは、取得したBモード画像や一般のPCで表示可能な画像形式のファイルである。 The storage unit 5 is a device that stores image data, a control program, and the like, and is a hard disk, a general-purpose memory, a frame memory, or the like. The image data stored in the storage unit 5 is an acquired B-mode image or a file in an image format that can be displayed on a general PC.
表示部6は、画面上に画像データや計測値、当該計測値をグラフ化した画像を表示するCRTや液晶表示装置等である。 The display unit 6 is a CRT or a liquid crystal display device that displays image data, measurement values, and an image obtained by graphing the measurement values on a screen.
また、図2は、本発明の実施例1に係る制御部3の内部を示したものである。図2によれば、本発明の制御部3内には、超音波画像上のどの部分近傍について臓器の境界を抽出するかを指定するための境界抽出部位指定手段7と、境界抽出部位指定手段7により指定された部分近傍における臓器の境界を、演算により抽出する境界抽出演算手段8と、境界抽出演算手段8により抽出された境界を基に、種々の物理量、すなわち臓器の大きさ等の距離、臓器の画像上での面積、臓器の容積の推定値等を計算する臓器計測手段9が備えられている。
FIG. 2 shows the inside of the control unit 3 according to
境界抽出部位指定手段7は、操作者が表示部6の画面に表示されている画像上に境界抽出の対象とする付近近傍を入力機器によって指定する手段である。尚、境界抽出部位指定手段7は取得した画像データの画素値を信号処理して自動的に境界抽出部位を決定するようにしても良い。 The boundary extraction part designating means 7 is a means for the operator to designate the vicinity near the boundary extraction target on the image displayed on the screen of the display unit 6 by the input device. The boundary extraction part designating means 7 may automatically determine the boundary extraction part by performing signal processing on the pixel value of the acquired image data.
境界抽出演算手段8は、境界抽出部位指定手段7で指標化して抽出の抽出の対象となる画像の部分の画像ぼけ幅を計算し、当該画像ぼけ幅を考慮して適切なフィルタを選択し境界位置を検出するための手段であり、画像ぼけ幅計算手段10と、フィルタ形状作成・変形手段11と、境界強度計算手段12と、境界位置検出手段13とからなる。
The boundary extraction calculation means 8 calculates the image blur width of the part of the image to be extracted and indexed by the boundary extraction part designation means 7, and selects an appropriate filter in consideration of the image blur width. This is a means for detecting a position, and comprises an image blur width calculating means 10, a filter shape creating / deforming means 11, a boundary
この内まず、画像ぼけ幅計算手段10は、境界抽出部位指定手段7で指定された境界抽出部位近傍の画素値を用いてスペックルの大きさを算出する手段である。スペックルの大きさの計算方法には、濃度共起行列や自己相関関数が用いられる。 First of all, the image blur width calculating means 10 is a means for calculating the size of the speckle using the pixel values in the vicinity of the boundary extraction portion designated by the boundary extraction portion designation means 7. A concentration co-occurrence matrix or an autocorrelation function is used as a method for calculating the size of speckle.
次に、フィルタ形状作成・変形手段11は、境界抽出フィルタの作成及び変形を行う。例えば、フィルタ形状作成・変形手段11は、画像ぼけ幅計算手段10で算出されたスペックルの大きさに基づいた距離の間隔だけ空けられた2領域から成るフィルタを作成する。また、フィルタ形状作成・変形手段11は、抽出する境界の形状が既知であれば、フィルタの形状をこの形状の境界の形状に合わせて変形させることもできる。 Next, the filter shape creation / deformation means 11 creates and transforms the boundary extraction filter. For example, the filter shape creation / deformation means 11 creates a filter composed of two regions separated by a distance based on the speckle size calculated by the image blur width calculation means 10. Further, if the shape of the boundary to be extracted is known, the filter shape creation / deformation means 11 can also change the shape of the filter according to the shape of the boundary of this shape.
次に、境界強度計算手段12は、フィルタ形状・変形手段11により作成され境界抽出フィルタを、任意の位置及び/または傾きを動かされながら、それぞれの位置及び/または傾きにおける2領域内の画素値を用いて、例えば後述する分離度等を算出することにより境界強度を算出する。
Next, the boundary
次に、境界位置検出手段は13は、境界抽出フィルタの位置及び/または傾きを動かせて走査させながら境界強度計算手段12により算出した境界強度が最大値あるいは所定の値以上となる境界抽出フィルタの位置及び/または傾きを検出する。検出された境界抽出フィルタの位置を基に、抽出の対象とする境界位置の座標値が得られる。 Next, the boundary position detection means 13 moves the position and / or inclination of the boundary extraction filter while scanning the boundary extraction filter whose boundary intensity calculated by the boundary intensity calculation means 12 is a maximum value or a predetermined value or more. Detect position and / or tilt. Based on the detected position of the boundary extraction filter, the coordinate value of the boundary position to be extracted is obtained.
また、臓器計測手段9は、抽出された境界位置の座標値を用いて、境界を抽出した臓器に関する種々の物理量、例えば、距離、面積、容積等を計算する。例えば、臓器計測手段9は、対象領域である患部の腫瘍の大きさ等の物理量を高精度に算出する。 Further, the organ measuring means 9 calculates various physical quantities related to the organ from which the boundary is extracted, for example, distance, area, volume, and the like, using the coordinate value of the extracted boundary position. For example, the organ measuring means 9 calculates a physical quantity such as the size of the tumor of the affected area that is the target region with high accuracy.
次に、実施例1の境界抽出処理の対象とする画像データの例を図3に示す。図3において、14は画像データ、15はビーム方向、16はビーム深度、17−1〜17−3はスペックル、18は境界位置である。17−1〜17−3においてスペックルは、17−1→17−2→17−3の順に大きさが小さくなり、深度は浅くなっている。すなわち、深度が深い方がスペックルの大きさは大きくなっている。 Next, FIG. 3 shows an example of image data to be subjected to boundary extraction processing in the first embodiment. In FIG. 3, 14 is image data, 15 is a beam direction, 16 is a beam depth, 17-1 to 17-3 are speckles, and 18 is a boundary position. In 17-1 to 17-3, speckles become smaller in size in the order of 17-1 → 17-2 → 17-3, and the depth becomes shallower. That is, the speckle size increases as the depth increases.
次に、図4は従来の方法により算出した境界位置18と真の境界位置19とを比較して示したものである。これによれば、従来の方法により算出した境界位置18と真の境界位置19との間で、大きな誤差が生じていることがわかる。
Next, FIG. 4 shows a comparison between the
次に、実施例1の境界抽出処理のフローチャートを、図5を用い説明する。
先ず、超音波診断装置は、超音波プローブ1及び画像生成部2により、患者の臓器などを撮像した画像データ14を取得し、当該臓器などの対象領域について境界抽出を開始する。
(ステップ20)
先ず、超音波診断装置は、境界抽出部位指定手段7により、手動あるいは自動により境界抽出の対象とすべき部位を選択して入力する。
(ステップ21)
次に、超音波診断装置は、画像ぼけ幅計算手段10により、ステップ20で指定された境界抽出部位における画像上におけるぼけ幅を計算する。具体的には、境界抽出部位近傍の画素値データに対してテクスチャ解析を行い、画像上に現れるスペックルを楕円形状で近似して、該近似された楕円の幅(長軸あるいは短軸の長さ)の半分の距離をぼけ幅として算出する。Next, a flowchart of boundary extraction processing according to the first embodiment will be described with reference to FIG.
First, in the ultrasonic diagnostic apparatus, the
(Step 20)
First, the ultrasonic diagnostic apparatus selects and inputs a part to be subjected to boundary extraction manually or automatically by the boundary extraction
(Step 21)
Next, the ultrasonic diagnostic apparatus calculates the blur width on the image at the boundary extraction site specified in
ここでのテキスチャ解析の例としては、濃度共起行列や自己相関関数を求める方法がある。(例えば、O.Bassel, et al : ”TEXTURE ANALYSIS OF ULTRASONIC IMAGES OF THE PROSTATE BY MEANS OF CO-OCCURRENCA MATRICS.” ULTRAONIC IMAGING 15, 218-237(1993)、B.J.Oosterveld et al : ”TEXTURE OF B-MODE ECHOGRAMS: 3-D SIMULATIONS AND EXPERIMENTS OF THE EFFECTS OF DIFFRACTION AND SCATTERER DENSITY” ULTRASONIC IMAGING 7,142-160(1985)参照)このようなテキスチャ解析を行うことにより、超音波画像におけるぼけ幅(あるいはスペックルの幅の例えば半分の距離)に影響を与える超音波の音場に関するパラメータが不明の場合にも、受信信号から得られる情報のみを用いてぼけ幅を算出することができる。 As an example of the texture analysis here, there is a method of obtaining a density co-occurrence matrix or an autocorrelation function. (For example, O. Bassel, et al: “TEXTURE ANALYSIS OF ULTRASONIC IMAGES OF THE PROSTATE BY MEANS OF CO-OCCURRENCA MATRICS.” ULTRAONIC IMAGING 15, 218-237 (1993), BJOosterveld et al: “TEXTURE OF B-MODE. ECHOGRAMS: 3-D SIMULATIONS AND EXPERIMENTS OF THE EFFECTS OF DIFFRACTION AND SCATTERER DENSITY ”ULTRASONIC IMAGING 7,142-160 (1985)) By performing such a texture analysis, the blur width (or speckle width of an ultrasonic image) For example, even when a parameter related to an ultrasonic sound field that affects a half distance) is unknown, the blur width can be calculated using only information obtained from the received signal.
ここで、使用する超音波プローブの種類に応じてどのようなスペックルが生じるかを示したものを図6に示す。図6(a)はリニア型超音波プローブ25-1の例であり、楕円で近似された場合のスペックル17は、その長軸と短軸の方向が画面上の水平方向と垂直方向に一致している。そのため、楕円で近似してスペックルの大きさを抽出する場合にも、長軸と短軸の方向を画面上の水平方向と垂直方向に一致させるようにしてぼけ幅を計算する。
Here, FIG. 6 shows what speckles are generated according to the type of ultrasonic probe used. Fig. 6 (a) shows an example of a linear ultrasonic probe 25-1.
一方、図6(b)はセクタ型超音波プローブ25-2の例であり、楕円で近似された場合のスペックル17は、その長軸あるいは短軸の一方が、画面上斜めの方向を向いていて、超音波を送受信する方向となっている。そのため、楕円で近似してスペックルの大きさを抽出する場合にも、長軸あるいは短軸の一方を画面上の斜めの方向、すなわち超音波を送受信する方向に一致するようにしてぼけ幅を計算する。
(ステップ22)
次に、フィルタ形状・変形手段11により、図7(a)、(b)の26-1、26-2に示されたような2つの領域を持つ境界抽出フィルタを作成する。本ステップにおける境界抽出フィルタ(27-1、27-2)は26-1及び26-2の2つの領域より成っていて、2つの領域の互いに向かい合った辺28-1と28-2間の距離29が、ステップ21で求めたぼけ幅と等しくなっている。On the other hand, FIG. 6 (b) is an example of the sector-type ultrasonic probe 25-2, and the
(Step 22)
Next, the filter shape / deformation means 11 creates a boundary extraction filter having two regions as shown in 26-1 and 26-2 in FIGS. 7 (a) and 7 (b). The boundary extraction filters (27-1 and 27-2) in this step consist of two areas 26-1 and 26-2, and the distance between the opposite sides 28-1 and 28-2 of the two
ここで図8を用い、画像上に現れるスペックルによって、2つの領域30-1、30-2の境界がどのようにぼけるかを説明する。先ず図8(a)は、2つの領域と、その間に位置する真の境界位置19を示している。次に図8(b)は、画像上に現れるスペックル17の一つを示していて、17-4は、スペックルの図面横方向への幅である。次に図8(c)は、超音波画像のプロファイルであり、真の境界位置を横切る線分上の画素分布を示したものである。これによれば、スペックルが図面横方向への幅を持つ分、画素値の高い領域(30-2)が図面上左側へはみ出していることがわかる。図8(c)で示されたようなプロファイルを用いてそのまま特許文献1記載の境界抽出を行うと、18で示されたように、本来の位置と異なる位置に境界位置が抽出される。そこで、本ステップで真の境界位置を検出するためには、境界位置を検出するためのパラメータ(後述する強度強度)が最大となる位置が、真の境界位置19となるような境界抽出フィルタを作成しなければならない。
Here, how the boundary between the two regions 30-1 and 30-2 is blurred by speckle appearing on the image will be described with reference to FIG. First, FIG. 8 (a) shows two regions and a
図7(a)、(b)において下側にしめされたものは、それぞれ図7(a)下側が図面向かって右側が画素値が高い場合、図7(b)下側が図面向かって左側が画素値が高い場合における、図8(c)に示されたものと同じようなプロファイルであり、本ステップにおいて作成する境界抽出フィルタは、その2つの領域26-1及び26-2における互いに向かい合った辺28-1と28-2間の距離は、図7(a)、(b)下側におけるプロファイルのぼけ幅に等しくなっている。このぼけ幅は、ステップ21によって求められたものであり、図8(b)におけるスペックルの幅の例えば1/2に設定されている。
7 (a) and (b), the bottom side of FIG. 7 (a) is lower when the pixel value is higher on the right side of FIG. 7, and the lower side of FIG. When the pixel value is high, the profile is similar to that shown in FIG. 8 (c), and the boundary extraction filter created in this step faces each other in the two regions 26-1 and 26-2. The distance between the sides 28-1 and 28-2 is equal to the blur width of the profile on the lower side of FIGS. 7 (a) and 7 (b). This blur width is obtained in
また図9は、閉領域で形成された境界を正確に抽出する場合に作成される境界抽出フィルタである。より具体的には、図9の下側の画素値のプロファイルで示したように、周囲の高い画素値の領域(31-1と31-2)と、該高い画素値の領域(31-1と31-2)で囲まれた低い画素値の領域(31-3)との境界位置を検出する。 FIG. 9 shows a boundary extraction filter that is created when the boundary formed in the closed region is accurately extracted. More specifically, as shown in the pixel value profile on the lower side of FIG. 9, the surrounding high pixel value regions (31-1 and 31-2) and the high pixel value region (31-1 And the boundary position with the low pixel value region (31-3) surrounded by 31-2).
この場合には、図9の上側で示されたように、内側の円形の領域32-1と外側のリング状の領域32-2を、互いにステップ21で計算したぼけ幅だけの空隙33を空けて、境界抽出フィルタを作成する。
(ステップ23)
次に、境界強度計算手段12により、ステップ22の処理で作成した境界作成フィルタを画像内で走査して境界強度計算を行う。境界強度計算は、本実施例では例えば、後述する2領域のクラス間分散と全分散との比である分離度を利用する場合について説明する。ただし、2領域のクラス間分散及び全分散は、電子通信学会論文誌Vol.J63-D No.4、p349-p356に記載されているようなものであり、クラス間分散は2領域内の画素データをそれぞれの領域で平均化した後に、分散値を求めるものであり、全分散は2領域内の画素データをそのまま用いて分散値を求めるものである。以下本実施例における分離度の計算の詳細を図10及び式(1)〜(3)を用いて説明する。In this case, as shown in the upper side of FIG. 9, the inner circular region 32-1 and the outer ring-shaped region 32-2 are spaced from each other by a
(Step 23)
Next, the boundary strength calculation means 12 performs boundary strength calculation by scanning the boundary creation filter created in the process of
図10は、分離度を用い境界強度を計算するための統計値を計算するための図であり、2つの領域26-1及び26-2と、ぼけ幅29が示されている。
FIG. 10 is a diagram for calculating a statistical value for calculating the boundary strength using the degree of separation, in which two regions 26-1 and 26-2 and a
図10に示されたように、領域26-1及び26-2の画素数をそれぞれN1及びN2、各領域の輝度平均をμ1、μ2、領域26-1及び26-2を合わせた領域の輝度平均値をμ、各画素の輝度値をPi(1≦i≦N1、1≦i≦N2)と定義すると、分離度ηは、次式(1)〜(3)で表される。
As shown in FIG. 10, the numbers of pixels in regions 26-1 and 26-2 are N 1 and N 2 , and the average luminance of each region is μ 1 , μ 2 , and regions 26-1 and 26-2 are combined. When the average luminance value of the region is μ and the luminance value of each pixel is defined as Pi (1 ≦ i ≦ N 1 , 1 ≦ i ≦ N 2 ), the degree of separation η is expressed by the following equations (1) to (3). expressed.
式(1)
式(2)
式(3)
(ステップ24)
図7の26-1、26-2で示されたような境界抽出フィルタを画像上でいろいろな位置及び/あるいは傾きに動かせて走査させながら、逐次式(1)〜(3)を計算して、分離度(境界強度)がどのように変化するかを計算する。そして、図8(d)で示されたような境界強度の分布を求めて、境界強度が最大となる位置を真の境界位置19として求めて検出する。Formula (1)
Formula (2)
Formula (3)
(Step 24)
While calculating the boundary extraction filter as shown in 26-1, 26-2 in Fig. 7 by moving it to various positions and / or inclinations on the image, calculate the sequential formulas (1) to (3). Calculate how the degree of separation (boundary strength) changes. Then, the distribution of the boundary strength as shown in FIG. 8D is obtained, and the position where the boundary strength is maximum is obtained as the
ただし、図7(a)及び(b)で示された境界抽出フィルタは同じ形状であるが、画素値の高い領域の方向が図7(a)と図7(b)で異なるので、それぞれの場合に応じて抽出する境界位置を異ならせる。例えば、図7(a)の場合には図面向かって右側が画素値が高いので、境界抽出フィルタを構成する2つの領域の内、画素値の高い側に設定された領域26-2のエッジで、もう一方の領域(26-1)に近い側の位置を境界位置検出のための基準点(33)として抽出する。また、図7(b)の場合には図面向かって左側が画素値が高いので、境界抽出フィルタを構成する2つの領域の内、画素値の高い側に設定された領域26-1のエッジで、もう一方の領域(26-2)に近い側の位置を真の境界位置19の検出のための基準点(34)として抽出する。
However, although the boundary extraction filters shown in FIGS. 7 (a) and (b) have the same shape, the direction of the region with a high pixel value differs between FIGS. 7 (a) and 7 (b). The boundary position to be extracted is varied depending on the case. For example, in the case of FIG. 7 (a), since the pixel value is high on the right side of the drawing, the edge of the region 26-2 set on the higher pixel value side of the two regions constituting the boundary extraction filter Then, a position closer to the other region (26-1) is extracted as a reference point (33) for boundary position detection. In the case of FIG. 7B, since the pixel value is high on the left side of the drawing, the edge of the region 26-1 set on the higher pixel value side of the two regions constituting the boundary extraction filter. Then, a position closer to the other region (26-2) is extracted as a reference point (34) for detecting the
また、図9で示されたように閉領域で形成された境界を正確に抽出する場合に作成された境界抽出フィルタを用いる場合には、画素値の高い側の領域(図9の例では、外側のリング状の領域32-2)の内側の位置を真の境界位置19の検出のための基準点(35)として抽出する。
In addition, when using the boundary extraction filter created when accurately extracting the boundary formed in the closed region as shown in FIG. 9, the region on the higher pixel value side (in the example of FIG. 9, The position inside the outer ring-shaped region 32-2) is extracted as a reference point (35) for detecting the
以上のステップ20から24の処理を経て、対象領域の境界抽出処理が終了すると、求められた境界位置(境界情報)を表示部6に表示するとともに、臓器計測手段9により、境界を抽出した対象領域の境界情報を用いて、対象領域の大きさ等の物理量の算出して、該算出値を表示及び記録する。
When the boundary extraction processing of the target region is completed through the
上記実施例1に係る超音波診断装置によれば、超音波画像からぼけ幅を算出し、ぼけ幅に基づいて境界抽出フィルタの形状や大きさを設定し、対象領域の境界位置を抽出するので、高精度に対象領域の境界抽出を行うことができる。より具体的には、上記実施例で用いる境界抽出フィルタは2つの領域から成り、その2つの領域によって挟まれた空隙の幅が超音波画像から算出したぼけ幅に等しくなっているので、ぼけ幅(すなわち、超音波画像上に現れるスペックルの大きさの例えば1/2に相当する距離)を考慮して、真の境界位置を高精度に抽出することができる。従来の境界抽出方法では画素値が境界でステップ的に変化する場合を想定して境界抽出していたので、実際の画像上に現れる境界がスペックル等の影響により鈍るに従って境界位置の検出精度が悪化していた。本発明では、スペックル等の影響により境界が鈍ることを想定して境界の抽出を行うので、常に境界が画像上で鈍っていない場合と同等の正確さで境界位置を抽出することが可能となる。そして、算出した真の境界位置の座標を利用して、対象領域の大きさ等の物理量を正確に算出して、その値を用いて正確な超音波診断を行うことができる。 According to the ultrasonic diagnostic apparatus according to the first embodiment, the blur width is calculated from the ultrasonic image, the shape and size of the boundary extraction filter are set based on the blur width, and the boundary position of the target region is extracted. Therefore, the boundary extraction of the target area can be performed with high accuracy. More specifically, the boundary extraction filter used in the above embodiment includes two regions, and the width of the gap sandwiched between the two regions is equal to the blur width calculated from the ultrasonic image. In consideration of (that is, a distance corresponding to, for example, 1/2 of the size of speckle appearing on the ultrasonic image), the true boundary position can be extracted with high accuracy. In the conventional boundary extraction method, the boundary extraction is performed assuming that the pixel value changes stepwise at the boundary. Therefore, the boundary position detection accuracy increases as the boundary appearing on the actual image becomes dull due to the influence of speckle or the like. It was getting worse. In the present invention, since the boundary is extracted assuming that the boundary is dull due to the influence of speckle or the like, it is possible to always extract the boundary position with the same accuracy as when the boundary is not blunt on the image. Become. Then, by using the calculated coordinates of the true boundary position, a physical quantity such as the size of the target region can be accurately calculated, and accurate ultrasonic diagnosis can be performed using the value.
なお、被検体内の画像取得深度が深くなるに従い、スペックルの大きさ(例えば、ぼけ幅に相当する量)が大きくなる。従って、画像取得深度に応じて境界抽出フィルタを構成する2つの領域の間隔を変化させることが望ましいと考えられる。 Note that the speckle size (for example, an amount corresponding to the blur width) increases as the image acquisition depth in the subject increases. Therefore, it is considered desirable to change the interval between the two regions constituting the boundary extraction filter according to the image acquisition depth.
また、設定する境界抽出フィルタは対象部位の境界形状を反映するように設定することが望ましいと考えられる。図7あるいは図9で示されたような形状の境界抽出フィルタでも良いが、予め想定される境界が曲がっている場合や、心臓の特定の部分等を抽出しようとする場合には、それに合わせて図11や図12に示されたような形状を持つ境界抽出フィルタを用いればよい。図11において36-1及び36-2はそれぞれ境界抽出フィルタを構成する2つの領域であるが、該2つの領域に挟まれた空隙の領域は、想定される境界が曲がっているのに応じて曲げられて設定されている。 Further, it may be desirable to set the boundary extraction filter to be set so as to reflect the boundary shape of the target part. A boundary extraction filter having the shape shown in FIG. 7 or FIG. 9 may be used. However, when the boundary assumed in advance is bent or when a specific part of the heart is to be extracted, the boundary extraction filter is adjusted accordingly. A boundary extraction filter having a shape as shown in FIGS. 11 and 12 may be used. In FIG. 11, 36-1 and 36-2 are two regions that constitute the boundary extraction filter, respectively, but the void region sandwiched between the two regions corresponds to the assumed boundary being bent. Bent and set.
また、図12(a)に示された図は、心臓の四腔断画像であるが、37-1〜37-5で示されたそれぞれのフィルタは、心臓の四腔断画像のそれぞれの場所38-1〜38-5についての境界位置を好適に抽出するためのものである。また、図12(b)に示された図は、心臓の短軸断画像であるが、39-1〜39-2で示されたそれぞれのフィルタは、心臓の短軸断画像のそれぞれの場所40-1〜40-2についての境界位置を好適に抽出するためのものである。このように、心臓の特徴部分を抽出する場合には、形状に特徴のある弁輪部や乳頭部のような構造物の形状を持つフィルタを作成すれば良い。図12に示されたような境界抽出フィルタを用いて心臓の輪郭等を好適に抽出することができれば、心臓の腔の容積を計測する場合等に、内腔の輪郭が内側にぼけて腔の容積の値を過小評価してしまうことを防ぐことができる。 In addition, the figure shown in FIG. 12 (a) is a four-chamber cut-off image of the heart, but each filter shown in 37-1 to 37-5 is a location of the four-chamber cut-out image of the heart. This is for suitably extracting the boundary positions for 38-1 to 38-5. In addition, the figure shown in FIG. 12 (b) is a short-axis cut image of the heart, but each filter shown in 39-1 to 39-2 has different locations of the short-axis image of the heart. The boundary position for 40-1 to 40-2 is preferably extracted. In this way, when extracting a characteristic part of the heart, a filter having a shape of a structure such as an annulus or a papilla having a characteristic shape may be created. If the contour of the heart can be suitably extracted using the boundary extraction filter as shown in FIG. 12, the contour of the lumen is blurred inward when the volume of the heart cavity is measured. It is possible to prevent the volume value from being underestimated.
次に、図13〜15を参照しながら本発明の実施例2を説明する。実施例2は、画像のぼけ幅あるいは、抽出の対象とする境界の形状に関する情報が未知の場合、あるいは何らかの理由で計算ができない場合において、本発明に係る境界抽出フィルタを用いて探索的に境界位置を抽出する例である。 Next, Embodiment 2 of the present invention will be described with reference to FIGS. The second embodiment uses the boundary extraction filter according to the present invention to search the boundary when the information about the blur width of the image or the shape of the boundary to be extracted is unknown or when calculation is not possible for some reason. It is an example which extracts a position.
例えば、取得画像の対象領域のスペックルの分布が均等でない場合、スペックルそのものの持つ統計的性質が濃度共起行列や自己相関関数に反映されないため、スペックルの大きさを正しく計算できない。そのような場合には、図13に示すフローチャートに従って境界位置を探索することができる。以下、図13のフローチャートの各ステップを順に説明する。
(ステップ40)
先ず、超音波診断装置は、境界抽出部位指定手段7により、手動あるいは自動により境界抽出部位を指定する。
(ステップ41)
次に、本実施例では超音波画像上のぼけ幅あるいは形状が未知のため、フィルタ形状作成・変形手段11により、2領域から成る適当な初期の形状の境界抽出フィルタを作成する。
(ステップ42)
次に、ステップ41により設定した2領域から成る境界抽出フィルタのフィルタ領域間隔、形状、位置あるいは傾きのどれかを変化させながら、ステップ23で説明した手法により、境界強度を逐次計算してその分布を求める。For example, if the speckle distribution in the target area of the acquired image is not uniform, the speckle size cannot be calculated correctly because the statistical properties of the speckle itself are not reflected in the density co-occurrence matrix or autocorrelation function. In such a case, the boundary position can be searched according to the flowchart shown in FIG. Hereinafter, each step of the flowchart of FIG. 13 will be described in order.
(Step 40)
First, the ultrasonic diagnostic apparatus designates the boundary extraction part manually or automatically by the boundary extraction part designation means 7.
(Step 41)
Next, since the blur width or shape on the ultrasonic image is unknown in this embodiment, the filter shape creation / deformation means 11 creates a boundary extraction filter having an appropriate initial shape composed of two regions.
(Step 42)
Next, while changing any of the filter area interval, shape, position, or inclination of the boundary extraction filter that consists of the two areas set in
例えば図14は、2つのフィルタ領域の形状を変えずに、フィルタ領域の間隔を変化させる場合の例を示す図である。本ステップにおいてフィルタ領域の間隔を変化させながら境界強度を逐次計算する場合には、フィルタ領域間隔を44-1から44-2のように変化させて、境界抽出フィルタも45-1から45-2のように変化させる。 For example, FIG. 14 is a diagram illustrating an example of changing the interval between the filter regions without changing the shape of the two filter regions. In this step, when the boundary strength is sequentially calculated while changing the filter area interval, the filter area interval is changed from 44-1 to 44-2, and the boundary extraction filter is also changed from 45-1 to 45-2. Change as follows.
また図15は、2つのフィルタ領域の形状を変化する場合の例を示す図である。図15の例では、46-1から46-2、46-3の順に2つのフィルタ領域の相対する辺の形状を変形させ、抽出の対象とする境界線の屈曲の具合に最も適した境界抽出フィルタを探索することができるようになっている。
(ステップ43)
ステップ40において境界抽出フィルタのフィルタ領域間隔、形状、位置あるいは傾きのどれかを変化させながら境界強度を計算して、境界強度が最大となるようなフィルタ領域間隔、形状、位置を求める。フィルタ領域間隔が超音波画像の対象領域のぼけ幅に一致して、形状が抽出すべき境界の形状に一致し、位置が抽出すべき境界の位置に一致した時境界強度が最大となり、これにより境界の位置を抽出する。FIG. 15 is a diagram illustrating an example in which the shapes of the two filter regions are changed. In the example of FIG. 15, the boundary extraction most suitable for the bending condition of the boundary line to be extracted is performed by deforming the shape of the opposite sides of the two filter areas in the order of 46-1 to 46-2, 46-3. The filter can be searched.
(Step 43)
In
なお、フィルタ領域間隔を変化させる場合は、フィルタ領域間隔が小さい方から大きい方へ変化させると、フィルタ領域間隔の大きさがぼけ幅に一致するまでは境界強度が次第に上昇するが、ある程度以上大きくなるとそれ以上境界強度が増加しなくなる。従って、フィルタ領域間隔を変化させながら境界強度を計算する場合には、小さい方から大きい方へ変化させ、境界強度の値が最大値で飽和し始める間隔を探索して、それにより境界位置を検出するようにすれば良いと考えられる。 When changing the filter region interval, if the filter region interval is changed from a smaller one to a larger one, the boundary strength gradually increases until the size of the filter region interval matches the blur width. Then, the boundary strength no longer increases. Therefore, when calculating the boundary strength while changing the filter area interval, change the boundary strength from smaller to larger, search for the interval where the boundary strength value begins to saturate at the maximum value, and detect the boundary position It is thought that it should be done.
本実施例によれば、画像のぼけ幅あるいは、抽出の対象とする境界の形状に関する情報が未知の場合、あるいは何らかの理由で計算ができない場合においても、境界抽出フィルタ、フィルタ領域間隔、形状、位置のどれかを変化させながら、画像中を走査させ、境界強度が最大となる位置を探索することにより真の境界位置を検出することができる。 According to the present embodiment, even when the information about the blur width of the image or the shape of the boundary to be extracted is unknown or cannot be calculated for some reason, the boundary extraction filter, the filter area interval, the shape, the position The true boundary position can be detected by scanning the image while changing any of the above and searching for a position where the boundary intensity is maximum.
また、算出した真の境界位置の座標を利用して、対象領域の大きさ等の物理量を正確に算出して、その値を用いて正確な超音波診断を行うことができる。 Further, it is possible to accurately calculate a physical quantity such as the size of the target region using the calculated coordinates of the true boundary position, and perform an accurate ultrasonic diagnosis using the value.
本発明は上記実施例に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々に変形して実施できる。例えば、本発明は超音波診断装置だけでなく、パーソナルコンピュータ等の電子計算機上でオフラインで行う画像計測にも適用可能である。また、図7において境界抽出フィルタは2つの矩形領域から成るが、円形の形状の領域でも良い。また2つの領域の大きさは任意であれば良く、少ない画素数から成る領域でも良い。また、ステップ21で求めたスペックルを近似した楕円の幅(長軸あるいは短軸の長さ)の半分の距離をぼけ幅として、ステップ22で境界抽出フィルタの作成のために用いたが、当該スペックルの性質等に応じて、半分以外の任意の距離を、ぼけ幅として計算しても良いことは言うまでもない。また、境界強度として用いるパラメータは式(1)〜(3)で指定された分離度でも良いが、2つの領域内に含まれる画像データ間にどの程度の値の差があるのかを表す任意の指標であっても良く、他の計算方法による指標であっても良いことは言うまでもない。
The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the spirit of the present invention. For example, the present invention can be applied not only to an ultrasonic diagnostic apparatus but also to image measurement performed offline on an electronic computer such as a personal computer. In FIG. 7, the boundary extraction filter is composed of two rectangular regions, but may be a circular region. Further, the size of the two regions may be arbitrary, and may be a region composed of a small number of pixels. In addition, the half distance of the ellipse width (long axis or short axis length) approximating the speckle obtained in
Claims (20)
前記表示手段に表示された画像上に、前記被検体の臓器の境界の位置を検出するための部位を選択する選択手段と、前記超音波画像上に所定の間隔が空けられた2つの領域から成る境界抽出フィルタを設定する境界抽出フィルタ設定手段と、前記選択手段により選択された部位近傍で、前記境界抽出フィルタ設定手段により設定された境界抽出フィルタ内の画素データを解析することにより、前記境界の位置を検出する境界位置検出手段を備え、前記境界位置検出手段により検出された境界位置は、前記制御手段による制御の基に前記表示手段に表示されることを特徴とする超音波診断装置。An ultrasonic probe that transmits / receives ultrasonic waves to / from a subject, and an image generation unit that is connected to the ultrasonic probe and generates an ultrasonic image based on an ultrasonic signal obtained by the ultrasonic probe A control unit connected to and controlling the ultrasonic probe and the image generation unit; and connected to the image generation unit and the control unit, and based on control by the control unit, the image generation unit In the ultrasonic diagnostic apparatus provided with a display means for displaying the ultrasonic image generated in
On the image displayed on the display means, a selection means for selecting a part for detecting the position of the boundary of the organ of the subject, and two regions spaced by a predetermined interval on the ultrasound image Analyzing the pixel data in the boundary extraction filter set by the boundary extraction filter setting means in the vicinity of the part selected by the selection means; An ultrasonic diagnostic apparatus comprising boundary position detection means for detecting a position of the boundary, wherein the boundary position detected by the boundary position detection means is displayed on the display means under the control of the control means.
るかを表す指標を用いることを特徴とする請求の範囲2記載の超音波診断装置。3. The ultrasonic diagnostic apparatus according to claim 2, wherein an index representing how much the value is different between image data included in two regions is used as the boundary strength.
(1)前記超音波画像上、前記境界を抽出するための部位を指定する工程と、
(2)前記工程(1)により設定された部位近傍の画像のぼけ幅を計算する工程と、
(3)前記工程(2)により計算されたぼけ幅に応じた間隔を持つ2つの領域を境界抽出フィルタとして設定する工程と、
(4)前記工程(3)により設定された境界抽出フィルタの位置及び/あるいは傾きを変化させながら、前記2つの領域内の画素値を解析して境界強度を求める工程と、
(5)前記工程(4)において、前記境界強度が最大となる前記位置及び/あるいは傾きを求めることにより、前記境界の位置を抽出する工程と、
(6)前記工程(5)により求めた境界位置を基に、前記境界で囲まれた領域の面積あるいは、前記境界で囲まれた領域を表す臓器の体積を算出する工程を備えたことを特徴とする超音波診断方法。In the ultrasonic diagnostic method capable of extracting the position of the boundary of the organ appearing on the ultrasonic image,
(1) On the ultrasonic image, designating a part for extracting the boundary;
(2) calculating the blur width of the image of the vicinity of the site set in the step (1);
(3) a step of setting two regions having an interval according to the blur width calculated in the step (2) as a boundary extraction filter;
(4) While changing the position and / or inclination of the boundary extraction filter set in the step (3), analyzing the pixel values in the two regions to obtain the boundary strength;
(5) In the step (4), the step of extracting the position of the boundary by obtaining the position and / or inclination at which the boundary strength is maximized;
(6) Based on the boundary position obtained in the step (5), comprising the step of calculating the area of the region surrounded by the boundary or the volume of the organ representing the region surrounded by the boundary And an ultrasonic diagnostic method.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008516604A JP4879263B2 (en) | 2006-05-19 | 2007-05-14 | Ultrasonic diagnostic apparatus and ultrasonic diagnostic method |
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2006139865 | 2006-05-19 | ||
JP2006139865 | 2006-05-19 | ||
PCT/JP2007/059848 WO2007135884A1 (en) | 2006-05-19 | 2007-05-14 | Ultrasonographic device and ultrasonographic method |
JP2008516604A JP4879263B2 (en) | 2006-05-19 | 2007-05-14 | Ultrasonic diagnostic apparatus and ultrasonic diagnostic method |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2007135884A1 true JPWO2007135884A1 (en) | 2009-10-01 |
JP4879263B2 JP4879263B2 (en) | 2012-02-22 |
Family
ID=38723197
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008516604A Active JP4879263B2 (en) | 2006-05-19 | 2007-05-14 | Ultrasonic diagnostic apparatus and ultrasonic diagnostic method |
Country Status (5)
Country | Link |
---|---|
US (1) | US8300909B2 (en) |
EP (1) | EP2047803A4 (en) |
JP (1) | JP4879263B2 (en) |
CN (1) | CN101448461B (en) |
WO (1) | WO2007135884A1 (en) |
Families Citing this family (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR101051555B1 (en) * | 2007-11-20 | 2011-07-22 | 삼성메디슨 주식회사 | Ultrasonic Imaging Apparatus and Method for Forming an Improved 3D Ultrasound Image |
JP5406484B2 (en) * | 2008-09-08 | 2014-02-05 | 日立アロカメディカル株式会社 | Ultrasonic data processor |
WO2014155825A1 (en) * | 2013-03-29 | 2014-10-02 | 日立アロカメディカル株式会社 | Medical diagnosis device and measurement method thereof |
JP6339872B2 (en) * | 2014-06-24 | 2018-06-06 | オリンパス株式会社 | Image processing apparatus, endoscope system, and image processing method |
CN104398272B (en) * | 2014-10-21 | 2017-09-19 | 无锡海斯凯尔医学技术有限公司 | Select the method and device and elastomeric check system of detection zone |
CN104408398B (en) | 2014-10-21 | 2019-02-22 | 无锡海斯凯尔医学技术有限公司 | A kind of recognition methods and system of liver boundary |
US10579879B2 (en) | 2016-08-10 | 2020-03-03 | Vivint, Inc. | Sonic sensing |
JP6337949B1 (en) * | 2016-12-15 | 2018-06-06 | オムロン株式会社 | Line-shaped region detection device and line-shaped region detection method |
JP6958494B2 (en) * | 2018-06-25 | 2021-11-02 | 株式会社島津製作所 | Displacement amount measuring device, displacement amount measuring method and displacement amount measuring program |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5457754A (en) * | 1990-08-02 | 1995-10-10 | University Of Cincinnati | Method for automatic contour extraction of a cardiac image |
JPH08206117A (en) * | 1994-05-27 | 1996-08-13 | Fujitsu Ltd | Ultrasonic diagnostic apparatus |
JP3542858B2 (en) * | 1995-09-29 | 2004-07-14 | 株式会社日立メディコ | Ultrasound diagnostic equipment |
JP4530834B2 (en) * | 2003-12-26 | 2010-08-25 | 富士フイルム株式会社 | Ultrasonic image processing method, ultrasonic image processing apparatus, and ultrasonic image processing program |
US8021301B2 (en) * | 2003-12-26 | 2011-09-20 | Fujifilm Corporation | Ultrasonic image processing apparatus, ultrasonic image processing method and ultrasonic image processing program |
US8031978B2 (en) * | 2004-06-30 | 2011-10-04 | Hitachi Aloka Medical, Ltd. | Method and apparatus of image processing to detect edges |
-
2007
- 2007-05-14 CN CN2007800182328A patent/CN101448461B/en active Active
- 2007-05-14 US US12/301,350 patent/US8300909B2/en active Active
- 2007-05-14 EP EP07743283.9A patent/EP2047803A4/en not_active Withdrawn
- 2007-05-14 JP JP2008516604A patent/JP4879263B2/en active Active
- 2007-05-14 WO PCT/JP2007/059848 patent/WO2007135884A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
US8300909B2 (en) | 2012-10-30 |
US20090163812A1 (en) | 2009-06-25 |
EP2047803A1 (en) | 2009-04-15 |
JP4879263B2 (en) | 2012-02-22 |
CN101448461B (en) | 2011-04-06 |
CN101448461A (en) | 2009-06-03 |
EP2047803A4 (en) | 2014-02-26 |
WO2007135884A1 (en) | 2007-11-29 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6367425B2 (en) | Ultrasonic diagnostic equipment | |
JP4879263B2 (en) | Ultrasonic diagnostic apparatus and ultrasonic diagnostic method | |
US11715202B2 (en) | Analyzing apparatus and analyzing method | |
JP5645811B2 (en) | Medical image diagnostic apparatus, region of interest setting method, medical image processing apparatus, and region of interest setting program | |
US11890141B2 (en) | Method and system for graphically representing blood flow velocity parameters | |
US6884216B2 (en) | Ultrasound diagnosis apparatus and ultrasound image display method and apparatus | |
JP4745133B2 (en) | Ultrasonic diagnostic apparatus, medical image processing apparatus, and medical image processing program | |
EP2898830B1 (en) | Method and ultrasound apparatus for displaying ultrasound image corresponding to region of interest | |
US20110313291A1 (en) | Medical image processing device, medical image processing method, medical image diagnostic apparatus, operation method of medical image diagnostic apparatus, and medical image display method | |
EP3463098B1 (en) | Medical ultrasound image processing device | |
JP7010948B2 (en) | Fetal ultrasound imaging | |
WO2018023336A1 (en) | Method and system for displaying ultrasonic elastic measurement | |
US11337677B2 (en) | Volume rendered ultrasound imaging | |
JP2024098018A (en) | Analysis device and program | |
CN106028946B (en) | System for monitoring lesion size trend and method of operation thereof | |
JP2020507388A (en) | Ultrasound evaluation of anatomical features | |
JP7299100B2 (en) | ULTRASOUND DIAGNOSTIC DEVICE AND ULTRASOUND IMAGE PROCESSING METHOD | |
JP2006345893A (en) | Ultrasonograph | |
EP3178401A1 (en) | Ultrasonic diagnostic apparatus and method for controlling the same | |
JP2012005563A (en) | Ultrasonic data processor |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100514 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100514 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20111121 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20111129 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4879263 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20141209 Year of fee payment: 3 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313111 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |