JPH11248432A - 3-dimension shape measuring device - Google Patents
3-dimension shape measuring deviceInfo
- Publication number
- JPH11248432A JPH11248432A JP4834698A JP4834698A JPH11248432A JP H11248432 A JPH11248432 A JP H11248432A JP 4834698 A JP4834698 A JP 4834698A JP 4834698 A JP4834698 A JP 4834698A JP H11248432 A JPH11248432 A JP H11248432A
- Authority
- JP
- Japan
- Prior art keywords
- measured
- data
- imaging
- coordinate data
- dimension
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Length Measuring Devices By Optical Means (AREA)
- Machine Tool Sensing Apparatuses (AREA)
Abstract
Description
【0001】[0001]
【発明の属する技術分野】本発明は、被測定対象物の三
次元形状を数値データ化する三次元形状測定装置に関す
る。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional shape measuring apparatus for converting a three-dimensional shape of an object to be measured into numerical data.
【0002】[0002]
【従来の技術】たとえば、NC工作機械によって工作物
を加工した後に、当該工作物が所望の形状および加工精
度に加工されているかを確認するため、通常は、三次元
形状の測定を行なって、工作物の3次元形状を測定して
いる。この工作物の三次元形状の測定には、三次元形状
測定装置が使用される。三次元形状測定装置は、各種の
ものが存在するが、たとえば、工作物に光を照射する光
源と、光が照射された工作物を撮像するCCDカメラ
と、このCCDカメラを任意の位置および姿勢に移動す
る移動手段と、CCDカメラが撮像した撮像データを処
理して工作物の三次元座標データに変換する画像処理装
置とを有するものが知られている。2. Description of the Related Art For example, after a workpiece is machined by an NC machine tool, a three-dimensional shape is usually measured to check whether the workpiece is machined to a desired shape and machining accuracy. The three-dimensional shape of the workpiece is measured. A three-dimensional shape measuring device is used for measuring the three-dimensional shape of the workpiece. There are various types of three-dimensional shape measuring devices. For example, a light source for irradiating a workpiece with light, a CCD camera for capturing an image of the workpiece irradiated with light, and a CCD camera having an arbitrary position and posture. And an image processing apparatus for processing image data picked up by a CCD camera and converting the data into three-dimensional coordinate data of a workpiece.
【0003】[0003]
【発明が解決しようとする課題】しかしながら、上記構
成の三次元形状測定装置では、CCDカメラの視野は一
定の範囲に限られており、たとえば、CCDカメラの視
野に収まりきらない寸法の大きい工作物の場合には、当
該工作物全体の三次元形状を特定することができないと
いう不利益がある。However, in the three-dimensional shape measuring apparatus having the above structure, the field of view of the CCD camera is limited to a certain range. For example, a workpiece having a large size that cannot be accommodated in the field of view of the CCD camera. In this case, there is a disadvantage that the three-dimensional shape of the entire workpiece cannot be specified.
【0004】本発明は、上述の不利益を解消すべくなさ
れたものであって、三次元形状を測定される被測定対象
物の寸法が大きく、当該被測定対象物の全体領域が撮像
手段の視野に収まらない場合であっても当該被測定対象
物の全体領域の三次元形状を特定可能な三次元形状測定
装置を提供することを目的とする。SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned disadvantages, and has a large dimension of an object to be measured whose three-dimensional shape is to be measured. It is an object of the present invention to provide a three-dimensional shape measuring apparatus capable of specifying a three-dimensional shape of an entire region of the object to be measured even when the three-dimensional shape is out of the field of view.
【0005】[0005]
【課題を解決するための手段】本発明は、被測定対象物
の一部の領域の画像を撮像する撮像手段と、前記撮像手
段を前記被測定対象物に対して任意の位置移動可能な移
動手段と、被測定対象物の一部の領域の撮像データを当
該被測定対象物の三次元座標データに変換する変換手段
と、前記移動手段の位置制御を行ない、前記撮像手段を
前記被測定対象物の撮像可能な全領域に順次移動させる
制御手段と、前記被測定対象物の複数の領域の三次元座
標データを、当該各三次元座標データの撮像位置情報を
基に合成し、当該被測定対象物全体の三次元形状を特定
する合成手段とを有する。According to the present invention, there is provided an image pickup means for picking up an image of a partial area of an object to be measured, and a moving means for moving the image pickup means to any position with respect to the object to be measured. Means for converting image data of a partial area of the object to be measured into three-dimensional coordinate data of the object to be measured, and performing position control of the moving means, and Control means for sequentially moving the object to all the imageable areas, and combining three-dimensional coordinate data of a plurality of areas of the object to be measured based on the imaging position information of each of the three-dimensional coordinate data; Combining means for specifying a three-dimensional shape of the entire object.
【0006】本発明では、撮像手段を移動手段によって
移動させることにより、撮像手段により被測定対象物の
複数の領域の撮像データが取得される。被測定対象物の
各領域の撮像データは、変換手段によって三次元座標デ
ータに変換される。合成手段は、各三次元座標データを
取得した撮像手段の位置情報に基づいて各三次元座標デ
ータを合成することにより、被測定対象物の撮像可能な
領域の三次元形状が特定される。In the present invention, the imaging means is moved by the moving means, so that the imaging means obtains imaging data of a plurality of areas of the measured object. The imaging data of each area of the object to be measured is converted into three-dimensional coordinate data by the conversion means. The synthesizing unit synthesizes the three-dimensional coordinate data based on the position information of the imaging unit that has acquired the three-dimensional coordinate data, thereby specifying the three-dimensional shape of the imageable area of the measured object.
【0007】[0007]
【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。図1は、本発明の一実施形態に係
る三次元形状測定システムの一構成例を示す構成図であ
る。図1に示すように、本実施形態に係る三次元形状測
定システムは、三次元測定機1と、NC装置21と、画
像処理装置31とを有する。Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a configuration diagram illustrating a configuration example of a three-dimensional shape measurement system according to an embodiment of the present invention. As shown in FIG. 1, the three-dimensional shape measuring system according to the present embodiment includes a three-dimensional measuring device 1, an NC device 21, and an image processing device 31.
【0008】三次元測定機1は、ベッド3と、ベッド3
上に配置されてX軸方向に移動可能に案内された被測定
対象物Wが搭載されるテーブル5と、ベッド3をY軸方
向に跨いで設けられた門型固定フレーム7と、Z軸方向
に移動可能に門型固定フレーム7に保持されたクロスビ
ーム9と、Y軸方向に移動可能にクロスビーム9に保持
されたサドル11と、Z軸方向に移動可能にサドル11
に保持されたラム13とを含んで構成される。また、ラ
ム13の下端部には、CCD(Charge Coupled Device)
カメラおよびプロジェクタを有する撮像ヘッド15が設
けられている。The coordinate measuring machine 1 comprises a bed 3 and a bed 3
A table 5 on which an object to be measured W is mounted and guided so as to be movable in the X-axis direction, a gate-shaped fixed frame 7 provided across the bed 3 in the Y-axis direction, and a Z-axis direction The cross beam 9 held by the gate-shaped fixed frame 7 so as to be movable in the vertical direction, the saddle 11 held by the cross beam 9 so as to be movable in the Y axis direction, and the saddle 11 so as to be movable in the Z axis direction.
And the ram 13 held by the Further, a CCD (Charge Coupled Device) is provided at the lower end of the ram 13.
An imaging head 15 having a camera and a projector is provided.
【0009】テーブル5は、図示しないサーボモータお
よび送り機構によってX軸方向に駆動される。これによ
って、被測定対象物WはX軸方向の任意の位置に移動可
能となっている。サドル11は、図示しないサーボモー
タおよび送り機構によってY軸方向に駆動される。これ
によって、撮像ヘッド15はY軸方向の任意の位置に移
動可能となっている。ラム13は、図示しないサーボモ
ータおよび送り機構によってZ軸方向に駆動される。こ
れによって、撮像ヘッド15はZ軸方向の任意の位置に
移動可能となっている。したがって、テーブル5、サド
ル11およびラム13の位置制御を行なうことにより、
被測定対象物Wと撮像ヘッド15との相対位置は任意に
変更可能となる。The table 5 is driven in the X-axis direction by a servo motor and a feed mechanism (not shown). Thereby, the measured object W can be moved to any position in the X-axis direction. The saddle 11 is driven in the Y-axis direction by a servo motor and a feed mechanism (not shown). Thus, the imaging head 15 can be moved to any position in the Y-axis direction. The ram 13 is driven in the Z-axis direction by a servo motor and a feed mechanism (not shown). Thereby, the imaging head 15 can be moved to an arbitrary position in the Z-axis direction. Therefore, by controlling the position of the table 5, the saddle 11, and the ram 13,
The relative position between the measured object W and the imaging head 15 can be arbitrarily changed.
【0010】図2は、撮像ヘッド15に設けられたCC
Dカメラおよびプロジェクタと被測定対象物の位置関係
を示す説明図である。図2に示すように、プロジェクタ
16は、被測定対象物Wに向けて光を投光する。また、
CCDカメラ17は、電荷結合素子を用いた所定の範囲
の視野角θを有する撮像装置である。CCDカメラ17
は、プロジェクタ16によって被測定対象物Wに向けて
高された光の反射光を受光し、被測定対象物Wをモアレ
式に立体的に撮像する。図2に示すように、CCDカメ
ラ17の視野角θでは、被測定対象物Wの一部の領域し
か撮像することができず、このため、後述するように、
被測定対象物Wと撮像ヘッド15との相対位置を順次変
更しながら被測定対象物Wの撮像可能な全領域の撮像デ
ータを取得する。FIG. 2 shows a CC provided on the imaging head 15.
It is explanatory drawing which shows the positional relationship of a D camera, a projector, and a measured object. As shown in FIG. 2, the projector 16 emits light toward the measured object W. Also,
The CCD camera 17 is an imaging device using a charge-coupled device and having a viewing angle θ in a predetermined range. CCD camera 17
Receives the reflected light of the light raised toward the measured object W by the projector 16, and images the measured object W three-dimensionally in a moire manner. As shown in FIG. 2, at the viewing angle θ of the CCD camera 17, only a part of the area of the measured object W can be imaged.
While sequentially changing the relative position between the object to be measured W and the imaging head 15, image data of the entire area where the object to be measured W can be imaged is acquired.
【0011】ここで、図4はNC装置21の一構成例を
示す構成図である。NC装置21は、三次元測定機1の
X軸〜Z軸を駆動する各軸サーボモータの駆動制御をN
C装置21に入力される測定・撮像プログラムにしたが
って行なう。図4に示すように、NC装置21は、主制
御部22と、各軸サーボ制御部23と、各軸サーボドラ
イバ24と、プログラム記憶部26と、位置データ出力
部27とを有している。FIG. 4 is a block diagram showing an example of the configuration of the NC unit 21. The NC device 21 controls the drive of each axis servomotor that drives the X axis to the Z axis of the coordinate measuring machine 1 by N.
This is performed in accordance with the measurement / imaging program input to the C device 21. As shown in FIG. 4, the NC device 21 includes a main control unit 22, each axis servo control unit 23, each axis servo driver 24, a program storage unit 26, and a position data output unit 27. .
【0012】主制御部3は、被測定対象物Wと撮像ヘッ
ド15との相対位置を変更するための所定の言語でプロ
グラミング化したNCプログラムを解析(解読)処理し
て軌跡データを各制御軸の移動すべき位置指令などの制
御情報に生成し、これを各軸サーボ制御部23に出力す
る機能を有する。The main controller 3 analyzes (decodes) an NC program programmed in a predetermined language for changing the relative position between the object to be measured W and the image pickup head 15 to process the trajectory data for each control axis. Has a function of generating control information such as a position command to be moved and outputting the control information to each axis servo control unit 23.
【0013】プログラム記憶部27は、被測定対象物W
の三次元形状を測定するための被測定対象物Wと撮像ヘ
ッド15との位置を変更するためのデータなどを所定の
言語でプログラミングしたNCプログラムを記憶する。The program storage unit 27 stores the object to be measured W
An NC program in which data for changing the positions of the object W to be measured for measuring the three-dimensional shape and the imaging head 15 and the like are programmed in a predetermined language.
【0014】サーボ制御部23は、位置ループ、速度ル
ープおよび電流ループから構成される。位置ループは、
上述のテーブル5、サドル11およびラム13をそれぞ
れ駆動する各軸サーボモータ25の回転位置を検出する
回転位置検出器25aからの位置フィードバック信号と
の偏差に比例動作を施してこれを速度ループに対する速
度指令として出力する。速度ループは、たとえば、前記
速度指令と回転位置検出器25aからの位置フィードバ
ック信号のサンプリング時間毎の差分値(速度フィード
バック信号)との偏差に比例動作および積分動作を施し
てトルク指令とし、これを電流ループに出力する。電流
ループは、たとえば、各軸サーボモータ25の駆動電流
から換算した各軸サーボモータ25の出力トルク信号と
上記トルク指令との偏差に比例動作を施して電流指令と
し、これを各軸サーボドライバ24に所定の電気信号に
変換して出力する。The servo control unit 23 includes a position loop, a speed loop, and a current loop. The position loop is
The above-mentioned table 5, saddle 11 and ram 13 are driven in proportion to the deviation from the position feedback signal from the rotational position detector 25a for detecting the rotational position of each axis servomotor 25 for driving the ram 13, and this is converted into the speed for the speed loop. Output as a command. The speed loop performs a proportional operation and an integral operation on a deviation between the speed command and a difference value (speed feedback signal) for each sampling time of the position feedback signal from the rotational position detector 25a to generate a torque command. Output to the current loop. For example, the current loop performs a proportional operation on a deviation between the output torque signal of each axis servo motor 25 converted from the drive current of each axis servo motor 25 and the torque command to generate a current command. And converts it into a predetermined electrical signal and outputs it.
【0015】各軸サーボドライバ24は、各軸サーボ制
御部23からの電流指令を増幅した駆動電流を各軸サー
ボモータ25に出力する。各軸サーボモータ25は、駆
動電流に応じて駆動され、各軸サーボモータ25の回転
位置検出器25aは、各軸サーボモータ25の回転量に
応じた検出パルスを各サーボ制御部23に対して出力す
る。Each axis servo driver 24 outputs a drive current obtained by amplifying a current command from each axis servo control unit 23 to each axis servo motor 25. Each axis servomotor 25 is driven according to the drive current, and the rotation position detector 25a of each axis servomotor 25 sends a detection pulse corresponding to the rotation amount of each axis servomotor 25 to each servo control unit 23. Output.
【0016】位置データ出力部27は、各軸サーボモー
タ25の回転量に応じた検出パルスを各軸サーボドライ
バ24および主制御部22を通じて取得し、これを画像
処理装置に出力する。すなわち、上述のテーブル5、サ
ドル11およびラム13を駆動する各軸サーボモータ2
5の回転位置検出器25aの検出パルスから、撮像ヘッ
ド15と被測定対象物Wとの相対位置情報が得られる。The position data output section 27 acquires a detection pulse corresponding to the rotation amount of each axis servo motor 25 through each axis servo driver 24 and the main control section 22, and outputs this to the image processing apparatus. That is, each axis servo motor 2 that drives the above-described table 5, saddle 11, and ram 13
The relative position information between the imaging head 15 and the object to be measured W can be obtained from the detection pulse of the rotation position detector 25a.
【0017】図3は、画像処理装置31の一構成例を示
す構成図である。図3において、画像処理装置31は、
画像データ入力部32と、画像データ記憶部33と、位
置データ入力部34と、位置データ記憶部35と、座標
変換部36と、パートデータ作成部37と、パートデー
タ記憶部38と、データ合成部39とを有する。FIG. 3 is a configuration diagram showing an example of the configuration of the image processing device 31. In FIG. 3, the image processing device 31
Image data input unit 32, image data storage unit 33, position data input unit 34, position data storage unit 35, coordinate conversion unit 36, part data creation unit 37, part data storage unit 38, data synthesis And a part 39.
【0018】画像データ入力部32は、CCDカメラ1
7の撮像した撮像データを画像処理装置31に取り込
む。画像データ記憶部33は、画像データ入力部32に
取り込まれた撮像データを記憶保持する。すなわち、画
像データ記憶部33は、被測定対象物Wの各領域の撮像
データが記憶される。The image data input section 32 is a CCD camera 1
The captured image data of 7 is taken into the image processing device 31. The image data storage unit 33 stores and holds the image data captured by the image data input unit 32. That is, the image data storage unit 33 stores the imaging data of each area of the measured object W.
【0019】位置データ入力部34は、NC装置21の
位置データ出力部27から出力される撮像ヘッド15と
被測定対象物Wとの相対位置情報を画像処理装置31に
取り込む。位置データ記憶部35は、位置データ入力部
34を通じて取り込まれた撮像ヘッド15と被測定対象
物Wとの相対位置情報を記憶する。The position data input unit 34 fetches relative position information between the imaging head 15 and the object to be measured W output from the position data output unit 27 of the NC device 21 into the image processing device 31. The position data storage unit 35 stores the relative position information between the imaging head 15 and the object to be measured W which is captured through the position data input unit 34.
【0020】座標変換部36は、画像データ記憶部33
に記憶された被測定対象物Wの各部の領域の撮像データ
にに基づいて、被測定対象物Wの三次元座標データに変
換する。撮像データから被測定対象物Wの三次元座標デ
ータへの変換は、各ピクセル毎の撮像データに基づいて
被測定対象物Wまでの距離を算出することによって行な
う。例えば、図5に示すように、所定範囲の撮像データ
51の各ピクセル毎の三次元座標Pr(i)が算出され
る。The coordinate conversion unit 36 includes an image data storage unit 33
Is converted into three-dimensional coordinate data of the measured object W based on the imaging data of the area of each part of the measured object W stored in the. The conversion from the imaging data to the three-dimensional coordinate data of the measured object W is performed by calculating the distance to the measured object W based on the imaging data for each pixel. For example, as shown in FIG. 5, the three-dimensional coordinates Pr (i) of each pixel of the imaging data 51 in a predetermined range are calculated.
【0021】パートデータ作成部37は、位置データ記
憶部35に記憶された各撮像位置における被測定対象物
WとCCDカメラ17との各相対位置情報および相対位
置姿勢情報を座標変換部36によって作成された被測定
対象物Wの各領域の三次元座標データに付加したデータ
を作成する。すなわち、被測定対象物Wの各領域の三次
元座標データに、被測定対象物WとCCDカメラ17と
の相対的な位置および姿勢を示す情報を付加することに
よって、各領域の三次元座標データ間に相関を持たせる
ことができる。具体的には、図5に示すように、所定範
囲の撮像データ51の平面の向きを示す法線ベクトルn
rを被測定対象物WとCCDカメラ17との相対位置情
報から求め、各領域の三次元座標データにそれぞれ付与
する。法線ベクトルnrは、被測定対象物WとCCDカ
メラ17との相対的な姿勢を示すX軸,Y軸,Z軸方向
のベクトル(nx,ny,nz)と、被測定対象物Wと
CCDカメラ17との距離dの情報からなる。パートデ
ータ記憶部38は、パートデータ作成部37において作
成された各パートデータをそれぞれ記憶する。A part data creating section 37 creates relative position information and relative position and orientation information between the object to be measured W and the CCD camera 17 at each imaging position stored in the position data storage section 35 by means of a coordinate conversion section 36. The data added to the obtained three-dimensional coordinate data of each area of the measured object W is created. That is, by adding information indicating the relative position and orientation of the measured object W and the CCD camera 17 to the three-dimensional coordinate data of each region of the measured object W, the three-dimensional coordinate data of each region is added. A correlation can be provided between them. Specifically, as shown in FIG. 5, a normal vector n indicating the direction of the plane of the imaging data 51 in a predetermined range.
r is obtained from relative position information between the object to be measured W and the CCD camera 17 and is added to the three-dimensional coordinate data of each area. The normal vector nr is a vector (nx, ny, nz) in the X-axis, Y-axis, and Z-axis directions indicating the relative attitude of the object W to be measured and the CCD camera 17; It consists of information on the distance d from the camera 17. The part data storage unit 38 stores each part data created by the part data creation unit 37.
【0022】データ合成部39は、パートデータ記憶部
38に記憶された各パートデータを合成して、被測定対
象物Wの撮像可能な領域全体の三次元形状データを特定
する。すなわち、パートデータ作成部37において作成
された各パートデータは、被測定対象物Wの各領域の三
次元座標データと被測定対象物WとCCDカメラ17と
の相対的な位置および姿勢とを有しており、これらの各
パートデータ間をつなぎ合わせることにより、被測定対
象物Wの撮像可能な領域全体の三次元形状データを特定
することができる。The data synthesizing section 39 synthesizes each part data stored in the part data storage section 38 and specifies three-dimensional shape data of the whole area of the object W to be measured which can be imaged. That is, each part data created by the part data creation unit 37 has three-dimensional coordinate data of each area of the measured object W and the relative position and orientation of the measured object W and the CCD camera 17. By connecting these pieces of part data, it is possible to specify the three-dimensional shape data of the entire imageable area of the measured object W.
【0023】次に、本実施形態に係る三次元形状測定シ
ステムによる測定手順の一例について説明する。まず、
撮像ヘッド15を被測定対象物Wに対して順次移動させ
る移動軌跡を特定するNCプログラムをNC装置21に
入力する。たとえば、撮像ヘッド15を所定のステップ
量で繰り返し被測定対象物Wに対して相対移動させて、
CCDカメラ17の視野が被測定対象物Wの撮像可能な
範囲の全てを網羅するようにNCプログラムを作成す
る。Next, an example of a measuring procedure by the three-dimensional shape measuring system according to the present embodiment will be described. First,
An NC program for specifying a movement locus for sequentially moving the imaging head 15 with respect to the measured object W is input to the NC device 21. For example, by repeatedly moving the imaging head 15 relative to the measured object W by a predetermined step amount,
An NC program is created so that the field of view of the CCD camera 17 covers the entire range in which the object to be measured W can be imaged.
【0024】次いで、所定のステップ量で撮像ヘッド1
5を被測定対象物Wに対して相対移動させる毎に、CC
Dカメラ17によって被測定対象物Wを撮像する。これ
によって、画像処理装置31の画像データ記憶部33お
よび位置データ記憶部35の所定のアドレスに撮像デー
タおよび位置データがそれぞれ記憶される。Next, the imaging head 1 is moved by a predetermined step amount.
5 relative to the object W to be measured, CC
The object to be measured W is imaged by the D camera 17. As a result, the image data and the position data are stored at predetermined addresses of the image data storage unit 33 and the position data storage unit 35 of the image processing device 31, respectively.
【0025】被測定対象物Wの撮像可能な全範囲の撮像
が完了すると、画像処理装置31において、被測定対象
物Wの全体の三次元形状データが特定されることにな
る。When the imaging of the whole range of the object W to be imaged is completed, the three-dimensional shape data of the entire object W to be measured is specified in the image processing device 31.
【0026】以上のように、本実施形態によれば、被測
定対象物Wの各領域をCCDカメラ17によって撮像
し、各撮像データを被測定対象物Wの各領域の三次元座
標データに変換する。各領域の三次元座標データには、
被測定対象物WとCCDカメラ17との相対的な位置お
よび姿勢を示す各情報が付加され、被測定対象物Wの各
領域の三次元座標データと被測定対象物WとCCDカメ
ラ17との相対的な位置および姿勢とを有するデータを
作成する。この結果、被測定対象物Wの撮像可能な領域
全体の三次元形状データを特定することが可能となる。
また、上述した一連の処理が画像処理装置31において
行なわれるため、被測定対象物Wの全体の三次元形状デ
ータの特定を迅速かつ容易に行なうことができる。As described above, according to the present embodiment, each area of the measured object W is imaged by the CCD camera 17, and each imaged data is converted into three-dimensional coordinate data of each area of the measured object W. I do. In the three-dimensional coordinate data of each area,
Each piece of information indicating the relative position and orientation between the measured object W and the CCD camera 17 is added, and the three-dimensional coordinate data of each area of the measured object W and the information between the measured object W and the CCD camera 17 are added. Create data having relative positions and postures. As a result, it is possible to specify the three-dimensional shape data of the entire imageable area of the measurement target object W.
In addition, since the series of processes described above is performed in the image processing device 31, it is possible to quickly and easily specify the entire three-dimensional shape data of the measured object W.
【0027】[0027]
【発明の効果】本発明によれば、三次元形状を測定され
る被測定対象物の寸法が大きく、当該被測定対象物の全
体領域が撮像手段の視野に収まらない場合であっても当
該被測定対象物の全体領域の三次元形状データを容易に
かつ迅速に得ることができる。According to the present invention, even when the size of the object to be measured whose three-dimensional shape is to be measured is large and the entire area of the object to be measured does not fit in the field of view of the imaging means, the object to be measured can be used. It is possible to easily and quickly obtain three-dimensional shape data of the entire region of the measurement object.
【図1】本発明の一実施形態に係る三次元形状測定シス
テムの一構成例を示す構成図である。FIG. 1 is a configuration diagram illustrating a configuration example of a three-dimensional shape measurement system according to an embodiment of the present invention.
【図2】撮像ヘッド15に設けられたCCDカメラおよ
びプロジェクタと被測定対象物の位置関係を示す説明図
である。FIG. 2 is an explanatory diagram showing a positional relationship between a CCD camera and a projector provided on an imaging head 15 and an object to be measured.
【図3】画像処理装置31の一構成例を示す構成図であ
る。FIG. 3 is a configuration diagram illustrating a configuration example of an image processing apparatus 31.
【図4】NC装置21の一構成例を示す構成図である。FIG. 4 is a configuration diagram illustrating a configuration example of an NC device 21.
【図5】パートデータ作成部において作成されるデータ
の内容を説明するための図である。FIG. 5 is a diagram for explaining the contents of data created by a part data creation unit.
1…三次元測定機 16…プロジェクタ 17…CCDカメラ 21…NC装置 31…画像処理装置 32…画像データ入力部 33…画像データ記憶部 34…位置データ入力部 35…位置データ記憶部 36…座標変換部 37…パートデータ作成部 38…パートデータ記憶部 39…データ合成部 DESCRIPTION OF SYMBOLS 1 ... Coordinate measuring machine 16 ... Projector 17 ... CCD camera 21 ... NC apparatus 31 ... Image processing apparatus 32 ... Image data input part 33 ... Image data storage part 34 ... Position data input part 35 ... Position data storage part 36 ... Coordinate conversion Part 37 ... part data creation part 38 ... part data storage part 39 ... data synthesis part
Claims (1)
手段と、 前記撮像手段を前記被測定対象物に対して任意の位置移
動可能な移動手段と、 被測定対象物の一部の領域の撮像データを当該被測定対
象物の三次元座標データに変換する変換手段と、 前記移動手段の位置制御を行ない、前記撮像手段を前記
被測定対象物の撮像可能な全領域に順次移動させる制御
手段と、 前記被測定対象物の複数の領域の三次元座標データを、
当該各三次元座標データの撮像位置情報を基に合成し、
当該被測定対象物全体の三次元形状を特定する合成手段
とを有する三次元形状測定装置。An imaging unit configured to image a partial region of the measured object; a moving unit configured to move the imaging unit to an arbitrary position with respect to the measured object; and a part of the measured object. Conversion means for converting the imaging data of the area to three-dimensional coordinate data of the object to be measured, and performing position control of the moving means, and sequentially moving the imaging means to the entire area where the object to be measured can be imaged. Control means for causing, the three-dimensional coordinate data of a plurality of regions of the object to be measured,
Combining based on the imaging position information of each of the three-dimensional coordinate data,
A synthesizing means for specifying a three-dimensional shape of the whole object to be measured.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4834698A JPH11248432A (en) | 1998-02-27 | 1998-02-27 | 3-dimension shape measuring device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP4834698A JPH11248432A (en) | 1998-02-27 | 1998-02-27 | 3-dimension shape measuring device |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH11248432A true JPH11248432A (en) | 1999-09-17 |
Family
ID=12800835
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP4834698A Pending JPH11248432A (en) | 1998-02-27 | 1998-02-27 | 3-dimension shape measuring device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH11248432A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004509251A (en) * | 2000-09-15 | 2004-03-25 | プレジャン ロナルド マーティン | Key manufacturing method |
JP2007024764A (en) * | 2005-07-20 | 2007-02-01 | Daihatsu Motor Co Ltd | Noncontact three-dimensional measuring method and system |
JP2018140489A (en) * | 2012-04-26 | 2018-09-13 | シェイパー ツールズ, インク.Shaper Tools, Inc. | System and method for performing tasks on material or for identifying position of device to surface of material |
US10456883B2 (en) | 2015-05-13 | 2019-10-29 | Shaper Tools, Inc. | Systems, methods and apparatus for guided tools |
US10788804B2 (en) | 2011-05-19 | 2020-09-29 | Shaper Tools, Inc. | Automatically guided tools |
CN112828683A (en) * | 2020-07-30 | 2021-05-25 | 哈尔滨理工大学 | Bionic surface morphology detection device for outer covering part mold and multi-factor coupling control processing method |
US11537099B2 (en) | 2016-08-19 | 2022-12-27 | Sharper Tools, Inc. | Systems, methods and apparatus for sharing tool fabrication and design data |
-
1998
- 1998-02-27 JP JP4834698A patent/JPH11248432A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004509251A (en) * | 2000-09-15 | 2004-03-25 | プレジャン ロナルド マーティン | Key manufacturing method |
JP2007024764A (en) * | 2005-07-20 | 2007-02-01 | Daihatsu Motor Co Ltd | Noncontact three-dimensional measuring method and system |
US10788804B2 (en) | 2011-05-19 | 2020-09-29 | Shaper Tools, Inc. | Automatically guided tools |
US10795333B2 (en) | 2011-05-19 | 2020-10-06 | Shaper Tools, Inc. | Automatically guided tools |
JP2018140489A (en) * | 2012-04-26 | 2018-09-13 | シェイパー ツールズ, インク.Shaper Tools, Inc. | System and method for performing tasks on material or for identifying position of device to surface of material |
US10556356B2 (en) | 2012-04-26 | 2020-02-11 | Sharper Tools, Inc. | Systems and methods for performing a task on a material, or locating the position of a device relative to the surface of the material |
US10456883B2 (en) | 2015-05-13 | 2019-10-29 | Shaper Tools, Inc. | Systems, methods and apparatus for guided tools |
US11537099B2 (en) | 2016-08-19 | 2022-12-27 | Sharper Tools, Inc. | Systems, methods and apparatus for sharing tool fabrication and design data |
CN112828683A (en) * | 2020-07-30 | 2021-05-25 | 哈尔滨理工大学 | Bionic surface morphology detection device for outer covering part mold and multi-factor coupling control processing method |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US5987591A (en) | Multiple-sensor robot system for obtaining two-dimensional image and three-dimensional position information | |
US10107618B2 (en) | Coordinate measuring machine | |
EP1190818B1 (en) | Position-orientation recognition device | |
JP5725796B2 (en) | Tool measuring method and measuring device, and machine tool | |
JP4021413B2 (en) | Measuring device | |
US20090015668A1 (en) | Three-dimensional model data confirming method, and three-dimensional model data confirming apparatus | |
JP2000288968A (en) | Teaching model producing device | |
US20100302366A1 (en) | Calibration method and calibration device | |
WO1992001539A1 (en) | Method of calibrating visual sensor | |
JP2000293695A (en) | Picture processor | |
JP2005074600A (en) | Robot and robot moving method | |
JP2024009106A (en) | Device and method for acquiring deviation amount of work position of tool | |
JPH11248432A (en) | 3-dimension shape measuring device | |
JP3657252B2 (en) | Shape measurement system using workpiece shape measuring device | |
JP5622250B1 (en) | Workpiece processing device with calibration function | |
JPH1133962A (en) | Calibration of three-dimensional position sensor for robot | |
JP2000263273A (en) | Teaching method and its device for yag laser beam machine | |
JPH05318280A (en) | Grinding attitude producing device of grinding robot | |
JP6507792B2 (en) | Robot and robot system | |
JP2023110344A (en) | Robot system and control method of robot system | |
US7764386B2 (en) | Method and system for three-dimensional measurement and method and device for controlling manipulator | |
JP2000180106A (en) | Work machining instrument and computer-readable recording medium | |
JP2004351450A (en) | Calibration device for laser beam machining head with rotary mechanism and method for using it | |
JP6415109B2 (en) | Work processing equipment | |
JP7177239B1 (en) | Marker detection device and robot teaching system |