JPH08110229A - Automatic marker - Google Patents
Automatic markerInfo
- Publication number
- JPH08110229A JPH08110229A JP24654794A JP24654794A JPH08110229A JP H08110229 A JPH08110229 A JP H08110229A JP 24654794 A JP24654794 A JP 24654794A JP 24654794 A JP24654794 A JP 24654794A JP H08110229 A JPH08110229 A JP H08110229A
- Authority
- JP
- Japan
- Prior art keywords
- marking
- target
- robot
- marking robot
- arithmetic processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Landscapes
- Manipulator (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
【0001】[0001]
【産業上の利用分野】この発明は、建築構造物の床面及
び天井面に墨出し用のマーキングを行なう際に適用され
る自動マーキング装置に関する。BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an automatic marking device applied when marking a floor surface and a ceiling surface of a building structure for marking out.
【0002】[0002]
【従来の技術】従来、建築現場等において、天井照明の
取付、及び内装工事一般を行なう場合、この内装工事を
実施するための図面を床面又は天井面に描く必要があ
る。このような図面は、墨出しにより描かれる。一般
に、墨出しを行なう場合、トランシッド等の測量機器を
用い、予め指定された各指定点を実測する。更に、指定
点をマーキングし、このマーク点に沿って墨出しを行な
う。2. Description of the Related Art Conventionally, in a construction site or the like, when mounting ceiling lighting and generally performing interior work, it is necessary to draw a drawing for performing the interior work on the floor or ceiling. Such a drawing is drawn by marking. Generally, when performing marking, a surveying instrument such as Transid is used to actually measure each designated point designated in advance. Further, a designated point is marked, and marking is performed along the marked point.
【0003】[0003]
【発明が解決しようとする課題】しかし、前述した従来
の墨出し方法では、指定された各点の位置測定及びマー
キング作業を全て人手作業で実施しているため、墨出し
作業までに多くの作業者及び時間が必要とされる。However, in the above-described conventional marking-out method, since the position measurement and the marking work of each designated point are all carried out manually, a lot of work is required before the marking-out work. Personnel and time are required.
【0004】この発明は、前記実情を鑑みてなされたも
のであり、マーキング作業を、小数の作業者で、自動的
に行ない、墨出し作業を容易に実行することが可能な自
動マーキング装置を提供することを目的とする。The present invention has been made in view of the above circumstances, and provides an automatic marking apparatus capable of automatically performing marking work by a small number of workers and easily performing marking out work. The purpose is to do.
【0005】[0005]
【課題を解決するための手段】この発明に係る自動マー
キング装置は、予め指定されたマーキング領域内の複数
の所定位置に各々設置されたターゲットと、前記指定さ
れたマーキング領域内を走行するマーキングロボット
と、前記マーキングロボットに装備され、前記ターゲッ
トを標定する少なくとも3つのカメラと、このカメラよ
り得られるターゲット情報を処理する画像処理手段と、
この画像処理手段により求められた情報から前記マーキ
ングロボットの現在位置を算出し、算出された前記マー
キングロボットの現在位置と、目標マーキング位置との
差を求める演算処理手段と、この演算処理手段により求
められた前記マーキングロボットの現在位置と、目標マ
ーキング位置との差に基づいて前記マーキングロボット
の位置決めを行なう駆動・操舵手段と、前記マーキング
ロボットの現在位置が、前記目標マーキング位置に一致
した時、前記マーキング領域に対しマーキング処理を行
なうマーキング手段とを具備することを特徴とする。SUMMARY OF THE INVENTION An automatic marking device according to the present invention is a marking robot that travels in a specified marking area and targets that are respectively installed at a plurality of predetermined positions in a specified marking area. And at least three cameras equipped with the marking robot for locating the target, and image processing means for processing target information obtained from the cameras,
An arithmetic processing unit that calculates the current position of the marking robot from the information obtained by the image processing unit and obtains the difference between the calculated present position of the marking robot and the target marking position; When the current position of the marking robot and the driving / steering means for positioning the marking robot based on the difference between the current position of the marking robot and the target marking position and the current position of the marking robot match the target marking position, And a marking means for performing a marking process on the marking area.
【0006】又、前記自動マーキング装置は、前記マー
キングロボットに対し、無線で走行指令を発信し、マー
キングロボットをリモート制御するリモート制御手段が
設けられることを特徴とする。又、このリモート制御手
段は、オペレータからの前記目標マーキング位置を入力
し、前記演算手段にこの目標マーキング位置を設定す
る。Further, the automatic marking device is characterized in that it is provided with a remote control means for wirelessly issuing a traveling command to the marking robot and remotely controlling the marking robot. Further, the remote control means inputs the target marking position from the operator and sets the target marking position in the computing means.
【0007】更に、前記ターゲットには、所定の目盛り
が付されていることを特徴とする。Further, the target is provided with a predetermined scale.
【0008】[0008]
【作用】予め指定された(マーキング処理を実行する)
マーキング領域内において、このマーキング領域を囲む
壁面等の所定位置にターゲットを複数設置する。これら
のターゲットは、例えば、マーキング領域が直方体であ
れば、この領域に対する少なくとも3つの壁面に設けら
れる。又、このマーキング領域内を走行するマーキング
ロボットには、少なくとも3つのカメラ、例えばCCD
(charge coupleddevice )カメラが設置され、予め設
置された前記ターゲットを各々撮像する。これにより、
前記各カメラから、予め設置された前記ターゲットの情
報が得られる。[Operation] Prespecified (executes marking processing)
In the marking area, a plurality of targets are installed at predetermined positions such as wall surfaces surrounding the marking area. For example, if the marking area is a rectangular parallelepiped, these targets are provided on at least three wall surfaces corresponding to this area. Moreover, at least three cameras, such as CCDs, are installed in the marking robot that runs in this marking area.
A (charge coupled device) camera is installed and images each of the previously installed targets. This allows
From each of the cameras, information on the target installed in advance can be obtained.
【0009】前記各カメラにより撮像された情報は、画
像処理手段に送られる。画像処理手段では、送られたタ
ーゲット情報に対して所定の処理を施す。画像処理手段
は、例えば、ターゲット情報に基づいて文字認識処理
や、ミリ単位の位置測定を行なう。これらの処理は、前
記各カメラ毎に実行される。画像処理手段により所定の
処理が施された情報は、演算処理手段に送られる。演算
処理手段では、前記画像処理手段により求められた情報
から、前記マーキングロボットの現在位置を算出する。
この際、演算処理手段は、前記マーキングロボットの距
離情報と位置情報とを求める。The information captured by each of the cameras is sent to the image processing means. The image processing means performs a predetermined process on the sent target information. The image processing means performs, for example, character recognition processing or position measurement in millimeters based on the target information. These processes are executed for each camera. The information subjected to the predetermined processing by the image processing means is sent to the arithmetic processing means. The arithmetic processing means calculates the current position of the marking robot from the information obtained by the image processing means.
At this time, the arithmetic processing means obtains distance information and position information of the marking robot.
【0010】例えば、矩形のマーキング領域において、
マーキングロボットのカメラを、平面上で互いに90゜
もしくは180゜の角度を有するように3台設け、各々
が異なる3つの壁面に設けられたターゲットを撮像する
ように設置する。この場合、各カメラの撮像するターゲ
ット上の点を結ぶことにより形成される3角形におい
て、短い2辺を各々直径とする2円の交点を求めること
により、前記マーキングロボットの現在位置が算出され
る。For example, in a rectangular marking area,
Three cameras of the marking robot are installed so as to have an angle of 90 ° or 180 ° with each other on a plane, and are installed so as to capture images of targets provided on three different wall surfaces. In this case, the present position of the marking robot is calculated by finding an intersection of two circles each having two short sides having a diameter in a triangle formed by connecting points on the target captured by each camera. .
【0011】演算処理手段は、更に、算出した前記マー
キングロボットの現在位置と、オペレータ等により予め
指定された目標マーキング位置とを比較して差を求め
る。駆動・操舵手段は、前記差がゼロになるように、前
記マーキングロボットの位置決め制御を行なう。マーキ
ング手段は、前記駆動・操舵手段の制御により、前記マ
ーキングロボットが、前記目標マーキング位置に一致し
た時(前記差がゼロになった時)、前記マーキング領域
に対しマーキング処理を実行する。このマーキング処理
により、前記マーキング領域の床面等には、マーク点が
印される。後に行なわれる墨出し処理は、このマーク点
に基づいて実行される。これにより、指定された領域内
のマーキング作業には、前記ターゲットを設置するのみ
となり、マーキング作業に必要とされる人力を少なく
し、容易なマーキング処理が可能となる。従って、これ
らマーキング処理を含む墨出し処理を迅速、且つ的確に
実行することができる。The arithmetic processing means further compares the calculated present position of the marking robot with a target marking position designated in advance by an operator or the like to obtain a difference. The driving / steering means controls the positioning of the marking robot so that the difference becomes zero. The marking means performs the marking process on the marking area when the marking robot matches the target marking position (when the difference becomes zero) under the control of the driving / steering means. By this marking processing, mark points are marked on the floor surface or the like of the marking area. The marking-out process performed later is executed based on this mark point. As a result, only the target is installed in the marking work in the designated area, the manpower required for the marking work is reduced, and the marking process can be easily performed. Therefore, the marking process including these marking processes can be executed quickly and accurately.
【0012】又、マーキングロボットをリモート制御す
る制御手段により、オペレータが、マーキングロボット
の目標マーキング位置近傍の手動位置決めが可能とな
る。Further, the control means for remotely controlling the marking robot enables the operator to manually position the marking robot in the vicinity of the target marking position.
【0013】更に、前記ターゲットには、所定の目盛り
が付されているので、画像処理手段による画像処理が容
易となり、マーキングロボットの現在位置を迅速に算出
することができる。Further, since the target is provided with a predetermined scale, image processing by the image processing means is facilitated, and the current position of the marking robot can be quickly calculated.
【0014】[0014]
【実施例】以下、図面を参照してこの発明に係る一実施
例を説明する。DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment according to the present invention will be described below with reference to the drawings.
【0015】この発明に係る自動マーキング装置の構成
を図1に、又、このマーキング装置におけるマーキング
ロボットの外観図を図2に示す。FIG. 1 shows the structure of an automatic marking device according to the present invention, and FIG. 2 shows an external view of a marking robot in this marking device.
【0016】この自動マーキング装置は、図1に示され
るように、マーキングロボット1、ターゲット2、及び
リモート操作ユニット3により構成される。マーキング
ロボット1は、このマーキングロボット1全体の制御を
司る演算処理部10を有する。この演算処理部10に
は、メモリ11、入力インターフェイス12、出力イン
ターフェイス13、及び画像処理ボード14a〜14c
が接続される。メモリ11は、所定の演算を実行するた
めのプログラムを記憶したり、各種データ、例えば、画
像処理ボードより送られる情報等を一時的に記憶する。
演算処理部10は、メモリ11に記憶されているプログ
ラムに従って、後述するマーキングロボット1の現在位
置の算出等の処理を実行する。As shown in FIG. 1, this automatic marking device comprises a marking robot 1, a target 2 and a remote operation unit 3. The marking robot 1 has an arithmetic processing unit 10 that controls the entire marking robot 1. The arithmetic processing unit 10 includes a memory 11, an input interface 12, an output interface 13, and image processing boards 14a to 14c.
Is connected. The memory 11 stores a program for executing a predetermined calculation, and temporarily stores various data such as information sent from the image processing board.
The arithmetic processing unit 10 executes processing such as calculation of a current position of the marking robot 1 described later according to a program stored in the memory 11.
【0017】入力インターフェイス12は、マーキング
ロボット1の外部から送られたり、指示されたデータを
演算処理部10に伝達する。この入力インターフェイス
12には、操作部121及び受信部122が接続されて
いる。操作部121は、キーボード等により構成され、
オペレータにより指示されるデータを入力し、入力イン
ターフェイス12を介して演算処理部10にこのデータ
を送出する。受信部122は、前記リモート操作部から
発信される信号をアンテナを介して受け取り、この信号
を所定のデータ形式に変換した後、操作部121と同様
に、入力インターフェイス12を介して演算処理部10
にデータを送出する。The input interface 12 transmits the data sent or instructed from the outside of the marking robot 1 to the arithmetic processing unit 10. An operation unit 121 and a reception unit 122 are connected to the input interface 12. The operation unit 121 includes a keyboard and the like,
The data instructed by the operator is input, and this data is sent to the arithmetic processing unit 10 via the input interface 12. The receiving unit 122 receives a signal transmitted from the remote operation unit via an antenna, converts the signal into a predetermined data format, and then, similarly to the operation unit 121, via the input interface 12, the arithmetic processing unit 10 receives.
Send data to.
【0018】出力インターフェイス13には、駆動部1
31、操舵部132、及びマーカー133が接続され、
出力インターフェイス13は、演算処理部10から送出
される各種命令又はデータを接続された前記要素に伝達
する。駆動部131は、演算処理部10の制御に基づ
き、マーキングロボット1に設けられた車輪等を回転さ
せ、マーキングロボット1を所定の距離だけ移動させ
る。操舵部132は、演算処理部10の制御に基づき、
前記駆動部131により移動されるマーキングロボット
1の移動方向を操舵する。マーカー133は、前記マー
キングロボット1が、予め指定された目標マーキング位
置に達した場合、演算処理部10の命令に従ってマーキ
ング処理を実行する。これにより、床面又は天井面にマ
ーク点が印される。尚、図1及び図2に示されるマーキ
ングロボット1は、床上を走行するように構成されてい
る。The output interface 13 includes a drive unit 1
31, the steering unit 132, and the marker 133 are connected,
The output interface 13 transfers various commands or data sent from the arithmetic processing unit 10 to the connected elements. Based on the control of the arithmetic processing unit 10, the drive unit 131 rotates the wheels or the like provided on the marking robot 1 and moves the marking robot 1 by a predetermined distance. The steering unit 132, based on the control of the arithmetic processing unit 10,
The moving direction of the marking robot 1 moved by the driving unit 131 is steered. The marker 133 executes the marking process according to the instruction of the arithmetic processing unit 10 when the marking robot 1 reaches the target marking position designated in advance. As a result, the mark points are marked on the floor surface or the ceiling surface. The marking robot 1 shown in FIGS. 1 and 2 is configured to run on the floor.
【0019】画像処理ボード14a〜14cには、各々
CCD(charge coupled device )カメラ141a〜1
41cが接続されており、各CCDカメラにより得られ
るターゲット情報に基づいて画像処理、例えば、文字認
識やミリ単位での位置測定等の処理を行い、処理結果を
演算処理部10に送出する。The image processing boards 14a-14c have CCD (charge coupled device) cameras 141a-1.
41c is connected and performs image processing, such as character recognition and position measurement in millimeters, based on the target information obtained by each CCD camera, and sends the processing result to the arithmetic processing unit 10.
【0020】ターゲット2は、所定の目盛りが付されて
おり、この実施例においては、矩形のマーキング領域を
囲む壁面の内、3壁面に取り付けられる。The target 2 is provided with a predetermined scale, and in this embodiment, it is attached to three wall surfaces among the wall surfaces surrounding the rectangular marking area.
【0021】リモート操作ユニット3は、リモート操作
部31及び送信部32により構成されている。リモート
操作部31は、キーボード等の入力機器を有し、オペレ
ータから指示される命令又はデータ等の各種指示を入力
し、これを送信部32に送出する。送信部32は、リモ
ート操作部31から送られる命令又はデータを所定のフ
ォーマットの無線信号に変換してアンテナより信号を出
力する。これにより、オペレータと前記マーキングロボ
ット1が離れた場所に位置している場合であっても、リ
モート操作ユニット3から、マーキングロボット1に対
し、命令又はデータを送出することが可能となる。The remote operation unit 3 is composed of a remote operation section 31 and a transmission section 32. The remote operation unit 31 has an input device such as a keyboard, inputs various instructions such as commands or data instructed by an operator, and sends them to the transmission unit 32. The transmission unit 32 converts the command or data transmitted from the remote operation unit 31 into a radio signal having a predetermined format and outputs the signal from the antenna. As a result, even when the operator and the marking robot 1 are located apart from each other, it is possible to send a command or data from the remote operation unit 3 to the marking robot 1.
【0022】次に、前述したマーキングロボット1の一
例を図2を参照して説明する。この外観図は、マーキン
グロボット1の側面及び低面を示している。図2に示さ
れるマーキングロボット1は、直方体の筐体を有し、こ
の下部に車輪が2対(15a及び15b,15c及び1
5d)設けられており床面等の平面上を移動可能な構成
を有する。下部に設けられた車輪の内、一対(15a,
15b)は駆動部131の制御の下、マーキングロボッ
ト1を所定距離移動するために使用され、他の一対(1
5c,15d)は操舵部132の制御の下、マーキング
ロボット1の移動する方向を決定する。又、マーカー1
33は、筐体の低部中央に設けられ、マーキングロボッ
ト1の走行する低面にマーキング処理を施すことができ
る。Next, an example of the above-mentioned marking robot 1 will be described with reference to FIG. This external view shows the side surface and the lower surface of the marking robot 1. The marking robot 1 shown in FIG. 2 has a rectangular parallelepiped casing, and two pairs of wheels (15a and 15b, 15c and 1) are provided under the casing.
5d) is provided and has a configuration capable of moving on a flat surface such as a floor surface. Of the wheels provided at the bottom, a pair (15a,
15b) is used to move the marking robot 1 by a predetermined distance under the control of the drive unit 131, and the other pair (1
Under the control of the steering unit 132, 5c and 15d) determine the moving direction of the marking robot 1. Also, marker 1
33 is provided at the center of the lower part of the housing, and can mark the low surface on which the marking robot 1 travels.
【0023】更に、前記筐体の上面には、突出部16が
設けられている。この突出部16には、前記CCDカメ
ラ141a〜141cが設置されている。CCDカメラ
141a〜141cは、マーキングロボット1が配設さ
れる床面に対して平行な方向に、且つ、各々が他のCC
Dカメラに対して90度又は180度いずれかの角度を
保持するように設置される。即ち、CCDカメラ141
a〜141cは、床面と平行な面において、隣接する方
向に対して90゜の角度を有する4方向の内の、3方向
を向くように設置されている。Further, a protrusion 16 is provided on the upper surface of the casing. The CCD cameras 141a to 141c are installed on the protrusion 16. The CCD cameras 141a to 141c are arranged in a direction parallel to the floor surface on which the marking robot 1 is arranged, and each of them is located in another CC.
It is installed so as to hold an angle of either 90 degrees or 180 degrees with respect to the D camera. That is, the CCD camera 141
The a to 141c are installed in a plane parallel to the floor so as to face three directions out of four directions having an angle of 90 ° with respect to the adjacent direction.
【0024】次に、ターゲット2について説明する。図
3は、同実施例に適用されるターゲット2の一例を示
す。ターゲット2は、図3に示されるように上段、中
段、及び下段の3段に分割され、更に、各段は左右にセ
ンチメートル単位で分割されている。上段及び中段の各
枠内に記載されている数字は、ターゲット2の左端から
の距離を示し、上段の枠内の数字はメートル単位(m)
を、中段の各枠内の数字はセンチメートル単位(cm)
を示す。例えば、図3に示される位置2−Aは、ターゲ
ットの左端より7m32cmの位置にあることを示す。
又、下段の枠内には数字は記入されず空白のまま使用さ
れる。Next, the target 2 will be described. FIG. 3 shows an example of the target 2 applied to the embodiment. The target 2 is divided into three stages, an upper stage, a middle stage, and a lower stage, as shown in FIG. 3, and each stage is further divided into right and left units in centimeters. The numbers in the upper and middle boxes indicate the distance from the left edge of the target 2. The numbers in the upper frame are in meters (m).
The numbers in the middle boxes are in centimeters (cm)
Indicates. For example, the position 2-A shown in FIG. 3 indicates that the position is 7 m32 cm from the left end of the target.
Also, no numbers are entered in the lower frame, and the blanks are used.
【0025】次に、この実施例の動作を説明する。Next, the operation of this embodiment will be described.
【0026】先ず、ここでは、マーキング処理を実行す
るマーキング領域が矩形であり、このマーキング領域に
対して垂直に壁面が設けられていると仮定する。そし
て、このマーキング領域を囲む3つの壁面に前述したタ
ーゲット2a〜2cを各々付す。更に、このマーキング
領域の任意の位置に前述したマーキングロボット1を配
置する。この際、マーキングロボット1に設けられてい
るCCDカメラ141a〜141cが各々、壁面に付さ
れているターゲットを撮像できるように、マーキングロ
ボット1を配置する。尚、このような状態を上方から見
た図を図5(a)に示す。参照符号4はマーキング領域
を示し、マーキングロボット1の位置はRで示される。First, it is assumed here that the marking area in which the marking process is executed is rectangular and the wall surface is provided perpendicularly to this marking area. Then, the targets 2a to 2c described above are attached to the three wall surfaces surrounding the marking area. Further, the marking robot 1 described above is arranged at an arbitrary position in this marking area. At this time, the marking robot 1 is arranged so that each of the CCD cameras 141a to 141c provided in the marking robot 1 can image the target attached to the wall surface. A view of such a state seen from above is shown in FIG. Reference numeral 4 indicates a marking area, and the position of the marking robot 1 is indicated by R.
【0027】このような状態に設置されたマーキングロ
ボット1の画像処理ボード14a〜14cでは、各壁面
に付されているターゲット2a〜2cから得られるター
ゲット情報に基づいて、各ターゲットに対する絶対位置
(点)を求める。即ち、例えば、画像処理ボード14a
は、CCDカメラ141aにより撮像されたターゲット
2aのターゲット情報を受け取り、このターゲット情報
からターゲット2aに対する絶対位置(点A)を認識す
る。このような認識処理は、以下のように行なわれる。In the image processing boards 14a to 14c of the marking robot 1 installed in such a state, the absolute position (point) with respect to each target is determined based on the target information obtained from the targets 2a to 2c attached to each wall surface. ). That is, for example, the image processing board 14a
Receives the target information of the target 2a captured by the CCD camera 141a, and recognizes the absolute position (point A) with respect to the target 2a from this target information. Such recognition processing is performed as follows.
【0028】例えば、CCDカメラ141aにより撮像
された画像が図4に示される画像枠内である場合、先
ず、縦方向の画像中心線が通過している上段及び中段の
ブロック内に記載されている文字を文字認識機能を使用
して読み取る。即ち、図4に示される画像がCCDカメ
ラ141aにより撮像された場合、「1」及び「4」を
先ず認識する。この後、縦方向の画像中心線と、この画
像中心線の通過する下段枠の各左右の縦方向のラインと
の間隔の比を求める。即ち、図4に示されるaとbの比
を求める。下段の枠の左右のライン間隔は所定の値(同
実施例では10ミリ)に定められているので、a、bの
比からミリ単位での値を求めることができる。For example, when the image picked up by the CCD camera 141a is within the image frame shown in FIG. 4, first, it is described in the upper and middle blocks through which the vertical image center line passes. Read characters using the character recognition feature. That is, when the image shown in FIG. 4 is captured by the CCD camera 141a, "1" and "4" are first recognized. Then, the ratio of the intervals between the vertical image center line and the left and right vertical lines of the lower frame through which the image center line passes is obtained. That is, the ratio between a and b shown in FIG. 4 is obtained. Since the left and right line intervals of the lower frame are set to a predetermined value (10 mm in the embodiment), the value in millimeters can be obtained from the ratio of a and b.
【0029】前述した、処理をCCDカメラ141a〜
141cから送られる、各ターゲット2a〜2cに対す
るターゲット情報各々について画像処理ボード14a〜
14cは行なうことにより、3つの壁面に付されたター
ゲット2a〜2cに対する絶対位置を得ることができ
る。得られた結果は、演算処理部10に送られる。The above-described processing is performed by the CCD cameras 141a to 141a.
The image processing boards 14a to 14c for the respective target information for the respective targets 2a to 2c sent from
By performing 14c, the absolute positions with respect to the targets 2a to 2c attached to the three wall surfaces can be obtained. The obtained result is sent to the arithmetic processing unit 10.
【0030】演算処理部10は画像処理ボード14a〜
14bより各ターゲット2a〜2cの絶対位置(点)の
データを受け取り、これに基づいて以下の処理を実行す
る。各ターゲットに対して認識した点を、図5(a)に
示されるように、A,B,Cとする場合、CCDカメラ
141aと141bの撮像する方向と、CCDカメラ1
41bと141cの撮像する方向は各々90゜の角度を
有する。このため、マーキングロボット1の位置Rは、
AB、BCを各々直径とした円弧の交点として算出する
ことができる。演算処理部10は、前述した方法により
マーキングロボット1の位置R(X1,Y1 )を算出する。
更に、予め与えられた目標マーキング位置を(X2,Y2 )
とすると、(X2-X1,Y2-Y1 )分だけ、駆動部131及び
操舵部132を制御してマーキングロボット1の位置を
補正する。The arithmetic processing section 10 includes image processing boards 14a ...
Data of absolute positions (points) of the targets 2a to 2c are received from 14b, and the following processing is executed based on the data. As shown in FIG. 5A, when the points recognized for each target are A, B, and C, the CCD camera 141a and 141b image pickup directions and the CCD camera 1 are taken.
The imaging directions of 41b and 141c each have an angle of 90 °. Therefore, the position R of the marking robot 1 is
It can be calculated as an intersection of arcs having AB and BC as diameters. The arithmetic processing unit 10 calculates the position R (X1, Y1) of the marking robot 1 by the method described above.
Furthermore, the target marking position given in advance is (X2, Y2)
Then, the drive unit 131 and the steering unit 132 are controlled by the amount of (X2-X1, Y2-Y1) to correct the position of the marking robot 1.
【0031】演算処理部10は、マーキングロボット1
の現在位置と、目標マーキング位置との差、即ち(X2-X
1,Y2-Y1 )がゼロになった場合、マーカー133使用し
てマーキング処理を実行する。The arithmetic processing unit 10 includes the marking robot 1.
Difference between the current position and the target marking position, that is, (X2-X
When 1, Y2-Y1) becomes zero, the marker 133 is used to execute the marking process.
【0032】前述した処理を、目標マーキング位置全て
に対して繰り返し実行することにより、マーキング作業
が自動的に行なわれる。The marking operation is automatically performed by repeatedly executing the above-described processing for all target marking positions.
【0033】ここで、前述したマーキングロボット1の
現在位置の算出処理を図5(b),(c)を参照して詳
細に説明する。Now, the process of calculating the current position of the marking robot 1 will be described in detail with reference to FIGS. 5 (b) and 5 (c).
【0034】先ず、マーキングロボット1にCCDカメ
ラ141a,141bの2つのカメラのみが設置され、
CCDカメラ141a,141bが各々ターゲット2
a,2bを撮像できるように位置している場合について
考える。CCDカメラ141a,141bが各々、ター
ゲット2a,2bを正面から撮像している場合、即ち、
各CCDカメラ141a,141bの軸線と、ターゲッ
ト2a,2bの横線が直交する場合、図5(b)のR1
にマーキングロボット1は位置する。CCDカメラ14
1a,141bは各々点A,Bを撮像する。First, only two cameras, CCD cameras 141a and 141b, are installed in the marking robot 1.
The CCD cameras 141a and 141b are the targets 2 respectively.
Consider a case where the a and 2b are positioned so that they can be imaged. When the CCD cameras 141a and 141b respectively image the targets 2a and 2b from the front, that is,
When the axes of the CCD cameras 141a and 141b and the horizontal lines of the targets 2a and 2b are orthogonal to each other, R1 in FIG.
The marking robot 1 is located at. CCD camera 14
1a and 141b image points A and B, respectively.
【0035】しかし、マーキングロボット1が走行して
いる間は、マーキングロボット1の走行特性等により、
あるいは、リモート操作ユニット3の操作によって、C
CDカメラ141a,141bの軸線と、ターゲット2
a,2bの横軸が必ずしも直交するとは限らない。従っ
て、マーキングロボット1とターゲット2a,2bとの
間に傾きが生じた場合、CCDカメラ141a,141
bが、前記点A及びBを撮像する状態であっても、R2
に位置する場合がある。このような状態では、演算処理
部10は、CCDカメラ141a,141bと、ターゲ
ット2a,2bとの間の距離情報及び角度情報が欠けて
いるため、マーキングロボット1の位置及び方位を一意
に定めることができない。即ち、演算処理部10は、マ
ーキングロボット1の正確な現在位置を算出することが
できない。However, while the marking robot 1 is traveling, due to the traveling characteristics of the marking robot 1 and the like,
Alternatively, by operating the remote operation unit 3, C
The axes of the CD cameras 141a and 141b and the target 2
The horizontal axes of a and 2b are not always orthogonal. Therefore, when an inclination occurs between the marking robot 1 and the targets 2a, 2b, the CCD cameras 141a, 141
Even if b is in the state of imaging the points A and B, R2
May be located in. In such a state, the arithmetic processing unit 10 uniquely determines the position and orientation of the marking robot 1 because the distance information and the angle information between the CCD cameras 141a and 141b and the targets 2a and 2b are missing. I can't. That is, the arithmetic processing unit 10 cannot calculate the accurate current position of the marking robot 1.
【0036】マーキングロボット1の正確な現在位置を
定めるためには、他の壁面にターゲット2cを設置し、
前述したように円弧の交点から現在位置を算出する必要
ある。In order to determine the accurate current position of the marking robot 1, the target 2c is installed on another wall surface,
As described above, it is necessary to calculate the current position from the intersection of arcs.
【0037】2つの円弧の交点でマーキングロボット1
の位置を求めると、幾何学的にマーキングロボット1の
位置と方位が求められることを図5(c)を参照して説
明する。図5(c)に示されるように、マーキングロボ
ット1に設けられているCCDカメラ141aと141
b、141bと141cとの間には90゜の角度が設け
られている。従って、Marking robot 1 at the intersection of two arcs
It will be described with reference to FIG. 5 (C) that the position and orientation of the marking robot 1 can be geometrically determined by determining the position. As shown in FIG. 5C, CCD cameras 141 a and 141 provided in the marking robot 1
An angle of 90 ° is provided between b, 141b and 141c. Therefore,
【数1】 [Equation 1]
【0038】となり、マーキングロボット1の位置R3
は、直線AC上に存在する。従って、任意のカメラを、
例えばCCDカメラ141cの撮像方向と、マーキング
ロボット1の進行方向とを一致するようにした場合、進
行方向は最も簡単に求められ、ACとOYとのなす角が
進行方向(Y方向)からのずれ角αとなる。Then, the position R3 of the marking robot 1
Exists on the straight line AC. So any camera
For example, when the imaging direction of the CCD camera 141c and the advancing direction of the marking robot 1 are made to coincide with each other, the advancing direction is most easily obtained, and the angle formed by AC and OY deviates from the advancing direction (Y direction). Angle α.
【0039】マーキングロボット1の位置補正を行なう
場合、先ず、ずれ角αを算出し、このずれと逆の方向に
−αだけ進行方向を変更し、進行方向とY方向の方位合
わせを行なった後、再度ターゲット2a,2bの絶対位
置(点A,B)を認識する。この後、前述したように、
現在位置と目標ターゲット位置との差を算出すればよ
い。When correcting the position of the marking robot 1, first, the deviation angle α is calculated, the advancing direction is changed by −α in the direction opposite to this deviation, and the advancing direction and the Y direction are aligned. , The absolute positions (points A and B) of the targets 2a and 2b are recognized again. After this, as mentioned above,
The difference between the current position and the target target position may be calculated.
【0040】以上説明した理由により、2つの円弧交点
からマーキングロボット1の現在位置を求めることが最
適である。For the reasons described above, it is optimal to find the current position of the marking robot 1 from the intersection of two circular arcs.
【0041】尚、前述した自動マーキング装置に照明の
照度を測定する装置を設けることにより、建築構造物に
おける、照明取付後の照度測定を、床面上で自動的に実
行することが可能となる。By providing the above-mentioned automatic marking device with a device for measuring the illuminance of illumination, it becomes possible to automatically perform the illuminance measurement on the floor after the illumination is attached in the building structure. .
【0042】[0042]
【発明の効果】以上詳記したように、この発明によれ
ば、指定されたマーキング領域の壁面等に所定のターゲ
ットを設置し、ターゲットを撮像して目標マーキング位
置と、現在位置との距離情報及び角度情報を算出し、目
標ターゲット位置に移動し、マーキング処理を実行でき
る機能を有する自動マーキング装置を設けることによ
り、目標ターゲット位置を指定するのみでマーキング作
業を自動的に行なうことができる。従って、マーキング
作業を含む墨出し作業に必要な人手を削減でき、作業の
簡略化を図ることができる。As described above in detail, according to the present invention, a predetermined target is set on the wall surface of the designated marking area, the target is imaged, and the distance information between the target marking position and the current position is obtained. By providing an automatic marking device having a function of calculating the angle information and moving to the target target position and executing the marking process, the marking operation can be automatically performed only by designating the target target position. Therefore, the manpower required for the marking out work including the marking work can be reduced, and the work can be simplified.
【図1】この発明の一実施例に係る自動マーキング装置
の構成を示すブロック図。FIG. 1 is a block diagram showing the configuration of an automatic marking device according to an embodiment of the present invention.
【図2】同実施例における自動マーキング装置に使用さ
れるマーキングロボットの外観を示す図。FIG. 2 is a diagram showing an appearance of a marking robot used in the automatic marking device in the embodiment.
【図3】同実施例における自動マーキング装置に使用さ
れるターゲットの一例を示す図。FIG. 3 is a diagram showing an example of a target used in the automatic marking device in the embodiment.
【図4】同実施例において、ターゲット情報からターゲ
ットに対する絶対位置(点)を求める処理を説明するた
めの図。FIG. 4 is a diagram for explaining a process of obtaining an absolute position (point) with respect to a target from target information in the same embodiment.
【図5】同実施例において、(a)はマーキングロボッ
トの現在位置を算出する処理を説明するための図であ
り、(b)はターゲット及びCCDカメラが2つの場合
のマーキングロボットの現在位置を算出処理を説明する
ための図であり、(c)はターゲット情報から距離情報
と角度情報を算出する処理を説明するための図。FIG. 5A is a diagram for explaining a process of calculating the current position of the marking robot in the embodiment, and FIG. 5B is a diagram showing the current position of the marking robot when there are two targets and CCD cameras. It is a figure for demonstrating calculation processing, (c) is a figure for demonstrating the process which calculates distance information and angle information from target information.
1…マーキングロボット、2,2a〜2c…ターゲッ
ト、3…リモート操作ユニット、10…演算処理部、1
1…メモリ、12…入力インターフェイス、13…出力
インターフェイス、14a〜14c…画像処理ボード、
15a〜15d…車輪、16…突出部、31…リモート
操作部、32…送信部、121…操作部、122…受信
部、131…駆動部、132…操舵部、133…マーカ
ー、141a〜141c…CCDカメラ。1 ... Marking robot, 2, 2a-2c ... Target, 3 ... Remote operation unit, 10 ... Arithmetic processing unit, 1
1 ... Memory, 12 ... Input interface, 13 ... Output interface, 14a-14c ... Image processing board,
15a to 15d ... Wheels, 16 ... Projection part, 31 ... Remote operation part, 32 ... Transmitting part, 121 ... Operation part, 122 ... Receiving part, 131 ... Driving part, 132 ... Steering part, 133 ... Markers, 141a-141c ... CCD camera.
Claims (1)
の所定位置に各々設置されたターゲットと、 前記指定されたマーキング領域内を走行するマーキング
ロボットと、 前記マーキングロボットに装備され、前記ターゲットを
標定する少なくとも3つのカメラと、 このカメラより得られるターゲット情報を処理する画像
処理手段と、 この画像処理手段により求められた情報から前記マーキ
ングロボットの現在位置を算出し、算出された前記マー
キングロボットの現在位置と、目標マーキング位置との
差を求める演算処理手段と、 この演算処理手段により求められた前記マーキングロボ
ットの現在位置と、目標マーキング位置との差に基づい
て前記マーキングロボットの位置決めを行なう駆動・操
舵手段と、 前記マーキングロボットの現在位置が、前記目標マーキ
ング位置に一致した時、前記マーキング領域に対しマー
キング処理を行なうマーキング手段とを具備することを
特徴とする自動マーキング装置。1. A target installed at each of a plurality of predetermined positions within a predesignated marking area, a marking robot that travels within the designated marking area, and a marking robot equipped on the marking robot to locate the target. At least three cameras, image processing means for processing target information obtained from the cameras, current position of the marking robot is calculated from information obtained by the image processing means, and the calculated current position of the marking robot is calculated. Arithmetic processing means for obtaining the difference between the position and the target marking position; drive for performing positioning of the marking robot based on the difference between the current position of the marking robot obtained by the arithmetic processing means and the target marking position. Steering means and the current position of the marking robot And a marking unit that performs a marking process on the marking area when the marking position coincides with the target marking position.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24654794A JPH08110229A (en) | 1994-10-12 | 1994-10-12 | Automatic marker |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24654794A JPH08110229A (en) | 1994-10-12 | 1994-10-12 | Automatic marker |
Publications (1)
Publication Number | Publication Date |
---|---|
JPH08110229A true JPH08110229A (en) | 1996-04-30 |
Family
ID=17150042
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP24654794A Withdrawn JPH08110229A (en) | 1994-10-12 | 1994-10-12 | Automatic marker |
Country Status (1)
Country | Link |
---|---|
JP (1) | JPH08110229A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010521672A (en) * | 2007-03-13 | 2010-06-24 | サルタスビュー テクノロジーズ,エルエルシー | Marking system and method with position and / or time tracking |
WO2018212608A1 (en) * | 2017-05-19 | 2018-11-22 | (주)랜도르아키텍쳐 | Movable marking system, method for controlling movable marking device, and computer-readable recording medium |
KR20180127184A (en) * | 2017-05-19 | 2018-11-28 | (주)랜도르아키텍쳐 | Movable marking apparatus, stabilizing system for movable marking apparatus and method thereof |
US10792911B2 (en) | 2015-02-12 | 2020-10-06 | Han Seok Nam | Nonrestrictive drive-type marking system and marking method thereof |
KR20210131943A (en) * | 2018-04-13 | 2021-11-03 | (주)랜도르아키텍쳐 | Movable Marking System, Controlling Method For Movable Marking Apparatus and Computer Readable Recording Medium |
-
1994
- 1994-10-12 JP JP24654794A patent/JPH08110229A/en not_active Withdrawn
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010521672A (en) * | 2007-03-13 | 2010-06-24 | サルタスビュー テクノロジーズ,エルエルシー | Marking system and method with position and / or time tracking |
US10792911B2 (en) | 2015-02-12 | 2020-10-06 | Han Seok Nam | Nonrestrictive drive-type marking system and marking method thereof |
US10933628B2 (en) | 2015-02-12 | 2021-03-02 | Han Seok Nam | Nonrestrictive drive-type marking system and marking method thereof |
WO2018212608A1 (en) * | 2017-05-19 | 2018-11-22 | (주)랜도르아키텍쳐 | Movable marking system, method for controlling movable marking device, and computer-readable recording medium |
KR20180127184A (en) * | 2017-05-19 | 2018-11-28 | (주)랜도르아키텍쳐 | Movable marking apparatus, stabilizing system for movable marking apparatus and method thereof |
US10365101B2 (en) | 2017-05-19 | 2019-07-30 | Landor Architecture, Inc. | Movable marking system, controlling method for movable marking apparatus, and computer readable recording medium |
US10794697B2 (en) | 2017-05-19 | 2020-10-06 | Landor Architecture, Inc. | Movable marking system, controlling method for movable marking apparatus, and computer readable recording medium |
US11441900B2 (en) | 2017-05-19 | 2022-09-13 | Landor Architecture, Inc. | Movable marking system, controlling method for movable marking apparatus, and computer readable recording medium |
US11906305B2 (en) | 2017-05-19 | 2024-02-20 | Landor Architecture, Inc. | Movable marking system, controlling method for movable marking apparatus, and computer readable recording medium |
KR20210131943A (en) * | 2018-04-13 | 2021-11-03 | (주)랜도르아키텍쳐 | Movable Marking System, Controlling Method For Movable Marking Apparatus and Computer Readable Recording Medium |
KR20220119338A (en) * | 2018-04-13 | 2022-08-29 | (주)랜도르아키텍쳐 | Movable Marking System, Controlling Method For Movable Marking Apparatus and Computer Readable Recording Medium |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109552665B (en) | Method for measuring and inspecting structures using a catenary platform | |
US6732826B2 (en) | Robot cleaner, robot cleaning system and method for controlling same | |
JP4177765B2 (en) | Surveying system | |
US9687950B2 (en) | System and method for positioning a tool in a work space | |
KR100406636B1 (en) | Robot cleaner and system and method of controling thereof | |
JP3210817B2 (en) | 3D coordinate automatic measurement analysis method | |
DE102013205633B4 (en) | Automated floor plan and point transfer system | |
JP2012018073A (en) | Inspection system | |
JPH08110229A (en) | Automatic marker | |
JP2001296124A (en) | Method and apparatus for measurement of three- dimensional coordinates | |
JP2001264059A (en) | Method of measuring displacement quantity of measured object | |
JPH08254409A (en) | Three-dimensional shape measuring and analyzing method | |
JPH06214639A (en) | Travel controller for mobile object | |
US20230146386A1 (en) | System and method for building layout | |
JPH09146633A (en) | Method and system for guiding robot | |
US20130021618A1 (en) | Apparatus and method to indicate a specified position using two or more intersecting lasers lines | |
JP2838474B2 (en) | Guidance target capturing method and guidance device for autonomous mobile robot | |
US20170097228A1 (en) | Measurement Apparatus to Locate an Orientation With Respect to a Surface | |
JP6868544B2 (en) | Autonomous movement method and autonomous movement device | |
JPH07116972A (en) | Self-traveling robot for interior finish work | |
CN103425270B (en) | Cursor control system | |
JP5082982B2 (en) | Car navigation system | |
US20240233162A1 (en) | Systems and Methods for Construction with Detection, Guidance, and/or Feedback | |
JP7278637B2 (en) | Self-propelled moving device | |
JPS61262611A (en) | Automatic marking apparatus utilizing laser |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A300 | Withdrawal of application because of no request for examination |
Free format text: JAPANESE INTERMEDIATE CODE: A300 Effective date: 20020115 |