JPH08185545A - 画像生成方法及び装置 - Google Patents

画像生成方法及び装置

Info

Publication number
JPH08185545A
JPH08185545A JP33873994A JP33873994A JPH08185545A JP H08185545 A JPH08185545 A JP H08185545A JP 33873994 A JP33873994 A JP 33873994A JP 33873994 A JP33873994 A JP 33873994A JP H08185545 A JPH08185545 A JP H08185545A
Authority
JP
Japan
Prior art keywords
information
image
work environment
projection
interference information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP33873994A
Other languages
English (en)
Inventor
Akio Fujinaga
昭雄 藤永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Steel Corp
Original Assignee
Nippon Steel Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Steel Corp filed Critical Nippon Steel Corp
Priority to JP33873994A priority Critical patent/JPH08185545A/ja
Publication of JPH08185545A publication Critical patent/JPH08185545A/ja
Withdrawn legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

(57)【要約】 【目的】ロボットシミュレータにおいて、物体どうしの
接近、衝突等の干渉情報を詳細且つ定量的に表示させ
る。 【構成】干渉情報を表示させたい物体表面を投影面と
し、その物体表面に対して干渉情報を計算したい物体を
投影物体とする投影処理により、干渉情報を表示させた
い物体表面から干渉情報を計算したい物体までの距離画
像を求め、その距離画像をルックアップテーブル(LU
T)によりテクスチャ画像に変換し、求めたテクスチャ
画像を、シーンの描画の際に、干渉情報を表示させたい
物体表面にテクスチャマッピングして、干渉情報をテク
スチャとして表示させる。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は画像生成方法及び装置に
関し、特に、産業用ロボット等の動作シミュレーション
を行うロボットシミュレータにおいて使用される3次元
コンピュータグラフィックス表示において、物体どうし
の衝突、接近等の干渉情報をリアルタイムに詳細に表示
させる方法及び装置に関する。
【0002】
【従来の技術】従来のロボットシミュレータにおける干
渉情報の表示方法の概要について図11を用いて説明す
る。ここでいうところのロボットシミュレータとは、ロ
ボット及びロボットが動作する作業環境の計算機モデル
を持ち、ロボットの作業を計算機上でシミュレートし、
その動作状況をコンピュータグラフィックスを用いて表
示する装置を指す。
【0003】通常、ロボットシミュレータにおいては、
作業環境に関する情報として物体情報、視点情報、照明
情報等を持つ。物体情報は、例えばサーフェイスモデル
によって多面体表現された形状情報、位置及び姿勢情
報、色情報、拘束条件情報等を持つ。ここで拘束条件情
報とは、ロボットのリンク情報等を指す。これらの作業
環境情報は、ロボットシミュレータの起動時にデータフ
ァイルから入力される(ステップS1)。
【0004】初期化後、ロボットシミュレータはメイン
ループに入る。メインループでは、以下に述べるステッ
プS2〜S4の処理を繰り返し行う。
【0005】まず、作業環境情報のうち時間変化のあっ
た情報に対して更新を行う(ステップS2)。この作業
環境情報の更新の最も典型的な例としては、物体の移動
がある。ロボットがその作業計画に従い動作した時に
は、そのロボットを構成する各リンクの位置及び姿勢情
報が更新される。また、ロボットがその動作によって物
体を動かした場合には、その物体の位置及び姿勢情報が
更新される。
【0006】次に、物体どうしの衝突、接近等の干渉の
検出が行われる(ステップS3)。この物体どうしの干
渉は、ロボットシミュレータが持つ作業環境情報中の全
物体の組合せについて、2つの多面体の干渉判定として
処理される。即ち、物体形状そのものに対して厳密に干
渉を判定するのは処理量が大き過ぎるため、複雑な物体
形状そのものではなく、物体形状をそれを包含する直方
体、円筒、球等の単純な形状で近似し、この外接近似形
状どうしでの干渉判定を行うことが多い。その際、静止
した物体どうし、ロボットの隣あうリンク、明らかに遠
く離れている物体どうし等は干渉判定を行う必要はな
い。この干渉の検出結果は、干渉した物体のID(iden
tification data (識別名):ロボットシミュレータが
その作業環境情報中に存在する物体に与えた通し番号)
として得られ、次に述べるシーンの描画で用いられる。
【0007】最後に、シーンの描画によってコンピュー
タグラフィックス画像が生成され、オペレータにロボッ
トの動作の様子が示される(ステップS4)。この時、
上述した干渉の検出(ステップS3)によって干渉した
と判定された物体については、作業環境情報中にあるそ
の物体本来の色情報に代えて赤色等の特定色でその物体
全体を表示する。従って、オペレータはどの物体が干渉
してしまったかを視覚的に容易に判断することができ
る。
【0008】
【発明が解決しようとする課題】上述した従来の干渉情
報の表示方法では、ある物体とある物体とがぶつかった
かどうか(或いは、接近したかどうか)という1ビット
の情報が表示されるのみであった。
【0009】そのため、物体どうしの接近の度合が定量
的に分からず、オペレータは、ロボットがぶつからない
ようにするためには、ロボットをゆっくりと動作させな
ければならなかった。
【0010】また、物体どうしのどの部位とどの部位と
がぶつかった(或いは、接近した)のかが表示されなか
ったため、物体どうしの位置関係を認知しにくかった。
【0011】そこで本発明の目的は、物体どうしの干渉
に関するより詳細な情報を表示させることで、ロボット
シミュレータの作業性を向上させることのできる画像生
成方法及び装置を提供することである。
【0012】
【課題を解決するための手段】上記目的を達成する本発
明の画像生成方法は、物体間の干渉情報を含む3次元コ
ンピュータグラフィックス画像を生成する方法であっ
て、前記干渉情報を表示させたい物体表面及びその物体
表面に対して前記干渉情報の対象となる物体を夫々設定
し、前記物体表面を投影面、前記物体を投影物体とする
投影処理により、前記物体表面から前記物体までの距離
画像を求め、前記距離画像をテクスチャ画像に変換し、
シーンの描画の際に前記テクスチャ画像を前記物体表面
にテクスチャマッピングすることにより、前記干渉情報
をテクスチャとして前記物体表面に表示させる。
【0013】本発明の一態様では、前記距離画像を求め
る際、1つ前の時刻で求めた距離画像のデータをそのま
ま次の時刻での計算の初期値データとして用いることに
より、ある時刻T1 からある時刻T2 までの最小距離画
像を求める。
【0014】また、本発明の画像生成装置は、物体間の
干渉情報を含む3次元コンピュータグラフィックス画像
を生成する装置であって、前記干渉情報を表示させたい
物体表面及びその物体表面に対して前記干渉情報の対象
となる物体を夫々設定するための入力手段と、少なくと
も前記物体表面及び前記物体の形状情報、位置情報並び
に姿勢情報を含む作業環境情報を記憶する作業環境情報
記憶手段と、前記作業環境情報記憶手段に記憶されてい
る前記作業環境情報を時間的に更新する作業環境情報更
新手段と、前記作業環境情報更新手段で更新された前記
作業環境情報に基づき、前記物体表面を投影面、前記物
体を投影物体とする投影処理により、前記物体表面から
前記物体までの距離画像を求める距離画像生成手段と、
距離画像をテクスチャ画像に変換するためのルックアッ
プテーブルを記憶するルックアップテーブル記憶手段
と、前記ルックアップテーブル記憶手段に記憶された前
記ルックアップテーブルに基づき、前記距離画像生成手
段で求められた前記距離画像をテクスチャ画像に変換す
る画像データ変換手段と、前記作業環境情報更新手段で
更新された前記作業環境情報に基づき、且つ、前記画像
データ変換手段から得られた前記テクスチャ画像を前記
物体表面にテクスチャマッピングした状態で、シーンを
描画するシーン描画手段と、描画された前記シーンを表
示するグラフィックス表示手段とを有する。
【0015】
【作用】図1及び図2を用いて本発明の作用を説明す
る。なお、図1は本発明による画像生成方法の流れを示
すフローチャート、図2は図1の方法を実施する画像生
成装置の概要である。
【0016】まず、例えば、データファイル110等か
ら作業環境情報を入力する(ステップS1)。この作業
環境情報は、少なくとも各物体の形状情報、位置情報並
びに姿勢情報を含む。実際には、既述した従来の場合と
同様、物体の色情報、視点情報、照明情報、拘束条件情
報等をも含む。ここで入力された作業環境情報は初期デ
ータとして作業環境情報記憶手段103に記憶される。
【0017】次に、例えば、マウス、キーボード、ライ
トペン、ジョイスティック、トラックボール等の入力手
段108を使って、干渉情報を表示させたい物体表面及
びその物体表面に対して計算したい干渉情報の対象とな
る物体を夫々設定する(ステップS2)。この時、干渉
情報を表示させたい1つ物体表面に対して複数の対象物
体を設定して良い。また、干渉情報を表示させたい物体
表面も複数設定して良い。具体的には、例えば、グラフ
ィックス・ユーザ・インタフェース(GUI)109等
により対話的に設定するのが便利である。
【0018】また、別の設定方法として、現在行ってい
る作業情報(ロボットがどの物体を掴みにいっているか
等)や物体相互の接近状態(どの物体とどの物体とがぶ
つかりそうになっているか)等に応じて自動的に設定す
る方法もある。但し、この方法では、干渉情報を表示し
たい物体表面と干渉情報を計算したい物体の設定は、後
述するメインループの中で作業環境情報の更新(ステッ
プS3)の直後に行われる必要がある。例えば、前者の
場合、干渉情報の表示が必要な物体表面及び干渉情報の
計算が必要な物体を夫々作業の種類に応じて予め決めて
おき、ロボットシミュレータが行う作業状態の変化に応
じて、それらのうちから必要なものを自動的に選択して
設定する。また、後者の場合には、例えば、干渉情報の
表示が必要となる可能性のある物体表面及び干渉情報の
計算が必要となる可能性のある物体のすべての組み合わ
せに対して大まかな距離関係(例えば、中心間距離等)
を計算し、その距離が所定値よりも小さくなった組み合
わせに対してのみ、以下に述べる詳細な干渉情報の計算
及び表示を行わせる。
【0019】更に、この干渉情報を表示したい物体表面
と干渉情報を計算したい物体の設定を、ロボットの作業
状態の変化や物体相互の接近状態の変化に応じてオペレ
ータが随時行えるようにすることもできる。この場合に
は、オペレータによる外部割り込みで設定が行われる。
【0020】次に、メインループでは、まず、作業環境
情報更新手段101において作業環境情報の時間的な更
新を行う(ステップS3)。即ち、作業環境情報更新手
段101は、作業環境情報記憶手段103から読み出し
た作業環境情報のうち時間的な変化があったものを更新
する。更新された作業環境情報は、再び作業環境情報記
憶手段103に記憶される。
【0021】次に、上の作業環境情報更新手段101で
更新された作業環境情報に基づき、距離画像生成手段1
02において投影処理による距離画像の生成を行う(ス
テップS4)。この時、ステップS2で設定した干渉情
報を表示させたい物体表面を投影面とし、干渉情報を計
算したい物体を投影物体として投影処理を行う。投影方
法としては、例えば平行投影や透視投影を用いる。この
時、Z−バッファ法を用いると簡便である。この投影処
理は、例えばグラフィックス・アクセラレータにおいて
高速に行うことができる。ここで得られる距離画像の画
素値は、整数値で表現された距離情報である。
【0022】次に、画像データ変換手段105において
画像データの変換を行い、距離画像生成手段102で得
られた距離画像からテクスチャ画像を生成する(ステッ
プS5)。距離画像をテクスチャ画像に変換するには、
ルックアップテーブル(LUT)を用いる。このルック
アップテーブルは、予めルックアップテーブル記憶手段
106に準備しておく。これにより、干渉情報の計算結
果は、干渉情報を表示させたい面のID(ロボットシミ
ュレータが自動的に割り振る通し番号)とその面に対応
するテクスチャ画像の組として得られ、次に述べるシー
ンの描画で用いられる。
【0023】次に、シーン描画手段104でのシーンの
描画によりコンピュータグラフィックス画像が生成さ
れ、その画像がCRT表示装置等のグラフィックス表示
手段107に表示されて、オペレータにロボットの動作
の様子が示される(ステップS6)。この時、干渉情報
を表示させたい面として設定された面については、画像
データ変換手段105から得られたテクスチャ画像をテ
クスチャマッピングすることにより、物体どうしの干渉
に関する詳細な情報をテクスチャとして表示させること
ができる。
【0024】ステップS7では、作業時間の終了を判定
する。
【0025】
【実施例】以下、本発明を具体的な作業例につき詳細に
説明する。
【0026】まず、図3〜図7を参照して、机の上に置
かれた部品をロボットハンドで把持する作業をロボット
シミュレータ上で行う第1の実施例を説明する(簡単の
ため、ロボット本体部は図中では省略している。)。本
実施例では、干渉情報の表示方法として、距離に応じた
色表示を行う。
【0027】まず、各物体の形状情報、位置情報、姿勢
情報及び色情報、更に、視点情報、照明情報、拘束条件
情報等を含む作業環境情報の入力を行った後、干渉情報
を表示させたい物体表面と干渉情報を計算したい物体を
夫々設定する。ここでは、 (1)ハンド20が部品30を掴みに行く際に、ハンド
20(特にその指部21)が机(特にその上面10)に
ぶつかってはならない。 (2)ハンド20は部品30にぶつからないように正し
い把持位置に移動し、指部21を充分開いた後に部品3
0を把持しなければならない。 ことを考慮し、干渉情報を表示させたい1つの物体表面
(投影面)として机の上面10を、それに対して干渉情
報を計算したい物体(投影物体)としてハンド20の2
つの指部21を夫々設定する。更に、干渉情報を表示さ
せたい別の物体表面(投影面)として部品30の6つの
面を夫々設定し、夫々の面に対して干渉情報を計算した
い物体(投影物体)としてハンド20の2つの指部21
を夫々設定する。
【0028】また、この投影面の設定時に、視点位置、
投影方法、更に、距離とテクスチャに使う色情報との対
応もあわせて設定しておく。例えば、机の上面10につ
いては視点位置は無限遠、投影方法は平行投影とし、部
品30の6つの面については視点位置は部品中心、投影
方法は透視投影とする。平行投影を用いる場合には、投
影物体(ハンドの指部21)と投影面(机の上面10)
との位置関係を直観的に理解し易いという長所がある。
一方、部品30の6つの面(例えば、側面30a〜30
d)に対して夫々平行投影を用いると、図5(a)に示
すように、ハンド20が図中の斜線部分から接近した場
合には、その接近情報を計算及び表示することができな
い。この場合、図5(b)に示すように、部品中心に視
点Eを置いた透視投影によって投影すると、死角をなく
すことができる。しかしながら、一般的には、透視投影
においては、投影面からの距離ではなく視点からの距離
が用いられることにより人間の直観との差異が生じる等
の問題点があるので、投影方法及び視点は、場合に応じ
て最適なものを選定しなければならない。
【0029】また、上述の距離と色情報の対応とは、 (1)視点又は投影面からみてどの距離からどの距離の
範囲を干渉情報として色表示するかの設定。 (2)上記距離範囲を夫々何色で表示するかの設定。 (3)色変換のためのLUTの設定。 を指す。一般に精密な作業においては、投影面のごく近
傍の距離範囲のみで干渉情報を色表示すれば良く、一
方、大きく運動する作業においては、投影面から遠い距
離までの干渉情報を色表示する必要がある。また、LU
Tには、衝突していれば赤色、近ければ黄色、遠ければ
青色のように、オペレータが直観的に距離を認知し易い
ように色を設定しておくと良い。
【0030】上述のようにして、干渉情報を表示させた
い物体表面と干渉情報を計算したい物体を夫々設定した
後、メインループに入る。
【0031】メインループでは、作業環境情報の更新を
行った後、投影処理による距離画像の生成を行う。ここ
では、机の上面10を投影面とする投影処理について説
明する。このとき、投影物体はハンド20の2つの指部
21である。これは、机の上面10に対してぶつかる危
険性のある物体がハンド20の2つの指部21のみだか
らである。
【0032】今、作業環境の状態が図3(a)の時の投
影面(机の上面10)と投影物体(ハンド20の指部2
1)の様子を図3(b)に示す。また、この時、Z−バ
ッファ法を用いて描画を行った際の深度バッファの様子
を図3(c)に示す。Z−バッファ法における深度バッ
ファには距離画像が得られ、その画素値は整数値で表現
された距離情報である(図中に各画素値に対応して描か
れている模様(テクスチャ)は図示のための便宜上のも
のである。)。図3(c)の例では距離情報を4ビット
(16値)で表現し、視点(投影面)に近いほど小さな
値をとっている(但し、図中では画素値“0”〜
“2”、“13”〜“14”に対応する距離範囲には物
体(指部21)が現れていない。)。
【0033】次に、図3(c)で得られた距離画像を、
LUT変換によって、色表示によるテクスチャ画像に変
換する。図4(a)に、変換に用いるLUTの例を示
す。この例では、距離画像の画素値が0の時、投影物体
は投影面に接触しており、LUTの出力値は濃赤色であ
る。そして、投影物体との距離が遠くなるに従い、出力
値は赤色、淡赤色、橙色、黄色、黄緑色、…のように設
定される。そして、投影物体が充分遠くにある場合に
は、距離画像の画素値は“15”となり、出力値は“投
影面本来の色(机の上面10の本来の色)”となる。色
の表現方法としては、例えばRGB値で表現される。こ
のテクスチャ画像は、後のシーンの描画において用いら
れる。
【0034】同様にして、部品30の6つの面を投影面
とする場合にも、夫々の投影面に対して図3(c)に示
すような距離画像を求めるが、上述の処理との差異は透
視投影を用いることである。また、6つの面のうちの3
つは投影面そのものが描画されないため、投影処理によ
る距離画像の生成を行わなくても良い。
【0035】次に、シーンの描画によってコンピュータ
グラフィックス画像が生成され、オペレータにロボット
の動作の様子が表示される。この時、干渉情報を表示さ
せたい面として設定された面については、作業環境情報
中にあるその物体本来の色情報に代えて、上述のように
して生成されたテクスチャ画像をテクスチャマッピング
して表示する。この時、テクスチャ画像は、そのテクス
チャ画像を生成する時に用いた干渉情報を表示させたい
面(投影面)を描画する時に正しく用いられなければな
らない。図3(c)で得られた距離画像を、図4(a)
のLUTを用いてテクスチャ画像に変換して表示させた
例を図4(b)に示す(図中に便宜的に描かれている模
様(テクスチャ)が各色を表している。)。
【0036】図6に、ロボットが様々な位置にある時の
コンピュータグラフィックス画像の生成例を示す。図6
(a)は、ロボットのハンド20が机からも部品30か
らも遠く離れている状態であり、すべての物体はその物
体本来の色で表示されている。図6(b)では、ロボッ
トのハンド20が机に接近したため、机の上面10にロ
ボットのハンド20の指部21が投影されている。そし
て、そのテクスチャの色情報から接近の度合が、投影パ
ターンからどのような姿勢で接近しているのかが分か
る。即ち、本実施例では、ロボットのハンド20が机に
ぶつかってしまうより前に、その接近度合に応じて距離
情報が色表示されるため、オペレータは安心してロボッ
トハンドを動かすことができて、作業能率が向上する。
【0037】図7(a)(b)(c)は、ロボットハン
ド20の指部21が部品30に接近した時の拡大図であ
る。簡単のため、部品30とハンド20の指部21のみ
図示した。図7(a)では、ロボットハンド20の2つ
の指部21が部品30の正しい把持位置からずれた位置
にあり、図7(b)では、ロボットハンド20の2つの
指部21が部品30の向きとずれた向きにあり、図7
(c)では、ロボットハンド20の2つの指部21が部
品30の正しい把持位置にある。このように、ロボット
ハンド20の接近の様子が部品30上にテクスチャマッ
ピングされているため、ロボットハンド20と部品30
との位置関係が容易に把握できる。
【0038】なお、本実施例では、投影面として単純な
平面について述べたが、物体形状が複雑な場合には、本
来の物体形状に代えて、物体形状を単純な形状に近似
し、その近似形状における面を投影面として用いること
もできる。また投影物体についても本来の物体形状に代
えて近似形状を用いることができる。
【0039】次に、図8を参照して、本発明の第2の実
施例を説明する。
【0040】上述の第1の実施例では、投影処理がZ−
バッファ法を用いた描画により実現されるため、投影面
は平面でなければならないが、一般に、ロボットシミュ
レータでは最終的に物体形状は多面体表現されて表示さ
れるため、干渉情報を表示させたい面が曲面であった場
合でも、その干渉情報を表示させたい曲面を複数の平面
で近似し、夫々の平面を投影面として投影処理による距
離画像の生成処理を施せば、曲面上にも干渉情報を表示
させることができる。例えば、円筒を10角柱で近似し
た場合には、円筒面に対する投影処理は、10個の平面
に対する投影処理に置き換えて実行することができる。
【0041】これに対し、この第2の実施例では、干渉
情報を表示させたい面が幾何学的に単純な曲面である場
合の別の投影方法について説明する。
【0042】図8(a)は、円筒形状物体40をロボッ
トハンド20で掴む作業例である。干渉情報を表示させ
たい面は円筒形状物体40の側面である円筒面であり、
干渉情報を計算したい物体はロボットハンド20の2つ
の指部である。
【0043】以下、第1の実施例との差異についてのみ
説明する。
【0044】本実施例においては、作業環境情報の更新
を行った後、干渉情報を表示させたい面である円筒側面
を平面として扱うためのパラメータ変換を行う。即ち、
図8(a)に示すようにデカルト座標系で表現されてい
る円筒側面及び投影物体(ロボットハンド20の指部)
を、図8(b)に示すような円筒座標系(R−θ−Z
系)で表現し直す。この時、干渉情報を表示させたい面
である円筒側面上の各点ではRが一定であるため、R−
θ−Zパラメータ空間では、図8(b)に示すように円
筒側面は平面で表現され、一方、投影物体は歪んだ形状
となる。
【0045】そして、投影処理による距離画像の生成に
おいて、投影処理を、図8(a)に示したデカルト座標
系上で行うことに代えて、図8(b)に示したR−θ−
Zパラメータ空間での平行投影によって行うことによ
り、一度の投影処理によって円筒面に対する投影処理を
行うことができる。図8(c)に円筒面上に干渉情報が
表示された様子を示す。
【0046】一般に、デカルト座標系において表現され
た曲面をパラメータ変換することで平面に変換可能であ
るような曲面においては、上と同様にして、パラメータ
変換により、その曲面を1つの投影面として処理するこ
とが可能である。
【0047】次に、図9及び図10を参照して、本発明
の第3の実施例を説明する。
【0048】本実施例は、平面板にグラインダをかける
作業例である。
【0049】図9(a)及び(b)に、作業環境の斜視
図及び側面図を夫々示す。干渉情報を表示させたい面は
平面板60の上面であり、干渉情報を計算したい物体は
グラインダ50の円盤形状の砥石51の部分である。
【0050】以下、第1の実施例との差異についてのみ
説明する。
【0051】まず、本実施例では、図9(b)に示す距
離範囲Lについての干渉情報を色表示することを特徴と
する。即ち、投影物体(砥石51)が投影面(平面板6
0の上面)よりも視点E側にある時に干渉情報を色表示
し、投影物体が視点Eから見て投影面よりも遠くにある
時には色表示しない(物体本来の色で表示する)。この
ことにより、上述した第1の実施例では物体どうしの接
近の度合を干渉情報として色表示したのに対し、本実施
例ではグラインダの加工深さの度合を干渉情報として色
表示することができる。
【0052】図10に、ある時刻t=T1 における作業
の様子(左図上段)と平面板上面にテクスチャマッピン
グされる距離画像の様子(左図下段)を夫々示す。
【0053】次に、グラインダ作業が進み(砥石51
は、図中、右側へ平行に動く)、時刻t=T1 +Δt
(ここで、Δtはロボットシミュレータの描画サイク
ル)において、再び投影処理による距離画像の生成を行
う際、Z−バッファ法の深度バッファの初期化(深度バ
ッファ中のすべての画素に最遠点に対応する画素値を与
える)処理を省き、時刻t=T1 で求めた距離画像を初
期値として投影処理を行う。Z−バッファ法による描画
においては、深度バッファ中のそれまでに書き込まれた
画素値よりも視点に近い書き込みのみが実行されるた
め、上記処理は、即ち、t=T1 〜T1 +Δtでの最小
距離画像を生成することに相当する。そこで、グライン
ダ作業開始時(t=T1 )の一度だけ深度バッファの初
期化を行い、以降は、前回求めた最小距離画像を初期値
として投影処理を行うことにより、時刻t=T2 (T2
>T1 )には、右図下段に示すような距離画像が平面板
60の上面にテクスチャマッピングされることになる。
【0054】なお、上の説明は、Δt がグラインダの動
きに対して充分小さい場合であるが、ロボットシミュレ
ータの描画サイクルΔt に対してグラインダの動きが速
過ぎる場合には、適当にΔt を内挿して、投影物体(砥
石51)を何度も投影処理するか、或いは、図9(c)
に示すように、時刻t=T1 での投影物体(砥石51)
と時刻t=T1 +Δtでの投影物体(砥石51)とから
包絡多面体等を生成し、時刻t=T1 +Δtでは、本来
の砥石形状に代えて、この包絡多面体等を投影処理する
ようにすれば良い。
【0055】また、本実施例では、単純な形状の砥石5
1が単純な加工動作をする場合について説明したが、複
雑な形状の工具が複雑な加工動作をする場合にも、殆ど
同様の処理によって、簡便且つ高速に加工深さ情報を表
示させることができる。
【0056】
【発明の効果】本発明によれば、例えば、ロボットシミ
ュレータのコンピュータグラフィックス画像において、
物体どうしの接近、衝突等の干渉情報を詳細且つ定量的
にカラー画像等として物体表面上にテクスチャマッピン
グしてリアルタイムで表示させることができるので、オ
ペレータが、作業環境中にある物体の接近の度合を認知
し易くすることができ、また、接近した物体どうしの位
置関係を把握し易くできて、作業効率を向上させること
ができる。また、グラインダ等の加工作業のシミュレー
ションに適用する場合、その加工深さ情報を例えば色情
報として表示することにより、加工深さの認知をたやす
く行うことができて、作業効率を向上させることができ
る。
【図面の簡単な説明】
【図1】本発明の画像生成方法のフローチャートであ
る。
【図2】本発明の画像生成方法を実施する装置の概略構
成を示すブロック図である。
【図3】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
【図4】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
【図5】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
【図6】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
【図7】本発明の画像生成方法の第1の実施例を説明す
るための概念図である。
【図8】本発明の画像生成方法の第2の実施例を説明す
るための概念図である。
【図9】本発明の画像生成方法の第3の実施例を説明す
るための概念図である。
【図10】本発明の画像生成方法の第3の実施例を説明
するための概念図である。
【図11】従来の画像生成方法のフローチャートであ
る。
【符号の説明】
10 机の上面 20 ロボットハンド 21 指部 30 物体 40 円筒形状物体 50 グラインダ 51 砥石 60 平面板 101 作業環境情報更新手段 102 距離画像生成手段 103 作業環境情報記憶手段 104 シーン描画手段 105 画像データ変換手段 106 ルックアップテーブル(LUT)記憶手段 107 グラフィックス表示手段 108 入力手段 109 グラフィックス・ユーザ・インタフェース(G
UI) 110 データファイル

Claims (3)

    【特許請求の範囲】
  1. 【請求項1】 物体間の干渉情報を含む3次元コンピュ
    ータグラフィックス画像を生成する方法であって、 前記干渉情報を表示させたい物体表面及びその物体表面
    に対して前記干渉情報の対象となる物体を夫々設定し、 前記物体表面を投影面、前記物体を投影物体とする投影
    処理により、前記物体表面から前記物体までの距離画像
    を求め、 前記距離画像をテクスチャ画像に変換し、 シーンの描画の際に前記テクスチャ画像を前記物体表面
    にテクスチャマッピングすることにより、前記干渉情報
    をテクスチャとして前記物体表面に表示させることを特
    徴とする画像生成方法。
  2. 【請求項2】 前記距離画像を求める際、1つ前の時刻
    で求めた距離画像のデータをそのまま次の時刻での計算
    の初期値データとして用いることにより、ある時刻T1
    からある時刻T2 までの最小距離画像を求めることを特
    徴とする請求項1に記載の画像生成方法。
  3. 【請求項3】 物体間の干渉情報を含む3次元コンピュ
    ータグラフィックス画像を生成する装置であって、 前記干渉情報を表示させたい物体表面及びその物体表面
    に対して前記干渉情報の対象となる物体を夫々設定する
    ための入力手段と、 少なくとも前記物体表面及び前記物体の形状情報、位置
    情報並びに姿勢情報を含む作業環境情報を記憶する作業
    環境情報記憶手段と、 前記作業環境情報記憶手段に記憶されている前記作業環
    境情報を時間的に更新する作業環境情報更新手段と、 前記作業環境情報更新手段で更新された前記作業環境情
    報に基づき、前記物体表面を投影面、前記物体を投影物
    体とする投影処理により、前記物体表面から前記物体ま
    での距離画像を求める距離画像生成手段と、 距離画像をテクスチャ画像に変換するためのルックアッ
    プテーブルを記憶するルックアップテーブル記憶手段
    と、 前記ルックアップテーブル記憶手段に記憶された前記ル
    ックアップテーブルに基づき、前記距離画像生成手段で
    求められた前記距離画像をテクスチャ画像に変換する画
    像データ変換手段と、 前記作業環境情報更新手段で更新された前記作業環境情
    報に基づき、且つ、前記画像データ変換手段から得られ
    た前記テクスチャ画像を前記物体表面にテクスチャマッ
    ピングした状態で、シーンを描画するシーン描画手段
    と、 描画された前記シーンを表示するグラフィックス表示手
    段とを有することを特徴とする画像生成装置。
JP33873994A 1994-12-28 1994-12-28 画像生成方法及び装置 Withdrawn JPH08185545A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP33873994A JPH08185545A (ja) 1994-12-28 1994-12-28 画像生成方法及び装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33873994A JPH08185545A (ja) 1994-12-28 1994-12-28 画像生成方法及び装置

Publications (1)

Publication Number Publication Date
JPH08185545A true JPH08185545A (ja) 1996-07-16

Family

ID=18321008

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33873994A Withdrawn JPH08185545A (ja) 1994-12-28 1994-12-28 画像生成方法及び装置

Country Status (1)

Country Link
JP (1) JPH08185545A (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000076720A1 (fr) * 1999-06-14 2000-12-21 Idec Izumi Corporation Dispositif d'assemblage et son systeme de plateaux, et dispositif d'aide a la conception
JP2007018145A (ja) * 2005-07-06 2007-01-25 Jtekt Corp 工作機械の干渉チェック装置
JP2007148804A (ja) * 2005-11-28 2007-06-14 Dainippon Printing Co Ltd 面データの法線方向変更方法、面データの法線方向変更装置及び処理プログラム等
JP2009545075A (ja) * 2006-07-28 2009-12-17 インテル コーポレイション キューブ・マップを使うリアルタイム多重解像度3d衝突検出
JP2011112402A (ja) * 2009-11-24 2011-06-09 Omron Corp 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP2015143976A (ja) * 2013-12-25 2015-08-06 キヤノンマーケティングジャパン株式会社 情報処理装置及びその制御方法、プログラム
JP2016103265A (ja) * 2014-10-23 2016-06-02 株式会社東芝 対象の3次元モデルを生成する方法とシステム

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2000076720A1 (fr) * 1999-06-14 2000-12-21 Idec Izumi Corporation Dispositif d'assemblage et son systeme de plateaux, et dispositif d'aide a la conception
US6415204B1 (en) 1999-06-14 2002-07-02 Idec Izumi Corporation Assembling device and tray system used therein, and design assisting device
JP2007018145A (ja) * 2005-07-06 2007-01-25 Jtekt Corp 工作機械の干渉チェック装置
JP2007148804A (ja) * 2005-11-28 2007-06-14 Dainippon Printing Co Ltd 面データの法線方向変更方法、面データの法線方向変更装置及び処理プログラム等
JP2009545075A (ja) * 2006-07-28 2009-12-17 インテル コーポレイション キューブ・マップを使うリアルタイム多重解像度3d衝突検出
JP4842379B2 (ja) * 2006-07-28 2011-12-21 インテル コーポレイション キューブ・マップを使うリアルタイム多重解像度3d衝突検出
JP2011112402A (ja) * 2009-11-24 2011-06-09 Omron Corp 3次元視覚センサにおける計測有効領域の表示方法および3次元視覚センサ
JP2015143976A (ja) * 2013-12-25 2015-08-06 キヤノンマーケティングジャパン株式会社 情報処理装置及びその制御方法、プログラム
JP2016103265A (ja) * 2014-10-23 2016-06-02 株式会社東芝 対象の3次元モデルを生成する方法とシステム
US9905047B2 (en) 2014-10-23 2018-02-27 Kabushiki Kaisha Toshiba Method and systems for generating a three dimensional model of a subject by iteratively generating meshes

Similar Documents

Publication Publication Date Title
US6868359B2 (en) Method and system for CAD engine independence
JP2019171501A (ja) ロボットの干渉判定装置、ロボットの干渉判定方法、プログラム
Nishino et al. 3d object modeling using spatial and pictographic gestures
CA2246076C (en) Off-line teaching apparatus
JPH08185545A (ja) 画像生成方法及び装置
JPS63231520A (ja) 座標入力装置
JP2907105B2 (ja) 3次元表示装置
JP3501456B2 (ja) 三次元図形編集装置
JPWO2019064919A1 (ja) ロボット教示装置
JP4769942B2 (ja) 3dデザイン支援システム及び3dデザイン支援方法
US20040243538A1 (en) Interaction with a three-dimensional computer model
JP2022163836A (ja) ロボット画像の表示方法、コンピュータープログラム、及び、ロボット画像の表示システム
US20040200955A1 (en) Position detection of a light source
JP2660707B2 (ja) 三次元図形のピック方法
JP2019171499A (ja) ロボットの干渉判定装置、ロボットの干渉判定方法、プログラム
JP2001291119A (ja) ユーザインタフェース制御装置およびユーザインタフェース制御方法、並びにプログラム提供媒体
CN113759806B (zh) 一种写字机器人控制***
EP4302938A1 (en) Display system and teaching system
EP4382266A1 (en) Holding parameter estimation device and holding parameter estimation method
JP2988936B2 (ja) 三次元図形の処理装置
JPH07175944A (ja) 3次元モデルの配置方法
JP2024004619A (ja) カメラによる物体認識を評価する方法、システム、及び、コンピュータープログラム
JPH10340157A (ja) 座標指定装置
JP2001092992A (ja) 3次元形状処理方法およびその方法を実行するためのプログラムを記録した記録媒体
JPH0218670A (ja) Cad装置

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20020305