JP7229587B2 - イメージ処理方法及びプログラム - Google Patents

イメージ処理方法及びプログラム Download PDF

Info

Publication number
JP7229587B2
JP7229587B2 JP2021537194A JP2021537194A JP7229587B2 JP 7229587 B2 JP7229587 B2 JP 7229587B2 JP 2021537194 A JP2021537194 A JP 2021537194A JP 2021537194 A JP2021537194 A JP 2021537194A JP 7229587 B2 JP7229587 B2 JP 7229587B2
Authority
JP
Japan
Prior art keywords
individual
image
mode
images
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021537194A
Other languages
English (en)
Other versions
JP2022515462A (ja
Inventor
ジョンファン パク、
Original Assignee
ピージェー ファクトリー カンパニー リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ピージェー ファクトリー カンパニー リミテッド filed Critical ピージェー ファクトリー カンパニー リミテッド
Publication of JP2022515462A publication Critical patent/JP2022515462A/ja
Priority to JP2023017269A priority Critical patent/JP7481044B2/ja
Application granted granted Critical
Publication of JP7229587B2 publication Critical patent/JP7229587B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04842Selection of displayed objects or displayed text elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04845Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range for image manipulation, e.g. dragging, rotation, expansion or change of colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0486Drag-and-drop
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • G06F3/04883Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures for inputting data by handwriting, e.g. gesture or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/005Tree description, e.g. octree, quadtree
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04804Transparency, e.g. transparent or translucent windows
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/048Indexing scheme relating to G06F3/048
    • G06F2203/04808Several contacts: gestures triggering a specific function, e.g. scrolling, zooming, right-click, when the user establishes several contacts with the surface simultaneously; e.g. using several fingers or a combination of fingers and pen
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本発明は、ツリー構造のマルチデプス(multi-depth)イメージを生成し、生成したマルチデプスイメージをビューイング(Viewing)する方法に関する。
この部分に記述した内容は、単に本発明についての背景情報を提供するに留まり、従来の技術を構成するものではない。
情報通信及び半導体技術の進歩で、ユーザーはインターネットを介して様々なコンテンツにアクセスしたり、様々なコンテンツを自分の電子装置(例えば、スマートフォンやPC)に保存して使用することができる。コンテンツの量は膨大である反面、膨大な量のコンテンツが散発的に散らばっており、互いに関連性の高いコンテンツを一括して簡単に探して確認することは難しい。
1つの例示として、電子装置を利用して、イメージファイルを開いたときに、イメージファイルの特定の部分についての詳しい情報又は拡大したイメージが要求される場合がある。例えば、自動車のイメージの場合、ヘッドライト、車輪などのような特定の部分のより詳しいイメージが要求される場合がある。この場合、ユーザーは、関連するイメージを新たに探さなければいけないという煩わしさがある。
このような問題を解決するために、本出願人は、基本となる1つのイメージ(以下、「メインイメージ」)に追加の情報を提供する他のイメージ(以下、「挿入イメージ」)の挿入が可能な新しいフォーマットのイメージ(以下、「マルチデプスイメージ」)及びその生成方法についての発明を韓国特許第10-1501028号(2015年03月04日付けにて登録)で登録されたことがある。
同文献は、マルチデプスイメージの定義と、マルチデプスイメージの作成及び編集のためのユーザーインタフェースを開示している。本発明は、同発明の後継発明であって、改善したイメージ又は個体の属性及び個体間の関係に応じて様々な方法でマルチデプスイメージを生成し、さらにユーザーがより直感的に、マルチデプスイメージ内の各イメージをビューイングすることができる方法を提供したい。
本発明の技術的課題は、個体間の関係に応じて様々な方法でマルチデプスイメージを生成できる方法を提供することである。
本発明のまた別の技術的課題は、生成したマルチデプスイメージをユーザーがより直感的にビューイングすることができる方法を提供することである。
本発明の一実施例によると、複数の個体をマルチデプス(multi-depth)のツリー構造で構成するための電子装置での方法において、第1の個体と第2の個体をつなぐノード属性及び、前記第1の個体内の座標属性を含む第1のユーザーコマンドを受信すると、第1のモードで前記第2の個体を前記第1の個体と関連付けるステップと、前記第1の個体内の座標属性なしの前記ノード属性を含む第2のユーザーコマンドを受信すると、第2のモードで前記第2の個体を前記第1の個体と関連付けるステップと、を含み、前記第1の個体は、2次元又は3次元のイメージであり、前記第1のモードでは、前記第1の個体内で、前記座標属性によって指示される位置に前記第2の個体を挿入し、前記第2のモードでは、前記第1の個体内の位置を指定することなく、前記第2の個体を前記第1の個体に挿入することを特徴とする方法を提供する。
本発明の他の実施例によれば、コンピュータによって読み取り可能なプログラムであって、前記プログラムは、第1の個体と第2の個体をつなぐノード属性及び、前記第1の個体内の座標属性を含む第1のユーザーコマンドを受信すると、第1のモードで前記第2の個体を前記第1の個体と関連付けるステップと、前記第1の個体内の座標属性なしの前記ノード属性を含む第2のユーザーコマンドを受信すると、第2のモードで前記第2の個体を前記第1の個体と関連付けるステップと、を実行し、前記第1の個体はイメージであり、前記第1のモードでは、前記第1の個体内で、前記座標属性によって指示される位置に前記第2の個体を挿入し、前記第2のモードでは、前記第1の個体内の位置を指定することなく、前記第2の個体を前記第1の個体に挿入することを特徴とするプログラムを提供する。
本実施例に係るマルチデプスイメージのツリー構造の示す例示図、 本実施例に係る第1のモードでイメージをツリー構造に挿入する過程を示す例示図で、 本実施例に係る第2のモードでイメージを挿入した場合を説明する例示図、 本実施例を具現するための電子装置の構成を示す例示図、 本実施例に係る電子装置の動作を説明するためのフローチャート、 本実施例に係るユーザー操作に応じたマルチデプスイメージの生成を説明するための例示図、 本実施例に係るマルチデプスイメージでの個体間の切り替えのための1つの例示図、 本実施例に係るマルチデプスイメージでの個体間の切り替えのためのもう1つの例示図である。
以下、本発明の一実施例を例示的な図面を介して詳しく説明する。各図面の構成要素に参照符号を付加するにおいて同一の構成要素に対しては、たとえ他の図面上に表示されていても、可能な限り同一の符号を使用していることに留意しなければならない。また、本発明の一実施例を説明するにあたり、関連する公知の構成または機能についての具体的な説明が本発明の要旨を曖昧にすると判断した場合には、それについての詳しい説明を省く。
本発明の一実施例の構成要素を説明するにあたり、第1、第2、A、B、(a)、(b)などの符号を用いる場合がある。このような符号は、その構成要素を他の構成要素と区別するだけで、その符号によってその構成要素の本質、順番、順序などが限定されるものではない。本明細書でどの部分がどのような構成要素を「含む」または「備える」とするとき、これは明示的に逆になる記載がない限り、該当部分が他の構成要素を付加することを排除するものではなく、他の構成要素をさらに含み得ることを意味する。「~部」、「モジュール」などの用語は、少なくとも一つの機能や動作を処理する単位を意味し、これは「ハードウェア」、「ソフトウェア」または「ハードウェアとソフトウェアの組み合わせ」で具現してよい。
以下、添付された図面を参照して、本発明の一実施形態について、より詳細に説明することにする。
マルチデプスイメージはある1つのイメージに別のイメージを挿入する過程を階層的に繰り返すことで、複数のイメージがツリー構造で形成されたイメージを意味する。
図1は、本発明に係るマルチデプスイメージのツリー構造を示す例示図である。
図1を参照すると、マルチデプスイメージは、1つのメインイメージと、複数のサブイメージで構成される。マルチデプスイメージの複数のイメージは、細部トピック(specific subject)や文脈(context)などを考慮して階層化された後、ノードを構成することで、1つのツリー構造を形成することができる。このとき、メインイメージは、ツリー構造のルートノードを形成し、サブイメージは下位ノードを形成する。
図1は、自動車をテーマにしたマルチデプスイメージのツリー構造を例示的に示す。自動車の全体の外観を示すメインイメージは、ルートノード(深さ0)に該当する。メインイメージに自動車の構成部品であるヘッドライト及び車輪に関するイメージがサブイメージとして挿入されて深さ1のノードを構成する。ヘッドライトの構成部品である電球及び反射鏡に関するイメージは、ヘッドライトイメージにサブイメージとして挿入されて深さ2のノードを構成する。また、車輪の構成部品であるタイヤ及びタイヤホイールに関するイメージは車輪イメージにサブイメージとして挿入されて深さ2のノードを構成する。結果的に、車のノードの下にヘッドライトノード及び車輪ノードが位置し、ヘッドライトノードの下に電球ノード及び反射鏡ノードが位置し、車輪ノードの下にタイヤノード及びタイヤホイールノードが位置する。そして、このような方式で、本実施例にて、複数のサブイメージは、互いにツリー構造でつながり、親ノードのイメージに子ノードのイメージが挿入される。
マルチデプスイメージは、図1に例示した親ノードの個体に子ノードの個体がツリー構造で挿入された形態のイメージフォーマットである。親ノードの個体に子ノードの個体が挿入されるときに挿入される個体は、一般的にイメージであり、そのイメージは、2次元又は3次元である。しかし、イメージの他にも動画、テキスト、音声、その他のファイルに対するリンク、インターネットアドレスのリンク、ブックマーク、360映像、3Dオブジェクトなど、様々な個体が子ノードの個体として親ノードの個体に挿入される。以下、マルチデプスイメージの各ノードに挿入される個体はすべて、イメージであることを前提に、本実施例を説明することにする。ただし、これは説明の便宜のためのものであり、本発明を限定するものではないことに留意しなければならない。
一方、マルチデプスイメージのツリー構造にて、各ノードには、マルチメディアコンテンツが追加でマッピングされてもよい。ここで、マルチメディアコンテンツは、各ノードに挿入されたイメージと関連するデジタルコンテンツとして、テキスト、ビデオ、オーディオなど、様々な類型の個体を含んでよい。例えば、図1のツリー構造にて、ヘッドライトノードには、メーカー、輝度、寿命などのスペック情報を示すテキストがマッピングされる。タイヤホイールノードには、材質、製造方法等のスペック情報を示すテキストがマッピングされる。また、タイヤホイールノードには、自動車の走行中のタイヤホイールの姿を示す動画が追加でマッピングされる。
本実施例は、マルチデプスイメージを生成する方法として、2つのモードを含む。
第1のモードは、親ノードのイメージ内の特定の位置に子ノードのイメージを挿入するモードである。このため、親ノードのイメージと子ノードのイメージとの間のつながり関係を表すノード属性、及び親ノードのイメージ内で子ノードのイメージが挿入される位置を示す座標属性を含む属性情報が定義される。属性情報は、親ノードのイメージ及び子ノードのイメージと一緒に保存される。
図2は、第1のモードでイメージを挿入する過程を示す例示図である。
図2を参照すると、自動車についてのマルチデプスイメージ200は、自動車全体イメージ210、ヘッドライトイメージ220、電球イメージ221、反射鏡イメージ222、車輪イメージ230、タイヤホイールイメージ231、及びタイヤイメージ232を含む。
ユーザーは、電子装置のディスプレイ部に表示された車のイメージ210内のヘッドライトの位置にヘッドライトイメージ(ヘッドライトのディテールイメージ)220を挿入する。たとえば、ユーザーは、タッチ又はクリックなどの方式でヘッドライトイメージ220を選択し、選択したヘッドライトイメージ220を自動車のイメージ210内の挿入したい位置にドラッグし、ヘッドライトイメージを当該場所に挿入する。ヘッドライトイメージが挿入されると、自動車イメージ210には、ヘッドライトの位置に他のイメージが挿入されていることを示すための第1のマーカー(例えば、図2で
Figure 0007229587000001
)が表示される。ユーザーは、自動車イメージ210に表示した第1のマーカー
Figure 0007229587000002
を選択し、その位置に挿入されたヘッドライトイメージ220を電子装置のディスプレイ部を介して見ることができる。
一方、ユーザーは、ヘッドライトイメージ220がディスプレイ部に表示された状態で、ヘッドライトイメージ220の電球位置に電球についてのディテールイメージ221を挿入することができる。ヘッドライトイメージ220内にて電球についてのディテールイメージ221が挿入された位置にはイメージが挿入されていることを示すための第1のマーカー
Figure 0007229587000003
が表示される。
このような方式で、電子装置は、ユーザーの操作に応じて親ノードのイメージの特定の位置に子ノードのイメージを挿入し、ツリー構造の形態のマルチデプスイメージを生成することができ、親ノードのイメージ内に表示されたマーカー
Figure 0007229587000004
をクリック又はタッチする入力が受信されると、マーカーが表示された位置に挿入された子ノードのイメージを表示する。
以上で説明した第1のモードは、自動車とヘッドライトのような従属関係にある2つのイメージ又は上位概念と下位概念の関係にある2つのイメージ間の挿入関係を定義する際に有用である。しかし、2つのイメージ間にこのような従属関係が成立しない場合もある。例えば、時間による変化を示す写真、ビフォー/アフター比較写真、内部/外部の比較写真などの従属関係より対等な関係で関連付けられる2つのイメージは、いずれかのイメージの特定の位置に他のイメージを挿入することが自然でない。たとえば、図2でヘッドライトイメージ220がヘッドライトがオフの状態の写真であれば、ユーザーは、ヘッドライトが点灯している状態の写真をヘッドライトがオフになった写真に追加で、さらに関連させようとする場合がある。ヘッドライトが点灯している状態の写真をオフ状態のイメージ内の特定の位置に挿入することは不自然である。
本開示が記述するまた別のモードである第2のモードは、親ノードのイメージ内の特定の位置を指定することなく、子ノードのイメージを親ノードのイメージに挿入するモードである。つまり、子ノードのイメージは、親ノードのイメージと対等な関係で親ノードのイメージに挿入される。第2のモードでは、親ノードのイメージと子ノードのイメージとの間のつながり関係を表すノード属性だけが定義され、親ノードのイメージ内で子ノードのイメージが挿入される位置を示す座標属性は定義されない。ノード属性は、親ノードのイメージ及び子ノードのイメージと一緒に保存される。親ノードのイメージには、個体が第2のモードで挿入されたことを示す第2のマーカーが表示される。第2のマーカーは、親ノードのイメージ内の特定の位置に第1のモードで個体を挿入するのに邪魔にならないように、第1の個体のエッジ部分に表示される。例えば、図3に示すように、第2のマーカーは、親ノードのイメージの一側端にページが折り畳まれた形態のマーカー310であってもよい。
以上で説明した第1のモードと第2のモードを使用して、マルチデプスイメージを構成する方法は、プログラムで具現し、そのプログラムを読み取ることができる電子装置によって実行される。電子装置は、プログラムを実行して一部のノードでは、第1のモードでイメージを挿入し、他のノードでは、第2のモードでイメージを挿入することにより、ツリー構造のマルチデプスイメージを生成することができる。又は、1つのノードに該当するイメージに第1のモードと第2のモードを利用して複数個のイメージを挿入することもできる。第1のモード又は第2のモードのうちの少なくとも1つ以上のモードで階層的に挿入された複数のイメージは、イメージ間の関係を定義する属性情報と一緒に1つのファイルに生成され、ツリー構造をなすマルチデプスイメージが生成される。第1のモードに関連する親ノードと子ノード間を定義する属性情報は、親ノードと子ノードを定義するノード属性と親ノードのイメージ内の特定の位置を指示する座標属性を含む。一方、第2のモードに関連する親ノードと子ノード間を定義する属性情報は、座標属性なしにノード属性だけを含む。
図4は、本開示の技術を具現するための電子装置の例示図である。
電子装置は、メモリ410、入力部420、プロセッサ430、及びディスプレイ部440を含む。
メモリ410は、第1のモード及び第2のモードでマルチデプスイメージの作成又はビューイング(viewing)のためのプログラムを保存する。入力部420は、ユーザーのコマンドを受信するための手段としてのキーパッド、マウスなどであったり、又はディスプレイ部440と一体に具現されるタッチスクリーンであってもよい。プロセッサ430は、入力部420から入力されるユーザーコマンドを受信し、メモリ410に保存したプログラムの実行コードを読み取り、マルチデプスイメージを生成する機能又はビューイングする機能を実行する。ディスプレイ部440は、プロセッサ430による実行結果をユーザーが確認できるように表示する。又は、入力部430がタッチスクリーンで具現される場合に、ディスプレイ部440は、ユーザーのコマンドを入力するためのソフトボタンを表示する。
前記のプログラムが実行するときのプロセッサの動作を図5を参照して説明すると、プロセッサ430は、入力部420を介して入力されたユーザーの操作に応じ、親ノードに該当する第1の個体と子ノードに該当する第2の個体を決定する(S502)。ここで、第1の個体は、座標情報を有する2次元又は3次元イメージである。第2の個体は、イメージであってもよく、あるいはオーディオ又はビデオなどのマルチメディアデータであってもよい。ユーザーは、電子装置のメモリ410に保存されたイメージ又は電子装置に備えられたカメラで撮影した写真を利用して親ノードと子ノードに該当する第1の個体及び第2の個体を選択することができる。1つの例示として、ユーザーは、入力部を操作して個体を層(layer)単位で区分して積むことができる。プロセッサ430は、上位層の個体を子ノードとし、その上位層のすぐ下の層の個体を親ノードに決定する。最も下に置かれた層は、ルートノードに該当するメインイメージとして使用する。
プロセッサ430が第1の個体内に第2の個体を挿入するためのユーザーコマンドを受信すると(S504)、ユーザーコマンドが第1の個体と第2の個体をつなぐノード属性及び第1の個体内の位置を示す座標属性を含む第1のユーザーコマンドであるか、それとも座標属性なしのノード属性を含む第2のユーザーコマンドであるかどうかを判断する(S506)。
受信したコマンドが第1のユーザーコマンドであれば、プロセッサ430は、第1のモードを実行する(S508)。すなわち、第1の個体内にて座標属性によって指示される位置に第2の個体を挿入する。第1のユーザーコマンドは、第1の個体内に特定の位置を割り当てるユーザーの操作から生成される。例えば、ユーザーが第2の個体をドラッグしてディスプレイ部440に表示された第1の個体内の特定の位置に割り当てると、プロセッサ430は、第1の個体内の特定の位置に第2の個体を挿入する。図6を参照してより具体的に説明する。ユーザーによって第1の個体(A)と第2の個体(B)が選択された後、第2の個体(B)が画面に表示された状態で、ユーザーが第2の個体(B)を一定時間以上に押すと(図6の(a))、第2の個体(B)がポインタ化し、画面には、第1の個体(A)が表示される(図6の(b))。ユーザーは、ポインタ化した第2の個体(B)を第1の個体(A)上で移動させながら、第2の個体(B)を挿入する場所を選択することができる。第2の個体(B)を移動させるユーザーの操作に応じてプロセッサ430は第2の個体(B)の移動方向の逆方向に第1の個体(A)を移動させる。図6の(c)を参照すると、ユーザーが第2の個体(B)を左上方向に移動させる操作に反応してプロセッサ430は第1の個体(A)を右下の方向に移動させる。これは、第1の個体(A)で第2の個体(B)の迅速な移動を可能にする。また、第1の個体(A)の端部に第2の個体(B)を位置させることを可能にすることで、第2の個体(B)を第1の個体(A)の端部に挿入することが容易になる。ユーザーが第2の個体(B)を第1の個体(A)内の特定の位置に割り当てると、プロセッサ430は、その特定の位置に第2の個体(B)を挿入する(図6の(b))。
第1のモードによって第2の個体が第1の個体の特定の位置に挿入されると、プロセッサ430は、第1の個体と第2の個体との間のノードのつながり関係を定義するノード属性及び第1の個体内でその特定の位置を指示する座標属性を第1の個体及び第2の個体と一緒にメモリ410に保存する。他の個体が挿入されたことをユーザーが識別できるように、第1の個体内で第2の個体が挿入された位置には、第1マーカー(例えば、図2の
Figure 0007229587000005
)が表示される。ユーザーがディスプレイ部440に表示された第1の個体上の第1のマーカーを選択すると、プロセッサ430は、第1のマーカーの位置に挿入された第2の個体をディスプレイ部440に表示する。
一方、受信したコマンドが第2のユーザーコマンドであれば、プロセッサ430は第2のモードを実行する(S510)。すなわち、第1の個体内の位置を指定することなく、第2の個体を第1の個体に挿入する。第2のユーザーコマンドは、第1の個体内に位置を割り当てていないユーザーの操作から生成される。例えば、第2のユーザーコマンドは、ディスプレイ部440に表示された第1の個体の外部領域に第2の個体を割り当てるユーザーの操作から生成される。図6を参照すると、ユーザーが第2の個体(B)をドラッグし、第1の個体の外部領域に第2の個体を配置することができる。第1の個体の外部領域に第2の個体が割り当てられると、プロセッサ430は、第2のユーザーコマンドを作成し、第2のユーザーコマンドに応じて、第1の個体内の特定の位置を指定することなく、第2の個体を第1の個体に第2のモードで挿入する。代替的に、第2のユーザーコマンドは、電子装置に備えられた物理的なボタンとして、第2のモードに割り当てられたボタンを押す操作を介して作成してもよい。又は、第2のユーザーコマンドは、電子装置のディスプレイ部440に表示されるソフトボタン(soft button)又は領域を選択するユーザー操作によって生成してもよい。そのソフトボタン(soft button)又は領域は、第1の個体の外部に表示されてもよく、第1の個体の内部に表示されてもよい。第1の個体の内部に表示されるように具現する場合に、ソフトボタン又は領域を選択するユーザー操作は、第1の個体の座標属性を割り当てないようにしなければならない。
第2のユーザーコマンドに含まれるノード属性は、第1の個体及び第2の個体と一緒にメモリ410に保存される。第1の個体の一側の端には、第2の個体が第2のモードで挿入されたことを示す第2のマーカー(例えば、図3の310)が表示される。ユーザーがディスプレイ部440に表示された第1の個体上の第2のマーカーを選択すると、プロセッサ430は、第2の個体をディスプレイ部440に表示する。
第1の個体に第2のモードで挿入する第2の個体は、複数選択されてもよい。例えば、ユーザーがAの個体、Bの個体、Cの個体、D個体の順に複数個の第2の個体を選択した後に、選択した第2の個体を一括して第1の個体に第2のモードで挿入するための第2のユーザーコマンドを入力すると、プロセッサ430は、第2のモードで第2の個体を順次に階層的に挿入する。ここで、第2のモードで順次的/階層的に挿入するということは、第1の個体、Aの個体、Bの個体、Cの個体、Dの個体の順に各個体が直前の個体に第2のモードで挿入されることを意味する。つまり、第2の個体のうちの1つ目のAの個体は、第1の個体に第2のモードで挿入され、第2の個体のうちの2つ目のBの個体は、1つ目のAの個体に第2のモードで挿入され、3つ目のCの個体は、2つ目のBの個体に第2のモードで挿入される。そして4つ目のDの個体は、Cの個体に第2のモードで挿入される。
一方、メモリ410に保存されたプログラムは、第1の個体内に第2のモードで挿入された第2の個体をユーザーに見せるためのユーザーの直感的な機能を含む。前述したように、第2のモードは、時間経過による変化を示す写真、ビフォー/アフター比較写真、内部/外部の比較写真の間で関連付けさせる場合に特に有用である。そこで、本実施例は、第1の個体と第2の個体間を相互に比較しながら見ることができるビューイング機能を提供する。
第2のモードで、関連する第1の個体と第2の個体のうちのいずれかがディスプレイ部440に表示される。この状態で、ユーザーが方向性を有するジェスチャーを入力すると、プロセッサ440は、入力されたジェスチャーの方向及び移動の長さに応じて、第1の個体と第2の個体間を切り替え(transition)て表示するが、ジェスチャーの移動の長さにより第1の個体と第2の個体との間の切り替えを段階的に実行する。つまり、第1の個体と第2の個体との間の切り替えの程度がジェスチャーの移動の長さに応じて異なる。
方向性を有するジェスチャーを入力する方法は多様である。第1の個体が表示された状態で、左から右へタッチを移動させるジェスチャーの入力を受けるとディスプレイ部に表示された第1の個体が徐々に第2の個体に変換する。そして、第2の個体が表示された状態で、右から左へタッチを移動するジェスチャーの入力を受けるとディスプレイ部に表示された第2の個体が徐々に第1の個体に変換する。代替的に、電子装置のソフトボタン又は物理的ボタンを押す時間又は回数に比例して方向性を有するジェスチャーが入力されてもよい。例えば、方向キーの種類によってジェスチャーの方向が決定し、方向キーを継続的に押す時間によってジェスチャーの移動の長さが決まってもよい。第1の個体が表示された状態で、ユーザーが「-->」の方向キーを押す場合に、「-->」の方向キーを持続的に押す時間に比例してディスプレイ部440に表示された第1の個体が徐々に第2の個体に変換してもよい。
変換の程度は透明度であってもよい。図7を参照すると、プロセッサ430は、ジェスチャーの移動の長さに応じて第1の個体と第2の個体の透明度を段階的に調節し、第1の個体と第2の個体を重なってディスプレイ部440に表示される。ジェスチャー入力が中断すると(例えば、タッチ解除)、ディスプレイ部に重なって表示された第1の個体と第2の個体の中で透明度が低い個体を選択してディスプレイ部440に表示する。代替的に、ジェスチャーが中断された時点で、透明度で第1の個体と第2の個体を互いに重なるようにして表示してもよい。
また別の例示として、変換の程度は、第1の個体に比べて第2の個体がディスプレイ部440の画面に表示される割合であってもよい。第1の個体が表示された状態で、ジェスチャーが入力されると、ジェスチャーの移動の長さに比例する割合だけ第1の個体の一部の領域が画面から消える。そして、その割合に該当する第2の個体の一部の領域が、第1の個体が消えた画面内の領域に表示される。例えば、図8の(a)を参照すると、タッチを左から右へドラッグすると、ドラッグした長さに応じて、第1の個体が右に徐々に押され、第1の個体が押された画面の領域に第2の個体が徐々に現れる。又は、図8の(b)に示すように、タッチを左から右へドラッグする長さに比例する割合だけ第1の個体の左部分が折られ、その割合に該当する第2の個体の左側の一部の領域が第1の個体が折られた画面の領域に表示されてもよい。
本実施例の応用として、複数のイメージで構成されたイメージグループを第2の個体として、第1の個体に挿入することもできる。前述の第2の個体を複数個選択し、複数個の第2の個体を第2のモードで第1の個体に順次的/階層的に挿入する例示は、選択した個体のそれぞれが1つの個体として認識される場合である。つまり、その例示は、複数の個体を一度に第2のモードで第1の個体に挿入するものである。一方、ここで説明する本実施例の応用は、複数のイメージで構成されたイメージグループが1つの個体として扱われる。連写モードで撮影された写真や動画のように、一定の時間間隔で撮影したイメージグループがこれに該当する。又は、ユーザーが複数のイメージを選択した後に、これを1つのイメージグループとして束ねて単一の個体として設定した場合も本実施例の応用に該当する。
第2の個体が複数のイメージで構成されたイメージグループである場合に、1つの例示として、第2の個体は、第1の個体に第1のモードで挿入することができる。ユーザーが第2の個体を選択し、選択した第2の個体をディスプレイ部440に表示された第1の個体内の特定の位置に割り当てる方式などで第1のユーザーコマンドを入力すると、プロセッサ430は、第2の個体に含まれた複数のイメージのうちのいずれかのイメージ(例えば、1つ目のイメージ)を第1の個体の特定の位置に挿入する。そして、複数のイメージのうちの残りのイメージを第2のモードで1つのイメージ(1つ目のイメージ)に挿入する。
第1の個体の特定の位置に第2の個体が挿入されたことで、第1の個体の特定の位置には、第1マーカー(例えば、図2の
Figure 0007229587000006
)が表示される。ユーザーが第1マーカーを選択すると、プロセッサ430は、第1の個体のその特定の位置に挿入された第2の個体のうちの1つ目のイメージをディスプレイ部440に表示する。ディスプレイ部440に表示された1つ目のイメージには、その複数のイメージのうちの残りのイメージが第2のモードで挿入されていることで、その1つ目のイメージの一側の端には、第2のマーカー(例えば、図2の310)が表示される。ユーザーが第2のマーカーを選択すると、プロセッサ430は、その複数のイメージを再生する。つまり、その複数のイメージのうちの残りのイメージを順次にディスプレイ部440に表示することで、複数のイメージを再生する。
他の例示として、複数のイメージで構成されたイメージグループである第2の個体は、第2のモードで第1の個体に挿入される。ユーザーは、第2の個体を第2のモードで第1の個体に挿入するための第2のユーザーコマンドを入力する。例えば、第2のユーザーコマンドは、前述したように、ユーザーが第2の個体を第1の個体の外部領域に割り当てる方式などを介して入力される。プロセッサ430は、第1の個体内の特定の位置を指定することなく、第2の個体を第1の個体に挿入する。
第1の個体に第2の個体が第2のモードで挿入されたことで、第1の個体の一側の端には、第2のマーカーが表示される。ユーザーが第2のマーカーを選択すると、プロセッサ430は、第2の個体に含まれた複数のイメージを順次
ディスプレイ部440に表示する。
一方、ユーザーは方向性を有するジェスチャー入力を介して第1の個体に第1のモード又は第2のモードで挿入された第2の個体を再生することができる。第2の個体に含まれた複数のイメージのうちのいずれかがディスプレイ部440に表示された状態で、ユーザーからの方向性を有するジェスチャーを受信すると、プロセッサ440は、そのジェスチャーの方向に応じて、現在表示されたイメージを基準に順方向又は逆方向に順次イメージを再生する。再生される速度は、ジェスチャーの速度によって決まる。ジェスチャーが中断されると、プロセッサ440は、複数のイメージのうちのジェスチャー中断時点で表示されたイメージをディスプレイ部440に表示する。ユーザーはジェスチャー中断時点で表示されたイメージに別の個体を第1のモード又は第2のモードで挿入することができる。つまり、ジェスチャー入力に介する第2の個体の再生方式は、1つのイメージグループとして束ねられた複数のイメージのうちの任意のイメージを選択し、その選択したイメージに別の個体を第1のモード又は第2のモードで挿入する機能を提供する。
以上の説明は、本実施例の技術思想を例示的に説明したに過ぎず、本実施例の属する技術分野における通常の知識を有する者であれば、本実施例の本質的な特性から逸脱しない範囲で様々な修正及び変形が可能である。したがって、本実施例は、本実施例の技術思想を限定するためのものではなく説明するためのものであり、このような実施例により、本実施例の技術思想の範囲を限定するものではない。本実施例の保護範囲は請求の範囲によって解釈するべきであり、その同等の範囲内にあるすべての技術思想は、本実施例の権利範囲に含まれるものと解釈するべきである。
CROSS-REFERENCE TO RELATED APPLICATION
本特許出願は、本明細書にその全体が参考として含まれる、2018年12月26日付にて韓国に出願した特許出願番号第10-2018-0169483号に対して優先権を主張する。

Claims (14)

  1. 複数の個体をマルチデプス(multi-depth)のツリー構造で構成するための電子装置が実行するイメージ処理方法であって、
    第1の個体と第2の個体をつなぐノード属性及び、前記第1の個体内の座標属性を含む第1のユーザーコマンドを受信すると、第1のモードで前記第2の個体を前記第1の個体と関連付けるステップと、
    前記第1の個体内の座標属性なしの前記ノード属性を含む第2のユーザーコマンドを受信すると、第2のモードで前記第2の個体を前記第1の個体と関連付けるステップと、を含み、
    前記第1の個体は、2次元又は3次元のイメージであり、
    前記第1のモードでは、前記第1の個体内で、前記座標属性によって指示される位置に前記第2の個体を挿入し、
    前記第2のモードでは、前記第1の個体内の位置を指定することなく、前記第2の個体を前記第1の個体に挿入し、
    前記第2の個体が前記第1の個体に前記第2のモードで挿入された状態で、ユーザーからの方向性を有するジェスチャーを受信すると、前記ジェスチャーの方向に応じて前記第1の個体と前記第2の個体との間を切り替えて表示し、前記第1の個体と前記第2の個体間の切り替えの程度が前記ジェスチャーの移動の長さに応じて異なることを特徴とするイメージ処理方法。
  2. 前記第1のユーザーコマンドは、前記電子装置に表示された前記第1の個体の内部の特定の位置に前記第2の個体を割り当てるユーザーの操作から生成され、
    前記第2のユーザーコマンドは、前記電子装置に表示された前記第1の個体の外部の領域に前記第2の個体を割り当てるユーザーの操作から生成されることを特徴とする請求項1に記載のイメージ処理方法。
  3. 前記第2のユーザーコマンドは、前記電子装置のディスプレイ部に表示されるソフトボタン若しくは領域、又は前記電子装置に備えられた物理的なボタンに対するユーザーの操作から生成されることを特徴とする請求項1に記載のイメージ処理方法。
  4. 前記電子装置は、
    前記第1の個体内にて、前記座標属性によって指示される位置に前記第2の個体が前記第1のモードで挿入されたことを示す第1のマーカーを表示し、
    前記第1の個体のエッジ部分に前記第2の個体が前記第2のモードで挿入されたことを示す第2のマーカーを表示することを特徴とする請求項1に記載のイメージ処理方法。
  5. 前記切り替えは、互いに重なった第1の個体と第2の個体間の透明度を前記ジェスチャーの移動の長さに応じて段階的に調節することで実行されることを特徴とする請求項に記載のイメージ処理方法。
  6. 前記ジェスチャーが中断されると、前記第1の個体と前記第2の個体のうち、中断時点での透明度が低い個体を表示することを特徴とする請求項に記載のイメージ処理方法。
  7. 前記ジェスチャーが中断されると、中断時点での透明度を有する前記第1の個体と前記第2の個体を互いに重ねて表示することを特徴とする請求項に記載のイメージ処理方法。
  8. 複数の個体をマルチデプス(multi-depth)のツリー構造で構成するための電子装置が実行するイメージ処理方法であって、
    第1の個体と第2の個体をつなぐノード属性及び、前記第1の個体内の座標属性を含む第1のユーザーコマンドを受信すると、第1のモードで前記第2の個体を前記第1の個体と関連付けるステップと、
    前記第1の個体内の座標属性なしの前記ノード属性を含む第2のユーザーコマンドを受信すると、第2のモードで前記第2の個体を前記第1の個体と関連付けるステップと、を含み、
    前記第1の個体は、2次元又は3次元のイメージであり、
    前記第1のモードでは、前記第1の個体内で、前記座標属性によって指示される位置に前記第2の個体を挿入し、
    前記第2のモードでは、前記第1の個体内の位置を指定することなく、前記第2の個体を前記第1の個体に挿入し、
    前記第2の個体が複数のイメージで構成されたイメージグループである場合に、前記第1のユーザーコマンドを受信すると、
    前記複数のイメージのうちのいずれかのイメージは、前記第1のモードで前記第1の個体内に挿入され、
    前記複数のイメージのうちの残りのイメージは、前記第2のモードで前記複数のイメージのうちの1つのイメージに挿入されることを特徴とするイメージ処理方法。
  9. 前記1つのイメージ上に前記残りのイメージが前記第2のモードで挿入されたことを示す第2のマーカーがユーザーによって選択されると、前記イメージグループ内のイメージが順次表示されることを特徴とする請求項に記載のイメージ処理方法。
  10. 複数の個体をマルチデプス(multi-depth)のツリー構造で構成するための電子装置が実行するイメージ処理方法であって、
    第1の個体と第2の個体をつなぐノード属性及び、前記第1の個体内の座標属性を含む第1のユーザーコマンドを受信すると、第1のモードで前記第2の個体を前記第1の個体と関連付けるステップと、
    前記第1の個体内の座標属性なしの前記ノード属性を含む第2のユーザーコマンドを受信すると、第2のモードで前記第2の個体を前記第1の個体と関連付けるステップと、を含み、
    前記第1の個体は、2次元又は3次元のイメージであり、
    前記第1のモードでは、前記第1の個体内で、前記座標属性によって指示される位置に前記第2の個体を挿入し、
    前記第2のモードでは、前記第1の個体内の位置を指定することなく、前記第2の個体を前記第1の個体に挿入し、
    前記第2の個体が複数のイメージで構成されたイメージグループである場合に、前記第2のユーザーコマンドを受信すると、
    前記イメージグループを前記第2のモードで前記第1の個体内に挿入することを特徴とするイメージ処理方法。
  11. 前記第1の個体内に前記イメージグループが前記第2のモードで挿入されたことを示す第2のマーカーがユーザーによって選択されると、前記イメージグループ内の前記複数のイメージが順次ディスプレイされることを特徴とする請求項10に記載のイメージ処理方法。
  12. 前記電子装置のディスプレイ部に前記複数のイメージの中の任意のイメージが表示された状態で、
    ユーザーからの方向性を有するジェスチャーを受信すると、前記ジェスチャーの方向及び速度に応じて前記複数のイメージを順次ディスプレイされる方向及び速度を調節することを特徴とする請求項又は請求項10に記載のイメージ処理方法。
  13. 前記ジェスチャーが中断されると、前記複数のイメージのうち、中断された時点で表示されたイメージをディスプレイすることを特徴とする請求項12に記載のイメージ処理方法。
  14. コンピュータによって読み取り可能なプログラムであって、前記プログラムは、請求項1から13のいずれか1項に記載のイメージ処理方法を実行することを特徴とするプログラム。
JP2021537194A 2018-12-26 2019-12-16 イメージ処理方法及びプログラム Active JP7229587B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023017269A JP7481044B2 (ja) 2018-12-26 2023-02-08 マルチデプスイメージの作成及びビューイング

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
KR10-2018-0169483 2018-12-26
KR1020180169483A KR20200079849A (ko) 2018-12-26 2018-12-26 멀티 뎁스(multi-depth) 이미지 생성 및 뷰잉
PCT/KR2019/017773 WO2020138801A1 (ko) 2018-12-26 2019-12-16 멀티 뎁스 이미지 생성 및 뷰잉

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023017269A Division JP7481044B2 (ja) 2018-12-26 2023-02-08 マルチデプスイメージの作成及びビューイング

Publications (2)

Publication Number Publication Date
JP2022515462A JP2022515462A (ja) 2022-02-18
JP7229587B2 true JP7229587B2 (ja) 2023-02-28

Family

ID=71126599

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2021537194A Active JP7229587B2 (ja) 2018-12-26 2019-12-16 イメージ処理方法及びプログラム
JP2023017269A Active JP7481044B2 (ja) 2018-12-26 2023-02-08 マルチデプスイメージの作成及びビューイング

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023017269A Active JP7481044B2 (ja) 2018-12-26 2023-02-08 マルチデプスイメージの作成及びビューイング

Country Status (5)

Country Link
US (1) US11354028B2 (ja)
EP (1) EP3905019A4 (ja)
JP (2) JP7229587B2 (ja)
KR (1) KR20200079849A (ja)
WO (1) WO2020138801A1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20200039169A (ko) * 2018-10-05 2020-04-16 주식회사 피제이팩토리 멀티 뎁스 이미지 표시 장치 및 방법
KR20220090103A (ko) * 2020-12-22 2022-06-29 주식회사 피제이팩토리 멀티 뎁스 이미지를 이용하여 이미지를 레이블링하고 어노테이션하는 방법 및 장치

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004288170A (ja) 2003-03-05 2004-10-14 Olympus Corp 三次元モデル検索方法及びシステム
JP2006228247A (ja) 2006-04-17 2006-08-31 Olympus Corp 画像情報処理システム
JP2006313991A (ja) 2005-05-06 2006-11-16 Canon Inc 画像データ保管管理装置、画像データ保管管理方法、及びプログラム
JP2007017945A (ja) 2005-06-10 2007-01-25 Canon Inc 情報処理装置及びその方法
JP2007156849A (ja) 2005-12-06 2007-06-21 Sony Corp 画像管理装置および画像表示装置
WO2007105364A1 (ja) 2006-03-06 2007-09-20 Justsystems Corporation 文書処理装置及び文書処理方法
KR100900295B1 (ko) 2008-04-17 2009-05-29 엘지전자 주식회사 이동 디바이스와 이동 통신 시스템의 사용자 인터페이스방법
US20110122153A1 (en) 2009-11-26 2011-05-26 Okamura Yuki Information processing apparatus, information processing method, and program
KR101501028B1 (ko) 2013-04-04 2015-03-12 박정환 개체가 삽입된 이미지를 생성하고 편집하는 방법 및 그 장치
US20170344199A1 (en) 2016-05-31 2017-11-30 Fujitsu Limited Display control method, display control device, and recording medium
JP2018124608A (ja) 2017-01-30 2018-08-09 セイコーエプソン株式会社 故障サポートシステムおよび故障サポートシステムの制御方法
JP2021508890A (ja) 2017-12-29 2021-03-11 ピージェー ファクトリー カンパニー リミテッド 画像のパンニング方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5723454B2 (ja) * 1973-09-14 1982-05-19
US6362839B1 (en) * 1998-09-29 2002-03-26 Rockwell Software Inc. Method and apparatus for displaying mechanical emulation with graphical objects in an object oriented computing environment
JP2001314648A (ja) * 2000-05-10 2001-11-13 Namco Ltd ゲーム装置および情報記憶媒体
GB2391149B (en) * 2002-07-19 2005-10-26 Autodesk Canada Inc Processing scene objects
EP2333683A1 (en) * 2009-11-06 2011-06-15 Dassault Systèmes Method and system for designing an assembly of objects in a system of computer-aided design
US8515137B2 (en) * 2010-05-03 2013-08-20 Microsoft Corporation Generating a combined image from multiple images
JP5723454B2 (ja) 2011-09-28 2015-05-27 シャープ株式会社 視認性を高める表示装置および表示方法
US10573045B2 (en) * 2012-12-19 2020-02-25 Shutterfly, Llc Generating an assembled group image from subject images
US10824313B2 (en) * 2013-04-04 2020-11-03 P.J. Factory Co., Ltd. Method and device for creating and editing object-inserted images
KR102512755B1 (ko) 2015-12-11 2023-03-23 삼성전자주식회사 전자 장치 및 전자 장치의 디스플레이 방법
US10635841B2 (en) * 2017-02-23 2020-04-28 OPTO Interactive, LLC Method of managing proxy objects
KR102644105B1 (ko) * 2017-12-29 2024-03-06 주식회사 피제이팩토리 멀티 심도 이미지의 자동 생성 방법
KR20200039169A (ko) * 2018-10-05 2020-04-16 주식회사 피제이팩토리 멀티 뎁스 이미지 표시 장치 및 방법

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004288170A (ja) 2003-03-05 2004-10-14 Olympus Corp 三次元モデル検索方法及びシステム
JP2006313991A (ja) 2005-05-06 2006-11-16 Canon Inc 画像データ保管管理装置、画像データ保管管理方法、及びプログラム
JP2007017945A (ja) 2005-06-10 2007-01-25 Canon Inc 情報処理装置及びその方法
JP2007156849A (ja) 2005-12-06 2007-06-21 Sony Corp 画像管理装置および画像表示装置
WO2007105364A1 (ja) 2006-03-06 2007-09-20 Justsystems Corporation 文書処理装置及び文書処理方法
JP2006228247A (ja) 2006-04-17 2006-08-31 Olympus Corp 画像情報処理システム
KR100900295B1 (ko) 2008-04-17 2009-05-29 엘지전자 주식회사 이동 디바이스와 이동 통신 시스템의 사용자 인터페이스방법
US20110122153A1 (en) 2009-11-26 2011-05-26 Okamura Yuki Information processing apparatus, information processing method, and program
JP2011113271A (ja) 2009-11-26 2011-06-09 Sony Corp 情報処理装置、情報処理方法およびプログラム
KR101501028B1 (ko) 2013-04-04 2015-03-12 박정환 개체가 삽입된 이미지를 생성하고 편집하는 방법 및 그 장치
US20160117085A1 (en) 2013-04-04 2016-04-28 Jung Hwan Park Method and Device for Creating and Editing Object-Inserted Images
US20170344199A1 (en) 2016-05-31 2017-11-30 Fujitsu Limited Display control method, display control device, and recording medium
JP2018124608A (ja) 2017-01-30 2018-08-09 セイコーエプソン株式会社 故障サポートシステムおよび故障サポートシステムの制御方法
JP2021508890A (ja) 2017-12-29 2021-03-11 ピージェー ファクトリー カンパニー リミテッド 画像のパンニング方法

Also Published As

Publication number Publication date
US11354028B2 (en) 2022-06-07
WO2020138801A1 (ko) 2020-07-02
JP7481044B2 (ja) 2024-05-10
EP3905019A4 (en) 2022-09-28
JP2023079226A (ja) 2023-06-07
KR20200079849A (ko) 2020-07-06
JP2022515462A (ja) 2022-02-18
EP3905019A1 (en) 2021-11-03
US20220066627A1 (en) 2022-03-03

Similar Documents

Publication Publication Date Title
JP2023079226A (ja) マルチデプスイメージの作成及びビューイング
US10452223B2 (en) Three-dimensional space for navigating objects connected in hierarchy
KR101606949B1 (ko) 다중 계층화된 슬라이드 전환
US20120151408A1 (en) Dynamic network browser
JP5645618B2 (ja) 情報処理装置、情報処理方法、およびプログラム
EP1596338A1 (en) Interactive exploded views from 2D images
US10061493B2 (en) Method and device for creating and editing object-inserted images
US10108643B2 (en) Graphical interface device, graphical interface method and medium
US20130318453A1 (en) Apparatus and method for producing 3d graphical user interface
US20180188926A1 (en) Method and device for creating and editing object-inserted images
US20120182286A1 (en) Systems and methods for converting 2d data files into 3d data files
US8566359B1 (en) Unfolding sparse data sets
KR102113503B1 (ko) 전자 장치 및 전자 장치에서 컨텐츠 제공 방법
JP7278645B2 (ja) マルチデプスイメージ表示装置及び方法
JP2023529346A (ja) マルチデプスイメージを生成する方法
KR20210150260A (ko) 멀티 뎁스 이미지를 생성하는 방법
KR102233008B1 (ko) 이미지 관리 장치 및 방법
KR20220090103A (ko) 멀티 뎁스 이미지를 이용하여 이미지를 레이블링하고 어노테이션하는 방법 및 장치
JP2006164069A (ja) ウィンドウ表示装置及びグラフィカルユーザインタフェース
Rodin et al. Automatic View Placement in 3D toward Hierarchical Non-Linear Presentations
JP2017102217A (ja) 表示装置、表示プログラムおよび表示方法
JP2023056121A (ja) 絵コンテ制作装置、絵コンテ制作方法及び絵コンテ制作プログラム
TWM466298U (zh) 具圖像資料關聯概念之圖照處理系統

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210624

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220926

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221223

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230208

R150 Certificate of patent or registration of utility model

Ref document number: 7229587

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150