JP5409785B2 - 携帯電子機器 - Google Patents

携帯電子機器 Download PDF

Info

Publication number
JP5409785B2
JP5409785B2 JP2011516042A JP2011516042A JP5409785B2 JP 5409785 B2 JP5409785 B2 JP 5409785B2 JP 2011516042 A JP2011516042 A JP 2011516042A JP 2011516042 A JP2011516042 A JP 2011516042A JP 5409785 B2 JP5409785 B2 JP 5409785B2
Authority
JP
Japan
Prior art keywords
image
information
electronic device
portable electronic
projector
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011516042A
Other languages
English (en)
Other versions
JPWO2010137626A1 (ja
Inventor
貫司 佐多家
元 奥村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Priority to JP2011516042A priority Critical patent/JP5409785B2/ja
Publication of JPWO2010137626A1 publication Critical patent/JPWO2010137626A1/ja
Application granted granted Critical
Publication of JP5409785B2 publication Critical patent/JP5409785B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/14Details
    • G03B21/30Details adapted to collapse or fold, e.g. for portability
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B21/00Projectors or projection-type viewers; Accessories therefor
    • G03B21/005Projectors using an electronic spatial light modulator but not peculiar thereto
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/017Gesture based interaction, e.g. based on a set of recognized hand gestures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/03Arrangements for converting the position or the displacement of a member into a coded form
    • G06F3/033Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor
    • G06F3/0346Pointing devices displaced or positioned by the user, e.g. mice, trackballs, pens or joysticks; Accessories therefor with detection of the device orientation or free movement in a 3D space, e.g. 3D mice, 6-DOF [six degrees of freedom] pointers using gyroscopes, accelerometers or tilt-sensors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/0485Scrolling or panning
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M1/00Substation equipment, e.g. for use by subscribers
    • H04M1/02Constructional features of telephone sets
    • H04M1/0202Portable telephone sets, e.g. cordless phones, mobile phones or bar type handsets
    • H04M1/026Details of the structure or mounting of specific components
    • H04M1/0272Details of the structure or mounting of specific components for a projector or beamer module assembly
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • H04N1/3876Recombination of partial images to recreate the original image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3129Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM] scanning a light beam on the display screen
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3147Multi-projection systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3141Constructional details thereof
    • H04N9/3173Constructional details thereof wherein the projection device is specially adapted for enhanced portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/31Projection devices for colour picture display, e.g. using electronic spatial light modulators [ESLM]
    • H04N9/3179Video signal processing therefor
    • H04N9/3185Geometric adjustment, e.g. keystone or convergence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2200/00Indexing scheme relating to G06F1/04 - G06F1/32
    • G06F2200/16Indexing scheme relating to G06F1/16 - G06F1/18
    • G06F2200/163Indexing scheme relating to constructional details of the computer
    • G06F2200/1637Sensing arrangement for detection of housing movement or orientation, e.g. for controlling scrolling or cursor movement on the display of an handheld computer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04MTELEPHONIC COMMUNICATION
    • H04M2250/00Details of telephonic subscriber devices
    • H04M2250/12Details of telephonic subscriber devices including a sensor for measuring a physical value, e.g. temperature or motion

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Optics & Photonics (AREA)
  • Projection Apparatus (AREA)
  • Telephone Function (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Description

本発明は、スクリーンや壁面に画像を投影する画像投影部を有する携帯電子機器に関する。
従来から、壁面やスクリーンに画像を投影する装置としては、いわゆるプロジェクタがある。このプロジェクタは、商用電源から電力が供給され、所定位置に固定した状態で使用される、いわゆる据え置き型の装置が主流である。この据え置き型のプロジェクタは、固定した状態で、一定箇所の壁面やスクリーンに画像を投影させる。
これに対して、近年、プロジェクタとして、小型で持ち運びが容易な携帯型のプロジェクタが提案されている。例えば、特許文献1には、上キャビネットと、下キャビネットと、上キャビネット及び下キャビネットを互いに回動可能に接続するヒンジ部とを備え、レンズと光源とを有するプロジェクタが搭載されたプロジェクタ機能付携帯端末が記載されている。
特開2007−96542号公報
ところで、携帯電子機器に搭載されるプロジェクタは、画像を投影できる範囲が小さく、大きな画像を投影した場合には、細部が見えにくくなってしまう。これを解消するため、画像を拡大して元の画像の一部を投影すると、元の画像のうち現在投影されていない部分を投影させることが必要になる場合がある。本発明は、画像投影部を備える携帯電子機器において、画像を拡大して画像の一部を投影する場合に、前記画像の他の部分を投影する際の使い勝手を向上させることを目的とする。
上述した課題を解決し、目的を達成するために、本発明に係る携帯電子機器は、筐体と、当該筐体に設けられて、画像を投影する画像投影部と、所定の画像情報の一部の情報に基づいた画像を前記画像投影部に投影させる処理部と、を含み、当該処理部は、前記画像投影部が前記所定の画像情報の一部である第1画像情報に基づく第1画像を投影しているときに、前記画像投影部が投影している画像を変更させる変更情報に応じて、第2画像情報に基づく第2画像を、前記第1画像の投影位置とは少なくとも一部が異なる位置に投影させ、前記第2画像情報は、前記所定の画像情報の一部であって、前記第1画像情報とは異なる新たな情報を含むとともに、前記第1画像情報の少なくとも一部の情報が除かれていることを特徴とする。
本発明の好ましい態様としては、前記携帯電子機器において、前記変更情報は、前記画像投影部の動きに関する情報であることが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記画像投影部の移動距離及び移動方向を検出する動き検出手段を備え、前記処理部は、前記画像投影部の前記移動距離及び移動方向に基づいて、前記第2画像情報及び前記第2画像を投影する位置を決定し、前記第2画像情報は、前記新たな情報として、前記所定の画像情報に基づく所定の画像における前記第1画像よりも前記移動方向側に位置する画像の情報を含み、前記第2画像を投影する位置は、前記移動距離に対応する分だけ前記移動方向側にずらした位置であることが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記動き検出手段は、加速度センサであることが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記処理部は、前記画像情報に基づく画像とともに、前記画像情報に基づく画像に対して移動可能な移動ポイントを前記画像投影部に投影させることが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記変更情報は、前記移動ポイントの移動方向及び移動距離に関する情報であり、前記処理部は、前記移動ポイントの移動距離及び移動方向に基づいて、前記第2画像情報及び前記第2画像を投影する位置を決定し、前記第2画像情報は、前記新たな情報として、前記所定の画像情報に基づく所定の画像における前記第1画像よりも前記移動方向側に位置する画像の情報を含み、前記第2画像を投影する位置は、前記移動距離に対応する分だけ前記移動方向側にずらした位置であることが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記処理部は、前記移動ポイントが移動するタイミングに合わせて、前記第2画像情報及び前記第2画像を投影する位置を決定し、前記画像投影部に前記第2画像情報を投影させる制御を実行することが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記処理部は、前記移動ポイントが所定距離移動したタイミングで、前記第2画像情報及び前記第2画像を投影する位置を決定し、前記画像投影部に投影させる制御を実行することが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記筐体には、前記変更情報を生成する入力部が設けられており、当該入力部は、前記変更情報として、所定の投影領域の移動方向の情報及び移動距離の情報を生成し、前記処理部は、生成された前記所定の投影領域の移動距離及び移動方向に基づいて、前記第2画像情報及び前記第2画像を投影する位置を決定し、前記画像投影部に前記第2画像情報を投影させることが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、画像を表示する表示部をさらに備え、前記処理部は、前記画像情報に基づく所定の画像を前記表示部に表示させることが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記処理部は、前記画像投影部に前記第1画像又は前記第2画像を投影させているときに、前記表示部に、前記所定の画像を表示させることが望ましい。
本発明の好ましい態様としては、前記携帯電子機器において、前記処理部は、前記画像情報に基づく画像に対して移動可能な移動ポイントを前記画像投影部に投影させるとともに、前記表示部に前記移動ポイントを表示させることが望ましい。
本発明は、画像投影部を備える携帯電子機器において、画像を拡大して画像の一部を投影する場合に、前記画像の他の部分を投影する際の使い勝手を向上させることができる。
図1は、実施形態1に係る携帯電子機器の一実施形態の概略構成を示す図である。 図2は、実施形態1に係る携帯電子機器の一実施形態の概略構成を示す図である。 図3は、図1、図2に示す携帯電子機器の機能の概略構成を示すブロック図である。 図4は、図1に示す携帯電子機器のプロジェクタで画像を表示させている状態を示す説明図である。 図5は、スキャン方式のプロジェクタにおける描画方法を示す模式図である。 図6は、プロジェクタが画像投影対象へ画像を投影する様子を示す模式図である。 図7−1は、携帯電子機器が備えるプロジェクタに投影される画像を変更する手法を説明する図である。 図7−2は、携帯電子機器が備えるプロジェクタに投影される画像を変更する手法を説明する図である。 図8は、手で保持された携帯電子機器について、投影される画像を変更する手法を説明する図である。 図9は、携帯電子機器に搭載されるプロジェクタの動きに連動させて、投影する画像を変更する状態を示す図である。 図10は、投影する画像を変更する際の補正を説明するための図である。 図11は、現在投影されている元画像の一部とは異なる部分の画像を投影させる際の手順を示すフローチャートである。 図12は、携帯電子機器に搭載されるプロジェクタが投影する画像が地図である場合の図である。 図13は、携帯電子機器に搭載されるプロジェクタが投影する画像が地図である場合の図である。 図14は、携帯電子機器に搭載されるプロジェクタが投影する画像が地図である場合の図である。 図15は、携帯電子機器に搭載されるプロジェクタが投影する画像が地図である場合の図である。 図16は、携帯電子機器が備えるプロジェクタに投影される画像を変更する実施形態2に係る手法を説明する図である。 図17は、携帯電子機器が備えるプロジェクタに投影される画像を変更する実施形態2に係る手法を説明する図である。 図18は、携帯電子機器が備える描画装置を構成するミラーの動きを示す模式図である。 図19は、実施形態3に係る携帯電子機器を搭載する台に携帯電子機器を取り付けた状態を示す図である。 図20は、実施形態3に係る携帯電子機器を搭載する台に携帯電子機器を取り付けた状態を示す図である。 図21は、実施形態3に係る携帯電子機器を搭載する台に携帯電子機器を取り付けた状態を示す平面図である。 図22は、実施形態3に係る携帯電子機器を搭載する台に携帯電子機器を取り付けた状態を示す平面図である。 図23は、実施形態3に係る携帯電子機器を搭載する台の高さを調整する手法を説明する図である。 図24は、携帯電子機器が備えるプロジェクタに投影される画像を変更する手法の変形例を説明する図である。
以下、図面を参照しつつ、発明を実施するための形態を詳細に説明する。なお、以下の説明により本発明が限定されるものではない。また、以下の説明における構成要素には、当業者が容易に想定できるもの、実質的に同一のもの、いわゆる均等の範囲のものが含まれる。以下においては、携帯電子機器の一例として携帯電話機を取り上げるが、携帯電子機器は携帯電話機に限定されるものではなく、例えば、PHS(Personal Handyphone System)、PDA、ポータブルナビゲーション装置、ノートパソコン、ゲーム機等であってものよい。
(実施形態1)
図1、図2は、実施形態1に係る携帯電子機器の一実施形態の概略構成を示す図である。図1、図2に示す携帯電子機器1は、無線通信機能と、出力手段と、音声取得手段と、撮像手段とを有する携帯電話機である。携帯電子機器1は、筐体1Cが複数の筐体で構成される。具体的には、筐体1Cは、第1筐体1CAと第2筐体1CBとで開閉可能に構成される。すなわち、携帯電子機器1は、折り畳み式の筐体を有する。携帯電子機器1の筐体は、このような構造に限定されるものではない。例えば、携帯電子機器1の筐体は、両方の筐体を重ね合わせた状態から一方の筐体と他方の筐体とを互いにスライドできるようにしたスライド式の筐体であってもよいし、重ね合わせ方向に沿う軸線を中心に、一方の筐体を回転させるようにした回転式や、2軸ヒンジを介して両方の筐体を連結したものでもよい。
第1筐体1CAと第2筐体1CBとは、連結部であるヒンジ機構8で連結されている。ヒンジ機構8で第1筐体1CAと第2筐体1CBとを連結することにより、第1筐体1CA及び第2筐体1CBは、ヒンジ機構8を中心としてともに回動して、互いに遠ざかる方向及び互いに接近する方向(図2の矢印Rで示す方向)に回動できるようになっている。
第1筐体1CAは、表示部として、図1に示すディスプレイ2を有する。ディスプレイ2は、携帯電子機器1が受信を待機している状態のときに待ち受け画像を表示したり、携帯電子機器1の操作を補助するために用いられるメニュー画像を表示したりする。また、第1筐体1CAは、携帯電子機器1の通話時に音声を出力する出力手段であるレシーバ16を有する。
第2筐体1CBは、通話相手の電話番号や、メール作成時等に文字を入力するための操作キー13Aを複数有し、また、ディスプレイ2に表示されるメニューの選択及び決定や画面のスクロール等を容易に実行するための方向及び決定キー13Bを有する。操作キー13A及び方向及び決定キー13Bは、携帯電子機器1の操作部13になる。また、第2筐体1CBは、携帯電子機器1の通話時に音声を受け取る音声取得手段であるマイク15を有する。操作部13は、図2に示す、第2筐体1CBの操作面1PCに設けられる。操作面1PCとは反対側の面が、携帯電子機器1の背面1PBである。
第2筐体1CBの内部には、アンテナが設けられている。アンテナは、無線通信に用いる送受信アンテナであり、携帯電子機器1と基地局との間で通話や電子メール等に係る電波(電磁波)の送受信に用いられる。また、第2筐体1CBは、マイク15を有する。マイク15は、図2に示す、携帯電子機器1の操作面1PC側に配置される。
第2筐体1CBのヒンジ機構8とは反対側には、画像投影部であるプロジェクタ34及びプロジェクタ34の光出射部(対物レンズ)から画像投影対象までの距離を測定する距離測定手段である距離センサ36が設けられる。このような構造により、プロジェクタ34が画像を投影対象物に投影したり、プロジェクタ34の出射面と投影対象物との距離を距離センサ36が測定して、プロジェクタ34が投影する画像の焦点を自動的に合わせたりすることができる。プロジェクタ34の光出射部は、第2筐体1CBの外部に露出している。
図3は、図1、図2に示す携帯電子機器の機能の概略構成を示すブロック図である。図3に示すように、携帯電子機器1は、処理部22と、記憶部24と、送受信部26と、操作部13と、音声処理部30と、表示部32と、プロジェクタ34と、距離センサ36と、動き検出手段である加速度センサ38とを有する。処理部22は、携帯電子機器1の全体的な動作を統括的に制御する機能を有する。すなわち、処理部22は、携帯電子機器1の各種の処理が、操作部13の操作や携帯電子機器1の記憶部24に記憶されるソフトウェアに応じて適切な手順で実行されるように、送受信部26や、音声処理部30や、表示部32等の動作を制御する。
携帯電子機器1の各種の処理としては、例えば、回線交換網を介して行われる音声通話、電子メールの作成及び送受信、インターネットのWeb(World Wide Web)サイトの閲覧等がある。また、送受信部26、音声処理部30、表示部32等の動作としては、例えば、送受信部26による信号の送受信、音声処理部30による音声の入出力、表示部32による画像の表示等がある。
処理部22は、記憶部24に記憶されているプログラム(例えば、オペレーティングシステムプログラム、アプリケーションプログラム等)に基づいて携帯電子機器1に対する各種の処理を実行する。処理部22は、例えば、マイクロプロセッサユニット(MPU:Micro Processing Unit)であり、前記ソフトウェアで指示された手順にしたがって上述した携帯電子機器1の各種の処理を実行する。例えば、処理部22は、記憶部24に記憶されるオペレーティングシステムプログラムやアプリケーションプログラム等から命令コードを順次読み込んで処理を実行する。
処理部22は、複数のアプリケーションプログラムを実行する機能を有する。処理部22が実行するアプリケーションプログラムとしては、例えば、プロジェクタ34や距離センサ36の駆動を制御するアプリケーションプログラム、各種の画像ファイル(画像情報)を記憶部24から読み出してデコードするアプリケーションプログラム及びデコードして得られる画像を表示部32に表示させたりプロジェクタ34に投影させたりするアプリケーションプログラム等の複数のアプリケーションプログラムがある。
本実施形態において、処理部22は、プロジェクタ制御部22aと、画像処理部22bと、条件判定部22cと、姿勢・位置演算部22dと、投影画像変更部22eとを有する。プロジェクタ制御部22aと、画像処理部22bと、条件判定部22cと、姿勢・位置演算部22dと、投影画像変更部22eとがそれぞれ有する機能は、処理部22及び記憶部24を有するハードウェア資源が、処理部22によって割り当てられるタスクを実行することにより実現される。ここで、タスクとは、アプリケーションソフトウェアが行っている処理全体又は同一のアプリケーションソフトウェアが行っている処理のうち、同時に実行できない処理単位である。
記憶部24は、処理部22での処理に利用されるソフトウェアやデータを記憶している。記憶部24は、上述した、プロジェクタ34や距離センサ36の駆動を制御するアプリケーションプログラムを作動させるタスクや、画像処理用プログラムを作動させるタスクも記憶している。また、記憶部24は、これらのタスク以外にも、例えば、通信等によってダウンロードされた音声データ、記憶部24に対する制御に処理部22が用いるソフトウェア、通信相手の電話番号やメールアドレス等が記述されて管理するアドレス帳、発信音や着信音等の音声ファイル及びソフトウェアの処理過程で用いられる一時的なデータ等が記憶されている。
ソフトウェアの処理過程で用いられるコンピュータプログラム及び一時的なデータは、処理部22によって記憶部24に割り当てられた記憶部24の作業領域が、一時的に記憶する。記憶部24は、例えば、不揮発性の記憶デバイス(ROM:Read Only Memory等の不揮発性半導体メモリ、ハードディスク装置等)や、読み書き可能な記憶デバイス(例えば、SRAM:Static Random Access Memory、DRAM:Dynamic Random Access Memory)等を含む。
送受信部26は、アンテナ26aを有する。そして、送受信部26は、基地局によって割り当てられるチャネルを介し、基地局との間でCDMA(Code Division Multiple Access)方式などによる無線信号回線を確立し、基地局との間で電話通信及び情報通信を行う。操作部13は、例えば、電源キー、通話キー、数字キー、文字キー、方向キー、決定キー、発信キー等及び各種の機能が割り当てられた操作キー13Aと、方向及び決定キー13Bとを含む。そして、これらのキーがユーザーの操作による入力を受け付けると、前記キーは、ユーザーの操作内容に対応する信号を発生させる。発生した信号は、ユーザーの指示として処理部22へ入力される。
音声処理部30は、マイク15に入力される音声信号やレシーバ16やスピーカ17から出力される音声信号を処理する。すなわち、音声処理部30は、マイク15から入力される音声を増幅して、AD変換(Analog Digital変換)を実行した後、さらに符号化等の信号処理を施して、ディジタルの音声データに変換して処理部22へ出力する。また、音声処理部30は、処理部22から送られる音声データに対して復号化、DA変換(Digital Analog変換)及び増幅等の処理を施してアナログの音声信号に変換してから、レシーバ16やスピーカ17へ出力する。スピーカ17は、携帯電子機器1の筐体1C内に配置されており、着信音及びメールの送信音等を出力する。
表示部32は、上述したディスプレイ2を有している。表示部32は、処理部22から供給される映像データに応じた映像や画像データに応じた画像を表示パネルに表示させる。ディスプレイ2は、例えば、液晶ディスプレイ(LCD、Liquid Crystal Monitor)や、有機EL(Organic Electro−Luminescence)パネル等を有する表示パネルである。なお、表示部32は、ディスプレイ2に加え、サブディスプレイを有していてもよい。
プロジェクタ34は、光源と、画像データに基づいて前記光源から射出された光を投影するか否かを切り換える光学系とを含む。本実施形態において、プロジェクタ34は、光源である可視光照射装置(可視光照射手段)31と、光学系である描画装置35と、焦点調整装置39とを含んでいる。可視光照射装置31は、可視光のレーザー光を照射する。可視光領域の光は、短波長側が360nmから400nm以上、長波長側が760nmから830nm以下の光である。実施形態において、可視光照射装置31は、R(Red)、G(Green)、B(Blue)の3色の光を照射する。
描画装置35は、可視光照射装置31から照射される3色の光を合成するとともに、合成した光を画像投影対象に照射する。描画装置35は、光源から射出された光を透過させるか否かを切り換える切り換え素子及び当該切り換え素子を通過した光をラスター走査させるミラーを含む。そして、描画装置35は、ミラーによって可視光照射装置31から射出されたレーザー光の角度を変えて、画像投影対象にレーザー光を走査させることで、画像投影対象に画像を投影させる。
前記ミラーは、例えば、MEMS(Micro Electro Mechanical System)ミラーである。MEMSミラーは、圧電素子を利用してミラーを駆動して、可視光照射装置31から照射される可視光を走査し、可視画像や不可視画像を生成する。この場合、ミラーは光源から照射された光の角度を変更し、光源から照射された光を画像投影対象の全面に走査させることで、画像投影対象に可視画像や不可視画像を投影させる。このように、プロジェクタ34は、スキャン方式のプロジェクタである。プロジェクタ34は、上述したレーザーを光源とするものに限定されるものではない。例えば、プロジェクタ34は、ハロゲンライトや、LED光源、LD光源を光源とし、LCD(Liquid Crystal Monitor)や、DMD(Digital Micro-mirror Device)を光学系に備えるプロジェクタであってもよい。
例えば、プロジェクタ34がLCD光学系を備える場合のように、画像投影の際に、焦点距離を調整する必要がある場合は、プロジェクタ34は、焦点調整装置39を備えていてもよい。焦点調整装置39は、プロジェクタ制御部22aからの指令により、描画装置35から投影される可視画像を画像投影対象上で結像させる機能(焦点調整機能)を有する。焦点調整装置39は、例えば、可動するレンズ等を含む焦点調整機構を備えており、レンズを動かすことで前記焦点調整機能を実現する。また、焦点調整装置39は、プロジェクタ34が投影する画像のデータに対して画像処理部22bによって所定の画像処理を施すことにより、前記焦点調整機能を実現するものであってもよい。さらに、焦点調整装置39は、焦点調整機能及び画像処理によって前記焦点調整機能を実現するものであってもよい。距離センサ36は、プロジェクタ34の光出射部と画像投影対象との距離を計測する。なお、距離センサ36の代わりに、焦点調整装置39の、プロジェクタ34から投影された画像の焦点を調整する機能を利用して、プロジェクタ34の光出射部と画像投影対象との距離を計測してもよい。
図4は、図1に示す携帯電子機器のプロジェクタで画像を表示させている状態を示す説明図である。上述したように、プロジェクタ34は、画像を投影する画像投影部であり、画像投影面が携帯電子機器1の筐体の外部に露出している。携帯電子機器1は、プロジェクタ34から画像を投影することで、図4に示すように、プロジェクタ34の画像投影面と対向する位置の画像投影対象(例えば、壁面やスクリーン等)のうち、所定の領域(投影領域)PAに画像Pを投影させることができる。プロジェクタ34は、処理部22により動作が制御され、処理部22から送られる種々の映像、例えば動画又はプレゼンテーション資料等を投影し、投影領域PAに表示させる。
図5は、スキャン方式のプロジェクタにおける描画方法を示す模式図である。図3に示す描画装置35は、プロジェクタ34の可視光照射装置31から照射されたレーザー光の点(光点)Dを、X方向及びY方向に走査させることで、画像Pが、プロジェクタ34の投影領域PA内に描画される。このとき、光点Dは、X方向に往復して走査され、Y方向に対しては一方向に走査される。プロジェクタ34が描画する場合、画像Pが長方形であるときには、一つの角部から光点Dの走査が開始され、X方向及びY方向に向かって画像Pの全領域を光点Dが走査する。この動作によって1回の描画が終了し、一つの画像Pが描画される。
携帯電子機器1に搭載されるプロジェクタ34は小型であり、大きな領域に画像を投影できないことがある。この場合、画素数の大きな画像の全領域を画像投影対象に投影するには縮小せざるを得ない。このような資料中に小さな文字や図を載せていた場合、縮小状態では内容が読み取りにくくなる場合が想定される。このような場合、画素数の大きな画像(元画像)の一部を拡大してプロジェクタ34に投影させるが、そうすると、元画像のすべてを投影させることはできない。本実施形態では、携帯電子機器1を動かすことにより、現在プロジェクタ34が投影している部分とは異なる元画像の部分を投影させることが可能である。この機能によって、人間の感覚に合った操作で画像を変更することができるようにする。
図6は、プロジェクタが画像投影対象へ画像を投影する様子を示す模式図である。図7−1、図7−2は、携帯電子機器が備えるプロジェクタに投影される画像を変更する手法を説明する図である。本実施形態では、プロジェクタ34を搭載する携帯電子機器1を動かすことにより、その動きに連動させてプロジェクタ34の投影領域を移動させて、当該投影領域内に投影される画像を変更する。すなわち、プロジェクタ34の動きに基づいて、プロジェクタ34が現在投影している元画像の一部を、前記元画像の他の部分に変更する。この機能は、元画像の画像サイズが、プロジェクタ34で投影可能な画像サイズよりも大きい場合に好適である。
図6に示す携帯電子機器1のプロジェクタ34が投影する画像は元画像PSであるとする。元画像PSは、画像情報DBから生成される。画像情報DBは、プロジェクタ34が投影する画像の基となる情報であり、図3に示す処理部22の画像処理部22bは、画像情報DBからプロジェクタ34が投影する画像を生成する。画像情報DBは、例えば、所定の書式で記述された画像のデータファイルである。このとき、処理部22は、画像情報DBに基づく所定の画像をディスプレイ2に表示させてもよい。
図6のP1、P2は、元画像PSの一部を拡大してプロジェクタ34が投影した画像(拡大画像)である。拡大画像P1は、元画像PSの「E」の部分を拡大した画像であり、拡大画像P2は、元画像PSの「D」の部分を拡大した画像である。拡大画像P1、P2は、それぞれ画像情報DB_P1、DB_P2から生成される。画像情報DB_P1、DB_P2は、元画像PSの画像情報DBの一部である。処理部22の画像処理部22bは、画像情報DB、DB_P1、DB_P2等に基づいて、元画像PSや拡大画像P1、P2をプロジェクタ34に投影させる。すなわち、処理部22は、画像情報(所定の画像情報)DBに含まれる、少なくとも一部の情報(第1画像情報)に基づいた画像(第1画像)をプロジェクタ34に投影させる。
プロジェクタ34が拡大画像P1を投影している状態で、携帯電子機器1の現在の位置を中心として携帯電子機器1を矢印Mの方向に動かす(回転させる)と、プロジェクタ34の投影領域が図6の矢印Lで示す方向に移動する。そして、プロジェクタ34が投影する画像は、拡大画像P1(元画像PSの「E」の部分)から拡大画像P2(元画像PSの「D」の部分)に変更される。また、プロジェクタ34の投影領域は、現在拡大画像P1が投影されている位置から、プロジェクタ34が動かされることによりプロジェクタ34の投影領域が移動する方向(矢印Lで示す方向)に向かって移動する。元画像PS上で見ると、プロジェクタ34を動かすことにより、プロジェクタ34に投影される部分が「E」の部分から「D」の部分へ移動したようになる。
このように、本実施形態では、携帯電子機器1を動かすことによって携帯電子機器1に搭載されているプロジェクタ34を動かすと、携帯電子機器1の動きに連動して、プロジェクタ34が投影する画像は、拡大画像P1から拡大画像P2へと変更される。このとき、拡大画像P1が投影される位置と拡大画像P2が投影される位置とは少なくとも一部が異なる。本実施形態において、「拡大画像P1が投影される位置と拡大画像P2が投影される位置とは異なる」とは、拡大画像P1が投影される位置と拡大画像P2が投影される位置との完全一致は排除され、拡大画像P1と拡大画像P2との一部一致は含まれることをいう。すなわち、拡大画像P2は、拡大画像P1が投影される位置に対して、少なくとも一部が異なる位置に投影される。
この例において、拡大画像P2が第2画像であり、上述した画像情報DB_P2が第2画像情報である。第2画像である拡大画像P2は、第1画像である拡大画像P1の投影位置とは少なくとも一部が異なる位置に投影される。また、第2画像情報は、所定の画像情報(画像情報DB)の一部であって、第1画像情報とは異なる新たな情報を含むとともに、第1画像情報である画像情報DB_P1の少なくとも一部の情報が除かれている。第2画像情報は、前記新たな情報として、所定の画像情報に基づく所定の画像における第1画像よりも、画像投影部の移動方向側に位置する画像の情報を含む。処理部22は、第1画像又は第2画像を投影させているときに、画像情報DBに基づく所定の画像をディスプレイ2に表示させてもよい。
このようにすることで、変更したい画像があると想定される領域に向けて携帯電子機器1を動かすだけでよいので、簡単な操作で携帯電子機器1のプロジェクタ34が投影している画像を変更できる。同時に、人間の感覚に合った操作でプロジェクタ34が投影している画像を変更できる。
携帯電子機器1に搭載されているプロジェクタ34の動きに連動させて、プロジェクタ34が投影する画像を変更させるためには、画像投影対象に対して投影領域を移動させたときに、プロジェクタ34が投影する画像の投影領域がどの方向に、どの程度移動するかを予め把握しておく必要がある。まず、図7−1に示すように、プロジェクタ34と画像投影対象とが正対している状態における、プロジェクタ34の光出射部と画像投影対象との距離をdとする。プロジェクタ34と画像投影対象とが正対している状態とは、画像投影対象の画像投影面に直交する方向と、プロジェクタ34の光軸(光出射部の中心部における光の出射方向)とが平行になる状態である。距離dは、携帯電子機器1に搭載されている距離センサ36を用いて、図2に示す処理部22の姿勢・位置演算部22dが取得する。なお、プロジェクタ34の焦点距離を予め設定しておく場合、dは一定値(例えば、焦点距離)としてもよい。
なお、プロジェクタ34と画像投影対象とが正対している状態を初期位置として、予め記憶部24に記憶させ、初期位置を基準としてプロジェクタ34の投影領域を移動させる距離や方向を求めてもよい。また、プロジェクタ34(携帯電子機器1)の動きに応じて、適宜初期位置を設定し直してもよい。
次に、図7−2に示すように、携帯電子機器1をその位置で矢印M方向に回転させ、プロジェクタ34と画像投影対象とが正対している状態からプロジェクタ34を傾けた場合を考える。この場合、プロジェクタ34はほぼその位置で動き、プロジェクタ34の光軸は、Zl1からZl2へ変更され、光軸Zl1と光軸Zl2とのなす角度(プロジェクタ傾斜角)はφとなる。この状態にあるとき、画像投影対象に投影された画像P1上の点A(Xa、Ya)は、画像投影対象の投影面上では動かないが、実際にプロジェクタ34が投影する画像P1と画像P2との間では、点B(Xb、Yb)へと移動する。このとき、画像投影対象の画像投影面上における画素単位の移動距離Ldotは、式(1)で示すようになる。
Ldot=Yb−Ya・・(1)
画像投影対象の投影面上においては、プロジェクタ34を傾斜させる前後において、点Aの位置と点Bの位置とは変わらないので、式(2)が成立する。
ΔY1=ΔY2・・(2)
なお、
ΔY1=Y1/2−Y2
ΔY2=Y3+Y5
Y1/2=h/2=d×tanθ
Y2=Ya/(h/2)×d×tanθ=2×Ya×d×tanθ/h
Y3=d×tan(φ−θ)
Y5={d×tan(φ+θ)−d×tan(φ−θ)}×(h−Yb)/h
したがって、式(2)は、式(3)のように書き表せる。
d×tanθ−2×Ya×d×tanθ/h=d×tan(φ−θ)+{d×tan(φ+θ)−d×tan(φ−θ)}×(h−Yb)/h・・(3)
画像P1のh=2×d×tanθ、画像P2のh=Y4−Y3=d×tan(φ+θ)−d×tan(φ−θ)なので、式(3)は、式(3)’のように書き改められる。
d×tanθ−Ya=d×tan(φ−θ)+{d×tan(φ+θ)−d×tan(φ−θ)}×{1−Yb/(d×tan(φ+θ)−d×tan(φ−θ))}・・(3)’
2×θは、プロジェクタ34の投影角なので、θの大きさは、プロジェクタ34の投影角の1/2となる。hは、プロジェクタ34が投影している画像P1、P2のY方向(図7−1、図7−2に示す例では鉛直方向と平行な方向)における寸法である。図7−1、図7−2に示すwは、プロジェクタ34が投影している画像P1、P2のX方向(図7−1、図7−2に示すY方向と直交する方向)における寸法である。
プロジェクタ34の投影角2×θは、プロジェクタ34の仕様から分かる。Yaは、プロジェクタ34が投影する画像P1上の任意の点におけるY座標なので、画像P1の画像情報に基づいて求めることができる。また、プロジェクタ傾斜角φは、図3に示す加速度センサ38が検出したプロジェクタ34の加速度(携帯電子機器1の加速度)の値に基づいて、姿勢・位置演算部22dが算出する。画像投影対象に投影された画像の移動方向も、図3に示す加速度センサ38が検出したプロジェクタ34の加速度の情報に基づき、姿勢・位置演算部22dが算出する。なお、本実施形態において、加速度センサ38は、3軸の加速度センサである。上述したように、加速度センサ38は、移動距離及び移動方向を検出する。
姿勢・位置演算部22dは、式(3)’をYbについて解き、得られたYbを式(1)に与えて、式(1)をYaについて整理して得られた式に、θ、Ya、φ、dを与えることによって、画像投影対象の投影面上における画素単位の移動距離Ldotを求めることができる。なお、移動距離Ldotは、姿勢・位置演算部22dが求める。
姿勢・位置演算部22dは、画像P1を形成するすべての画素について上記計算を実行することにより、プロジェクタ34を角度φだけ傾斜させたときにおける画像P1を構成するすべての画素の移動距離(画像投影対象の投影面上における画素単位の移動距離)を求めることができる。なお、画像投影対象の画像投影面上において、所定の画素をLdot移動させると、画像情報の対応する画素をLdot移動させることになる。
携帯電子機器1の使用者が携帯電子機器1を手に保持した状態で携帯電子機器1を動かした場合、大きく分けて、手首の動きにより携帯電子機器1を動かす場合と、肘から先の腕の動きにより携帯電子機器1を動かす場合とがある。前者の場合、携帯電子機器1は、ほぼその位置で動くので、プロジェクタ34もほぼその位置で動く。この場合には、上述した手法により、画像投影対象の投影面上における画素単位の移動距離Ldotを求めることができる。一方、後者の場合、携帯電子機器1は、腕の動きによって元の場所から移動するので、この移動(移動距離及び移動方向)を考慮する必要がある。
図8は、手で保持された携帯電子機器について、投影される画像を変更する手法を説明する図である。肘から先の腕HAの動きにより携帯電子機器1を動かす場合、図8に示すように、腕HAは、回動中心ELC(肘関節の部分)を中心に回動するものとする。この場合、回動中心ELCと、手に保持された携帯電子機器1のプロジェクタ34の光出射部との距離をRAとする。手に保持したプロジェクタ34が、回動中心ELCを中心として図8の矢印M方向に回転させられ、プロジェクタ34と画像投影対象とが正対している状態から傾けられることにより、プロジェクタ34の光軸がZl1からZl2へ変更され、プロジェクタ傾斜角(光軸Zl1と平行な軸Zl1’と光軸Zl2とのなす角度)がφとなった場合を考える。この場合、ΔY2は、式(4)で求められる。
ΔY2=Y6+Y3+Y5・・(4)
ここで、Y6は、RA×sinφである。したがって、式(3)’は、式(5)のようになる。
d×tanθ−Ya=RA×sinφ+d×tan(φ−θ)+{d×tan(φ+θ)−d×tan(φ−θ)}×{1−Yb/(d×tan(φ+θ)−d×tan(φ−θ))}・・(5)
姿勢・位置演算部22dは、式(5)をYbについて解き、得られたYbを式(1)に与えて、式(1)をYaについて整理して得られた式に、θ、Ya、φ、dを与えることによって、肘から先の腕HAの動きにより携帯電子機器1を動かす場合において、画像投影対象の投影面上における画素単位の移動距離Ldotを求めることができる。
図9は、携帯電子機器に搭載されるプロジェクタの動きに連動させて、投影する画像を変更する状態を示す図である。上述した手法により、画像投影対象の画像投影面上における画素単位の移動距離Ldotが求められたら、図2に示す処理部22の投影画像変更部22eは、プロジェクタ34の投影領域を、プロジェクタ34の動きに基づいて求められた移動方向に向かって移動距離Ldot分移動させる。この処理によって、プロジェクタ34の投影領域は、現在投影されている画像P1(図7−1参照)の位置から、画像P2(図7−2参照)の位置に移動する。この場合、プロジェクタ34の投影領域の移動方向(図9の矢印M方向)は、上述したように加速度センサ38の検出値から求められる。
投影画像変更部22eは、元画像PSの画像情報のうち、現在投影されている画像P1の元となる情報よりも移動方向ms側の情報(Dmsで示す部分の情報)を、移動距離Ldotに相当する分投影させる。そして、投影画像変更部22eは、現在投影されている画像P1のうち移動方向msに対して反対方向ums側で投影されていた部分の元となる情報(Dumsで示す部分の情報)を、移動距離Ldotに相当する分投影させないように制御する。
この処理によって、プロジェクタ34の動きに連動してプロジェクタ34の投影領域PAが、実線で示す画像P1の位置から二点鎖線で示す画像P2の位置まで移動する。そして、処理部22は、元画像PSの画像情報のうち、現在投影されている画像P1の元となる情報とは異なる情報を含み、かつ現在投影されている画像P1の元となる情報の少なくとも一部を除いた情報に基づいた画像P2を、画像P1とは異なる位置に投影させることができる。
上述した処理により、本実施形態では、プロジェクタ34に画像を投影させた状態で携帯電子機器1を動かすと、その動きに連動して、元画像PSの異なる部分の画像が投影されるので、人間の感覚に合った操作で画像を変更できる。その結果、画像を拡大して画像の一部を投影する場合に、前記画像の他の部分を投影する際の使い勝手を向上させることができる。
図10は、投影する画像を変更する際の補正を説明するための図である。プロジェクタ34が画像投影対象の画像投影面に正対している場合、画像投影対象に投影される画像P1は、プロジェクタ34の光軸Zl1に対して両方にそれぞれ同じ長さa/2となる。一方、プロジェクタ34が画像投影対象の画像投影面に対して傾いている場合、画像投影対象に投影される画像P2は、プロジェクタ34の光軸Zl2に対して両方の長さがそれぞれb1、b2(b=b1+b2)となる。ここで、b1は式(6)で、b2は式(7)で表される。φはプロジェクタ傾斜角であり、光軸Zl2と画像投影対象の画像投影面とのなす角度である。
b1=d×(tan(φ+θ)−tanφ)・・(6)
b2=d×(tanφ−tan(φ−θ))・・(7)
b1に配置される画素数とb2に配置される画素数とが同じであると、画像P2はひずんで見えることがある。そこで、プロジェクタ34を動かした結果、プロジェクタ34の光軸と画像投影対象の画像投影面とのなす角度が90度以外になった場合、画像P2のひずみがなくなるように、光軸Zl2を中心とした画像P2の両方の領域間で、画素間の距離、すなわち画素のピッチを調整することが好ましい。例えば、光軸Zl2を中心とした画像P2の両方の領域間で、画素のピッチを等しくする。これによって、携帯電子機器1を動かすことによりプロジェクタ34の光軸が画像投影対象の画像投影面に対して傾斜しても、移動後における画像P2のひずみを抑制できる。次に、本実施形態において、携帯電子機器1を動かすことにより、プロジェクタ34が投影する画像を変更する制御の手順を簡単に説明する。
図11は、現在投影されている元画像の一部とは異なる部分の画像を投影させる際の手順を示すフローチャートである。ステップS101において、図3に示す処理部22の条件判定部22cは、携帯電子機器1が搭載するプロジェクタ34が使用中であるか否かを判定する。ステップS101でNoと判定された場合、すなわち、条件判定部22cがプロジェクタ34は使用中でないと判定した場合、本制御は終了する。ステップS101でYesと判定された場合、ステップS102へ進む。
ステップS102において、図3に示す処理部22の条件判定部22cは、携帯電子機器1が搭載するプロジェクタ34に動きがあったか、すなわち、プロジェクタ34(携帯電子機器1)の姿勢又は移動があったか否かを判定する。本実施形態では、プロジェクタ34の動きを、プロジェクタが投影している画像を変更させるための情報(変更情報)として用いるため、ステップS102では、プロジェクタ34に動きがあったか否かが判定される。本実施形態において、変更情報は、画像投影部の動きに関する情報である。
ステップS102でNoと判定された場合、本制御は終了する。ステップS102でYesと判定された場合、ステップS103へ進む。ステップS103において、図3に示す処理部22の姿勢・位置演算部22dは、プロジェクタ34(携帯電子機器1)の動き、より具体的には移動距離及び移動方向に基づいて、現時点におけるプロジェクタ34の投影領域の移動量(移動距離Ldot)及び移動方向を求める。この手法は上述した通りである。次に、ステップS104へ進み、図3に示す処理部22の投影画像変更部22eは、ステップS103で求められた移動量及び移動方向に基づいてプロジェクタ34の投影領域を移動させて、移動後の投影領域内に、移動前の投影領域内とは異なる画像を投影させる。
図12〜図15は、携帯電子機器に搭載されるプロジェクタが投影する画像が地図である場合の図である。本実施形態において、図1や図3に示す携帯電子機器1が備えるプロジェクタ34は、図12に示すように、地図画像PMを投影することもできる。なお、地図画像PMは、これを生成するための画像情報に基づき、図3に示す画像処理部22bが生成する。
プロジェクタ34が地図を投影する場合においても、上述したように、縮小状態では内容が読み取りにくくなる場合が想定される。特に、移動の出発地と目的地とを地図画像PMに表示させる場合、大きな地図画像PMを用いると、投影領域内にすべての地図が表示されるが、内容が読み取りにくくなることが想定される。一方、拡大表示すると、すべての地図画像PMが投影領域内に収まらなくなる。そこで、プロジェクタ34が地図を投影する場合も、プロジェクタ34が投影しようとしている地図の画像(元画像)の一部を拡大して投影し、プロジェクタ34の動き(携帯電子機器1の動き)に連動させて、投影される画像を変更する。
例えば、図12に示す例では、携帯電子機器1に搭載されるプロジェクタ34が、元画像である地図画像PMの一部を拡大して投影した画像である画像P1、P2、P3、P4を投影する。この場合、携帯電子機器1を図12の矢印M方向に動かすと、これにともなってプロジェクタ34も動く。そして、プロジェクタ34の動き(携帯電子機器1の動き)に連動して、地図画像PMの投影される部分が画像P2、P3、P4へと変更されていく。このような投影の処理によって、本実施形態では、多くの情報を含む地図画像PMの一部を拡大して見やすく表示できる。また、本実施形態では、携帯電子機器1を動かすことで、あたかも地図画像PMが画像投影対象に固定されたような状態で、地図画像PMの現在投影されている部分とは異なる部分をプロジェクタ34に投影させることができる。その結果、拡大表示時には、画像投影対象である壁面や天井等の画像投影面と、拡大された地図画像PMの位置とが一意に定まるので、画面をスクロールするよりも人間の感覚に合った操作で、地図画像PMの表示したい部分を簡単に変更できる。
図13に示す例では、地図画像PMとともに、地図画像PMに対して移動可能な移動ポイントSを表示させる。移動ポイントSは、地図画像PM上を移動する移動対象を示す。図3に示す携帯電子機器1の処理部22が備える投影画像変更部22eは、移動ポイントSを地図画像PM上で移動させて、例えば、移動対象が出発地から目的地まで到達する際のシミュレーションを実行することができる。この場合、移動ポイントSの動きに合わせて、地図画像PMのうち画像投影対象に投影する画像を変更する。
この場合、変更情報として、移動ポイントSの移動方向及び移動距離に関する情報が用いられる。すなわち、処理部22の姿勢・位置演算部22dは、投影画像変更部22eが移動ポイントSを移動させる場合、移動ポイントSの移動量及び移動方向を取得して、実施形態1で説明した手法を用いて、プロジェクタ34が投影する画像の投影領域の移動距離及び移動方向を求める。そして、処理部22の投影画像変更部22eは、得られた移動距離及び移動方向に基づいて、プロジェクタ34の投影領域を移動させて、当該投影領域に投影される画像を変更する。
より具体的には、投影画像変更部22eは、地図画像PMの元となる画像情報のうち、現在投影されている画像の元となる情報よりも移動方向側の情報を、移動距離に相当する分、プロジェクタ34に投影させるように表示制御する。そして、投影画像変更部22eは、現在投影されている画像のうち移動方向に対して反対方向側で投影されていた部分の元となる情報を、移動距離に相当する分投影させないように表示制御する。すなわち、移動距離に対応する分だけ前記移動方向側にずらした位置に、現在投影されている画像の元となる情報よりも移動方向側の情報に基づく画像を投影させる。
図13に示す例では、投影画像変更部22eは、移動ポイントSが地図画像PM上を移動するタイミングに合わせて、プロジェクタ34の投影領域を移動させ、プロジェクタ34に投影される地図画像PMの一部の領域を変更させる。すなわち、投影画像変更部22eは、移動ポイントが移動するタイミングに合わせて、第2画像情報及び第2画像を投影する位置を決定し、画像投影部に第2画像情報を投影させる制御を実行する。この場合、移動ポイントSが移動するにしたがって投影領域PAは連続して移動する。その結果、投影領域PAに投影される画像は、地図画像PMの異なる部分に連続して変更される。すなわち、移動ポイントSは、投影領域PA内の所定位置にほぼ固定されたような状態で、投影領域PAとともに地図画像PM上を移動するように投影される。このようにすると、移動対象の周囲の地図画像PMが連続的に表示されるので、移動時に周囲の建物等がどのように見えるのかが理解しやすい。
図14、図15に示す例では、投影画像変更部22eは、移動ポイントSが所定距離移動したタイミングで、プロジェクタ34の移動領域を移動させ、プロジェクタ34が投影する地図画像PMの一部の領域を変更させる。図14は、プロジェクタ34の投影領域PA内で移動ポイントSが地図画像PM上を移動しているが、プロジェクタ34の投影領域PAは、移動ポイントSが地図画像PM上で、ある程度の距離(例えば、地図画像PMにおける所定の画素数)を移動しないと移動しない。移動ポイントSが地図画像PM上で、ある程度の距離を移動したら、図15に示すように、投影領域がPA1からPA2へ移動し、その結果、プロジェクタ34が投影する地図画像PMの一部の領域が変更される。このようにすると、地図画像PMの変化が断続的になるので、ある建物の位置関係等を把握したい場合に役立つ。
なお、本実施形態では、投影領域がPA1と投影領域PA2との移動距離は、投影領域を移動させるタイミングで移動ポイントSが移動した距離とする。また、移動ポイントSが所定距離移動したタイミングで、プロジェクタ34が投影する地図画像PMの一部の領域を変更させたが、投影領域PA1、PA2と移動ポイントSとの距離が所定の閾値以下になったら、プロジェクタ34が投影する地図画像PMの一部の領域を変更させてもよい。なお、実施形態1で開示した構成は、以下においても適宜適用できる。
(実施形態2)
図16、図17は、携帯電子機器が備えるプロジェクタに投影される画像を変更する実施形態2に係る手法を説明する図である。図18は、携帯電子機器が備える描画装置を構成するミラーの動きを示す模式図である。本実施形態は、実施形態1とほぼ同様であるが、携帯電子機器の入力手段が、プロジェクタが投影している画像を変更させるための変更情報を生成する点が異なる。他の構成は、実施形態1と同様である。
図16に示すように、本実施形態においてプロジェクタ34を使用する場合、図1に示す携帯電子機器1を開いた状態で、プロジェクタ34は自身の光出射部を画像投影対象に向けて、画像Pを投影する。図16に示す例では、プロジェクタ34は、携帯電子機器1のディスプレイ2に表示される元画像PSの一部の領域(投影対象領域)Pdを、画像Pとして画像投影対象に投影している。
このとき、図3に示す処理部22は、方向及び決定キー13Bを入力手段として用い、入力された情報に基づいてプロジェクタ34の投影領域を移動させて、プロジェクタ34が投影している画像を変更させる。例えば、携帯電子機器1の使用者が、画像投影対象に向かう方向(図16の矢印Uで示す方向)に方向及び決定キー13Bを操作すると、ディスプレイ2に表示される元画像PSの上方にプロジェクタ34の投影領域が移動して、現在投影されている元画像PSの一部よりも上方の部分が表示される。また、携帯電子機器1の使用者が、画像投影対象に向かう方向とは反対方向(図16の矢印Dで示す方向)に方向及び決定キー13Bを操作すると、ディスプレイ2に表示される元画像PSの下方にプロジェクタ34の投影領域が移動して、現在投影されている元画像PSの一部よりも下方の部分が表示される。
同様に、携帯電子機器1の使用者が、方向及び決定キー13Bを、画像投影対象に向かう方向に対して右に操作すると(図16の矢印Rで示す方向)、現在投影されている元画像PSの一部よりも右の部分が表示される。また、携帯電子機器1の使用者が、方向及び決定キー13Bを、画像投影対象に向かう方向に対して左に操作すると(図16の矢印Lで示す方向)、現在投影されている元画像PSの一部よりも左の部分が表示される。
本実施形態では、プロジェクタ34が投影している画像Pを変更させるための変更情報を生成する入力手段として、方向及び決定キー13Bを用いる。すなわち、方向及び決定キー13Bの操作に基づいて、画像投影対象におけるプロジェクタ34の投影領域の移動方向及び移動距離が生成される。例えば、方向及び決定キー13Bを操作する方向により投影領域の移動方向が決定され、方向及び決定キー13Bを操作する時間によって投影領域の移動距離が決定される。
投影領域の移動距離は、例えば、元画像PS上において投影対象領域Pdが移動した画素数や、方向及び決定キー13Bの操作によってディスプレイ2の表示領域を移動した元画像PSの画素数とすることができる。なお、投影対象領域Pdが移動することやディスプレイ2の表示領域を元画像PSが移動することは、方向及び決定キー13Bの操作を原因として生ずるので、投影領域の移動距離は、方向及び決定キー13Bによって生成されることになる。
本実施形態において、プロジェクタ34の投影領域は、図17に示すように、描画装置35を構成するミラー35Mの操作範囲を変更することで変更される。ミラー35Mは、可視光照射装置31から出射されたレーザー光の角度を変更させるとともに、図18に示すX軸及びY軸の周りを揺動して(矢印Mx、Myで示す方向)、画像投影対象にレーザー光を走査させる。図17は、Y軸の周りにミラー35Mが揺動することにより(図17の矢印Myで示す方向)、X軸方向にレーザー光を走査させている状態を示すが、ミラー35Mが揺動する角度をα1からα2に変更することで(α1<α2)、画像投影対象におけるレーザー光の走査範囲は、PAaからPAbに拡大する。
本実施形態では、図3に示す投影画像変更部22eが、ミラー35Mの揺動する角度の大きさや範囲を制御することで、プロジェクタ34の投影領域を変更する。例えば、ミラー35Mの揺動する角度をα1に保ったまま、ミラー35Mをよりレーザー光の入射方向と平行に近い角度で揺動させると、プロジェクタ34の投影領域は、図17の矢印XRで示す方向に移動する。また、ミラー35Mの揺動する角度をα1に保ったまま、ミラー35Mをよりレーザー光の入射方向と直角に近い角度で揺動させると、プロジェクタ34の投影領域は、図17の矢印XLで示す方向に移動する。このようにして、投影画像変更部22eは、プロジェクタ34の投影領域を変更する。
本実施形態では、方向及び決定キー13Bを入力手段として用いて、プロジェクタ34の投影領域を変更するので、例えば、手で携帯電子機器1を持って投影領域を変更している場合に、手の可動域を超えた場合には、方向及び決定キー13Bによってプロジェクタ34の投影領域を変更できる。この処理によって、携帯電子機器1が備えるプロジェクタ34の操作の自由度がより向上する。このように、本実施形態では、方向及び決定キー13B、又は携帯電子機器1の動きの少なくとも一方に基づいて、プロジェクタ34の投影領域を変更し、プロジェクタ34が投影する画像を変更できる。なお、実施形態2で開示した構成は、以下においても適宜適用できる。
(実施形態3)
図19、図20は、実施形態3に係る携帯電子機器を搭載する台に携帯電子機器を取り付けた状態を示す図である。図21、図22は、実施形態3に係る携帯電子機器を搭載する台に携帯電子機器を取り付けた状態を示す平面図である。図23は、実施形態3に係る携帯電子機器を搭載する台の高さを調整する手法を説明する図である。本実施形態は、携帯電子機器を搭載する台(機器搭載台)に携帯電子機器を搭載した状態で、携帯電子機器のプロジェクタを使用するものである。
機器搭載台50は、基部51と、載置部52とを含んでいる。図20に示すように、基部51の底部には、2個の可動脚56M1、56M2と、1個の固定脚56Fとが設けられており、これらがそれぞれ3角形の頂点に配置される。2個の可動脚56M1、56M2は、それぞれ独立の高さ調整用アクチュエータ57A、57Bで駆動される。これによって、2個の可動脚56M1、56M2の長さが独立して変更でき、機器搭載台50と機器搭載台50の搭載面LPとの距離を調整できる。
基部51には、載置部52を回転させる電動機55が搭載されている。電動機55は、例えば、ステッピングモータを用いることができる。ステッピングモータを用いることにより、電動機55の回転角度を把握できるので、基部51と載置部52との角度を把握しやすくなる。電動機55と載置部52とは、回転軸54で連結されており、電動機55が回転することで回転軸54が回転して、その軸心を中心として載置部52が回転する。載置部52には、携帯電子機器1を保持する複数の保持爪53A、53Bが取り付けられており、載置部52に載置された携帯電子機器1は、保持爪53A、53Bによって載置部52に保持される。
図19に示すように、本実施形態において、機器搭載台50は、コントローラ60を備える。コントローラ60は、2個の可動脚56M1、56M2の長さや、載置部52の回転角度等を制御する。本実施形態において、コントローラ60と機器搭載台50に搭載される携帯電子機器1とは、互いに通信できるように構成される。両者の通信手段は、例えば、赤外線通信がある。このような構造により、プロジェクタ34の制御において、携帯電子機器1の処理部は、コントローラ60が取得した機器搭載台50の情報(例えば、載置部52の回転角度や可動脚56M1、56M2の長さ等)を利用できる。また、機器搭載台50の制御において、コントローラ60は、携帯電子機器1が有するセンサ類が取得した情報(例えば、図3に示す加速度センサ38や距離センサ36が検出した情報等)を利用できる。
図21に示すように、載置部52は、2個の光センサ(光検出手段)58A、58Bを有する。光センサ58A、58Bは、携帯電子機器1が載置部52に取り付けられたときに、携帯電子機器1が搭載するプロジェクタ34の光出射側となるように配置される。また、光センサ58A、58Bは、所定の間隔をもってプロジェクタ34の光軸と直交する方向に配置される。光センサ58A、58Bは、プロジェクタ34が画像投影対象に白画像を投影した際の反射光の光量を計測する。
例えば、コントローラ60は、2個の光センサ58A、58Bによって検出された前記反射光の光量が光センサ58A、58B間で均等になるように電動機55を回転させる。このような処理によって、画像投影対象の画像投影面と携帯電子機器1が搭載するプロジェクタ34とを正対させることができる。また、プロジェクタ34と画像投影対象の画像投影面とが正対したときにおける基部51と載置部52との角度(例えば、図21に示す基部51の軸Yfと載置部52の軸Ymとのなす角度)を電動機55の回転角度等から把握することで、画像投影対象の画像投影面に対するプロジェクタ34の傾きを知ることができる。
本実施形態において、機器搭載台50に携帯電子機器1を搭載して、プロジェクタ34を使用するにあたり、携帯電子機器1に設けられる加速度センサ38で、機器搭載台50に搭載された携帯電子機器1又は機器搭載台50の姿勢を計測する。加速度センサ38は、機器搭載台50内に設けられていてもよい。実施形態1で説明したように、加速度センサ38は3軸の加速度センサであり、それぞれの軸(X軸、Y軸、Z軸)は、機器搭載台50に搭載された携帯電子機器1又は機器搭載台50のそれぞれの軸と合わせてある。このような構造によって、加速度センサ38は、水平方向に対する携帯電子機器1の傾きを検出する。ここで、加速度センサ38の感度は、既存品でも3mG程度を検出できる能力を有していることから、加速度センサ38で検出できる角度は、約0.2度は確保できる。
加速度センサ38で水平方向に対する携帯電子機器1の傾きを検出した場合、コントローラ60は、基部51の底部に設けられている2個の可動脚56M1、56M2の長さを調整することで、水平方向に対する携帯電子機器1の傾斜角が0度になるようにする。例えば、図22に示すように、可動脚56M2と固定脚56Fとの間隔W=40mm、基部51のYf軸と平行な方向における可動脚56M1と可動脚56M2との距離Lを80mmとし、高さ調整用アクチュエータ57A、57Bにステッピングモータを用いる場合を考える。この場合、高さ調整用アクチュエータ57A、57Bに用いるステッピングモータは、1ステップで可動脚56M1、56Mの長さを0.05mmで変更できる性能があれば、携帯電子機器1を水平に設置できる。
携帯電子機器1を機器搭載台50に搭載したら、まず、コントローラ60は、携帯電子機器1が備える加速度センサ38から得た携帯電子機器1の姿勢の情報を、通信機能を用いて取得する。そして、コントローラ60は、取得した前記姿勢の情報に基づいて、高さ調整用アクチュエータ57Bを駆動して可動脚56M2の長さを調整する。この操作によって、コントローラ60は、機器搭載台50のXf軸方向における水平を調整する。次に、コントローラ60は、高さ調整用アクチュエータ57Aを駆動して可動脚56M1の長さを調整する。この操作によって、コントローラ60は、機器搭載台50のYf軸方向における水平を調整する。なお、調整の順番は逆でもよい。ここで、Xf軸及びYf軸は、機器搭載台50を構成する基部51の軸である。
本実施形態では、コントローラ60が機器搭載台50の可動脚56M1、M2の長さを調整するので、機器搭載台50に搭載された携帯電子機器1が備えるプロジェクタ34の光軸の仰角(図23に示す搭載面LPに対する光軸Alの角度)φを調整できる。ここで、機器搭載台50に携帯電子機器1が搭載された状態におけるプロジェクタ34の光軸Alは、載置部52のYm軸と平行な軸である。
光軸Alを変更する場合とは、例えば、プロジェクタ34が投影している画像を変更する場合である。例えば、図6に示す元画像PSの一部であって現在投影されている画像P1から、これとは異なる他の部分に対応する画像(例えば、図6の元画像中のBやH)を投影させる場合が光軸Alを変更する場合に該当する。この場合、図3に示す携帯電子機器1の姿勢・位置演算部22dは、変更情報(プロジェクタ34の投影領域の移動方向及び大きさ)と、プロジェクタ34と画像投影対象との距離等との少なくとも一方に基づいて、プロジェクタ34の光軸Alの仰角φを計算する。そして、コントローラ60は、通信機能を用いて携帯電子機器1の姿勢・位置演算部22dが求めた仰角φを取得し、この仰角φとなるように、高さ調整用アクチュエータ57A、57Bを制御して可動脚56M1、56M2の長さを調整する。
仰角φは、コントローラ60が、可動脚56M1の長さと可動脚56M2の長さとをそれぞれ独立で調整することにより変更できる。仰角φを得るために必要な可動脚56M1の調整量をδZ1、可動脚56M2の調整量をδZ2とする。図22に示すように、機器搭載台50の基部51のXf軸と載置部52のXm軸とがθだけ傾いているとする。この場合、δZ1は式(8)で、δZ2は式(9)で求められる。
δZ1=L1×tanφ=(W/2×sinθ+L×cosθ)×tanφ・・(8)
δZ2=W1×tanφ=W×sinθ×tanφ・・(9)
コントローラ60は、姿勢・位置演算部22dが求めた仰角φとなるように、式(8)、式(9)からδZ1及びδZ2を決定する。そして、コントローラ60は、決定されたδZ1及びδZ2となるように高さ調整用アクチュエータ57A、57Bを制御して、可動脚56M1、56M2の長さを調整する。この操作によって、プロジェクタ34の光軸Alの仰角φを調整できる。なお、携帯電子機器1の処理部22は、通信機能を用いて、高さ調整用アクチュエータ57A、57Bの動作を制御してもよい。
図24は、携帯電子機器が備えるプロジェクタに投影される画像を変更する手法の変形例を説明する図である。上記説明では、元画像のうち、一部の画像を投影する場合を中心に記載したが、元画像とする範囲を変更や加工できてもよい。例えば、上述した図16において、元画像は「A〜I」が表示されている画像であるが、この元画像(ディスプレイ2の画像)「A〜I」は、「A〜Z」が表記された全体画像の一部であってもよい。そして、図24のようにディスプレイ2に表示されている元画像「A〜I」に換えて、新たな画像「J〜R」を元画像として設定できるようにしてもよい。
このような元画像の変更や加工においては、たとえば、ディスプレイ2に元画像を表示しておくとよい。そして、例えば、元画像「A〜I」がディスプレイ2に表示されているときに、元画像「A〜I」の大きさを縮小したり、表示位置を移動したりする(画面のスクロールをしたりする)ことにより、全体画像「A〜Z」のうち、たとえば範囲を拡大して「A〜R」が表示されるようにしたり、範囲を変更して「J〜R」が表示されるようにして、新たにディスプレイ2に表示された範囲を元画像としてもよい。
この一連の処理は携帯電子機器1の処理部22が行ってもよい。たとえば、処理部22は、ユーザーにより全体画像のうちどこまでの範囲を元画像とするかの範囲指定を行うようにユーザーに促す処理を行う。ユーザーが画像全体のうち好みの範囲を指定すると、処理部22は、指定された範囲を元画像として設定するかどうかをユーザーに確認する処理を行う。確認処理が行われると、処理部22は新たに範囲指定された画像を新たな元画像として設定するとともに、ディスプレイ2に表示させる。もちろん、元画像として全体画像の全部を設定してもよい。また、常に全体画像を元画像とする初期設定がなされていてもよい。
以上のように、本発明に係る携帯電子機器は、プロジェクタのような、画像を投影できる装置を備えるものに有用である。
1 携帯電子機器
1C 筐体
2 ディスプレイ
13 操作部
13A 操作キー
13B 方向及び決定キー
22 処理部
22a プロジェクタ制御部
22b 画像処理部
22c 条件判定部
22d 姿勢・位置演算部
22e 投影画像変更部
24 記憶部
30 音声処理部
31 可視光照射装置
32 表示部
34 プロジェクタ
35 描画装置
35M ミラー
36 距離センサ
38 加速度センサ
50 機器搭載台
51 基部
52 載置部
58A、58B 光センサ
60 コントローラ

Claims (12)

  1. 筐体と、
    当該筐体に設けられて、画像を投影する画像投影部と、
    全体画像の情報を記憶する記憶部と、
    前記全体画像の一部から構成された元画像情報の、さらに一部の情報に基づいた一部画像を前記画像投影部に投影させる処理部と、
    前記全体画像の全部或いは一部を元画像として表示する表示部と、
    前記全体画像のうちのどの範囲を前記元画像として設定するかをユーザに設定させる操作部と、
    を含み、
    前記処理部は、
    前記画像投影部が前記元画像の情報の一部である第1画像情報に基づく第1画像を投影しているときに、前記画像投影部が投影している画像を変更させる変更情報に応じて、第2画像情報に基づく第2画像を、前記第1画像の投影位置とは少なくとも一部が異なる位置に投影させ、
    前記第2画像情報は、前記元画像の情報の一部であって、前記第1画像情報とは異なる新たな情報を含むとともに、前記第1画像情報の少なくとも一部の情報が除かれていることを特徴とする携帯電子機器。
  2. 前記変更情報は、前記画像投影部の動きに関する情報であることを特徴とする請求項1に記載の携帯電子機器。
  3. 前記画像投影部の移動距離及び移動方向を検出する動き検出手段を備え、
    前記処理部は、前記画像投影部の前記移動距離及び移動方向に基づいて、前記第2画像情報及び前記第2画像を投影する位置を決定し、
    前記第2画像情報は、前記新たな情報として、前記元画像の情報に基づく所定の画像における前記第1画像よりも前記移動方向側に位置する画像の情報を含み、
    前記第2画像を投影する位置は、前記移動距離に対応する分だけ前記移動方向側にずらした位置であることを特徴とする請求項2に記載の携帯電子機器。
  4. 前記動き検出手段は、加速度センサであることを特徴とする請求項3に記載の携帯電子機器。
  5. 前記処理部は、前記画像情報に基づく画像とともに、前記画像情報に基づく画像に対して移動可能な移動ポイントを前記画像投影部に投影させることを特徴とする請求項1に記載の携帯電子機器。
  6. 前記変更情報は、前記移動ポイントの移動方向及び移動距離に関する情報であり、
    前記処理部は、前記移動ポイントの移動距離及び移動方向に基づいて、前記第2画像情報及び前記第2画像を投影する位置を決定し、
    前記第2画像情報は、前記新たな情報として、前記元画像の情報に基づく所定の画像における前記第1画像よりも前記移動方向側に位置する画像の情報を含み、
    前記第2画像を投影する位置は、前記移動距離に対応する分だけ前記移動方向側にずらした位置であることを特徴とする請求項5に記載の携帯電子機器。
  7. 前記処理部は、前記移動ポイントが移動するタイミングに合わせて、前記第2画像情報及び前記第2画像を投影する位置を決定し、前記画像投影部に前記第2画像情報を投影させる制御を実行することを特徴とする請求項6に記載の携帯電子機器。
  8. 前記処理部は、前記移動ポイントが所定距離移動したタイミングで、前記第2画像情報及び前記第2画像を投影する位置を決定し、前記画像投影部に投影させる制御を実行することを特徴とする請求項6に記載の携帯電子機器。
  9. 前記筐体には、前記変更情報を生成する入力部が設けられており、
    当該入力部は、前記変更情報として、所定の投影領域の移動方向の情報及び移動距離の情報を生成し、
    前記処理部は、生成された前記所定の投影領域の移動距離及び移動方向に基づいて、前記第2画像情報及び前記第2画像を投影する位置を決定し、前記画像投影部に前記第2画像情報を投影させることを特徴とする請求項8に記載の携帯電子機器。
  10. 前記処理部は、
    前記画像投影部に前記第1画像又は前記第2画像を投影させているときに、前記表示部に、前記所定の画像を表示させることを特徴とする請求項9に記載の携帯電子機器。
  11. 前記処理部は、
    前記画像情報に基づく画像に対して移動可能な移動ポイントを前記画像投影部に投影させるとともに、前記表示部に前記移動ポイントを表示させることを特徴とする請求項10に記載の携帯電子機器。
  12. 前記全体画像の全体を前記元画像とする初期設定がなされていることを特徴とする請求項1乃至11のいずれか1項に記載の携帯電子機器。
JP2011516042A 2009-05-27 2010-05-26 携帯電子機器 Expired - Fee Related JP5409785B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011516042A JP5409785B2 (ja) 2009-05-27 2010-05-26 携帯電子機器

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2009128299 2009-05-27
JP2009128299 2009-05-27
JP2011516042A JP5409785B2 (ja) 2009-05-27 2010-05-26 携帯電子機器
PCT/JP2010/058931 WO2010137626A1 (ja) 2009-05-27 2010-05-26 携帯電子機器

Publications (2)

Publication Number Publication Date
JPWO2010137626A1 JPWO2010137626A1 (ja) 2012-11-15
JP5409785B2 true JP5409785B2 (ja) 2014-02-05

Family

ID=43222733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011516042A Expired - Fee Related JP5409785B2 (ja) 2009-05-27 2010-05-26 携帯電子機器

Country Status (4)

Country Link
US (1) US8807757B2 (ja)
EP (1) EP2437488A4 (ja)
JP (1) JP5409785B2 (ja)
WO (1) WO2010137626A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101860215B1 (ko) * 2016-10-07 2018-05-21 전자부품연구원 프로젝터 자세에 연동하는 콘텐츠 디스플레이 시스템 및 방법

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8659626B2 (en) * 2010-12-16 2014-02-25 Sony Corporation Projection control
JP5679803B2 (ja) * 2010-12-24 2015-03-04 京セラ株式会社 携帯電子機器
JP5821655B2 (ja) * 2012-01-24 2015-11-24 富士通株式会社 画像投影装置
WO2013172314A1 (ja) 2012-05-16 2013-11-21 株式会社Jvcケンウッド 画像投射装置および画像投射方法
JP5958069B2 (ja) * 2012-05-16 2016-07-27 株式会社Jvcケンウッド 画像投射装置および画像投射方法
JP5874529B2 (ja) * 2012-05-16 2016-03-02 株式会社Jvcケンウッド 画像投射装置および画像投射方法
JP6146038B2 (ja) * 2013-02-14 2017-06-14 株式会社Jvcケンウッド 投射装置および投射方法
CN104956665B (zh) * 2013-01-28 2018-05-22 Jvc建伍株式会社 投射装置及图像校正方法
JP6146028B2 (ja) * 2013-01-31 2017-06-14 株式会社Jvcケンウッド 投射装置および投射方法
JP6146025B2 (ja) * 2013-01-28 2017-06-14 株式会社Jvcケンウッド 投射装置、画像補正方法およびプログラム
KR102048361B1 (ko) * 2013-02-28 2019-11-25 엘지전자 주식회사 거리 검출 장치, 및 이를 구비하는 영상처리장치
KR20150041453A (ko) * 2013-10-08 2015-04-16 엘지전자 주식회사 안경형 영상표시장치 및 그것의 제어방법
CN104714809B (zh) * 2013-12-11 2018-11-13 联想(北京)有限公司 一种信息处理的方法及电子设备
KR20160026482A (ko) * 2014-09-01 2016-03-09 삼성전자주식회사 모바일 디바이스 및 모바일 디바이스에서 이미지를 투사하는 방법
US9710160B2 (en) 2014-10-21 2017-07-18 International Business Machines Corporation Boundless projected interactive virtual desktop
US11115408B2 (en) 2016-08-09 2021-09-07 Daon Holdings Limited Methods and systems for determining user liveness and verifying user identities
US10628661B2 (en) 2016-08-09 2020-04-21 Daon Holdings Limited Methods and systems for determining user liveness and verifying user identities
US10217009B2 (en) * 2016-08-09 2019-02-26 Daon Holdings Limited Methods and systems for enhancing user liveness detection
US10210380B2 (en) 2016-08-09 2019-02-19 Daon Holdings Limited Methods and systems for enhancing user liveness detection
US20220291795A1 (en) * 2021-03-09 2022-09-15 Lenovo (Singapore) Pte. Ltd. Projecting interfaces on a surface
JP2022185342A (ja) * 2021-06-02 2022-12-14 セイコーエプソン株式会社 プロジェクターおよびプロジェクターの制御方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254614A (ja) * 1997-03-06 1998-09-25 Hitachi Ltd 携帯型電子処理装置及びその操作方法
JP2001215610A (ja) * 2000-01-28 2001-08-10 Nec Corp レンズシフト機能付プロジェクタ装置
JP2002007027A (ja) * 2000-06-27 2002-01-11 Masanori Idesawa 画像情報表示装置
JP2002261889A (ja) * 2001-02-27 2002-09-13 Denso Corp 携帯端末
JP2005338249A (ja) * 2004-05-25 2005-12-08 Seiko Epson Corp 表示装置、表示方法及び表示システム
JP2007017177A (ja) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd ナビゲーション装置

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100498835C (zh) * 2003-09-08 2009-06-10 日本电气株式会社 图像组合***、图像组合方法
EP1533685A1 (en) * 2003-10-22 2005-05-25 Sony International (Europe) GmbH Handheld device for navigating and displaying data
JP2006163360A (ja) * 2004-11-11 2006-06-22 Casio Comput Co Ltd 投影装置、投影方法、投影制御プログラム
US7722190B2 (en) * 2005-08-17 2010-05-25 Hewlett-Packard Development Company, L.P. Projecting a luminance image
JP4437777B2 (ja) 2005-09-27 2010-03-24 シャープ株式会社 プロジェクタ機能付携帯端末
GB2447979B (en) * 2007-03-30 2009-09-23 Ashley Kalman Ltd Projection method
JP4835538B2 (ja) * 2007-08-10 2011-12-14 パナソニック電工株式会社 画像表示装置
EP3836539B1 (en) * 2007-10-10 2024-03-13 Gerard Dirk Smits Image projector with reflected light tracking
JP4458155B2 (ja) * 2007-11-19 2010-04-28 カシオ計算機株式会社 投影装置、投影方法及びプログラム
JP5268342B2 (ja) * 2007-12-14 2013-08-21 キヤノン株式会社 画像表示装置
KR101520689B1 (ko) * 2008-10-22 2015-05-21 엘지전자 주식회사 이동 단말기 및 이를 이용한 화면 스크롤 방법
KR101527014B1 (ko) * 2008-12-02 2015-06-09 엘지전자 주식회사 이동 단말기 및 이것의 디스플레이 제어 방법
US8147071B2 (en) * 2009-04-29 2012-04-03 Nokia Corporation Processor for an apparatus, an apparatus and associated methods
JP2011013400A (ja) * 2009-07-01 2011-01-20 Funai Electric Co Ltd プロジェクタ
US8506090B2 (en) * 2010-03-22 2013-08-13 Microvision, Inc. Projection system with image orientation correction and corresponding method
US20120086915A1 (en) * 2010-10-06 2012-04-12 Microvision, Inc. Image Projection Apparatus Tiling System and Method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10254614A (ja) * 1997-03-06 1998-09-25 Hitachi Ltd 携帯型電子処理装置及びその操作方法
JP2001215610A (ja) * 2000-01-28 2001-08-10 Nec Corp レンズシフト機能付プロジェクタ装置
JP2002007027A (ja) * 2000-06-27 2002-01-11 Masanori Idesawa 画像情報表示装置
JP2002261889A (ja) * 2001-02-27 2002-09-13 Denso Corp 携帯端末
JP2005338249A (ja) * 2004-05-25 2005-12-08 Seiko Epson Corp 表示装置、表示方法及び表示システム
JP2007017177A (ja) * 2005-07-05 2007-01-25 Matsushita Electric Ind Co Ltd ナビゲーション装置

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101860215B1 (ko) * 2016-10-07 2018-05-21 전자부품연구원 프로젝터 자세에 연동하는 콘텐츠 디스플레이 시스템 및 방법

Also Published As

Publication number Publication date
EP2437488A1 (en) 2012-04-04
US8807757B2 (en) 2014-08-19
EP2437488A4 (en) 2016-12-14
US20120069308A1 (en) 2012-03-22
JPWO2010137626A1 (ja) 2012-11-15
WO2010137626A1 (ja) 2010-12-02

Similar Documents

Publication Publication Date Title
JP5409785B2 (ja) 携帯電子機器
JP5259010B2 (ja) 携帯電子機器および投影システム
JP5679803B2 (ja) 携帯電子機器
JP5409263B2 (ja) 携帯電子機器及び携帯電話機
WO2012070503A1 (ja) 携帯電子機器
JP5473536B2 (ja) プロジェクタ機能付携帯撮像装置
JP5420365B2 (ja) 投影装置
JP5481142B2 (ja) 画像投影装置
JP5615651B2 (ja) 電子機器および投影システム
JP5665570B2 (ja) 電子機器
JP5606888B2 (ja) 携帯電子機器
JP5774294B2 (ja) 携帯電子機器
JP5623238B2 (ja) 電子機器、表示制御方法および表示制御プログラム
JP2012156901A (ja) 携帯電子機器、制御プログラム及びデータ編集システム
JP5554683B2 (ja) 携帯電子機器
JP5606901B2 (ja) 携帯電子機器
JP5595834B2 (ja) 携帯電子機器及び携帯電子機器の使用方法
JP5646918B2 (ja) 携帯電子機器及び携帯電子機器の使用方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130219

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130422

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131105

R150 Certificate of patent or registration of utility model

Ref document number: 5409785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees