JP5949234B2 - サーバ、クライアント端末、およびプログラム - Google Patents

サーバ、クライアント端末、およびプログラム Download PDF

Info

Publication number
JP5949234B2
JP5949234B2 JP2012152088A JP2012152088A JP5949234B2 JP 5949234 B2 JP5949234 B2 JP 5949234B2 JP 2012152088 A JP2012152088 A JP 2012152088A JP 2012152088 A JP2012152088 A JP 2012152088A JP 5949234 B2 JP5949234 B2 JP 5949234B2
Authority
JP
Japan
Prior art keywords
client terminal
zoom
information
data
sensory data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012152088A
Other languages
English (en)
Other versions
JP2014016694A (ja
Inventor
佐古 曜一郎
曜一郎 佐古
隆俊 中村
隆俊 中村
竹原 充
充 竹原
宏平 浅田
宏平 浅田
和之 迫田
和之 迫田
荒谷 勝久
勝久 荒谷
一弘 渡邊
一弘 渡邊
丹下 明
明 丹下
博幸 花谷
博幸 花谷
有希 甲賀
有希 甲賀
智也 大沼
智也 大沼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2012152088A priority Critical patent/JP5949234B2/ja
Priority to US13/927,392 priority patent/US9088723B2/en
Priority to CN201310263956.6A priority patent/CN103533421B/zh
Publication of JP2014016694A publication Critical patent/JP2014016694A/ja
Priority to US14/741,018 priority patent/US9817630B2/en
Application granted granted Critical
Publication of JP5949234B2 publication Critical patent/JP5949234B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/165Management of the audio stream, e.g. setting of volume, audio stream path
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/131Protocols for games, networked simulations or virtual reality
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00127Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture
    • H04N1/00204Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server
    • H04N1/00244Connection or combination of a still picture apparatus with another apparatus, e.g. for storage, processing or transmission of still picture signals or of information associated with a still picture with a digital computer or a digital computer system, e.g. an internet server with a server, e.g. an internet server
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/258Client or end-user data management, e.g. managing client capabilities, user preferences or demographics, processing of multiple end-users preferences to derive collaborative data
    • H04N21/25808Management of client data
    • H04N21/25841Management of client data involving the geographical location of the client
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2668Creating a channel for a dedicated end-user group, e.g. insertion of targeted commercials based on end-user profiles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41407Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance embedded in a portable device, e.g. video client on a mobile phone, PDA, laptop
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/422Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS]
    • H04N21/42203Input-only peripherals, i.e. input devices connected to specially adapted client devices, e.g. global positioning system [GPS] sound input device, e.g. microphone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/439Processing of audio elementary streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • H04N21/4728End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content for selecting a Region Of Interest [ROI], e.g. for requesting a higher resolution version of a selected region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/8106Monomedia components thereof involving special audio data, e.g. different tracks for different languages
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/69Control of means for changing angle of the field of view, e.g. optical zoom objectives or electronic zooming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/82Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only
    • H04N9/8205Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal
    • H04N9/8211Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback the individual colour picture signal components being recorded simultaneously only involving the multiplexing of an additional signal and the colour video signal the additional signal being a sound signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/02Services making use of location information
    • H04W4/025Services making use of location information using location based information parameters
    • H04W4/027Services making use of location information using location based information parameters using movement velocity, acceleration information
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04WWIRELESS COMMUNICATION NETWORKS
    • H04W4/00Services specially adapted for wireless communication networks; Facilities therefor
    • H04W4/30Services specially adapted for particular environments, situations or purposes
    • H04W4/38Services specially adapted for particular environments, situations or purposes for collecting sensor information
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/0009Transmission of position information to remote stations
    • G01S5/0018Transmission from mobile station to base station
    • G01S5/0027Transmission from mobile station to base station of actual mobile position, i.e. position determined on mobile

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computer Graphics (AREA)
  • Computing Systems (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Telephonic Communication Services (AREA)
  • User Interface Of Digital Computer (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Circuit For Audible Band Transducer (AREA)
  • Information Transfer Between Computers (AREA)
  • Studio Devices (AREA)

Description

本開示は、サーバ、クライアント端末、およびプログラムに関する。
通常、デジタルカメラやビデオカメラ等の撮像装置においてズーム操作がなされると、望遠機能により遠方に焦点を合わせた画像が撮像される。一方、近年、ズーム位置に応じて目的音を強調するズーム収音技術が提案されている。
例えば、下記特許文献1では、ズーム位置に応じて望遠時に遠方からの目的音を収音するズームマイクロホン装置が開示されている。また、下記特許文献2には、再生時に音声のズームを変更できるマルチチャンネル収音装置が開示されている。
特開2002−204493号公報 特開2006−339991号公報
しかしながら上述したいずれのズーム収音技術も、単体のマイクロフォンにより実空間において実際に収音した音波に対して雑音抑圧やゲイン制御を行うものであって、ズーム範囲には限界があった。また、上記各特許文献では、音以外に、ズーム位置に応じた触覚(力覚)や匂いを出力することについては考慮されていなかった。
これに対し、どこまでも遠方の音や力覚、匂い等の感覚への刺激をズーム操作に応じて出力することができれば、ユーザは容易に仮想的な世界旅行を体感することができる。
そこで、本開示では、クライアント端末が向いている方向に仮想的に体感ズームし続けることが可能な、新規かつ改良されたサーバ、クライアント端末、およびプログラムを提案する。
本開示によれば、クライアント端末から、前記クライアント端末の位置を示す現在位置情報、および向きを示す方向情報を受信する受信部と、前記クライアント端末の位置から前記方向情報で示される方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを検索する検索部と、前記検索部により検索された前記感覚データを、前記クライアント端末に送信する送信部と、を備えるサーバを提案する。
本開示によれば、クライアント端末の位置を示す現在位置情報、および向きを示す方向情報を送信する送信部と、前記クライアント端末の位置から前記方向情報で示される方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを受信する受信部と、前記受信部により受信した前記感覚データを出力するよう制御する出力制御部と、
を備えるクライアント端末を提案する。
本開示によれば、コンピュータに、クライアント端末の位置を示す現在位置情報、および向きを示す方向情報を送信する送信部と、前記クライアント端末の位置から前記方向情報で示される方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを受信する受信部と、前記受信部により受信した前記感覚データを出力するよう制御する出力制御部と、として機能させるためのプログラムを提案する。
以上説明したように本開示によれば、クライアント端末が向いている方向に仮想的に体感ズームし続けることが可能となる。
本開示の一実施形態による無限ズームシステムの概要を説明するための図である。 本実施形態によるサーバの構成を示すブロック図である。 オーディオデータDBに格納されるデータの一例を示す図である。 本実施形態によるオーディオデータの検索方法を説明するための図である。 本実施形態によるクライアント端末の外観を説明するための図である。 本実施形態によるクライアント端末の構成を示すブロック図である。 ズーム速度に応じたオーディオデータの出力制御について説明するための図である。 本実施形態によるズームシステムの動作処理を示すフローチャートである。 本実施形態による無限ズームシステムの他の動作処理を示すフローチャートである。 本実施形態によるズーム操作画面の他の例を示す図である。
以下に添付図面を参照しながら、本開示の好適な実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、説明は以下の順序で行うものとする。
1.本開示の一実施形態による無限ズームシステムの概要
2.基本構成
2−1.サーバ
2−2.クライアント端末
3.動作処理
4.補足
5.まとめ
<1.本開示の一実施形態による無限ズームシステムの概要>
まず、本開示の一実施形態による無限ズームシステムの概要について図1を参照して説明する。図1に示すように、本開示の一実施形態による無限ズームシステムは、サーバ1およびクライアント端末2を有する。サーバ1およびクライアント端末2は、ネットワーク3を介して接続することが可能である。
ここで、上述したように、ズーム位置に応じて目的音を強調するズーム収音技術は、単体のマイクロフォンにより実空間において実際に収音した音波に対して雑音抑圧やゲイン制御を行うものであって、ズーム範囲(ズーム距離)に限界があった。また、ズーム位置に応じた触覚(力覚)や匂いを出力することについては何ら考慮されていなかった。
そこで、本開示の一実施形態によれば、どこまでも遠方の音や力覚、匂い等の感覚への刺激をズーム操作に応じて出力することで、ユーザに仮想的な世界旅行を体感させることが可能となる。
例えば、ユーザがクライアント端末2をズームしたい方向に向けて音ズームの操作を行うと、クライアント端末2は、図1に示すように、現在位置情報、方向情報、およびズーム距離をサーバ1に送信し、サーバ1に対してオーディオデータの要求を行う。次いで、サーバ1は、クライアント端末2から受信した情報に基づいて、ズーム位置に応じたオーディオデータを検索し、検索したオーディオデータをクライアント端末2に送信する。そして、クライアント端末2は、受信したオーディオデータをスピーカーから再生(出力)し、ズーム位置の音をユーザに提供することができる。
これにより、例えば、予め世界中で収音されたオーディオデータをサーバ1が検索できるようにすることで、クライアント端末2を向けた方向に仮想的に無限にズームし続けることができる。例えば図1に示すように、ズーム位置に応じた街の音S1が出力されている場合にズームイン操作を行うと、街の向こうにある海までズーム距離が伸びて、ユーザは海の音S3を聴くことができる。そして、ユーザがさらにズームイン操作を続けると、海の向こうまでズーム距離が伸びて、ユーザは海外の音S5を聴くことができる。
このように略水平方向の前方へ仮想的にズームし続けることで、最終的にはズーム位置が地球を一周し、ユーザは世界中の音を聴いて仮想的な世界旅行を体感することができる。また、クライアント端末2が実際に向いている方向にズームすることで、ユーザはズーム位置の方向を直感的に把握することができる。
以上、本開示の一実施形態における無限ズームシステムの概要について説明した。続いて、無限ズームシステムに含まれるサーバ1およびクライアント端末2の構成について詳細に説明する。
なお、図1では、クライアント端末2としてスマートフォンを図示しているが、本実施形態によるクライアント端末2はこれに限定されず、例えばデジタルカメラ、ビデオカメラ、PDA(Personal Digital Assistants)、PC(Personal Computer)、携帯電話、携帯用音楽再生装置、携帯用映像処理装置または携帯用ゲーム機器、望遠鏡、双眼鏡等であってもよい。
<2.基本構成>
[2−1.サーバ]
図2は、本実施形態によるサーバ1の構成を示すブロック図である。図2に示すように、サーバ1は、CPU10、ROM11、RAM12、オーディオデータDB(データベース)13、検索部14、およびネットワークインターフェース(I/F)15を有する。以下、各構成について説明する。
(オーディオデータDB13)
オーディオデータDB13は、収音位置情報等が付加されたオーディオデータを記憶する記憶部である。ここで、オーディオデータDB13が記憶するデータの一例を図3に示す。
図3に示すように、本実施形態によるオーディオデータDB13は、各オーディオデータS1〜S3を、収音位置情報P1〜P3、分類情報C1〜C3、および収音者情報M1〜M3と対応付けた状態で記憶する。収音位置情報Pは、オーディオデータが収音(検知)された位置(例えば経度、緯度、高度)を示す検知位置情報である。分類情報Cは、オーディオデータの分類(例えば街、海、山、観光地、有名スポット等)を示す情報である。収音者情報Mは、オーディオデータを収音(取得)した者を示す取得者情報である。
なお、各オーディオデータSには、図3に示す各情報の他、収音日時や、収音時の天候等の情報が対応付けられていてもよい。
(検索部14)
検索部14は、クライアント端末2から受信するクライアント端末2の現在位置情報、方向情報、およびズーム距離情報に基づき、オーディオデータDB13に格納されているオーディオデータの中から、ズーム位置に対応するオーディオデータを検索する。なお、現在位置情報はクライアント端末2の現在位置(緯度、経度、高度)を示す情報、方向情報はクライアント端末2の向き(向いている方向)を示す情報、ズーム距離情報はクライアント端末2の位置からズーム位置までの距離を示す情報である。ここで、本実施形態による検索部14の検索方法について図4を参照して具体的に説明する。
図4は、本実施形態によるオーディオデータの検索方法を説明するための図である。図4に示すように、検索部14は、クライアント端末2の現在位置Aと、各オーディオデータの収音位置P1〜P6の位置関係を認識する。また、検索部14は、現在位置Aから方向情報で示される方向Dに伸びる軸線Lを認識する。さらに、検索部14は、軸線L上であって、現在位置Aから、ズーム距離情報で示されるズーム距離Fの位置をズーム位置Gとして認識する。この場合、検索部14は、ズーム位置G付近に位置する収音位置P3のオーディオデータを検索結果として出力する。
また、検索部14は、軸線L付近であって、現在位置Aからズーム距離F内(現在位置Aとズーム位置Gの間)に位置する収音位置P1のオーディオデータも検索結果として出力してもよい。
なお、本実施形態による検索部14は、さらにクライアント端末2の仰角、収音位置の現在日時、または収音位置の現在の天候等の情報を取得した場合、これらの情報も考慮して、現在の状況により近い状態で収音されたオーディオデータを検索してもよい。これにより、ユーザは、リアルタイムで世界旅行をしているような体感を得ることができる。
(ネットワークI/F15)
ネットワークI/F15は、ネットワーク3を通じてクライアント端末2との間でデータの送受信を行うための通信モジュールである。例えば、本実施形態によるネットワークI/F15は、位置情報、方向情報、およびズーム距離情報を受信したり、検索部14により検索された1以上のオーディオデータを送信したりする。
(CPU10、ROM11、およびRAM12)
ROM11には、上述した検索部14によるオーディオデータの検索や、検索したオーディオデータをクライアント端末2にネットワークI/F15により送信するためのソフトウェアプログラム等が記憶されている。また、CPU10は、ROM11に記憶されている上記ソフトウェアプログラムにしたがって、RAM12をワークエリアとして用いて処理を実行する。
以上、本実施形態によるサーバ1の構成について詳細に説明した。続いて、本実施形態によるクライアント端末2の構成について図5および図6を参照して説明する。
[2−2.クライアント端末]
(外観構成)
図5は、本実施形態によるクライアント端末2の外観を説明するための図である。図5に示すように、クライアント端末2は、前面に表示部31およびスピーカー25が設けられる。なお、表示部31は、操作入力部26の機能を兼ねたタッチパネルディスプレイであってもよい。
また、表示部31には、ユーザによるズーム操作を受け付けるための操作画面が表示される。例えば、図5に示すように、ズームイン操作を行うためのT(テレ)ボタン261およびズームアウト操作を行うためのW(ワイド)ボタン263が表示される。
また、本実施形態において、クライアント端末2の向きとは、図5に示すように、クライアント端末2の表示部31が設けられている面から対向する面へ向かう方向Dとする。なお、図5で定義する方向Dは、クライアント端末2の向きの一例であって、クライアント端末2の他の面(部位)が向いている方向としてもよい。
(内部構成)
図6は、本実施形態によるクライアント端末2の構成を示すブロック図である。図6に示すように、クライアント端末2は、CPU(Central Processing Unit)20、ROM(Read Only Memory)21、RAM(Random Access Memory)22、方向センサ23、GPS測位部24、スピーカー25、操作入力部26、オーディオデータメモリ29、表示制御部30、表示部31、およびネットワークインターフェース(I/F)32を有する。以下、各構成について説明する。
・方向センサ
方向センサ23は、クライアント端末2の向きを検知し、検知した向きを示す方向情報を出力する。より具体的には、図5に示したように、クライアント端末2の表示部31が設けられている面から対向する面へ向かう方向を、クライアント端末2の向きとして検知する。なお、上述したように、本実施形態はこれに限定されず、例えば方向センサ23は、クライアント端末2の他の面や特定の部位が向いている方向を方向情報として出力してもよい。
・GPS測位部
GPS(Global Positioning System)測位部24は、GPS衛星からの電波を受信して、クライアント端末2が存在している位置を検知し、検知した現在位置情報(緯度、経度、高度)を出力する。なお、GPS測位部24は、外部からの取得信号に基づいてクライアント端末2の現在位置を検知する位置情報取得部の一例である。クライアント端末2は、GPS測位部24の他、例えばWiFi、携帯電話・PHS・スマートフォン等との送受信、または近距離通信等により現在位置を検知する位置情報取得部を有してもよい。
・操作入力部
操作入力部26は、ユーザによる各種操作入力を検出する機能を有する。操作入力部26は、ボタン、スイッチ、ダイヤル等の物理的なキー群や、表示画面に対するユーザ操作入力を検出するタッチパネル等により実現される。本実施形態による操作入力部26は、ユーザによるズーム操作入力を検出し、CPU20に出力する。
・スピーカー
スピーカー25は、DAC(デジタルアナログコンバータ)、アンプ(増幅回路)等を有し、オーディオデータに基づいて音を出力(再生)する機能を有する。本実施形態によるスピーカー25は、CPU20による出力制御にしたがって、ズーム位置に応じた音を再生することができる。
・表示制御部
表示制御部30は、ROM21のプログラムに基づくCPU20による制御にしたがって、表示部31に表示する表示画面の内容を制御する機能を有する。本実施形態による表示制御部30は、例えばズーム操作を入力するための操作画面を表示するよう制御する。
・表示部
表示部31は、表示制御部30の制御に従って、メニュー画面、各種操作画面等を表示する。表示部31は、例えばLCD(Liquid Crystal Display)またはOLED(Organic Light−Emitting Diode)などにより実現される。
・ネットワークI/F
ネットワークI/F32は、ネットワーク3を通じてサーバ1との間でデータの送受信を行なうための通信モジュールである。例えばネットワークI/F32は、GPS測位部24から出力された現在位置情報、方向センサ23から出力された方向情報、およびCPU20から出力されるズーム距離情報を送信したり、サーバ1により検索されたオーディオデータを受信したりする。
・オーディオデータメモリ
オーディオデータメモリ29は、例えば、カード型メモリなどのフラッシュメモリが用いられてもよいし、DVD(Digital Versatile Disc)などの記録媒体であってもよい。さらには、オーディオデータメモリ29は、このようなリムーバルなメモリ媒体ではなく、ハードディスク装置であってもよい。
また、オーディオデータメモリ29は、サーバ1から受信するオーディオデータを記憶する。また、オーディオデータメモリ29は、サーバ1から受信するオーディオデータに付加されている収音位置情報、分類情報、および収音者情報等も併せて記憶してもよい。
・CPU
CPU20は、クライアント端末2の各構成を制御する制御部である。また、本実施形態によるCPU20は、操作入力部26により検出されたズーム操作に基づいてズーム距離を判断する。例えばCPU20は、Tボタン261やWボタン263の押圧時間や押圧の強さに応じてズーム距離を算出してもよいし、ユーザが任意で入力した距離をズーム距離としてもよい。なお、本明細書においてズーム距離とは、クライアント端末2の位置からズーム位置(目的音の音源(検知)位置)までの距離を示す。
また、CPU20は、GPS測位部24から出力される現在位置情報、方向センサ23から出力される方向情報、およびズーム距離を示すズーム距離情報をネットワークI/F32からサーバ1に送信するよう制御する。
さらに、CPU20は、サーバ1から受信したズーム位置に応じたオーディオデータをスピーカー25から出力するよう制御する出力制御部として機能する。出力制御部は、例えばズーム位置とオーディオデータの収音位置との相対関係に基づいて、オーディオデータを加工して出力するよう制御してもよい。より具体的には、出力制御部は、オーディオデータの収音位置がズーム位置に近い程、当該オーディオデータの音量を大きくするよう制御する。
また、出力制御部は、上記相対関係に基づいて加工した複数のオーディオデータを合成して出力するよう制御してもよい。例えば、出力制御部は、ズーム位置から遠い収音位置のオーディオデータを、ズーム位置に近い収音位置のオーディオデータより抑圧して出力するよう制御してもよい。
さらに、出力制御部は、ズーム速度に応じてオーディオデータの音量、ピッチ、または再生スピードを制御してもよい。ここで、図7を用いて、ズーム速度に応じたオーディオデータの出力制御について説明する。
図7に示すように、クライアント端末2の現在位置Aからズーム位置G付近に位置する収音位置P3のオーディオデータS3を出力する場合、出力制御部は、ズーム速度vに応じてオーディオデータS3の音量、ピッチ、または再生スピードを制御する。これにより、ユーザは、実際にズーム位置(音源)にユーザ自身が近づいているような体感を得ることができる。
例えば、出力制御部は、収音位置P3を仮想音源とし、仮想音源からの音波の速さVおよびズーム速度vに基づいてオーディオデータS3のピッチを制御することにより、ドップラー効果を模擬することが可能である。
さらに、サーバ1の検索部14により現在位置Aとズーム位置Gの間に位置する収音位置P1のオーディオデータS1も検索結果として出力され、サーバ1から送信された場合、出力制御部は、オーディオデータS1に対しても同様の出力制御を行ってもよい。例えば、出力制御部は、ユーザのズーム操作に応じて、図7に示すように、まず現在位置Aに近い収音位置P1のオーディオデータS1を再生する(音量、ピッチ、または再生スピードを徐々に上げて再生してもよい)。次に、出力制御部は、オーディオデータS1を抑圧し、収音位置P3のオーディオデータS3を再生する(音量、ピッチ、または再生スピードを徐々に上げて再生してもよい)。
・ROMおよびRAM
ROM21には、ユーザによるズーム操作に応じてサーバ1に現在位置情報、方向情報、およびズーム距離情報を送信し、サーバ1からズーム位置に応じたオーディオデータを取得してスピーカー25から出力する制御を行うためのプログラムなどが記憶されている。また、RAM22は、ROM21に記憶されているプログラムをCPU20が実行する際にワークエリアとして用いられる。
以上、本開示の一実施形態によるクライアント端末2の構成について詳細に説明した。次に、本実施形態による無限ズームシステムの動作処理について図を参照して説明する。
<3.動作処理>
図8は、本実施形態による無限ズームシステムの動作処理を示すフローチャートである。図8に示すように、まず、ステップS100において、クライアント端末2のCPU20は、操作入力部26によりズーム操作が検出されたか否かを判断する。
次に、ズーム操作が検出された場合(S100/Yes)、ステップS103において、CPU20は、クライアント端末2の現在位置情報、方向情報、およびズーム距離情報を取得する。
次いで、ステップS106において、クライアント端末2は、現在位置情報、方向情報およびズーム距離情報をサーバ1に送信する。
次に、ステップS109において、サーバ1の検索部14は、クライアント端末2から受信した情報に基づいて、ズーム位置に応じたオーディオデータを検索する。
次いで、ステップS112において、サーバ1は、検索した1以上のオーディオデータをクライアント端末2に送信する。
次に、ステップS115において、クライアント端末2のCPU20(出力制御部)は、受信したオーディオデータをスピーカー25から再生(出力)するよう制御する。
以上、本実施形態による動作処理について説明した。続いて、本実施形態の補足について説明する。
<4.補足>
[4−1.位置および方向に基づく検索]
上記実施形態では、ズーム操作に応じて、クライアント端末2からサーバ1に現在位置情報、方向情報、およびズーム距離情報を送信してオーディオデータを要求しているが、本開示による無限ズームシステムの動作処理はこれに限定されない。例えば、クライアント端末がマイクロフォン(以下、マイクと称す)を有する場合、ズーム操作に応じてマイクで収音したオーディオデータを再生している間に、現在位置情報、および方向情報をサーバ1に送信して遠方のオーディオデータを要求してもよい。以下、図9を参照して具体的に説明する。なお、ここでは、上記実施形態において図6を参照して説明したクライアント端末2の構成に加えて、さらにマイクを有するクライアント端末2’(不図示)を用いて説明する。
図9は、本実施形態による無限ズームシステムの他の動作処理を示すフローチャートである。図9に示すように、まず、ステップS120において、クライアント端末2’のCPU20は、操作入力部26によりズーム操作が検出されたか否かを判断する。
次いで、ズーム操作が検出された場合(S120/Yes)、CPU20(出力制御部)は、マイクにより収音されるオーディオデータをズーム操作に応じて加工し、スピーカー25から再生するよう制御する。具体的には、例えば出力制御部は、ズームイン(望遠)操作に応じてクライアント端末2’が向いている方向の音を強調し、ズームイン方向の音が近づいてくるように再生(出力)制御する。
次に、ステップS123において、CPU20は、クライアント端末2’の現在位置情報および方向情報を取得する。
次いで、ステップS126において、クライアント端末2’は、現在位置情報および方向情報をサーバ1に送信する。
次に、ステップS129において、サーバ1の検索部14は、クライアント端末2’から受信した情報に基づいて、ズーム位置に応じたオーディオデータを検索する。例えば、オーディオデータDB13に記憶される各オーディオデータの収音位置とクライアント端末2’の現在位置との相対関係が図4に示すような関係の場合、検索部14は軸線L付近に位置する収音位置P1、P3、P5のオーディオデータを検索結果として出力する。
次いで、ステップS132において、サーバ1は、検索した1以上のオーディオデータをクライアント端末2’に送信する。
なお、サーバ1は、検索した1以上のオーディオデータのうち、クライアント端末2’の現在位置に近い収音位置のオーディオデータから順に送信してもよい。また、上記S123〜S132に示す処理は、ステップS122に示す処理と並列して行われてもよい。
このようにして、クライアント端末2’は、クライアント端末2’が向いている方向上の遠方のオーディオデータを予め取得することができる。
次いで、ステップS138において、クライアント端末2’のCPU20(出力制御部)は、ズームイン操作が継続して行われ、マイクにより収音したオーディオデータの加工が限界になると、サーバ1から受信した遠方のオーディオデータを再生するよう制御する。また、CPU20(出力制御部)は、サーバ1から複数のオーディオデータを受信した場合、クライアント端末2’の現在位置に近い収音位置のオーディオデータから順に再生するよう制御してもよい。
以上、本実施形態による他の動作処理について説明した。なお、この他、マイクを有していない上記クライアント端末2において、図9に示すステップS123〜S132を行い、クライアント端末2が向いている方向上の遠方のオーディオデータを予め取得するようにしてもよい。この場合、クライアント端末2は、例えばズームイン操作に応じて、クライアント端末2の現在位置に近い収音位置のオーディオデータから順に再生するよう制御する。
[4−2.分類に応じた選別]
次に、サーバ1から受信したオーディオデータに音の分類を示す分類情報が付加されている場合、CPU20(出力制御部)は、当該分類情報を考慮してオーディオデータを選別した上で再生してもよい。例えば、出力制御部は、分類情報に基づいて有名スポットのオーディオデータのみをズーム操作に応じて順次再生してもよい。
[4−3.収音情報等の表示]
次に、オーディオデータにデータの収音者情報(取得者情報)が付加されている場合、表示制御部30は、収音者情報を表示部31に表示するよう制御してもよい。また、表示制御部30は、収音位置情報に基づいて収音位置を表示するよう制御してもよい。収音位置の表示は、地名であってもよいし、地図上で図示してもよい。また、表示制御部30は、現在位置から収音位置までのズーム距離やズーム倍率を表示部31に表示するよう制御してもよい。
また、オーディオデータに収音位置で撮像された画像データ(静止画/動画)が付加されている場合、表示制御部30は、オーディオデータの再生と共に、画像データを表示部31に表示するよう制御してもよい。
[4−4.ズーム操作画面の他の例]
上記実施形態において、図5を参照してズーム操作画面の一例を示したが、本実施形態によるズーム操作画面はこれに限定されず、例えばカメラをさらに備えるクライアント端末2’’において、スルー画像と共にズームボタンを表示してもよい。
具体的には、図10に示すように、クライアント端末2’’の後面に設けられたカメラ33により撮像されたスルー画像311が表示部31にリアルタイムで表示され、さらにズーム操作画面260が表示される。ズーム操作画面260には、図10に示すように、ズームダイヤルボタン265が表示される。ユーザは、T方向にズームダイヤルボタン265を回すことでズームイン(望遠)操作、W方向にズームダイヤルボタン265を回すことでズームアウト(広角)操作を行うことができる。これにより、ユーザは、聞きたい音の位置(音源)にカメラ33を向けてフォーカスを合わせ、ズーム操作を行うことができる。
また、サーバ1から受信したズーム位置に応じたオーディオデータに、収音位置で撮像された画像データが付加されている場合、クライアント端末2’’は、スルー画像311を当該画像データに切り替えて表示してもよい。
[4−5.力覚データおよび嗅覚データ]
上記実施形態では、ズーム位置に応じた感覚データの一例としてオーディオデータを用いて説明したが、本実施形態による感覚データは、オーディオデータの他、力覚データや嗅覚データであってもよい。
すなわち、本実施形態によるクライアント端末は、クライアント端末が向けられた方向に仮想的にズームし続け、ズーム位置に応じた力覚データや嗅覚データを出力することができる。これにより、例えば予め世界中で検知された力覚データや嗅覚データをサーバ1が検索できるようにすることで、ユーザは、クライアント端末を向けた方向に仮想的に無限にズームし続け、世界中の触覚や匂いを体感することができる。
なお、力覚データや嗅覚データの具体的な出力方法については、本実施形態では特に限定しないが、例えば以下に示すような方法により実現してもよい。
力覚データの出力方法としては、例えば特開2002−366025に開示されている触知ピンや、特開2006−242986に開示されている変形可能な形状記憶合金等による力覚デバイスにより、力覚データを出力(触感を再現)してもよい。
また、嗅覚データの出力方法としては、予め収納する匂い成分の放出、または匂い生成用の成分を組み合わせて放出する匂い発生デバイスにより、嗅覚データを出力(匂いを再現)してもよい。
以上、感覚データの他の例として、ズーム位置に応じた力覚データや嗅覚データの出力について説明した。なお、クライアント端末は、ズーム速度に応じて、力覚データや嗅覚データの出力強度を制御してもよい。また、力覚データや嗅覚データの他、本実施形態によるズームシステムでは、扇風機等の送風デバイスを用いることで、ズーム位置の風圧や、ズーム速度に応じた風圧を体感させることも可能である。また、本実施形態による無限ズームシステムでは、ズーム位置に応じた複数種類の感覚データを組み合わせて出力してもよい。
さらに、上述した各デバイス(力覚デバイス、匂い発生デバイス、および送風デバイス)が設けられるクライアント端末は、スマートフォンや携帯端末等の他、例えば自動車であってもよい。具体的には、ズーム位置に応じたオーディオデータを車載スピーカーから再生したり、ユーザの身体に接触する座席やハンドルに力覚デバイスを設けてズーム位置の触覚を再現したり、車載空調装置を用いてズーム位置の風圧や気温を再現したりすることが可能である。
<5.まとめ>
上述したように、本実施形態による無限ズームシステムでは、クライアント端末が向いている方向上の感覚データをズーム操作に応じて順次出力することにより、あたかも世界旅行をしているかのような体感を提供することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本技術はかかる例に限定されない。本開示の技術分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
例えば、上述した実施形態では、クライアント端末2はサーバ1からオーディオデータを取得しているが、本実施形態によるオーディオデータの取得先は特定のサーバに限られない。オーディオデータの取得先は、例えばオーディオデータDB13および検索部14の機能を有するインターネット上の不特定多数のサーバやPC(パーソナルコンピュータ)であってもよい。
また、本実施形態によるクライアント端末の構成は図6に示す例に限られない。本実施形態によるクライアント端末は、例えば、図6に示す構成に加えて、さらにオーディオデータDB13および検索部14に相当する構成を有してもよい。この場合、本実施形態によるクライアント端末は、ズーム位置に応じた遠方のオーディオデータをローカルで検索することができる。
また、上述した実施形態では、ユーザによるズーム操作に応じてズーム位置が変更しているが、本開示によるズーム位置の変更は自動で行われてもよい。例えば、クライアント端末2は、予め設定された所定のズーム速度で、クライアント端末2が向いている方向に対して自動ズームしてもよい。
また、上述した実施形態では、略水平方向においてクライアント端末が向いている方向上における地上のオーディオデータをズーム操作に応じて順次再生する場合を例に説明したが、本実施形態による無限ズームシステムはこれに限定されない。
例えば、クライアント端末が上方を向いている場合、ズーム操作に応じて、上空で収音されたオーディオデータが再生されてもよい。また、クライアント端末が下方を向いている場合、ズーム操作に応じて、地中(または海中)で収音されたオーディオデータや、地球の反対側で収音されたオーディオデータが再生されてもよい。
なお、本技術は以下のような構成も取ることができる。
(1)
クライアント端末から、前記クライアント端末の位置を示す現在位置情報、および向きを示す方向情報を受信する受信部と、
前記クライアント端末の位置から前記方向情報で示される方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを検索する検索部と、
前記検索部により検索された前記感覚データを、前記クライアント端末に送信する送信部と、
を備える、サーバ。
(2)
前記受信部は、前記クライアント端末の位置からズーム位置までの距離を示すズーム距離情報をさらに受信し、
前記検索部は、前記クライアント端末の位置から前記方向情報で示される方向に伸びる軸線付近であって、かつ前記クライアント端末の位置から前記ズーム距離情報で示される距離周辺の位置に相当する検知位置情報が付加された感覚データを検索する、前記(1)に記載のサーバ。
(3)
前記感覚データは、前記感覚データに付加された前記検知位置情報で示される位置に設置されたセンサにより検知されたデータである、前記(1)または(2)に記載のサーバ。
(4)
前記感覚データは、オーディオデータ、力覚データ、または嗅覚データの少なくともいずれかである、前記(1)〜(3)のいずれか1項に記載のサーバ。
(5)
前記現在位置情報および前記検知位置情報は、緯度経度情報に加え、さらに高度情報を含む3次元位置情報である、前記(1)〜(4)のいずれか1項に記載のサーバ。
(6)
前記感覚データには、前記感覚データの取得者情報が付加される、前記(1)〜(5)のいずれか1項に記載のサーバ。
(7)
前記感覚データには、前記感覚データの分類情報が付加される、前記(1)〜(6)のいずれか1項に記載のサーバ。
(8)
前記感覚データには、前記感覚データの検知位置で撮像された画像データが付加される、前記(1)〜(7)のいずれか1項に記載のサーバ。
(9)
クライアント端末の位置を示す現在位置情報、および向きを示す方向情報を送信する送信部と、
前記クライアント端末の位置から前記方向情報で示される方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを受信する受信部と、
前記受信部により受信した前記感覚データを出力するよう制御する出力制御部と、
を備える、クライアント端末。
(10)
前記送信部は、前記クライアント端末の位置からズーム位置までの距離を示すズーム距離情報をさらに送信し、
前記受信部は、前記クライアント端末の位置から前記方向情報で示される方向に伸びる軸線付近であって、かつ前記クライアント端末の位置から前記ズーム距離情報で示される距離周辺の位置に相当する検知位置情報が付加された感覚データを受信する、前記(9)に記載のクライアント端末。
(11)
前記出力制御部は、ズーム位置と前記感覚データに付加された前記検知位置情報で示される位置との相対関係に基づいて、前記感覚データを加工して出力するよう制御する、前記(9)または(10)に記載のクライアント端末。
(12)
前記出力制御部は、前記受信部により複数の前記感覚データを受信した場合、前記相対関係に基づいて加工した複数の前記感覚データを合成して出力するよう制御する、前記(11)に記載のクライアント端末。
(13)
前記感覚データは、オーディオデータであって、
前記出力制御部は、ズーム速度に基づいて、前記オーディオデータのピッチを制御する、前記(9)〜(12)のいずれか1項に記載のクライアント端末。
(14)
前記出力制御部は、ドップラー効果を模擬するよう前記オーディオデータのピッチを制御する、前記(13)に記載のクライアント端末。
(15)
前記感覚データは、オーディオデータであって、
前記出力制御部は、ズーム速度に基づいて、前記オーディオデータの再生スピードを制御する、前記(9)〜(14)のいずれか1項に記載のクライアント端末。
(16)
前記感覚データは、力覚データまたは嗅覚データであって、
前記出力制御部は、ズーム速度に基づいて、前記力覚データ、嗅覚データの出力強度を制御する、前記(9)〜(15)のいずれか1項に記載のクライアント端末。
(17)
ズーム位置は、前記方向情報で示される方向に所定の速度で自動的に変化する、前記(9)〜(16)のいずれか1項に記載のクライアント端末。
(18)
前記クライアント端末は、操作入力部をさらに備え、
ズーム位置は、前記操作入力部により検出されたユーザによるズーム操作に応じて変化する、前記(9)〜(16)のいずれか1項に記載のクライアント端末。
(19)
コンピュータに、
クライアント端末の位置を示す現在位置情報、および向きを示す方向情報を送信する送信部と、
前記クライアント端末の位置から前記方向情報で示される方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを受信する受信部と、
前記受信部により受信した前記感覚データを出力するよう制御する出力制御部と、
として機能させるための、プログラム。
1 サーバ
2 クライアント端末
3 ネットワーク
13 オーディオデータDB
14 検索部
15、32 ネットワークインターフェース(I/F)
23 方向センサ
24 GPS測位部
25 スピーカー
26 操作入力部
30 表示制御部
31 表示部

Claims (18)

  1. クライアント端末から、前記クライアント端末の位置を示す現在位置情報向きを示す方向情報、および仰角を示す角度情報を受信する受信部と、
    前記クライアント端末の位置から前記方向情報および角度情報に対応する方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを検索する検索部と、
    前記検索部により検索された前記感覚データを、前記クライアント端末に送信する送信部と、
    を備え
    前記受信部は、前記クライアント端末の位置から前記軸線上におけるズーム位置までの距離を示すズーム距離情報をさらに受信し、
    前記検索部は、前記軸線付近であって、かつ前記クライアント端末の位置から前記ズーム距離情報で示される距離周辺の位置に相当する検知位置情報が付加された感覚データを検索する、サーバ。
  2. 前記感覚データは、前記感覚データに付加された前記検知位置情報で示される位置に設置されたセンサにより検知されたデータである、請求項1に記載のサーバ。
  3. 前記感覚データは、オーディオデータ、力覚データ、または嗅覚データの少なくともいずれかである、請求項1に記載のサーバ。
  4. 前記現在位置情報および前記検知位置情報は、緯度経度情報に加え、さらに高度情報を含む3次元位置情報である、請求項1に記載のサーバ。
  5. 前記感覚データには、前記感覚データの取得者情報が付加される、請求項1に記載のサーバ。
  6. 前記感覚データには、前記感覚データの分類情報が付加される、請求項1に記載のサーバ。
  7. 前記感覚データには、前記感覚データの検知位置で撮像された画像データが付加される、請求項1に記載のサーバ。
  8. 前記検索部は、現在の日時または天候に応じて、検索対象位置の現在の状況により近い状態で取得された感覚データを検索する、請求項1に記載のサーバ。
  9. クライアント端末の位置を示す現在位置情報向きを示す方向情報、および仰角を示す角度情報を送信する送信部と、
    前記クライアント端末の位置から前記方向情報および角度情報に対応する方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを受信する受信部と、
    前記受信部により受信した前記感覚データを出力するよう制御する出力制御部と、
    を備え
    前記送信部は、前記クライアント端末の位置から前記軸線上におけるズーム位置までの距離を示すズーム距離情報をさらに送信し、
    前記受信部は、前記軸線付近であって、かつ前記クライアント端末の位置から前記ズーム距離情報で示される距離周辺の位置に相当する検知位置情報が付加された感覚データを受信する、クライアント端末。
  10. 前記出力制御部は、前記ズーム位置と前記感覚データに付加された前記検知位置情報で示される位置との相対関係に基づいて、前記感覚データを加工して出力するよう制御する、請求項9に記載のクライアント端末。
  11. 前記出力制御部は、前記受信部により複数の前記感覚データを受信した場合、前記相対関係に基づいて加工した複数の前記感覚データを合成して出力するよう制御する、請求項10に記載のクライアント端末。
  12. 前記感覚データは、オーディオデータであって、
    前記出力制御部は、ズーム速度に基づいて、前記オーディオデータのピッチを制御する、請求項9に記載のクライアント端末。
  13. 前記出力制御部は、ドップラー効果を模擬するよう前記オーディオデータのピッチを制御する、請求項12に記載のクライアント端末。
  14. 前記感覚データは、オーディオデータであって、
    前記出力制御部は、ズーム速度に基づいて、前記オーディオデータの再生スピードを制御する、請求項9に記載のクライアント端末。
  15. 前記感覚データは、力覚データまたは嗅覚データであって、
    前記出力制御部は、ズーム速度に基づいて、前記力覚データ、嗅覚データの出力強度を制御する、請求項9に記載のクライアント端末。
  16. 前記ズーム位置は、前記方向情報および角度情報に対応する方向に所定の速度で自動的に変化する、請求項9に記載のクライアント端末。
  17. 前記クライアント端末は、操作入力部をさらに備え、
    前記ズーム位置は、前記操作入力部により検出されたユーザによるズーム操作に応じて変化する、請求項9に記載のクライアント端末。
  18. コンピュータに、
    クライアント端末の位置を示す現在位置情報向きを示す方向情報、および仰角を示す角度情報を送信する送信部と、
    前記クライアント端末の位置から前記方向情報および角度情報に対応する方向に伸びる軸線付近の位置に相当する検知位置情報が付加された感覚データを受信する受信部と、
    前記受信部により受信した前記感覚データを出力するよう制御する出力制御部と、
    として機能させ
    前記送信部は、前記クライアント端末の位置から前記軸線上におけるズーム位置までの距離を示すズーム距離情報をさらに送信し、
    前記受信部は、前記軸線付近であって、かつ前記クライアント端末の位置から前記ズーム距離情報で示される距離周辺の位置に相当する検知位置情報が付加された感覚データを受信する、プログラム。
JP2012152088A 2012-07-06 2012-07-06 サーバ、クライアント端末、およびプログラム Active JP5949234B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2012152088A JP5949234B2 (ja) 2012-07-06 2012-07-06 サーバ、クライアント端末、およびプログラム
US13/927,392 US9088723B2 (en) 2012-07-06 2013-06-26 Server, client terminal, and program
CN201310263956.6A CN103533421B (zh) 2012-07-06 2013-06-28 服务器以及客户终端
US14/741,018 US9817630B2 (en) 2012-07-06 2015-06-16 Server and client terminal for providing a result based on zoom operation

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012152088A JP5949234B2 (ja) 2012-07-06 2012-07-06 サーバ、クライアント端末、およびプログラム

Publications (2)

Publication Number Publication Date
JP2014016694A JP2014016694A (ja) 2014-01-30
JP5949234B2 true JP5949234B2 (ja) 2016-07-06

Family

ID=49878266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012152088A Active JP5949234B2 (ja) 2012-07-06 2012-07-06 サーバ、クライアント端末、およびプログラム

Country Status (3)

Country Link
US (2) US9088723B2 (ja)
JP (1) JP5949234B2 (ja)
CN (1) CN103533421B (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5949234B2 (ja) * 2012-07-06 2016-07-06 ソニー株式会社 サーバ、クライアント端末、およびプログラム
US9588586B2 (en) * 2014-06-09 2017-03-07 Immersion Corporation Programmable haptic devices and methods for modifying haptic strength based on perspective and/or proximity
JP6795611B2 (ja) 2016-11-08 2020-12-02 ヤマハ株式会社 音声提供装置、音声再生装置、音声提供方法及び音声再生方法
CN108076415B (zh) * 2016-11-16 2020-06-30 南京大学 一种多普勒音效的实时实现方法
JP6990042B2 (ja) * 2017-05-15 2022-01-12 ヤマハ株式会社 音声提供装置及び音声提供方法
JP2023025724A (ja) * 2021-08-11 2023-02-24 株式会社ジェイテクト 情報提供システム、方法、及びプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11316769A (ja) * 1996-06-11 1999-11-16 Masanobu Kujirada バ―チャルトラベルシステム
JP4138290B2 (ja) 2000-10-25 2008-08-27 松下電器産業株式会社 ズームマイクロホン装置
US6931138B2 (en) * 2000-10-25 2005-08-16 Matsushita Electric Industrial Co., Ltd Zoom microphone device
JP3811071B2 (ja) * 2002-01-15 2006-08-16 富士通株式会社 ユーザ端末
GB2414369B (en) * 2004-05-21 2007-08-01 Hewlett Packard Development Co Processing audio data
JP2006339991A (ja) * 2005-06-01 2006-12-14 Matsushita Electric Ind Co Ltd マルチチャンネル収音装置、マルチチャンネル音声再生装置、およびマルチチャンネル収音再生装置
JP2009141469A (ja) * 2007-12-04 2009-06-25 Toshiba Corp 音声端末及び通話システム
CN101510074B (zh) * 2009-02-27 2010-12-08 河北大学 一种高临场感智能感知交互运动***及实现方法
JP5449894B2 (ja) * 2009-07-21 2014-03-19 Kddi株式会社 関心地点表示システム、装置及び方法
US8989401B2 (en) * 2009-11-30 2015-03-24 Nokia Corporation Audio zooming process within an audio scene
US9288599B2 (en) * 2011-06-17 2016-03-15 Nokia Technologies Oy Audio scene mapping apparatus
EP2774022B1 (en) * 2011-10-31 2018-07-18 Sony Mobile Communications Inc. Amplifying audio-visual data based on user's head orientation
JP5949234B2 (ja) * 2012-07-06 2016-07-06 ソニー株式会社 サーバ、クライアント端末、およびプログラム

Also Published As

Publication number Publication date
JP2014016694A (ja) 2014-01-30
CN103533421B (zh) 2017-11-28
US20150301790A1 (en) 2015-10-22
US20140009644A1 (en) 2014-01-09
CN103533421A (zh) 2014-01-22
US9817630B2 (en) 2017-11-14
US9088723B2 (en) 2015-07-21

Similar Documents

Publication Publication Date Title
JP5949234B2 (ja) サーバ、クライアント端末、およびプログラム
CN107111492B (zh) 跨诸设备缩放数字个人助理代理
KR101829855B1 (ko) 컴퓨팅 디바이스 상에서의 음성 액션들
KR101894499B1 (ko) 상태-종속 쿼리 응답
CN106652996B (zh) 一种提示音生成方法和装置、移动终端
US8306641B2 (en) Aural maps
WO2020103548A1 (zh) 视频合成方法、装置、终端及存储介质
US9942685B2 (en) Navigation with three dimensional audio effects
US20130053007A1 (en) Gesture-based input mode selection for mobile devices
EP2672400A1 (en) Apparatus and method of tracking location of wireless terminal based on image
JP2013161416A (ja) サーバ、クライアント端末、システム、およびプログラム
KR20150006237A (ko) 전자 기기 및 그 구동 방법
CN109729372A (zh) 直播间切换方法、装置、终端、服务器及存储介质
JPWO2006025422A1 (ja) 処理制御装置、その方法、そのプログラム、および、そのプログラムを記録した記録媒体
US20120303265A1 (en) Navigation system with assistance for making multiple turns in a short distance
CN106506437B (zh) 一种音频数据处理方法,及设备
CN109218982A (zh) 景点信息获取方法、装置、移动终端以及存储介质
JPWO2010131333A1 (ja) コンテンツ検索装置、コンテンツ検索方法、コンテンツ検索プログラムおよび記録媒体
CN105917329B (zh) 信息显示装置和信息显示程序
CN112839107B (zh) 推送内容的确定方法、装置、设备及计算机可读存储介质
CN1946985A (zh) 音频信息输出装置及音频信息输出方法
KR101710543B1 (ko) 이동 단말기 및 이동 단말기의 제어 방법
CN110891122A (zh) 一种壁纸推送方法及电子设备
WO2017134868A1 (ja) 情報処理装置、情報処理方法およびプログラム
US10419671B2 (en) System, method, and program for displaying omnidirectional camera image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20150904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151124

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160523

R151 Written notification of patent or utility model registration

Ref document number: 5949234

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250