CN112435677A - 智能眼镜及*** - Google Patents

智能眼镜及*** Download PDF

Info

Publication number
CN112435677A
CN112435677A CN202011159056.3A CN202011159056A CN112435677A CN 112435677 A CN112435677 A CN 112435677A CN 202011159056 A CN202011159056 A CN 202011159056A CN 112435677 A CN112435677 A CN 112435677A
Authority
CN
China
Prior art keywords
target
module
glasses
information
coding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202011159056.3A
Other languages
English (en)
Inventor
刘秋英
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Xian Wanxiang Electronics Technology Co Ltd
Original Assignee
Xian Wanxiang Electronics Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Xian Wanxiang Electronics Technology Co Ltd filed Critical Xian Wanxiang Electronics Technology Co Ltd
Priority to CN202011159056.3A priority Critical patent/CN112435677A/zh
Publication of CN112435677A publication Critical patent/CN112435677A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/28Constructional details of speech recognition systems
    • G10L15/30Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/42Methods or arrangements for coding, decoding, compressing or decompressing digital video signals characterised by implementation details or hardware specially adapted for video compression or decompression, e.g. dedicated software implementation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/44Decoders specially adapted therefor, e.g. video decoders which are asymmetric with respect to the encoder
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

本公开提供一种智能眼镜及***,涉及穿戴设备技术领域,所述智能眼镜包括眼镜本体和电路模块,电路模块包括处理芯片、信号输入模块和信号输出模块;信号输入模块用于将获取的目标采集信息发送至处理芯片;处理芯片用于根据目标采集信息确定目标编码信息,并将目标编码信息发送给处理芯片;处理芯片控制信号输出模块展示解码后的目标编码信息。本公开由目标虚拟眼镜完成所有的业务处理,智能眼镜对目标编码信息解析即可,从而减轻了智能眼镜的运行负担。

Description

智能眼镜及***
技术领域
本公开涉及穿戴设备技术领域,尤其涉及智能眼镜及***。
背景技术
传统眼镜的功能是用来改善视力、保护眼睛或作装饰用途的用品,而随着科技的发展,逐渐出现了智能眼镜。智能眼镜可通过语音或动作操控完成拍摄照片、开启视频等功能,并可以通过移动通讯网络来实现无线网络的接入等。
相关技术中,智能眼镜上配置有处理器、麦克风、摄像头以及其他***器件,智能眼镜的所有运算都由本地的处理器来执行,从而增加了智能眼镜的运行负担。
发明内容
本公开实施例提供一种智能眼镜及***,能够解决现有技术中增加智能眼镜运行负担的问题。所述技术方案如下:
根据本公开实施例的第一方面,提供一种智能眼镜,包括眼镜本体和位于所述眼镜本体上的电路模块,所述电路模块包括处理芯片、以及与所述处理芯片连接的信号输入模块和信号输出模块,所述眼镜本体包括镜架和与所述镜架连接的镜片;
所述信号输入模块,用于将获取的目标采集信息发送至所述处理芯片;
所述处理芯片,用于根据所述目标采集信息生成目标指令,并将所述目标指令发送至与所述智能眼镜对应的目标虚拟眼镜,使得所述目标虚拟眼镜根据所述目标指令确定目标编码信息,并将所述目标编码信息发送至所述处理芯片;
所述处理芯片,还用于对所述目标编码信息进行解码,并控制所述信号输出模块展示解码后的所述目标编码信息。
本公开实施例提供一种智能眼镜,包括处理芯片、信号输入模块和信号输出模块,处理芯片接收信号输入模块获取的目标采集信息,并根据目标采集信息生成目标指令,将目标指令发送至与智能眼镜对应的目标虚拟眼镜,使得目标虚拟眼镜根据目标指令确定目标编码信息,进而将目标编码信息发送给智能眼镜的处理芯片,由处理芯片进行解码显示。可知,本公开的智能眼镜只需将目标指令发送给目标虚拟眼镜,由目标虚拟眼镜完成所有的业务处理,智能眼镜对目标编码信息解析即可,从而减轻了智能眼镜的运行负担。
在一个实施例中,所述处理芯片包括处理器、与所述处理器连接的编解码组件;所述编解码组件至少包括以下之一:音频编解码模块、视频编解码模块和图像编解码模块。
在一个实施例中,所述电路模块还包括与所述处理器连接的缓存组件;所述缓存组件包括指令缓存模块、数据缓存模块和二级缓存模块。
在一个实施例中,所述电路模块还包括与所述处理器连接的以下至少一个模块:数据传输模块、内存模块和数据接口模块。
在一个实施例中,所述信号输入模块至少包括以下之一:麦克风、手势识别模块、定位模块、摄像头模块、按键模块和传感器组件;
在所述信号输入模块包括所述麦克风时,所述麦克风通过所述音频编解码模块与所述处理器连接;
在所述信号输入模块包括所述摄像头模块时,所述摄像头模块通过所述视频编解码模块与所述处理器连接,和/或,所述摄像头模块通过所述图像编解码模块与所述处理器连接;
在所述信号输入模块包括所述手势识别模块、所述按键模块、所述定位模块和所述传感器组件时,所述手势识别模块、所述按键模块、所述定位模块和所述传感器组件均与所述处理器连接。
在一个实施例中,所述传感器组件至少包括以下一种:惯性测量单元、重力检测模块、方向检测模块、光亮检测模块、指纹识别模块和生物检测模块。
在一个实施例中,所述信号输出模块至少包括以下之一:扬声器、耳机接口和显示模块;
在所述信号输出模块包括扬声器和所述耳机接口时,所述扬声器和所述耳机接口均通过所述音频编解码模块与所述处理器连接;
在所述信号输出模块包括所述显示模块时,所述显示模块与所述处理器连接。
根据本公开实施例的第二方面,提供一种智能眼镜***,包括云服务器和上述任一项实施例所述的智能眼镜,所述云服务器包括至少一个虚拟眼镜;
所述智能眼镜,用于在获取到目标采集信息时,将所述目标采集信息生成目标指令,并将所述目标指令发送至与所述智能眼镜对应的目标虚拟眼镜;
所述目标虚拟眼镜,用于根据所述目标指令确定目标编码信息,并将所述目标编码信息发送至所述智能眼镜;
所述智能眼镜,还用于对所述目标编码信息进行解码,并展示解码后的所述目标编码信息。
本公开实施例提供一种智能眼镜***,智能眼镜将获取的目标采集信息,生成目标指令,并将目标指令发送至与智能眼镜对应的目标虚拟眼镜,使得目标虚拟眼镜根据目标指令确定目标编码信息,进而将目标编码信息发送给智能眼镜,由智能眼镜进行解码显示。可知,本公开的智能眼镜只需将目标指令发送给目标虚拟眼镜,由目标虚拟眼镜完成所有的业务处理,智能眼镜对目标编码信息解析即可,从而减轻了智能眼镜的运行负担。
在一个实施例中,所述服务器还包括管理模块;
所述智能眼镜,还用于获取目标登录信息,并将所述目标登录信息发送至所述管理模块;
所述管理模块,用于在确定所述目标登录信息合法时,控制所述目标虚拟眼镜与所述智能眼镜建立通信连接,并为所述目标虚拟眼镜分配对应的目标图形处理资源。
在一个实施例中,所述目标虚拟眼镜,具体用于根据所述目标指令生成目标显示界面,并将所述目标显示界面发送至对应的目标图形处理资源;
所述目标图形处理资源,用于对所述目标显示界面进行渲染编码,得到目标编码数据。
在一个实施例中,所述智能眼镜,还用于在未获取到目标采集信息时,向所述管理模块发送断开指令;
所述管理模块,用于断开所述智能眼镜与所述目标虚拟眼镜之间的通信连接,并释放所述目标图形处理资源。
在一个实施例中,所述目标采集信息至少包括以下之一:目标语音信息、目标手势信息、目标图像信息、目标按键输入信息、目标定位信息和目标传感信。
应当理解的是,以上的一般描述和后文的细节描述仅是示例性和解释性的,并不能限制本公开。
附图说明
此处的附图被并入说明书中并构成本说明书的一部分,示出了符合本公开的实施例,并与说明书一起用于解释本公开的原理。
图1是本公开实施例提供的一种智能眼镜的示意图;
图2是本公开实施例提供的一种智能眼镜的示意图;
图3是本公开实施例提供的一种智能眼镜的示意图;
图4是本公开实施例提供的一种智能眼镜的示意图;
图5是本公开实施例提供的一种智能眼镜***的框架图。
图6是本公开实施例提供的一种智能眼镜***的框架图。
具体实施方式
这里将详细地对示例性实施例进行说明,其示例表示在附图中。下面的描述涉及附图时,除非另有表示,不同附图中的相同数字表示相同或相似的要素。以下示例性实施例中所描述的实施方式并不代表与本公开相一致的所有实施方式。相反,它们仅是与如所附权利要求书中所详述的、本公开的一些方面相一致的装置和方法的例子。
本公开实施例提供一种智能眼镜,如图1所示,该智能眼镜包括眼镜本体和位于所述眼镜本体上的电路模块,所述电路模块包括处理芯片1、以及与所述处理芯片1连接的信号输入模块2和信号输出模块3,所述眼镜本体包括镜架和与所述镜架连接的镜片。
所述信号输入模块2,用于将获取的目标采集信息发送至所述处理芯片1。
所述处理芯片1,用于根据所述目标采集信息生成目标指令,并将所述目标指令发送至与所述智能眼镜对应的目标虚拟眼镜,使得所述目标虚拟眼镜根据所述目标指令确定目标编码信息,并将所述目标编码信息发送至所述处理芯片1。
所述处理芯片1,还用于对所述目标编码信息进行解码,并控制所述信号输出模块3展示解码后的所述目标编码信息。
其中,如图2所示,所述信号输入模块2至少包括以下之一:麦克风21、手势识别模块22、定位模块23、摄像头模块24、按键模块25和传感器组件26,所述信号输出模块3至少包括以下之一:扬声器31、耳机接口32和显示模块33,显示模块33可以与镜片集成,组成OLED(Organic Light-Emitting Diode,有机发光二极管)显示镜片,定位模块23包括GPS(Global Positioning System(全球定位***)定位、北斗定位、小区定位中的至少一种;所述传感器组件26至少包括以下一种:惯性测量单元、重力检测模块、方向检测模块、光亮检测模块、指纹识别模块和生物检测模块。
其中,惯性测量单元用于测量物体的三轴姿态角以及加速度,通常一个惯性测量单元包含三个单轴的加速度计和三个单轴的陀螺,加速度计检测物体在载体坐标***独立三轴的加速度信号,而陀螺检测载体相对于导航坐标系的角速度信号,测量物体在三维空间中的角速度和加速度,并以此解算出物体的姿态。
重力检测模块即为重力传感器,用于测量物体的重量;方向检测模块即为方向传感器,用于测量方向信息;光亮检测模块即为光亮传感器,用于检测物体所处环境的亮度信息;指纹识别模块用于识别用户指纹信息;生物检测模块即为生物传感器,用于检测食品成分或者环境成分等。
示例的,以信号输入模块2为麦克风21为例,用户可通过麦克风21说“看电视”,则信号输入模块2接收到的目标采集信息即为看电视的语音信息,并将该语音信息发送给处理芯片1,处理芯片1将该语音信息转化为语音指令,并将该语音指令发送给云服务器中与智能眼镜对应的目标虚拟眼镜,由目标虚拟眼镜解析该语音指令,打开相应的应用程序,例如,打开默认播放器,或者显示多个播放器供用户选择,此时,目标虚拟眼镜将打开播放器的页面生成目标显示界面,并将目标显示界面发送给目标虚拟眼镜对应的目标图形处理资源,由目标图形处理资源对目标显示界面渲染后进行编码,得到目标编码信息,最后将目标编码信息通过目标虚拟眼镜返回至智能眼镜的处理芯片1,由处理芯片1对目标编码信息进行解码,得到播放界面,最终将解码后的数据通过信号输出模块3进行显示,便于用户根据显示的播放界面选择所需的播放内容;其中,该信号输出模块3可以为虚拟显示单元。
示例的,以信号输入模块2为手势识别模块22为例,用户可根据需求比划目标手势,使得手势识别模块22采集该目标手势信息,将该目标手势信息发送给处理芯片1,处理芯片1将该目标手势信息转化为手势指令后发送给目标虚拟眼镜,由目标虚拟眼镜解析该手势指令,打开相应页面,此时,目标虚拟眼镜将打开的页面生成目标显示界面,并将目标显示界面发送给目标虚拟眼镜对应的目标图形处理资源,由目标图形处理资源对目标显示界面渲染后进行编码,得到目标编码信息,最后将目标编码信息通过目标虚拟眼镜返回至智能眼镜的处理芯片1,由处理芯片1对目标编码信息进行解码,最终将解码后的数据通过信号输出模块3进行显示;基于目标手势可以控制智能眼镜播放语音、显示视频图像或者显示所需文字图片信息等。
进一步的,如图2所示,所述处理芯片1包括处理器11、与所述处理器11连接的编解码组件;所述编解码组件至少包括以下之一:音频编解码模块12、视频编解码模块13和图像编解码模块14。
其中,在所述信号输入模块2包括所述麦克风21时,所述麦克风21通过所述音频编解码模块12与所述处理器11连接;在所述信号输入模块2包括所述摄像头模块24时,所述摄像头模块24通过所述视频编解码模块13与所述处理器11连接,和/或,所述摄像头模块24通过所述图像编解码模块14与所述处理器11连接;在所述信号输入模块2包括所述手势识别模块22、所述按键模块25、所述定位模块23和所述传感器组件26时,所述手势识别模块22、所述按键模块25、所述定位模块23和所述传感器组件26均与所述处理器11连接。
在所述信号输出模块3包括扬声器31和所述耳机接口32时,所述扬声器31和所述耳机接口32均通过所述音频编解码模块12与所述处理器11连接;在所述信号输出模块3包括所述显示模块33时,所述显示模块33与所述处理器11连接。
示例的,音频编解码模块12用于对语音数据进行编码或者解码;视频编解码模块13用于对视频数据进行编码或者解码,可以为H264编解码器,或者H265编解码器;图像编解码模块14中集成有专门基于图像处理的图传协议,例如,图传协议为vGTP(实时图像压缩传输协议)协议,vGTP协议是一种实时图像压缩传输协议,用于对图像数据进行编码或解码;本公开通过视频编解码模块13专门编解码视频数据,通过图像编解码模块14专门编解码图像数据,相对于现有技术中视频和图像均由视频编解码模块进行编解码来说,使得图像更加清晰,且能够减少编解码的时延。
需要说明的是,智能眼镜的处理器11在接收到目标编码信息时,首先确定目标编码信息的类型,在确定目标编码信息的类型为语音数据时,则控制音频编解码模块12进行解码处理;在确定目标编码信息的类型为视频数据时,则控制视频编解码模块13进行解码处理;在确定目标编码信息的类型为图像数据时,则控制图像编解码模块14进行解码处理。
进一步的,如图3所示,所述电路模块还包括与所述处理器11连接的缓存组件4;所述缓存组件4包括指令缓存模块、数据缓存模块和二级缓存模块。
其中,指令缓存模块通常都是顺序取指,遇到分支指令也会跳转;数据缓存模块的访问模式变化较大,指令只有读和再填充,没有写;而数据有读也有写,所以将指令和数据分离,能够保证指令和数据相互独立,减少干扰。即在指令缓存模块中存储有处理器11需要的指令,在处理器11的取指阶段,通过程序计数器提供给指令缓存模块的地址,处理器11可以获取需要的指令;在数据缓存模块中存储有数据,并提供对于下载和存储指令所要操作地址的数据。另外,指令缓存模块与处理器11之间的接口是单向的,数据缓存模块与处理器11之间的接口是双向的。这样处理的原因在于指令缓存模块存储的是指令,不需要更改所存储的数据的值;而数据缓存模块存储的是数据,数据的值会根据指令操作的不同而改变。比如,在运行存储指令的时候会对数据缓存模块中相应地址进行写入数据的操作。
二级缓存模块是在独立芯片上(有可能是在一个扩展卡上),它的访问速度能比大的主存要快得多。通常一个二级缓存的大小为1024Kb(千字节)。
进一步的,如图4所示,所述电路模块还包括与所述处理器11连接的以下至少一个模块:数据传输模块5、内存模块6和数据接口模块7。
其中,数据传输模块5可以为无线传输模块,该无线传输模块集成有2G、3G,4G,5G,WIFI(Wireless-Fidelity,无线保真),蓝牙,ZigBee(紫蜂),MESH(multi-hop,多跳)、COFDM(coded orthogonal frequency division multiplexing,编码正交频分复用)、WOFDM(Wideband Orthogonal Frequency Division Multiplexing,宽带正交频分复用),对讲等中间任意一种或多种现代数字通信网络。
内存模块6可以为DDR(Double Data Rate,双倍速率)SDRAM(synchronousdynamic random-access memory,同步动态随机存取内存),是一种高速CMOS(Complementary Metal Oxide Semiconductor,互补金属氧化物半导体)动态随即访问的内存。
数据接口模块7至少包括第一类接口和第二类接口,第一类接口至少包括以下之一:eMMC(Embedded Multi Media Card)接口,SDIO(Secure Digital Input and OutputCard,安全数字输入输出卡)接口,GMAC(千兆网媒体访问控制)接口,USB(UniversalSerial Bus,通用串行总线)接口,Type—C接口,I2S(Inter—IC Sound,集成电路内置音频总线)接口;第二类接口至少包括以下之一:RTC接口,I2C(Inter-Integrated Circuit)接口,GPIOS(General-purpose input/output,通用输入/输出)接口,UART(UniversalAsynchronous Receiver/Transmitter,通用异步收发传输器)接口,SPI(SerialPeripheral Interface,串行外设接口)接口。
需要说明的是,上述的传感器组件26中的各个传感器也可通过第一类接口或者第二类接口与处理器11连接。
需要说明的是,上述的信号输入模块2、信号输出模块3、数据传输模块5、内存模块6、缓存组件4和数据接口模块7等可以单独设置在眼镜本体的镜架中,也可以集成在处理芯片1中,集成在处理芯片1中可以增加芯片的集成度,缩小芯片的体积。
需要说明的是,智能眼镜还可以包括闪光灯,将闪光灯设置在镜架上或者镜片周围等。
本公开实施例提供一种智能眼镜,包括处理芯片1、信号输入模块2和信号输出模块3,处理芯片1接收信号输入模块2获取的目标采集信息,并根据目标采集信息生成目标指令,将目标指令发送至与智能眼镜对应的目标虚拟眼镜,使得目标虚拟眼镜根据目标指令确定目标编码信息,进而将目标编码信息发送给智能眼镜的处理芯片1,由处理芯片1进行解码显示。可知,本公开的智能眼镜只需将目标指令发送给目标虚拟眼镜,由目标虚拟眼镜完成所有的业务处理,智能眼镜对目标编码信息解析即可,从而减轻了智能眼镜的运行负担。
图5是本公开实施例提供的一种智能眼镜***的框架图,如图5所示的智能眼镜***包括云服务器501和上述任一实施例所述的智能眼镜502。
其中,云服务器501包括至少一个虚拟眼镜5011,云服务器501与智能眼镜502之间通过无线接入调制解调器模块建立网络通道。
所述智能眼镜502,用于在获取到目标采集信息时,将所述目标采集信息生成目标指令,并将所述目标指令发送至与所述智能眼镜对应的目标虚拟眼镜5011。
所述目标虚拟眼镜5011,用于根据所述目标指令确定目标编码信息,并将所述目标编码信息发送至所述智能眼镜502。
所述智能眼镜502,还用于对所述目标编码信息进行解码,并展示解码后的所述目标编码信息。
其中,所述目标采集信息至少包括以下之一:目标语音信息、目标手势信息、目标图像信息、目标按键输入信息、目标定位信息和目标传感信息。
所述目标虚拟眼镜5011,具体用于根据所述目标指令生成目标显示界面,并将所述目标显示界面发送至对应的目标图形处理资源5012。
所述目标图形处理资源5012,用于对所述目标显示界面进行渲染编码,得到目标编码数据。
示例的,目标采集信息为目标语音信息为例,用户通过麦克风说“看电视”,则智能眼镜502接收到的目标采集信息即为看电视的语音信息,将该语音信息转化为语音指令,并将该语音指令发送给云服务器501中与智能眼镜502对应的目标虚拟眼镜5011,由目标虚拟眼镜5011解析该语音指令,打开相应的应用程序,例如,打开默认播放器,或者显示多个播放器供用户选择,此时,目标虚拟眼镜5011将打开播放器的页面生成目标显示界面,并将目标显示界面发送给目标虚拟眼镜5011对应的目标图形处理资源5012,由目标图形处理资源5012对目标显示界面渲染后进行编码,得到目标编码信息,最后将目标编码信息通过目标虚拟眼镜5011返回至智能眼镜502,由智能眼镜502对目标编码信息进行解码,得到播放界面,最终将解码后的数据进行显示。
示例的,用户基于智能眼镜502显示的播放界面,可以采用手势来控制播放界面的内容,用户可根据需求比划目标手势,使得手势识别模块采集该目标手势信息,将该目标手势信息发送给智能眼镜502,智能眼镜502将该目标手势信息转化为手势指令后发送给目标虚拟眼镜5011,由目标虚拟眼镜5011解析该手势指令,打开相应页面,此时,目标虚拟眼镜5011将打开的页面生成目标显示界面,并将目标显示界面发送给目标虚拟眼镜5011对应的目标图形处理资源5012,由目标图形处理资源5012对目标显示界面渲染后进行编码,得到目标编码信息,最后将目标编码信息通过目标虚拟眼镜5011返回至智能眼镜502,由智能眼镜502对目标编码信息进行解码,最终将解码后的数据进行显示。
示例的,目标采集信息还可以为目标图像信息,用户可通过摄像头模块拍摄多角度的画面,并根据该多角度的画面信息生成目标指令发送给目标虚拟眼镜5011,目标虚拟眼镜5011根据每个画面信息和画面信息对应的角度位置信息进行数据综合处理,形成全景界面,即为目标显示界面,并将该全景界面发送给目标图形处理资源5012,由目标图形处理资源5012对全景界面渲染后进行编码,得到目标编码信息,最后将目标编码信息通过目标虚拟眼镜5011返回至智能眼镜502,由智能眼镜502对目标编码信息进行解码,最终将解码后的数据进行显示,使得用户通过智能眼镜502查看全景界面。可适用于在丛林、山地等地方进行穿越时,眼镜本身看不到全部的周围环境,比较危险的场景。可以借助智能眼镜502的摄像头看到山地或者丛林的全景面貌。
示例的,目标采集信息还可以为目标图像信息和目标定位信息,智能眼镜502通过摄像头模块采集目标图像信息,通过定位模块采集目标定位信息,并根据目标图像信息和目标定位信息生成目标指令,将该目标指令发送给目标虚拟眼镜5011,由目标虚拟眼镜5011对目标指令进行解析,将得到的目标定位信息添加在目标图像信息中,得到包含定位信息的全景界面,并将该包含定位信息的全景界面发送给目标图形处理资源5012,由目标图形处理资源5012对该包含定位信息的全景界面渲染后进行编码,得到目标编码信息,最后将目标编码信息通过目标虚拟眼镜5011返回至智能眼镜502,由智能眼镜502对目标编码信息进行解码,最终将解码后的数据进行显示,使得用户能够看到自身所处位置的图像信息。
需要说明的是,图5中是以3个虚拟眼镜和3个智能眼镜为例,具体3个虚拟眼镜分别为虚拟眼镜1、虚拟眼镜2和虚拟眼镜3,3个智能眼镜分别为智能眼镜1、智能眼镜2和智能眼镜3。
进一步的,如图6所示,所述服务器还包括管理模块5013。
所述智能眼镜502,还用于获取目标登录信息,并将所述目标登录信息发送至所述管理模块5013。
所述管理模块5013,用于在确定所述目标登录信息合法时,控制所述目标虚拟眼镜5011与所述智能眼镜502建立通信连接,并为所述目标虚拟眼镜5011分配对应的目标图形处理资源5012。
示例的,智能眼镜502通过获取云服务器501的IP地址建立智能眼镜502与云服务器501之间的连接,然后用户输入目标登录信息,使得智能眼镜502将获取到的目标登录信息发送至云服务器501的管理模块5013,管理模块5013将接收到的目标登录信息与预先存储的登录信息进行比较,在确定目标登录信息与预先存储的登录信息匹配时,说明目标登录信息合法,此时控制目标虚拟眼镜5011与智能眼镜502建立通信连接,并为目标虚拟眼镜5011分配对应的目标图形处理资源5012;在目标虚拟眼镜5012与智能眼镜502建立通信连接之后,智能眼镜502就可以直接与目标虚拟眼镜5012相互通信。具体目标登录信息可以为通过麦克风获取的声音信息,也可以为通过指纹识别模块获取的指纹信息,也可以为通过脸部识别模块获取的人脸信息,也可以通过按键模块获取用户输入的账号密码信息等。
进一步的,所述智能眼镜502,还用于在未获取到目标采集信息时,向所述管理模块5013发送断开指令。
所述管理模块5013,用于断开所述智能眼镜502与所述目标虚拟眼镜5011之间的通信连接,并释放所述目标图形处理资源5012。
示例的,智能眼镜502在预设时间内未接收到用户输入的目标采集信息时,则确定用户此时不想使用智能眼镜502,此时智能眼镜502向云服务器501的管理模块5013发送断开指令,使得管理模块5013控制智能眼镜502与目标虚拟眼镜5011之间的通信连接,并释放目标虚拟眼镜5011对应的目标图形处理资源5012。即在智能眼镜502与目标虚拟眼镜5011之间进行通信时,目标图形处理资源5012被占用;在智能眼镜502与目标虚拟眼镜5011之间不进行通信时,目标图形处理资源5012被释放,便于实现图形处理资源的共享,可以更加合理的利用资源。
需要说明的是,该智能眼镜502可以安装一个简易的操作***,而云服务器501上运行的虚拟眼镜可以选择Windows***,Android***或者OS***等,所有复杂的图像处理均在云服务器501中进行。注意的是,本公开的智能眼镜502,本地仅仅进行对数据的解码,并进行输出或者显示,对数据的处理全部由云服务器501中进行,可以减轻智能眼镜侧的运行负担,从而还可以降低功耗,提高智能眼镜502的续航能力。
本公开实施例提供一种智能眼镜***,智能眼镜502将获取的目标采集信息,生成目标指令,并将目标指令发送至与智能眼镜502对应的目标虚拟眼镜5011,使得目标虚拟眼镜5011根据目标指令确定目标显示界面,并通过目标图形处理资源5012对目标显示界面进行渲染编码得到目标编码信息,进而将目标编码信息通过目标虚拟眼镜5011发送给智能眼镜502,由智能眼镜502进行解码显示。可知,本公开的智能眼镜502只需将目标指令发送给目标虚拟眼镜5011,由目标虚拟眼镜5011完成所有的业务处理,智能眼镜502对目标编码信息解析即可,从而减轻了智能眼镜502的运行负担。
本领域普通技术人员可以理解实现上述实施例的全部或部分步骤可以通过硬件来完成,也可以通过程序来指令相关的硬件完成,所述的程序可以存储于一种计算机可读存储介质中,上述提到的存储介质可以是只读存储器,磁盘或光盘等。
本领域技术人员在考虑说明书及实践这里公开的公开后,将容易想到本公开的其它实施方案。本申请旨在涵盖本公开的任何变型、用途或者适应性变化,这些变型、用途或者适应性变化遵循本公开的一般性原理并包括本公开未公开的本技术领域中的公知常识或惯用技术手段。说明书和实施例仅被视为示例性的,本公开的真正范围和精神由下面的权利要求指出。

Claims (12)

1.一种智能眼镜,其特征在于,包括眼镜本体和位于所述眼镜本体上的电路模块,所述电路模块包括处理芯片、以及与所述处理芯片连接的信号输入模块和信号输出模块,所述眼镜本体包括镜架和与所述镜架连接的镜片;
所述信号输入模块,用于将获取的目标采集信息发送至所述处理芯片;
所述处理芯片,用于根据所述目标采集信息生成目标指令,并将所述目标指令发送至与所述智能眼镜对应的目标虚拟眼镜,使得所述目标虚拟眼镜根据所述目标指令确定目标编码信息,并将所述目标编码信息发送至所述处理芯片;
所述处理芯片,还用于对所述目标编码信息进行解码,并控制所述信号输出模块展示解码后的所述目标编码信息。
2.根据权利要求1所述的智能眼镜,其特征在于,所述处理芯片包括处理器、与所述处理器连接的编解码组件;所述编解码组件至少包括以下之一:音频编解码模块、视频编解码模块和图像编解码模块。
3.根据权利要求2所述的智能眼镜,其特征在于,所述电路模块还包括与所述处理器连接的缓存组件;所述缓存组件包括指令缓存模块、数据缓存模块和二级缓存模块。
4.根据权利要求2所述的智能眼镜,其特征在于,所述电路模块还包括与所述处理器连接的以下至少一个模块:数据传输模块、内存模块和数据接口模块。
5.根据权利要求2所述的智能眼镜,其特征在于,所述信号输入模块至少包括以下之一:麦克风、手势识别模块、定位模块、摄像头模块、按键模块和传感器组件;
在所述信号输入模块包括所述麦克风时,所述麦克风通过所述音频编解码模块与所述处理器连接;
在所述信号输入模块包括所述摄像头模块时,所述摄像头模块通过所述视频编解码模块与所述处理器连接,和/或,所述摄像头模块通过所述图像编解码模块与所述处理器连接;
在所述信号输入模块包括所述手势识别模块、所述按键模块、所述定位模块和所述传感器组件时,所述手势识别模块、所述按键模块、所述定位模块和所述传感器组件均与所述处理器连接。
6.根据权利要求5所述的智能眼镜,其特征在于,所述传感器组件至少包括以下一种:惯性测量单元、重力检测模块、方向检测模块、光亮检测模块、指纹识别模块和生物检测模块。
7.根据权利要求2所述的智能眼镜,其特征在于,所述信号输出模块至少包括以下之一:扬声器、耳机接口和显示模块;
在所述信号输出模块包括扬声器和所述耳机接口时,所述扬声器和所述耳机接口均通过所述音频编解码模块与所述处理器连接;
在所述信号输出模块包括所述显示模块时,所述显示模块与所述处理器连接。
8.一种智能眼镜***,其特征在于,包括云服务器和权利要求1-7任一项所述的智能眼镜,所述云服务器包括至少一个虚拟眼镜;
所述智能眼镜,用于在获取到目标采集信息时,将所述目标采集信息生成目标指令,并将所述目标指令发送至与所述智能眼镜对应的目标虚拟眼镜;
所述目标虚拟眼镜,用于根据所述目标指令确定目标编码信息,并将所述目标编码信息发送至所述智能眼镜;
所述智能眼镜,还用于对所述目标编码信息进行解码,并展示解码后的所述目标编码信息。
9.根据权利要求8所述的***,其特征在于,所述服务器还包括管理模块;
所述智能眼镜,还用于获取目标登录信息,并将所述目标登录信息发送至所述管理模块;
所述管理模块,用于在确定所述目标登录信息合法时,控制所述目标虚拟眼镜与所述智能眼镜建立通信连接,并为所述目标虚拟眼镜分配对应的目标图形处理资源。
10.根据权利要求8所述的***,其特征在于,
所述目标虚拟眼镜,具体用于根据所述目标指令生成目标显示界面,并将所述目标显示界面发送至对应的目标图形处理资源;
所述目标图形处理资源,用于对所述目标显示界面进行渲染编码,得到目标编码数据。
11.根据权利要求8所述的***,其特征在于,
所述智能眼镜,还用于在未获取到目标采集信息时,向所述管理模块发送断开指令;
所述管理模块,用于断开所述智能眼镜与所述目标虚拟眼镜之间的通信连接,并释放所述目标图形处理资源。
12.根据权利要求8所述的***,其特征在于,所述目标采集信息至少包括以下之一:目标语音信息、目标手势信息、目标图像信息、目标按键输入信息、目标定位信息和目标传感信息。
CN202011159056.3A 2020-10-26 2020-10-26 智能眼镜及*** Pending CN112435677A (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202011159056.3A CN112435677A (zh) 2020-10-26 2020-10-26 智能眼镜及***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202011159056.3A CN112435677A (zh) 2020-10-26 2020-10-26 智能眼镜及***

Publications (1)

Publication Number Publication Date
CN112435677A true CN112435677A (zh) 2021-03-02

Family

ID=74696127

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202011159056.3A Pending CN112435677A (zh) 2020-10-26 2020-10-26 智能眼镜及***

Country Status (1)

Country Link
CN (1) CN112435677A (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556423A (zh) * 2021-07-15 2021-10-26 Oppo广东移动通信有限公司 信息处理方法、装置、***、存储介质和电子设备

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113556423A (zh) * 2021-07-15 2021-10-26 Oppo广东移动通信有限公司 信息处理方法、装置、***、存储介质和电子设备
CN113556423B (zh) * 2021-07-15 2023-04-07 Oppo广东移动通信有限公司 信息处理方法、装置、***、存储介质和电子设备

Similar Documents

Publication Publication Date Title
CN115473957B (zh) 一种图像处理方法和电子设备
US9330431B2 (en) System and method for synchronizing, merging, and utilizing multiple data sets for augmented reality application
KR102063895B1 (ko) 서버, 사용자 단말 장치 및 그 제어 방법
US9716826B2 (en) Guided image capture
CN114040238B (zh) 一种显示多个窗口的方法及电子设备
US20160261841A1 (en) Method and device for synthesizing three-dimensional background content
CN114461051B (zh) 帧率切换方法、装置及存储介质
CN113554932B (zh) 轨迹回放方法及装置
KR101654053B1 (ko) 메타데이터 저장 서브시스템의 작동
CN114040242A (zh) 投屏方法和电子设备
CN111615820B (zh) 通过向grs服务器发送关键值进行域名解析的方法及设备
CN115756268A (zh) 跨设备交互的方法、装置、投屏***及终端
CN112435677A (zh) 智能眼镜及***
CN116170629A (zh) 一种传输码流的方法、电子设备及计算机可读存储介质
CN112437341B (zh) 一种视频流处理方法及电子设备
CN112315098B (zh) 智能头盔及***
KR20200003291A (ko) 서버, 사용자 단말 장치 및 그 제어 방법
CN115309547B (zh) 处理异步binder调用的方法和装置
CN114040252B (zh) 显示帧率控制方法及装置、计算机可读介质和电子设备
CN112382380A (zh) 智能手环及***
CN116939559A (zh) 蓝牙音频编码数据分发方法、电子设备及存储介质
US20180063428A1 (en) System and method for virtual reality image and video capture and stitching
CN110519319B (zh) 一种***分区的方法及装置
CN114945019A (zh) 数据传输方法、装置及存储介质
CN114494546A (zh) 一种数据处理方法、装置和电子设备

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination