CN111680135A - 一种基于隐式知识的阅读理解方法 - Google Patents
一种基于隐式知识的阅读理解方法 Download PDFInfo
- Publication number
- CN111680135A CN111680135A CN202010311468.8A CN202010311468A CN111680135A CN 111680135 A CN111680135 A CN 111680135A CN 202010311468 A CN202010311468 A CN 202010311468A CN 111680135 A CN111680135 A CN 111680135A
- Authority
- CN
- China
- Prior art keywords
- implicit knowledge
- implicit
- knowledge
- candidate answers
- reading understanding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/33—Querying
- G06F16/332—Query formulation
- G06F16/3329—Natural language query formulation or dialogue systems
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/30—Information retrieval; Database structures therefor; File system structures therefor of unstructured textual data
- G06F16/35—Clustering; Classification
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/20—Natural language analysis
- G06F40/279—Recognition of textual entities
- G06F40/284—Lexical analysis, e.g. tokenisation or collocates
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/06—Resources, workflows, human or project management; Enterprise or organisation planning; Enterprise or organisation modelling
- G06Q10/063—Operations research, analysis or management
- G06Q10/0639—Performance analysis of employees; Performance analysis of enterprise or organisation operations
- G06Q10/06393—Score-carding, benchmarking or key performance indicator [KPI] analysis
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y02—TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
- Y02D—CLIMATE CHANGE MITIGATION TECHNOLOGIES IN INFORMATION AND COMMUNICATION TECHNOLOGIES [ICT], I.E. INFORMATION AND COMMUNICATION TECHNOLOGIES AIMING AT THE REDUCTION OF THEIR OWN ENERGY USE
- Y02D10/00—Energy efficient computing, e.g. low power processors, power management or thermal management
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Business, Economics & Management (AREA)
- Human Resources & Organizations (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Development Economics (AREA)
- Biophysics (AREA)
- Databases & Information Systems (AREA)
- Software Systems (AREA)
- Educational Administration (AREA)
- Economics (AREA)
- Entrepreneurship & Innovation (AREA)
- Computing Systems (AREA)
- Strategic Management (AREA)
- Molecular Biology (AREA)
- Evolutionary Computation (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- General Business, Economics & Management (AREA)
- Tourism & Hospitality (AREA)
- Quality & Reliability (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Operations Research (AREA)
- Marketing (AREA)
- Game Theory and Decision Science (AREA)
- Human Computer Interaction (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
本发明提供一种基于隐式知识的阅读理解方法,包括:获取询问文本,并根据所述询问文本从预设的文档库获取多个候选答案;获取所述询问文本中的隐含知识,并根据所述隐含知识创建隐含问题向量;根据所述多个候选答案在所述隐含问题向量上的投影,对所述多个候选答案进行评分;根据评分结果获取最优的候选答案;本发明可有效提高问题解答的准确性。
Description
技术领域
本发明涉及自然语言处理领域,特别是涉及一种基于隐式知识的阅读理解方法。
背景技术
目前,基于问答模式的自然语言处理,大多采用问题特征与对应的文本直接匹配,获取问题答案。然而由于自然语言的语义多样性,传统的匹配方式,往往会忽略文档中隐含的关联信息,导致获取的答案准确性和完整性较低。此外,仅仅通过上下文语义加入问答匹配过程,仍然不能解决隐含信息流失的问题,而隐含信息往往包含某些客观事实的重要证据,对于自然语言的理解至关重要。
发明内容
鉴于以上所述现有技术的缺点,本发明的目的在于提供基于隐式知识的阅读理解方法,用于解决自然语言处理过程未充分考虑隐含知识导致准确性差的问题。
为实现上述目的及其他相关目的,本发明提供一种基于隐式知识的阅读理解方法,包括:
获取询问文本,并根据所述询问文本从预设的文档库获取多个候选答案;
获取所述询问文本中的隐含知识,并根据所述隐含知识创建隐含问题向量;
根据所述多个候选答案在所述隐含问题向量上的投影,对所述多个候选答案进行评分;
根据评分结果获取最优的候选答案。
可选地,根据所述询问文本获取问题表示;
根据所述问题表示从所述文档库中获取多个关联文本;
将所述关联文本和所述问题表示输入神经网络,获取所述多个候选答案。
可选地,对所述文档库中的文档进行隐含知识原子标记;
提取所述隐含知识原子标记创建隐含知识库;
将所述询问文本与所述隐含知识库进行比对,获取所述询问文本的隐含知识。
可选地,初始化所述隐含知识原子的选择权重,采用启发式算法优化所述选择权重进而对所述隐含知识原子进行搜索,提取所述隐含知识原子标记创建隐含知识库。
可选地,所述启发式算法包括遗传算法、蚁群算法、模拟退火算法中的一种。
可选地,为每个所述候选答案添加隐含知识原子,设置每个所述候选答案对应的所述隐含知识原子数相同。
可选地,经过搜索后,当两个及以上的候选答案对应同一个隐含知识原子时,为其中一个所述候选答案添加该隐含知识原子。
可选地,将所述候选答案与对应的隐含知识原子结合计算所述候选答案在所述隐含问题向量上的投影。
可选地,所述神经网络采用双向GRU网络或长短期记忆神经网络。
可选地,采用内积投影方法获取所述候选答案的评分。
如上所述,本发明提供的一种基于隐式知识的阅读理解方法,具有以下有益效果:
通过事实样本与候选答案结合,充分考虑匹配的候选答案以外的知识,丰富了阅读理解的内容,有利于提高获取答***性。
附图说明
图1为本发明一实施例中基于隐式知识的阅读理解方法的流程图。
具体实施方式
以下通过特定的具体实例说明本发明的实施方式,本领域技术人员可由本说明书所揭露的内容轻易地了解本发明的其他优点与功效。本发明还可以通过另外不同的具体实施方式加以实施或应用,本说明书中的各项细节也可以基于不同观点与应用,在没有背离本发明的精神下进行各种修饰或改变。需说明的是,在不冲突的情况下,以下实施例及实施例中的特征可以相互组合。
需要说明的是,以下实施例中所提供的图示仅以示意方式说明本发明的基本构想,遂图式中仅显示与本发明中有关的组件而非按照实际实施时的组件数目、形状及尺寸绘制,其实际实施时各组件的型态、数量及比例可为一种随意的改变,且其组件布局型态也可能更为复杂。
请参阅图1,本发明提供一种基于饮食知识的阅读理解方法,包括步骤S01-S04。
在步骤S01中,获取询问文本,并根据询问文本从预设的文档库获取多个候选答案;
根据文档所属技术领域,将文档进行归类,将同一类别的文档存入数据库中创建文档库。如法律判决文书,通常可分为交通事故类、民事纠纷类、刑事类等类别,针对不同类别创建对应的文档库,当用户需要咨询交通事故类问题时,可在交通事故判决书对应的文档库中查询用户所需答案。由于每日产生的判决文书体量巨大,可定期对文档库进行更新。
在一实施例中,可通过用户界面采集用户输入的询问文本,或收集网页论坛中的用户的询问文本,对询问文本进行分词处理,获取其中的关键特征。其中,关键特征包括关键字、关键词、关键短语等。对询问文本的关键特征进行编码获取询问文本的问题表示。可根据关键特征在询问文本中的位置进行编码,如关键特征在位置i处出现则记为1,未出现则记为0。
在一实施例中,根据问题表示的编码信息获取对应的关键特征与文档库中的多个文档进行特征比对。具体地,可预设比对的阈值,比对结果超过设定阈值时,判定文档库中对应文本为询问文本的关联文本。在另一实施例中,可采用TF-IDF方法,统计询问文本中关键特征在文档库中的单个文档中的出现频率,并统计出现对应关键词的文本数,通过词频比率计算获取统计相似度,根据相似度预先设定的相似度阈值判断哪些文本可作为询问文本对应的关联文文本。
在一实施例中,可对关联文本进行分段处理,并对每个段落分别进行特征提取和编码,获取每一段落对应的编码向量。进一步地,将每个关联文本中对应的各编码向量整合成关联文本的向量空间。将关联文本的向量空间中的向量和问题表示作为神经网络输入,获取神经网络输出对应的多个候选答案。神经网络可采用双向GRU(Gated Re-currentUnit)网络或长短期记忆神经网络。以双向GRU网络为例,将问题表示和关联文本对应的向量输入GRU网络中,获取询问文本相对于关联文本中的上下文表示。针对多个关联文本,每一个关联文本中可包含多个与询问文本关联的上下文表示,每个关联的上下文表示作为一个询问文本对应的候选答案。
在一实施例中,在神经网络运算过程中,可采用Dropout方式对网络中各节点输入按一定比率进行舍弃,减少用于计算的数据量,也可有效防止过拟合。其中,舍弃比率可设置为0.8。
在步骤S02中,获取所述询问文本中的隐含知识,并根据所述隐含知识创建隐含问题向量:
在一实施例中,可预先对文档库中的文档进行隐含知识原子标记,然后采用启发式算法对文档库进行搜索,获取相应的隐含知识原子。其中,启发式算法可包括遗传算法、蚁群算法、模拟退火算法等中的一种。以遗传算法为例,遗传算法是模拟自然进化过程搜索最优解的方法。首先从文档库中选出标记的隐含知识原子作为初代种群;初始化初代种群中隐含知识原子的选择权重,并根据选择权重设置适应度函数。经过多次种群迭代更新,当适应度函数值达到设定的阈值时,便可获取满足条件的隐含知识原子。将搜索出的隐含知识原子输入数据库中创建隐含知识库。
将询问文本与隐含知识库中的隐含知识单元进行比对,如采用相对熵或交叉熵等计算两者间分布概率的相似度,并根据比对结果将达到阈值的隐含知识原子作为询问文本的隐含知识,并将该隐含知识经过编码转化为隐含问题向量。
在步骤S03中,根据所述多个候选答案在所述隐含问题向量上的投影,对所述多个候选答案进行评分:
在一实施例中,可采用询问文本获取隐含知识原子同样的方法为每个候选答案添加隐含知识原子。为了避免文档库中出现频率更高的候选答案的频率偏差,设置每个候选答案对应的隐含知识原子数量相同。假设每个询问文本最多从文档库中选出100个隐含知识原子,并且有10个候选答案ai=1..10,则将为每个候选ai搜索10个隐含知识原子。
在一实施例中,当两个及以上的候选答案对应同一个隐含知识原子时,则只为其中一个候选答案添加该隐含知识原子。将每个候选答案对应的隐含知识按照获取的隐含知识原子的选择权重大小进行排序。并将隐含知识原子与对应的候选答案拼接在一起,经过编码得到答案向量。
在步骤S04中,根据评分结果获取最优的候选答案:
在一实施例中,通过计算答案向量在隐含问题向量上的投影,进而获取每个候选答案的评分。假设有答案向量集合(A1,A2,…An),C为隐含问题向量,则S=<C,Ai>(i=1,,,n),其中S为内积投影。可根据S的值对多个候选答案对应的答案向量进行排序,取S值最大的答案向量作为最优的候选答案输出。
综上所述,本发明一种基于饮食知识的阅读理解方法,通过在候选答案中引入额外的隐含知识,丰富了候选答案的语义,提高了问题解答的准确性。所以,本发明有效克服了现有技术中的种种缺点而具高度产业利用价值。
上述实施例仅例示性说明本发明的原理及其功效,而非用于限制本发明。任何熟悉此技术的人士皆可在不违背本发明的精神及范畴下,对上述实施例进行修饰或改变。因此,举凡所属技术领域中具有通常知识者在未脱离本发明所揭示的精神与技术思想下所完成的一切等效修饰或改变,仍应由本发明的权利要求所涵盖。
Claims (10)
1.一种基于隐式知识的阅读理解方法,其特征在于,包括:
获取询问文本,并根据所述询问文本从预设的文档库获取多个候选答案;
获取所述询问文本中的隐含知识,并根据所述隐含知识创建隐含问题向量;
根据所述多个候选答案在所述隐含问题向量上的投影,对所述多个候选答案进行评分;
根据评分结果获取最优的候选答案。
2.根据权利要求1所述的基于隐式知识的阅读理解方法,其特征在于,
根据所述询问文本获取问题表示;
根据所述问题表示从所述文档库中获取多个关联文本;
将所述关联文本和所述问题表示输入神经网络,获取所述多个候选答案。
3.根据权利要求1所述的基于隐式知识的阅读理解方法,其特征在于,
对所述文档库中的文档进行隐含知识原子标记;
提取所述隐含知识原子标记创建隐含知识库;
将所述询问文本与所述隐含知识库进行比对,获取所述询问文本的隐含知识。
4.根据权利要求3所述的基于隐式知识的阅读理解方法,其特征在于,初始化所述隐含知识原子的选择权重,采用启发式算法优化所述选择权重进而对所述隐含知识原子进行搜索,提取所述隐含知识原子标记创建隐含知识库。
5.根据权利要求3所述的基于隐式知识的阅读理解方法,其特征在于,所述启发式算法包括遗传算法、蚁群算法、模拟退火算法中的一种。
6.根据权利要求3所述的基于隐式知识的阅读理解方法,其特征在于,为每个所述候选答案添加隐含知识原子,设置每个所述候选答案对应的所述隐含知识原子数相同。
7.根据权利要求6所述的基于隐式知识的阅读理解方法,其特征在于,经过搜索后,当两个及以上的候选答案对应同一个隐含知识原子时,为其中一个所述候选答案添加该隐含知识原子。
8.根据权利要求6所述的基于隐式知识的阅读理解方法,其特征在于,将所述候选答案与对应的隐含知识原子结合计算所述候选答案在所述隐含问题向量上的投影。
9.根据权利要求2所述的基于隐式知识的阅读理解方法,其特征在于,
所述神经网络采用双向GRU网络或长短期记忆神经网络。
10.根据权利要求2所述的基于隐式知识的阅读理解方法,其特征在于,
采用内积投影方法获取所述候选答案的评分。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010311468.8A CN111680135B (zh) | 2020-04-20 | 2020-04-20 | 一种基于隐式知识的阅读理解方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010311468.8A CN111680135B (zh) | 2020-04-20 | 2020-04-20 | 一种基于隐式知识的阅读理解方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111680135A true CN111680135A (zh) | 2020-09-18 |
CN111680135B CN111680135B (zh) | 2023-08-25 |
Family
ID=72433355
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010311468.8A Active CN111680135B (zh) | 2020-04-20 | 2020-04-20 | 一种基于隐式知识的阅读理解方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111680135B (zh) |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070073533A1 (en) * | 2005-09-23 | 2007-03-29 | Fuji Xerox Co., Ltd. | Systems and methods for structural indexing of natural language text |
CN101520802A (zh) * | 2009-04-13 | 2009-09-02 | 腾讯科技(深圳)有限公司 | 一种问答对的质量评价方法和*** |
CN105159996A (zh) * | 2015-09-07 | 2015-12-16 | 百度在线网络技术(北京)有限公司 | 基于人工智能的深度问答服务提供方法和装置 |
CN106095872A (zh) * | 2016-06-07 | 2016-11-09 | 北京高地信息技术有限公司 | 用于智能问答***的答案排序方法及装置 |
US9720981B1 (en) * | 2016-02-25 | 2017-08-01 | International Business Machines Corporation | Multiple instance machine learning for question answering systems |
CN107729468A (zh) * | 2017-10-12 | 2018-02-23 | 华中科技大学 | 基于深度学习的答案抽取方法及*** |
CN108647233A (zh) * | 2018-04-02 | 2018-10-12 | 北京大学深圳研究生院 | 一种用于问答***的答案排序方法 |
CN109271496A (zh) * | 2018-08-30 | 2019-01-25 | 广东工业大学 | 一种基于文本、知识库及序列到序列的自然问答方法 |
CN110046262A (zh) * | 2019-06-10 | 2019-07-23 | 南京擎盾信息科技有限公司 | 一种基于法律专家知识库的上下文推理方法 |
-
2020
- 2020-04-20 CN CN202010311468.8A patent/CN111680135B/zh active Active
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20070073533A1 (en) * | 2005-09-23 | 2007-03-29 | Fuji Xerox Co., Ltd. | Systems and methods for structural indexing of natural language text |
CN101520802A (zh) * | 2009-04-13 | 2009-09-02 | 腾讯科技(深圳)有限公司 | 一种问答对的质量评价方法和*** |
CN105159996A (zh) * | 2015-09-07 | 2015-12-16 | 百度在线网络技术(北京)有限公司 | 基于人工智能的深度问答服务提供方法和装置 |
US9720981B1 (en) * | 2016-02-25 | 2017-08-01 | International Business Machines Corporation | Multiple instance machine learning for question answering systems |
CN106095872A (zh) * | 2016-06-07 | 2016-11-09 | 北京高地信息技术有限公司 | 用于智能问答***的答案排序方法及装置 |
CN107729468A (zh) * | 2017-10-12 | 2018-02-23 | 华中科技大学 | 基于深度学习的答案抽取方法及*** |
CN108647233A (zh) * | 2018-04-02 | 2018-10-12 | 北京大学深圳研究生院 | 一种用于问答***的答案排序方法 |
CN109271496A (zh) * | 2018-08-30 | 2019-01-25 | 广东工业大学 | 一种基于文本、知识库及序列到序列的自然问答方法 |
CN110046262A (zh) * | 2019-06-10 | 2019-07-23 | 南京擎盾信息科技有限公司 | 一种基于法律专家知识库的上下文推理方法 |
Non-Patent Citations (2)
Title |
---|
HYO-JUNG OH, JEONG HUR: "Merging and Re-ranking Answers from Distributed Multiple Web Sources", 2011 IEEE/WIC/ACM INTERNATIONAL CONFERENCE AND INTELLIGENCE AND INTELLIGENT AGENT TECHNOLOGY * |
郎爽: "基于深度学习的知识图谱问答***设计与实现", 中国优秀硕士学位论文数据库 * |
Also Published As
Publication number | Publication date |
---|---|
CN111680135B (zh) | 2023-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111639171B (zh) | 一种知识图谱问答方法及装置 | |
CN108647205B (zh) | 细粒度情感分析模型构建方法、设备及可读存储介质 | |
CN107798140B (zh) | 一种对话***构建方法、语义受控应答方法及装置 | |
CN110851596A (zh) | 文本分类方法、装置及计算机可读存储介质 | |
CN112800170A (zh) | 问题的匹配方法及装置、问题的回复方法及装置 | |
CN112818093B (zh) | 基于语义匹配的证据文档检索方法、***及存储介质 | |
CN111966810B (zh) | 一种用于问答***的问答对排序方法 | |
CN111753550A (zh) | 一种自然语言的语义解析方法 | |
CN110390049B (zh) | 一种面向软件开发问题的答案自动生成方法 | |
CN111143507B (zh) | 一种基于复合式问题的阅读理解方法 | |
CN112306494A (zh) | 一种基于卷积和循环神经网络的代码分类及聚类方法 | |
CN111666376B (zh) | 一种基于段落边界扫描预测与词移距离聚类匹配的答案生成方法及装置 | |
CN111325018B (zh) | 一种基于web检索和新词发现的领域词典构建方法 | |
CN110442702A (zh) | 搜索方法、装置、可读存储介质和电子设备 | |
CN113821587B (zh) | 文本相关性确定方法、模型训练方法、装置及存储介质 | |
CN110866102A (zh) | 检索处理方法 | |
CN112966117A (zh) | 实体链接方法 | |
CN113590810A (zh) | 摘要生成模型训练方法、摘要生成方法、装置及电子设备 | |
CN114611491A (zh) | 基于文本挖掘技术的智慧政务舆情分析研究方法 | |
CN117828024A (zh) | 一种插件检索方法、装置、存储介质及设备 | |
CN111858830A (zh) | 基于自然语言处理的卫生监督执法数据检索***及其方法 | |
CN111680135B (zh) | 一种基于隐式知识的阅读理解方法 | |
CN113468311B (zh) | 一种基于知识图谱的复杂问句问答方法、装置及存储介质 | |
CN111428002B (zh) | 一种自然语言人机交互式的智能问答实现方法 | |
CN111159366A (zh) | 一种基于正交主题表示的问答优化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
CB02 | Change of applicant information | ||
CB02 | Change of applicant information |
Address after: 400000 6-1, 6-2, 6-3, 6-4, building 7, No. 50, Shuangxing Avenue, Biquan street, Bishan District, Chongqing Applicant after: CHONGQING ZHAOGUANG TECHNOLOGY CO.,LTD. Address before: 400000 2-2-1, 109 Fengtian Avenue, tianxingqiao, Shapingba District, Chongqing Applicant before: CHONGQING ZHAOGUANG TECHNOLOGY CO.,LTD. |
|
GR01 | Patent grant | ||
GR01 | Patent grant |