CN108777584A - 一种极化码译码参数的快速优化方法 - Google Patents
一种极化码译码参数的快速优化方法 Download PDFInfo
- Publication number
- CN108777584A CN108777584A CN201810735831.1A CN201810735831A CN108777584A CN 108777584 A CN108777584 A CN 108777584A CN 201810735831 A CN201810735831 A CN 201810735831A CN 108777584 A CN108777584 A CN 108777584A
- Authority
- CN
- China
- Prior art keywords
- decoding
- polarization code
- basis function
- neural network
- radial basis
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Classifications
-
- H—ELECTRICITY
- H03—ELECTRONIC CIRCUITRY
- H03M—CODING; DECODING; CODE CONVERSION IN GENERAL
- H03M13/00—Coding, decoding or code conversion, for error detection or error correction; Coding theory basic assumptions; Coding bounds; Error probability evaluation methods; Channel models; Simulation or testing of codes
- H03M13/03—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words
- H03M13/05—Error detection or forward error correction by redundancy in data representation, i.e. code words containing more digits than the source words using block codes, i.e. a predetermined number of check bits joined to a predetermined number of information bits
- H03M13/13—Linear codes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
- G06F18/2414—Smoothing the distance, e.g. radial basis function networks [RBFN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0045—Arrangements at the receiver end
- H04L1/0054—Maximum-likelihood or sequential decoding, e.g. Viterbi, Fano, ZJ algorithms
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04L—TRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
- H04L1/00—Arrangements for detecting or preventing errors in the information received
- H04L1/004—Arrangements for detecting or preventing errors in the information received by using forward error control
- H04L1/0056—Systems characterized by the type of code used
- H04L1/0057—Block codes
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- Artificial Intelligence (AREA)
- General Physics & Mathematics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Biophysics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Error Detection And Correction (AREA)
Abstract
本发明提供了一种极化码译码参数的快速优化方法,所述方法首先从收集、整理样本数据开始;然后以样本数据的特点及大小作为依据进行建模,并采用监督学习和随机梯度优化方法来训练网络;然后再将由接收信号计算得到的似然比输入到已完成训练的径向基函数神经网络模型中,输出M;最后将L初始化为M,执行串行抵消列表译码算法。该方法通过将径向基函数神经网络技术与极化码译码技术进行结合,避免了不必要的计算操作,从而极大降低了极化码的译码复杂度。
Description
技术领域
本发明属于通信技术领域,特别涉及一种用径向基函数神经网络来优化串行抵消列表译码算法的极化码译码参数的方法。
背景技术
极化码是2008年由E.Arikan提出的一种新型信道编码。极化码是第一种能够通过严格的数学方法证明达到信道容量的构造性编码方案。在极化码被提出之初,串行抵消(SC)译码也随之被提出。SC译码能够被看作是在二叉树上的路径搜索过程。SC译码算法从码树根节点开始,逐层依次向叶子节点层进行搜索,每一层扩展后,从两条后继中选择较好的一条进行扩展。SC译码的特点主要有两方面,一方面是其复杂度低、译码结构简单;另一方面是其在理论上被证明在码长足够大时能够达到香农极限。但SC译码算法在码长为有限长的配置下,纠错性能不理想。为了提高性能,提出串行抵消列表(SCL)译码。SCL译码是SC译码的一种改进版本。与SC不同的是,SCL译码算法不再是从两条后继中选择较好的一条进行扩展,而是尽可能地保留不大于L条的后继路径,在下一层扩展时,所有这不多于L条的候选路径都会分别被扩展。当结束叶子节点层的扩展时,有至多L条候选路径被保留在列表中。由于SCL译码只有在较高的信噪比下,才能够实现最大似然译码性能,故循环冗余校验(CRC)被引入来提升极化码的译码性能,通过使用CRC来对这L条候选路径进行校验,最终输出一条能通过CRC的且最有可能的候选路径。CRC辅助的SCL有着比Turbo码与LDPC码更好的译码性能,但是随着L增大,译码复杂度也会增大。为了解决这一问题,自适应串行抵消列表(AD-SCL)译码算法通过自适应地控制L,避免对不必要的路径进行计算,大大的减少了译码复杂度。
但是,在较低的信噪比下,AD-SCL会频繁出现高译码复杂度情况。AD-SCL算法总是把L的初始值配置为1。若基于L=1的AD-SCL译码失败,该译码会将L更新为2L并继续进行译码,直至L=Lmax,Lmax是根据实际情况设定的最大列表大小。在低信噪比与L=1的配置下,AD-SCL算法失败的概率高,因此需要频繁更新L值,增加了复杂度。如果在译码开始时,将L初始化为一个合适的值,尽可能地执行一次译码就能成功,那么,将能够显著地降低译码复杂度。
为了降低译码复杂度,在保证极化码译码性能的前提下通过寻找一个合适的L值来减少计算量,本发明专利提出了一种极化码译码参数的快速优化方法,通过构建并训练径向基函数神经网络来优化L值,以实现减少运算量的目标,最终降低译码复杂度。
发明内容
本发明提出了一种基于SCL译码算法的径向基函数神经网络辅助的参数优化方法,在保证译码性能不变的情况下,通过优化L值来降低译码复杂度,并把这一个优化的L值记为M。
在样本数据准备阶段,基于不同信噪比,执行50000次自适应串行抵消列表译码算法,将每一次译码成功时由接收信号计算得到的似然比和译码成功时对应的L记录下来,一次成功译码所记录的似然比与对应的L构成一组样本数据。随机选取10000组样本数据,从这10000组数据中随机选取75%组数据作为训练样本,并将余下的25%组数据作为测试样本。
径向基函数神经网络(RBFNN)是一种具有单隐藏层的三层前向网络且分类能力强,可用作分类器,其特征是层级结构和训练规则可以根据实际情况来设定。搭建径向基函数神经网络模型时,层级结构包括1个输入层、1个隐藏层及1个输出层,我们将输入层的节点数目设置为1,隐藏层的节点数目设置为300,输出层的节点数目设置为6,采用全连接方式来搭建径向基函数神经网络,隐藏层神经元与输出层神经元的模型不同,隐藏层节点激活函数为径向基函数(高斯函数),输出层节点激活函数为线性函数,似然比为网络输入,标签L包括6种不同的大小,即L∈{1,2,4,8,16,32},分为6类。训练径向基函数神经网络时,基于监督学习和误差反向传播算法,通过随机梯度下降来对网络中径向基函数的中心、方差和隐藏层到输出层的权值进行监督训练优化,修正每个参数,直至完成径向基函数神经网络的训练。
在极化码译码端,将由接收信号计算得到的似然比输入到径向基函数神经网络模型中,得到M,并将L初始化为M,执行串行抵消列表译码算法。
在参数优化过程中,适用以下步骤:
步骤1,准备样本数据,并对样本数据进行预处理;
步骤2,搭建径向基函数神经网络,并训练径向基函数神经网络;
步骤3,在极化码译码阶段,将似然比输入到径向基函数神经网络模型中,得到一个值M,并将L初始化为M,执行串行抵消列表译码算法;
其中,步骤1中准备样本数据指的是,执行50000次自适应串行抵消列表译码算法,将每一次译码成功时由接收信号计算得到的似然比和译码成功时对应的L记录下来,一次成功译码所记录的似然比与对应的L构成一组样本数据,随机选取10000组样本数据,从这10000组数据中随机选取75%组数据作为训练样本,并将余下的25%组数据作为测试样本;步骤2中搭建径向基函数神经网络指的是,将输入层的节点数目设置为1,隐藏层的层数设置为1,隐藏层的节点数目设置为300,输出层的节点数目设置为6。
有益效果
本发明对比已有技术具有以下创新点:
用径向基函数神经网络来优化参数L。在极化码译码端,将似然比输入到已完成训练的径向基函数神经网络中,则可输出M,实现似然比的快速分类。在此基础上,在保证极化码性能的前提下,译码算法能够以一个合适的L值来降低译码复杂度。
将径向基函数神经网络技术与极化码译码技术进行结合。在样本数据准备阶段,样本数据来源于多次执行自适应串行抵消列表译码算法;在搭建和训练径向基函数神经网络阶段,输入层的输入是似然比,输出层的输出为L;在译码端,以SCL译码算法为基础,将L初始化为M。此时,SCL译码成功的概率较高,不需要频繁更新L值,避免不必要的运算操作,减少译码器的运算量,从而大幅降低计算复杂度。
附图说明
图1是确定径向基函数神经网络结构时搭建的径向基函数神经网络示意图;
图2是优化参数L的方法流程图。
具体实施方式
下面将结合附图和实施例对本发明做进一步的描述。
本发明提供一种极化码译码参数的快速优化方法,主要包括准备样本数据、搭建并训练径向基函数神经网络及译码三部分。在样本数据准备阶段,首先在不同信噪比下执行50000次自适应串行抵消列表译码算法,并将每一次译码成功时由接收信号计算得到的似然比和译码成功时对应的L记录下来,然后随机选取10000组样本数据,最后从这10000组数据中随机选取75%组数据作为训练样本,并将余下的25%组数据作为测试样本;在搭建与训练径向基函数神经网络阶段,首先根据训练样本的特点及大小来确定网络的层级结构及参数,搭建径向基函数神经网络,然后通过随机梯度下降来对网络中的径向基函数的中心、方差和隐藏层到输出层的权值都进行监督训练优化,并修正、调整每个参数;在极化码译码端,首先将由接收信号计算得到的似然比输入到径向基函数神经网络模型中,然后得到M,最后将L初始化为M,执行串行抵消列表译码算法。
在样本数据准备阶段,在不同信噪比,执行50000次自适应串行抵消列表译码算法,并将每一次译码成功时由接收信号计算得到的似然比和译码成功时对应的L记录下来,一次成功译码所记录的似然比与对应的L构成一组样本数据;然后随机选取10000组样本数据;最后从这10000组数据中随机选取75%组数据作为训练样本,并将余下的25%组数据作为测试样本,采用归一化处理将样本数据转换为数值数据。本实施例将自适应串行抵消列表译码算法的码长设置为1024,码率设置为0.5,Lmax=32,CRC长度为16,将训练样本数和测试样本数分别设置为7500与2500。
在搭建与训练径向基函数神经网络阶段,搭建的径向基函数神经网络如图1所示,包含1个输入层、1个隐藏层及1个输出层,因网络的输入为一个似然比,所以输入层的节点数目为1;将隐藏层的节点数目设置为300;L为标签,每一个样本对应着一种标签,本实施例的标签有6种不同的大小,即L=1,L=2,L=4,L=8,L=16,L=32,可以将其分为6类,故将网络输出层的节点数确定为6,并采用全连接的方式来连接输入层、隐藏层与输出层。隐藏层神经元与输出层神经元的模型不同,隐藏层节点激活函数为径向基函数,输出层节点激活函数为线性函数,本实施例中的径向基函数神经网络的隐藏层节点的基函数采用欧氏距离,并使用高斯函数作为激活函数,网络的输出是隐藏层单元输出的线性加权和。基于监督学习,利用反向传播算法来训练网络,本实施例的代价函数是网络输出和期望输出的均方误差;在此基础上,运用随机梯度下降优化方法对代价函数进行优化,即通过随机梯度下降来对网络中的径向基函数的中心、方差和隐藏层到输出层的权值都进行监督训练优化,每次迭代时,在误差梯度的负方向上以一定的学习率来调整、修正参数。根据得到的训练规则,不断修正径向基函数的中心、方差和隐藏层到输出层的权值,直至完成所有样本训练。
在极化码译码端,借助径向基函数神经网络来优化参数L,参数L的优化方法流程图如图2所示。首先将由接收信号计算得到的似然比输入到已完成训练的径向基函数神经网络中,输出M;再将L初始化为M,执行串行抵消列表译码算法;然后对L条译码候选路径进行CRC校验,如果有一条或多于一条的候选路径通过CRC校验,则输出一条最有可能的路径并退出译码,否则,将L更新为2L;完成更新后,判断L是否大于Lmax,若不大于Lmax,则继续进行串行抵消列表译码,否则,退出译码。本实施例将串行抵消列表译码的码长设置为1024,码率设置为0.5,Lmax=32,CRC长度为16。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不限于此,任何熟悉本技术领域的技术人员在本发明提出的技术范围内,可轻易想到的变化或者替换,都应该涵盖在本发明的保护范围之内。
Claims (3)
1.一种极化码译码参数的快速优化方法,其特征在于,所述方法用径向基函数神经网络来优化串行抵消列表译码的列表大小L,所述参数优化方法包括以下步骤:
步骤1,准备样本数据,并对样本数据进行预处理;
步骤2,搭建径向基函数神经网络,并训练径向基函数神经网络;
步骤3,在极化码译码阶段,将似然比输入到径向基函数神经网络模型中,得到一个值M,并将L初始化为M,执行串行抵消列表译码算法。
2.根据权利要求1所述的一种极化码译码参数的快速优化方法,其特征在于,步骤1中准备样本数据指的是,执行50000次自适应串行抵消列表译码算法,将每一次译码成功时由接收信号计算得到的似然比和译码成功时对应的L记录下来,一次成功译码所记录的似然比与对应的L构成一组样本数据,随机选取10000组样本数据,从这10000组数据中随机选取75%组数据作为训练样本,并将余下的25%组数据作为测试样本。
3.根据权利要求1所述的一种极化码译码参数的快速优化方法,其特征在于,步骤2中搭建径向基函数神经网络指的是,将输入层的节点数目设置为1,隐藏层的层数设置为1,隐藏层的节点数目设置为300,输出层的节点数目设置为6。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810735831.1A CN108777584A (zh) | 2018-07-06 | 2018-07-06 | 一种极化码译码参数的快速优化方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201810735831.1A CN108777584A (zh) | 2018-07-06 | 2018-07-06 | 一种极化码译码参数的快速优化方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN108777584A true CN108777584A (zh) | 2018-11-09 |
Family
ID=64029623
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810735831.1A Pending CN108777584A (zh) | 2018-07-06 | 2018-07-06 | 一种极化码译码参数的快速优化方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN108777584A (zh) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109450459A (zh) * | 2019-01-16 | 2019-03-08 | 中国计量大学 | 一种基于深度学习的极化码fnsc译码器 |
CN110212922A (zh) * | 2019-06-03 | 2019-09-06 | 南京宁麒智能计算芯片研究院有限公司 | 一种极化码自适应译码方法及*** |
CN111030708A (zh) * | 2019-12-27 | 2020-04-17 | 哈尔滨工业大学(深圳) | 极化码的迭代可调软串行抵消列表译码方法和装置 |
CN111224677A (zh) * | 2018-11-27 | 2020-06-02 | 华为技术有限公司 | 编码方法、译码方法及装置 |
CN111697975A (zh) * | 2020-06-01 | 2020-09-22 | 西安工业大学 | 基于全连接神经网络的极化码连续删除译码优化算法 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1359697A1 (en) * | 2002-04-30 | 2003-11-05 | Psytechnics Ltd | Method and apparatus for transmission error characterisation |
CN101194452A (zh) * | 2005-05-27 | 2008-06-04 | 同流技术控股有限公司 | 用于带限非线性信道的调制解调器的演进合成 |
CN101594154A (zh) * | 2009-07-14 | 2009-12-02 | 北京航空航天大学 | 基于编码恢复的tcm神经网络解调方法 |
CN105488528A (zh) * | 2015-11-26 | 2016-04-13 | 北京工业大学 | 基于改进自适应遗传算法的神经网络图像分类方法 |
CN106209113A (zh) * | 2016-07-29 | 2016-12-07 | 中国石油大学(华东) | 一种极化码的编解码方法 |
CN106506009A (zh) * | 2016-10-31 | 2017-03-15 | 中国石油大学(华东) | 一种极化码的译码方法 |
US20170126360A1 (en) * | 2015-11-04 | 2017-05-04 | Mitsubishi Electric Research Laboratories, Inc. | Fast Log-Likelihood Ratio (LLR) Computation for Decoding High-Order and High-Dimensional Modulation Schemes |
CN106656212A (zh) * | 2016-12-05 | 2017-05-10 | 东南大学 | 基于极化码的自适应连续消除译码方法及架构 |
CN106953821A (zh) * | 2017-03-29 | 2017-07-14 | 西安电子科技大学 | 一种Underlay频谱共享下时频重叠信号调制识别方法 |
CN107241106A (zh) * | 2017-05-24 | 2017-10-10 | 东南大学 | 基于深度学习的极化码译码算法 |
CN107947803A (zh) * | 2017-12-12 | 2018-04-20 | 中国石油大学(华东) | 一种极化码的快速译码方法 |
CN107994973A (zh) * | 2017-12-04 | 2018-05-04 | 电子科技大学 | 一种自适应调制与编码方法 |
-
2018
- 2018-07-06 CN CN201810735831.1A patent/CN108777584A/zh active Pending
Patent Citations (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1359697A1 (en) * | 2002-04-30 | 2003-11-05 | Psytechnics Ltd | Method and apparatus for transmission error characterisation |
CN101194452A (zh) * | 2005-05-27 | 2008-06-04 | 同流技术控股有限公司 | 用于带限非线性信道的调制解调器的演进合成 |
CN101594154A (zh) * | 2009-07-14 | 2009-12-02 | 北京航空航天大学 | 基于编码恢复的tcm神经网络解调方法 |
US20170126360A1 (en) * | 2015-11-04 | 2017-05-04 | Mitsubishi Electric Research Laboratories, Inc. | Fast Log-Likelihood Ratio (LLR) Computation for Decoding High-Order and High-Dimensional Modulation Schemes |
WO2017077945A1 (en) * | 2015-11-04 | 2017-05-11 | Mitsubishi Electric Corporation | Method and receiver for decoding symbol transmitted over channel |
CN105488528A (zh) * | 2015-11-26 | 2016-04-13 | 北京工业大学 | 基于改进自适应遗传算法的神经网络图像分类方法 |
CN106209113A (zh) * | 2016-07-29 | 2016-12-07 | 中国石油大学(华东) | 一种极化码的编解码方法 |
CN106506009A (zh) * | 2016-10-31 | 2017-03-15 | 中国石油大学(华东) | 一种极化码的译码方法 |
CN106656212A (zh) * | 2016-12-05 | 2017-05-10 | 东南大学 | 基于极化码的自适应连续消除译码方法及架构 |
CN106953821A (zh) * | 2017-03-29 | 2017-07-14 | 西安电子科技大学 | 一种Underlay频谱共享下时频重叠信号调制识别方法 |
CN107241106A (zh) * | 2017-05-24 | 2017-10-10 | 东南大学 | 基于深度学习的极化码译码算法 |
CN107994973A (zh) * | 2017-12-04 | 2018-05-04 | 电子科技大学 | 一种自适应调制与编码方法 |
CN107947803A (zh) * | 2017-12-12 | 2018-04-20 | 中国石油大学(华东) | 一种极化码的快速译码方法 |
Non-Patent Citations (3)
Title |
---|
HUGO TORRES SALAMEA 等: "Design of a Fault Tolerant Digital Communication System, by means of RBF Networks.Comparison Simulations with the Encoding and Decoding Algorithms BCH (7,4,1)", 《IEEE LATIN AMERICA TRANSACTIONS》 * |
刘亚军 等: "一种低时延极化码列表连续删除译码算法", 《计算机工程》 * |
樊婷婷 等: "Polar码SC译码算法的量化问题", 《北京邮电大学学报》 * |
Cited By (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN111224677A (zh) * | 2018-11-27 | 2020-06-02 | 华为技术有限公司 | 编码方法、译码方法及装置 |
CN111224677B (zh) * | 2018-11-27 | 2021-10-15 | 华为技术有限公司 | 编码方法、译码方法及装置 |
JP2022511771A (ja) * | 2018-11-27 | 2022-02-01 | 華為技術有限公司 | 符号化方法及び装置並びに復号化方法及び装置 |
JP7228042B2 (ja) | 2018-11-27 | 2023-02-22 | 華為技術有限公司 | 符号化方法及び装置並びに復号化方法及び装置 |
CN109450459A (zh) * | 2019-01-16 | 2019-03-08 | 中国计量大学 | 一种基于深度学习的极化码fnsc译码器 |
CN110212922A (zh) * | 2019-06-03 | 2019-09-06 | 南京宁麒智能计算芯片研究院有限公司 | 一种极化码自适应译码方法及*** |
CN110212922B (zh) * | 2019-06-03 | 2022-11-11 | 南京宁麒智能计算芯片研究院有限公司 | 一种极化码自适应译码方法及*** |
CN111030708A (zh) * | 2019-12-27 | 2020-04-17 | 哈尔滨工业大学(深圳) | 极化码的迭代可调软串行抵消列表译码方法和装置 |
CN111030708B (zh) * | 2019-12-27 | 2023-05-12 | 哈尔滨工业大学(深圳) | 极化码的迭代可调软串行抵消列表译码方法和装置 |
CN111697975A (zh) * | 2020-06-01 | 2020-09-22 | 西安工业大学 | 基于全连接神经网络的极化码连续删除译码优化算法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108777584A (zh) | 一种极化码译码参数的快速优化方法 | |
CN108880568A (zh) | 一种基于卷积神经网络的串行抵消列表译码参数优化方法 | |
Dai et al. | Learning to decode protograph LDPC codes | |
Shen et al. | Fractional skipping: Towards finer-grained dynamic CNN inference | |
CN109245776A (zh) | 一种基于深度神经网络的极化码译码参数确定方法 | |
CN103929210B (zh) | 一种基于遗传算法与神经网络的硬判决译码方法 | |
US20210383220A1 (en) | Deep neural network ensembles for decoding error correction codes | |
Wang et al. | Learning to flip successive cancellation decoding of polar codes with LSTM networks | |
CN110427965A (zh) | 基于进化策略的卷积神经网络结构简约及图像分类方法 | |
Lugosch et al. | Learning from the syndrome | |
CN110932734B (zh) | 一种基于交替方向乘子法的深度学习信道译码方法 | |
CN110138390A (zh) | 一种基于深度学习的极化码sscl算法译码器 | |
CN116680540A (zh) | 一种基于深度学习的风电功率预测方法 | |
CN106452675B (zh) | 一种极化码的球形译码方法 | |
Zhao et al. | Genetic optimization of radial basis probabilistic neural networks | |
Yuan et al. | A novel hard decision decoding scheme based on genetic algorithm and neural network | |
CN110572166B (zh) | 一种基于深度学习的bch码译码方法 | |
CN106877883A (zh) | 一种基于受限玻尔兹曼机的ldpc译码方法和装置 | |
US20130318017A1 (en) | Devices for Learning and/or Decoding Messages, Implementing a Neural Network, Methods of Learning and Decoding and Corresponding Computer Programs | |
CN108388942A (zh) | 基于大数据的信息智能处理方法 | |
CN114217580A (zh) | 基于改进型差分进化算法的功能性纤维生产排产方法 | |
CN108900198A (zh) | 一种串行抵消列表译码参数的快速确定方法 | |
ENSAM | Genetic algorithm for decoding linear codes over awgn and fading channels | |
Ye et al. | A novel genetic algorithm based ECOC algorithm | |
Li et al. | Sliding window-aided ordered statistics decoding for short LDPC codes |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20181109 |