CN110118130B - 内燃机的控制装置 - Google Patents
内燃机的控制装置 Download PDFInfo
- Publication number
- CN110118130B CN110118130B CN201811531856.6A CN201811531856A CN110118130B CN 110118130 B CN110118130 B CN 110118130B CN 201811531856 A CN201811531856 A CN 201811531856A CN 110118130 B CN110118130 B CN 110118130B
- Authority
- CN
- China
- Prior art keywords
- value
- internal combustion
- combustion engine
- operating parameter
- neural network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D41/00—Electrical control of supply of combustible mixture or its constituents
- F02D41/02—Circuit arrangements for generating control signals
- F02D41/14—Introducing closed-loop corrections
- F02D41/1401—Introducing closed-loop corrections characterised by the control or regulation method
- F02D41/1405—Neural network control
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D41/00—Electrical control of supply of combustible mixture or its constituents
- F02D41/24—Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means
- F02D41/2406—Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means using essentially read only memories
- F02D41/2425—Particular ways of programming the data
- F02D41/2429—Methods of calibrating or learning
- F02D41/2451—Methods of calibrating or learning characterised by what is learned or calibrated
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D41/00—Electrical control of supply of combustible mixture or its constituents
- F02D41/24—Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means
- F02D41/2406—Electrical control of supply of combustible mixture or its constituents characterised by the use of digital means using essentially read only memories
- F02D41/2425—Particular ways of programming the data
- F02D41/2429—Methods of calibrating or learning
- F02D41/2477—Methods of calibrating or learning characterised by the method used for learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D2200/00—Input parameters for engine control
- F02D2200/02—Input parameters for engine control the parameters being related to the engine
- F02D2200/04—Engine intake system parameters
- F02D2200/0404—Throttle position
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D2200/00—Input parameters for engine control
- F02D2200/02—Input parameters for engine control the parameters being related to the engine
- F02D2200/04—Engine intake system parameters
- F02D2200/0414—Air temperature
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D2200/00—Input parameters for engine control
- F02D2200/02—Input parameters for engine control the parameters being related to the engine
- F02D2200/08—Exhaust gas treatment apparatus parameters
- F02D2200/0806—NOx storage amount, i.e. amount of NOx stored on NOx trap
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D2200/00—Input parameters for engine control
- F02D2200/02—Input parameters for engine control the parameters being related to the engine
- F02D2200/10—Parameters related to the engine output, e.g. engine torque or engine speed
- F02D2200/101—Engine speed
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F02—COMBUSTION ENGINES; HOT-GAS OR COMBUSTION-PRODUCT ENGINE PLANTS
- F02D—CONTROLLING COMBUSTION ENGINES
- F02D41/00—Electrical control of supply of combustible mixture or its constituents
- F02D41/02—Circuit arrangements for generating control signals
- F02D41/14—Introducing closed-loop corrections
- F02D41/1438—Introducing closed-loop corrections using means for determining characteristics of the combustion gases; Sensors therefor
- F02D41/1444—Introducing closed-loop corrections using means for determining characteristics of the combustion gases; Sensors therefor characterised by the characteristics of the combustion gases
- F02D41/146—Introducing closed-loop corrections using means for determining characteristics of the combustion gases; Sensors therefor characterised by the characteristics of the combustion gases the characteristics being an NOx content or concentration
- F02D41/1461—Introducing closed-loop corrections using means for determining characteristics of the combustion gases; Sensors therefor characterised by the characteristics of the combustion gases the characteristics being an NOx content or concentration of the exhaust gases emitted by the engine
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/048—Activation functions
Landscapes
- Engineering & Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Physics & Mathematics (AREA)
- Chemical & Material Sciences (AREA)
- Combustion & Propulsion (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Health & Medical Sciences (AREA)
- Molecular Biology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Medical Informatics (AREA)
- Combined Controls Of Internal Combustion Engines (AREA)
- Feedback Control In General (AREA)
Abstract
一种内燃机的控制装置,即使在运转参数的值处于预先设定的范围外,也能够获得合适的输出值。在使用了神经网络的内燃机的控制装置中,在内燃机的运转参数的值处于预先设定的范围外时,增大神经网络的比输出层靠前一个的隐藏层的节点的个数,使用针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式学习神经网络的权重。
Description
技术领域
本发明涉及内燃机的控制装置。
背景技术
公知有如下的内燃机的控制装置:在使用了神经网络的内燃机的控制装置中,基于内燃机转速、吸入空气量等内燃机的运转参数的值,以使得向燃烧室内的吸入气体量与实际的向燃烧室内的吸入气体量一致的方式预先学习神经网络的权重,在内燃机运转时,使用学习了权重的神经网络,根据内燃机的运转参数的值推定向燃烧室内的吸入气体量(例如参照专利文献1)。
现有技术文献
专利文献
专利文献1:日本特开2012-112277号公报
发明内容
发明要解决的课题
内燃机转速那样的内燃机的运转参数的值的使用范围能够根据内燃机的种类而预先设想,因此,通常,针对内燃机的运转参数的值的预先设想的使用范围,以使得神经网络的输出值与向燃烧室内的实际的吸入气体量那样的实际的值之差变小的方式预先学习神经网络的权重。然而,实际上,有时内燃机的运转参数的值处于预先设想的使用范围外,在该情况下,由于针对预先设想的使用范围外没有进行基于实际的值的学习,所以存在使用神经网络运算出的输出值成为从实际的值大幅偏离的值这一问题。
为了解决上述问题,根据本发明,提供一种内燃机的控制装置,具备电子控制单元,电子控制单元具备:参数值取得部,取得内燃机的运转参数的值;运算部,使用包括输入层、隐藏层及输出层的神经网络进行运算;及存储部,内燃机的运转参数的值向输入层输入,根据内燃机的运转参数的值而变化的输出值从输出层输出,其中,预先设定了内燃机的运转参数的值的范围,并且预先设定了与内燃机的运转参数的值的范围相应的神经网络的个数及神经网络的隐藏层的节点的个数,针对预先设定的范围内的内燃机的运转参数的值通过实测而得到的教师数据存储于存储部,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围内时,使用存储于存储部的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由运算部学习神经网络的权重,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,根据针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的个数或数据密度,增大神经网络的比输出层靠前一个的隐藏层的节点的个数,并且使用针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由运算部学习神经网络的权重,使用学习了权重的神经网络输出与内燃机的运转参数的值相对应的输出值。
发明的效果
在新取得的内燃机的运转参数的值处于预先设定的范围外时,根据针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的个数或数据密度,增大神经网络的隐藏层的节点的个数,由此,能够抑制在内燃机的运转参数的值成为了预先设定的范围外的值时、使用神经网络运算出的输出值成为从实际的值大幅偏离的值。
附图说明
图1是内燃机的整体图。
图2是示出神经网络的一例的图。
图3A及图3B是示出S型(sigmoid)函数σ的值的变化的图。
图4A及图4B分别是示出神经网络、从隐藏层的节点的输出值的图。
图5A及图5B分别是示出从隐藏层的节点的输出值、从输出层的节点的输出值的图。
图6A及图6B分别是示出神经网络、从输出层的节点的输出值的图。
图7A及图7B是用于说明利用本申请发明要解决的课题的图。
图8A及图8B分别是示出神经网络、神经网络的输入值与输出值的关系的图。
图9是示出神经网络的图。
图10是用于执行学习处理的流程图。
图11示出用于执行学习处理的另一实施例的流程图。
图12是示出神经网络的图。
图13A及图13B是示出内燃机转速等的预先设定的范围的图。
图14是示出用于执行学习处理的又一实施例的流程图。
图15是示出根据内燃机的运转参数的值而划分出的已学习区域的图。
图16A、图16B及图16C分别是示出相对于内燃机转速和点火正时的教师数据的分布、相对于点火正时和节气门开度的教师数据的分布、及教师数据与学习后的输出值的关系的图。
图17A及图17B是示出教师数据与学习后的输出值的关系的图。
附图标记说明
1 内燃机
2 燃烧室
3 火花塞
4 燃料喷射阀
12 节气门
14 节气门开度传感器
23 NOX传感器3
24 大气温传感器
30 电子控制单元
具体实施方式
<内燃机的整体构成>
图1示出内燃机的整体图。参照图1,1表示内燃机主体,2表示各汽缸的燃烧室,3表示在各汽缸的燃烧室2内配置的火花塞,4表示用于向各汽缸供给燃料、例如汽油的燃料喷射阀,5表示稳压箱,6表示进气支管,7表示排气歧管。稳压箱5经由进气道8而连结于排气涡轮增压器9的压缩机9a的出口,压缩机9a的入口经由吸入空气量检测器10而连结于空气滤清器11。在进气道8内配置有由致动器13驱动的节气门12,在节气门12安装有用于检测节气门开度的节气门开度传感器14。另外,在进气道8周围配置用于对在进气道8内流动的吸入空气进行冷却的中间冷却器15。
另一方面,排气歧管7连结于排气涡轮增压器9的排气透平9b的入口,排气透平9b的出口经由排气管16而连结于排气净化用催化剂转换器17。排气歧管7与稳压箱5经由排气气体再循环(以下称为EGR)通路18而互相连结,在EGR通路18内配置EGR控制阀19。各燃料喷射阀4连结于燃料分配管20,该燃料分配管20经由燃料泵21而连结于燃料箱22。在排气管16内配置有用于检测排气气体中的NOX浓度的NOX传感器23。另外,在空气滤清器11内配置有用于检测大气温的大气温传感器24。
电子控制单元30由数字计算机构成,具备由双向性总线31互相连接的ROM(只读存储器)32、RAM(随机存取存储器)33、CPU(微处理器)34、输入端口35及输出端口36。吸入空气量检测器10、节气门开度传感器14、NOX传感器23及大气温传感器24的输出信号经由对应的AD变换器37而向输入端口35输入。在加速器踏板40连接有产生与加速器踏板40的踩踏量成比例的输出电压的负荷传感器41,负荷传感器41的输出电压经由对应的AD变换器37而向输入端口35输入。而且,在输入端口35连接有每当曲轴旋转例如30°时产生输出脉冲的曲轴角传感器42。在CPU34内基于曲轴角传感器42的输出信号而算出内燃机转速。另一方面,输出端口36经由对应的驱动电路38而连接于火花塞3、燃料喷射阀4、节气门驱动用致动器13、EGR控制阀19及燃料泵21。
<神经网络的概要>
在本发明的实施例中,使用神经网络来推定表示内燃机的性能的各种值。图2示出该神经网络的一例。图2中的圆形标记表示人工神经元,在神经网络中,该人工神经元通常称为节点或单元(在本申请中称为节点)。在图2中,L=1表示输入层,L=2及L=3表示隐藏层,L=4表示输出层。另外,在图2中,x1及x2表示从输入层(L=1)的各节点的输出值,y表示从输出层(L=4)的节点的输出值,z1、z2及z3表示从隐藏层(L=2)的各节点的输出值,z1及z2表示从隐藏层(L=3)的各节点的输出值。此外,隐藏层的层数可以设为1个或任意个数,输入层的节点的数及隐藏层的节点的数也可以设为任意个数。此外,在本发明的实施例中,输出层的节点的数设为1个。
在输入层的各节点处输入被原封不动地输出。另一方面,向隐藏层(L=2)的各节点输入输入层的各节点的输出值x1及x2,在隐藏层(L=2)的各节点处,使用分别对应的权重w及偏置b来算出总输入值u。例如,在图2中在隐藏层(L=2)的用zk(k=1、2、3)表示的节点处算出的总输入值uk成为如下式那样。
【数1】
接着,该总输入值uk由活化函数f进行变换,从隐藏层(L=2)的用zk表示的节点作为输出值zk(=f(uk))而输出。对于隐藏层(L=2)的其他节点也是同样的。另一方面,向隐藏层(L=3)的各节点输入隐藏层(L=2)的各节点的输出值z1、z2及z3,在隐藏层(L=3)的各节点处,使用分别对应的权重w及偏置b来算出总输入值u(Σz·w+b)。该总输入值u同样由活化函数进行变换,从隐藏层(L=3)的各节点作为输出值z1、z2而输出,此外,在本发明的实施例中,作为该活化函数而使用了S型函数σ。
另一方面,向输出层(L=4)的节点输入隐藏层(L=3)的各节点的输出值z1及z2,在输出层的节点处,使用分别对应的权重w及偏置b来算出总输入值u(Σz·w+b),或者,仅使用分别对应的权重w来算出总输入值u(Σz·w)。在本发明的实施例中,在输出层的节点处使用了恒等函数,因此,在输出层的节点处算出的总输入值u从输出层的节点原封不动地作为输出值y而输出。
<神经网络的函数的表达>
使用神经网络能够表达任意的函数,接着,对此简单地进行说明。首先,对作为活化函数而使用的S型函数σ进行说明,S型函数σ用σ(x)=1/(1+exp(-x))表示,如图3A所示那样根据x的值而取0与1之间的值。在此,若将x置换成wx+b,则S型函数σ用σ(wx+b)=1/(1+exp(-wx―b))表示。在此,若使w的值变大,则如在图3B中由曲线σ1、σ2、σ3所示,S型函数σ(wx+b)的曲线部分的倾斜逐渐变陡,若使w的值为无限大,则如在图3B中由曲线σ4所示,S型函数σ(wx+b)在成为x=-b/w(wx+b=0的x、即成为σ(wx+b)=0.5的x处,如图3B所示那样,呈阶梯状地变化。若利用这样的S型函数σ的性质,则能够使用神经网络来表达任意的函数。
例如,能够使用图4A所示那样的由包括1个节点的输入层(L=1)、包括2个节点的隐藏层(L=2)、及包括1个节点的输出层(L=3)构成的神经网络,来表达近似于2次函数的函数。此外,在该神经网络中,如图4A所示,向输入层(L=1)的节点输入输入值x,向在隐藏层(L=2)中用z1表示的节点输入使用权重w1 (L2)及偏置b1而算出的输入值u=x·w1 (L2)+b1。该输入值u由S型函数σ(x·w1 (L2)+b1)进行变换,作为输出值z1而输出。同样,向在隐藏层(L=2)中用z2表示的节点输入使用权重w2 (L2)及偏置b2而算出的输入值u=x·w2 (L2)+b2,该输入值u由S型函数σ(x·w2 (L2)+b2)进行变换,作为输出值z2而输出。
另一方面,向输出层(L=3)的节点输入隐藏层(L=2)的各节点的输出值z1及z2,在输出层的节点处,使用分别对应的权重w1 (y)及w2 (y)来算出总输入值u(Σz·w=z1·w1 (y)+z2·w2 (y))。如前所述,在本发明的实施例中,在输出层的节点处使用了恒等函数,因此,在输出层的节点处算出的总输入值u从输出层的节点原封不动地作为输出值y而输出。
在图4B的(I)中,示出以在x=0处S型函数σ(x·w1 (L2)+b1)的值大致成为零的方式设定了权重w1 (L2)及偏置b1时的从隐藏层(L=2)的节点的输出值z1。另一方面,在S型函数σ(x·w2 (L2)+b2)中,例如,若使权重w2 (L2)为负值,则S型函数σ(x·w2 (L2)+b2)的曲线的形态如图4B的(II)所示那样,成为伴随于x的增大而减小那样的形态。在图4B的(II)中,示出以在x=0处S型函数σ(x·w2 (L2)+b2)的值大致成为零的方式设定了权重w2 (L2)及偏置b2时的从隐藏层(L=2)的节点的输出值z2的变化。
另一方面,在图4B的(III)中,从隐藏层(L=2)的各节点的输出值z1与z2之和(z1+z2)用实线示出。此外,如图4A所示,对各输出值z1、z2乘以分别对应的权重w1 (y)及w2 (y),在图4B的(III)中,w1 (y),w2 (y)>1且w1 (y)≈w2 (y)时的输出值y的变化用虚线A示出。而且,在图4B的(III)中,w1 (y),w2 (y)>1且w1 (y)>w2 (y)时的输出值y的变化用单点划线B示出,在图4B的(III)中,w1 (y),w2 (y)>1且w1 (y)<w2 (y)时的输出值y的变化用单点划线C示出。在图4B的(III)中,用W示出的范围内的虚线A的形状表示近似于由y=ax2(a为系数)所示那样的2次函数的曲线,因此可知,使用图4A所示那样的神经网络而能够表达近似于2次函数的函数。
另一方面,图5A示出通过增大图4A中的权重w1 (L2)及w2 (L2)的值、从而使S型函数σ的值如图3B所示那样呈阶梯状地变化了的情况。在图5A的(I)中,示出以在x=―b1/w1 (L2)处、S型函数σ(x·w1 (L2)+b1)的值呈阶梯状地增大的方式设定了权重w1 (L2)及偏置b1时的从隐藏层(L=2)的节点的输出值z1。另外,在图5A的(II)中,示出以在比x=―b1/w1 (L2)稍大的x=-b2/w2 (L2)处S型函数σ(x·w2 (L2)+b2)的值呈阶梯状地减小的方式设定了权重w2 (L2)及偏置b2时的从隐藏层(L=2)的节点的输出值z2。另外,在图5A的(III)中,从隐藏层(L=2)的各节点的输出值z1与z2之和(z1+z2)用实线示出。如图4A所示,对各输出值z1、z2乘以分别对应的权重w1 (y)及w2 (y),在图5A的(III)中,w1 (y),w2 (y)>1时的输出值y用虚线示出。
这样,在图4A所示的神经网络中,通过隐藏层(L=2)的一对节点,能够获得图5A的(III)所示那样的长方形状的输出值y。因此,若增大隐藏层(L=2)的成对的节点数、适当地设定隐藏层(L=2)的各节点处的权重w及偏置b的值,则能够表达近似在图5B中由虚线的曲线所示那样的函数y=f(x)的函数。此外,在图5B中,以各长方形相接的方式进行了描绘,但实际上,有时各长方形部分重叠。另外,实际上,w的值不是无限大,所以各长方形不是准确的长方形状,成为在图3B中用σ3表示的曲线部分的上半部分那样的曲线状。此外,虽然省略详细的说明,但如图6A所示,若针对不同的二个输入值xI及x2,设置在隐藏层(L=2)中分别对应的一对节点,则如图6B所示,能够获得与输入值xI及x2相应的柱状的输出值y。在该情况下,若针对各输入值xI、x2,在隐藏层(L=2)设置多对成对的节点,则能够获得分别与不同的输入值xI及x2相应的多个柱状的输出值y,因此,可知:能够表达表示输入值xI及x2与输出值y的关系的函数。此外,即使在存在不同的三个以上的输入值x的情况下,也同样能够表达表示输入值x与输出值y的关系的函数。
<神经网络中的学习>
另一方面,在本发明的实施例中,使用误差逆传播法,学习神经网络内的各权重w的值及偏置b的值。该误差逆传播法是周知的,因此,以下对误差逆传播法的概要简单地进行说明。此外,由于偏置b是权重w的一种,所以在以下的说明中,偏置b设为权重w之一。在图2所示那样的神经网络中,若将向L=2、L=3或L=4的各层的节点的输入值u(L)中的权重用w(L)表示,则误差函数E的权重w(L)的微分、即梯度换一种表示的话,由下式所示那样。
【数2】
【数3】
在此,若u(L)发生变动,则通过下一层的总输入值u(L+1)的变化而引起误差函数E的变动,因此δ(L)可以用下式表示。
【数4】
在此,若表示为z(L)=f(u(L)),则在上述(3)式的右边呈现的输入值uk (L+1)可以用下式表示。
【数5】
【数6】
因此,δ(L)可用下式表示。
【数7】
即,若求出δ(L+1),则能够求出δ(L)。
针对某个输入值求出教师数据yt,在与该输入值对应的从输出层的输出值为y的情况下,在作为误差函数而使用了平方误差时,平方误差E用E=1/2(y-yt)2求出。在该情况下,在图2的输出层(L=4)的节点处,输出值y=f(u(L)),因此,在该情况下,输出层(L=4)的节点处的δ(L)的值如下式所示。
【数8】
在本发明的实施例中,如前所述,f(u(L))为恒等函数,f’(u(L))=1。因此,δ(L)=y-yt,求出δ(L)。
若求出δ(L),则使用上式(6)来求前层的δ(L-1)。这样依次求出前层的δ,使用这些δ的值,根据上式(2),对各权重w求误差函数E的微分、即梯度当求出梯度后,使用该梯度以使得误差函数E的值减小的方式更新权重w的值。即,进行权重w的值的学***方和误差E。
【数9】
另一方面,在进行逐次算出平方误差的在线学***方误差E。
<本发明的实施例>
接着,参照图7A~图10,对本发明的第1实施例进行说明。在该本发明的第1实施例中,如图4A所示,使用了包括一个输入层(L=1)、由一层形成的隐藏层(L=2)、及一个输出层(L=3)的神经网络。另外,该第1实施例示出使用图4A所示那样的神经网络,以用输入值x的2次函数表示输出值y的方式,进行了神经网络的权重的学习的情况。此外,在图7A~图8B中,虚线示出真的2次函数的波形,全涂黑的圆示出教师数据,圈状的圆示出以使得与输入值x对应的输出值y与教师数据的差变小的方式进行了神经网络的权重的学习之后的输出值y,实线的曲线示出学习结束后的输入值x与输出值y的关系。另外,在图7A~图8B中,A与B之间即R示出输入值x的预先设定的范围。
图7A及图7B是用于说明本申请发明要解决的课题的图,因此,首先,参照图7A及图7B,对于本申请发明要解决的课题进行说明。图7A示出使用如图4A所示那样隐藏层(L=2)的节点的个数为2个的神经网络,针对预先设定的范围R内的输入值x,以输出量y成为输入值x的2次函数y=ax2(a为常数)的方式学习了神经网络的权重的情况。如图7A所示,即使在神经网络的隐藏层(L=2)仅具有2个节点的情况下,在输入值x处于预先设定的范围R内的情况下,也如实线所示那样,表达近似于2次函数的函数。
即,在针对输入值x的预先设定的范围R进行了学习的情况下,对于预先设定的范围R,利用多个S型函数σ的曲线部分的合适的组合,输出值y表达为近似于2次函数的函数。然而,对于输入值x的预先设定的范围R外,由于没有进行学习,所以如实线所示,S型函数σ大幅变化的曲线部分的两端的直线部分直接作为输出值y而呈现。因此,学习完成后的输出值y如在图7A中用实线所示那样,在输入值x的预先设定的范围R内,以近似于2次函数的函数的形态呈现,在输入值x的预先设定的范围R外,以近似于相对于输入值x几乎不变化的直线的形态呈现。因此,如图7A所示,在输入值x的预先设定的范围R外,输出值y相对于由虚线所示的2次曲线大幅偏离。
另一方面,图7B示出在输入值x例如如在图7B中由x0所示那样处于输入值x的预先设定的范围R外时,输入值x为x0时的输出值y0也包含于教师数据地,学习了神经网络的权重的情况。这样,在也包含输入值x的没有预先设定的范围R的输出值y0地进行了学习的情况下,以图4B的用z1表示的S型函数σ的成为z1=1的直线部分包含输出值y0的方式上升,图4B的用z2表示的S型函数σ整体向右移动并且S型函数σ的值整体变低,所以在图7B中如用实线所示那样,在预先设定的范围R内,学习结束后的输出值y的值会相对于2次曲线大幅偏离。在像这样输入值x处于预先设定的范围R外的情况下,无法获得合适的输出值y。
不过,判明了,在该情况下,若增大神经网络的隐藏层(L=2)的节点的个数,则即使在输入值x处于预先设想的使用范围R外的情况下,也能够获得合适的输出值y。接着,对此,参照示出本发明的第1实施例的图8A及图8B进行说明。图8B示出在如图8A所示那样将神经网络的隐藏层(L=2)的节点的个数从2个增大至3个的状态下,将输入值x为x0时的输出值y0也包含于教师数据地,学习了神经网络的权重时的学习结果。在像这样使神经网络的隐藏层(L=2)的节点的个数增大时,如在图8B中用实线所示那样,输出值y的值与用虚线所示的2次曲线重叠。因此,如图8B所示,可知,即使在输入值x处于预先设想的使用范围R外的情况下,通过增大神经网络的隐藏层(L=2)的节点的个数,也能够获得合适的输出值y。于是,在本发明的第1实施例中,在输入值x处于预先设想的使用范围R外的情况下,使神经网络的隐藏层(L=2)的节点的个数增大。
接着,对图7A~图8B所示的输入值x及输出值y的具体的一例进行说明。在内燃机的领域中,在将内燃机的运转参数的值作为输入值x时,有时实际的输出量y成为输入值x的2次函数的形态,作为这样的情况的一例,存在内燃机的运转参数的值即输入值x为内燃机转速N(rpm)、输出量y为排气损失量的情况。在该情况下,内燃机转速N的使用范围在内燃机确定时与此相应地确定,因此,内燃机转速N的范围预先设定。另一方面,排气损失量示出从内燃机燃烧室排出的热能的量,与从内燃机燃烧室排出的排气气体量成比例,与从内燃机燃烧室排出的排气气体温度与外气温的温度差成比例。该排气损失量基于实际使内燃机运转时的气体温度等的检测值而算出,因此,该算出的排气损失量示出通过实测而得到的值。
在该具体的一例中,在输入值x、即内燃机转速N处于预先设定的范围R内时,使用通过实测而得到的教师数据,以使得输出值y与同输入值x对应的教师数据之差变小的方式学习神经网络的权重。另一方面,在输入值x、即内燃机转速N处于预先设定的范围外时,增大神经网络的隐藏层的节点的个数,并且使用新取得的输入值x、即针对内燃机转速N通过实测而得到的教师数据,以使得输出值y与同输入值x对应的教师数据之差变小的方式学习神经网络的权重。因此,在该情况下,即使内燃机转速N比预先设定的范围R高,也能够比较准确地推定排气损失量。
此外,本发明的第1实施例也能够适用于图9所示那样的具有多个隐藏层(L=2及L=3)的神经网络。在图9所示那样的神经网络中,由比输出层(L=4)靠前一个的隐藏层(L=3)的节点的输出值z1、z2来确定从输出层(L=4)输出的函数的形态。即,输出值y能够由哪种函数表达,是由比输出层(L=4)靠前一个的隐藏层(L=3)的节点的个数主导的。因此,在图9所示那样的神经网络中,在增大隐藏层的节点的个数时,如图9所示,使比输出层(L=4)靠前一个的隐藏层(L=3)的节点的个数增大。
在上述的第1实施例中,针对预先设定的范围R内的各种输入值x实测到的排气损失量作为教师数据而事先求出,根据这些输入值数据及教师数据决定神经网络的结构,以使得输出值y与同输入值x对应的教师数据之差变小的方式事先学习神经网络的权重。在该第1实施例中,使用与在事先学习中所用的神经网络相同结构的神经网络,使用学习完成时的神经网络的权重,在车辆运转中以车载的方式进一步进行学习。图10示出以该车载的方式进行的第1实施例的学习处理例程。此外,图10所示的学习处理例程通过每一定时间的、例如每一秒钟的***来执行。
参照图10,首先,在步骤101中,读入存储于电子控制单元30的存储部的已学习的权重、在事先的学习中所用的教师数据、及表示输入数据的范围R的值A、B。该已学习的权重作为权重的初始值而使用。接着,在步骤102中,读入在事先的学习中所用的神经网络的比输出层靠前一个的隐藏层的节点的个数K。接着,进入到步骤103,取得新的输入值x、即新的数据,该新的输入值x、即新的数据存储于电子控制单元30的存储部。而且,在步骤103中,与新的输入值x对应的排气损失量的实测值作为教师数据而存储于电子控制单元30的存储部。
接着,在步骤104中,判别新的输入值x是否处于表示输入数据的范围R的A、B之间,即新的输入值x是否为A以上且B以下。在新的输入值x处于表示输入数据的范围R的A、B之间时,进入到步骤105,输入值x向神经网络的输入层的节点输入,基于从神经网络的输出层的节点输出的输出值y和教师数据,使用误差逆传播法,以使得输出值y与教师数据之差变小的方式学习神经网络的权重。
另一方面,在步骤104中,在判别为新的输入值x不处于表示输入数据的范围R的A、B之间时,进入到步骤106,更新神经网络的比输出层靠前一个的隐藏层的节点的个数K,使比输出层靠前一个的隐藏层的节点的个数K增大。此时,在第1实施例中,比输出层靠前一个的隐藏层的节点的个数K仅增大1个。接着,在步骤107中,以使比输出层靠前一个的隐藏层的节点的个数K增大的方式更新神经网络,接着,进入到步骤105。在步骤105中,将针对新的输入值x新得到的教师数据也包含于教师数据地,以使得输出值y与教师数据之差变小的方式,学习更新后的神经网络的权重。
在本发明的实施例中所用的内燃机如图1所示那样,具备电子控制单元30,该电子控制单元30具备:参数值取得部,取得内燃机的运转参数的值;运算部,使用包括输入层、隐藏层及输出层的神经网络进行运算;及存储部。在此,图1所示的输入端口35构成上述的参数值取得部,CPU34构成上述的运算部,ROM32及RAM33构成上述的存储部。此外,在CPU34、即上述的运算部中,内燃机的运转参数的值向输入层输入,根据内燃机的运转参数的值而变化的输出值从输出层输出。另外,针对内燃机的运转参数的值预先设定的范围R预先存储于ROM32内、即上述的存储部。而且,已学习的权重和在事先的学习中所用的教师数据存储于RAM33内、即上述的存储部。
即,在本发明的第1实施例中,预先设定了内燃机的运转参数的值的范围,并且预先设定了与内燃机的运转参数的值的范围相应的神经网络的个数及神经网络的隐藏层的节点的个数。针对预先设定的范围内的内燃机的运转参数的值通过实测而得到的教师数据存储于存储部,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围内时,使用存储于存储部的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由运算部学习神经网络的权重。在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的个数为1个以上,则增大神经网络的比输出层靠前一个的隐藏层的节点的个数,使用针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由运算部学习神经网络的权重。使用学习了权重的神经网络输出与内燃机的运转参数的值相对应的输出值。
在该情况下,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,在针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的个数为2个以上的一定个数以上的情况下,也可以使神经网络的比输出层靠前一个的隐藏层的节点的个数增大。因此,在该第1实施例中,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,根据针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的个数,增大神经网络的比输出层靠前一个的隐藏层的节点的个数。
图11~图13B示出本发明的第2实施例。在该第2实施例中,内燃机的运转参数包括多个运转参数,基于多个运转参数的值进行神经网络的权重的学习。作为具体的一例,示出制作出内燃机的运转参数包括内燃机转速、加速器开度(加速器踏板的踩踏量)及外气温,基于这些内燃机的运转参数的值来推定内燃机的输出转矩的神经网络模型的情况。在该具体的一例中,如图12所示,神经网络的输入层(L=1)包括3个节点,向各节点,输入表示内燃机转速的输入值x1、表示加速器开度的输入值x2及表示外气温的输入值x3。另外,隐藏层(L=2,L=3)的层数可以设为1个或任意个数,隐藏层(L=2,L=3)的节点的数也可以设为任意个数。此外,在第2实施例中,输出层(L=4)的节点的数设为1个。
另一方面,在图13A中,A1与B1之间、即R1示出内燃机转速的预先设定的范围,A2与B2之间、即R2示出加速器开度的预先设定的范围,A3与B3之间、即R3示出外气温的预先设定的范围。此外,图13B也与图13A同样,A1与B1之间示出内燃机转速的预先设定的范围,A2与B2之间示出加速器开度的预先设定的范围,A3与B3之间示出外气温的预先设定的范围。此外,在该第2实施例中,加速器开度由负荷传感器41检测,外气温由大气温传感器24检测。另外,在该第2实施例中,例如,由安装于内燃机曲轴的转矩传感器实测内燃机的输出转矩,通过该实测而得到的转矩设为教师数据。
在该第2实施例中,也是针对预先设定的范围Rn内的各种输入值xn(n=1、2、3)实测到的内燃机输出转矩作为教师数据而事先求出,根据这些输入值数据及教师数据来决定神经网络的结构,以使得输出值y与同输入值xn对应的教师数据之差变小的方式事先学习神经网络的权重。在该第2实施例中,也是使用与在事先学习中所用的神经网络相同结构的神经网络,使用学习完成时的神经网络的权重,在车辆运转中以车载的方式进一步进行学习。图11示出以该车载的方式进行的第2实施例的学习处理例程,该学习处理例程通过每一定时间的、例如每一秒钟的***来执行。
参照图11,首先,在步骤201中,读入存储于电子控制单元30的存储部的已学习的权重、在事先的学习中所用的教师数据、及表示输入数据的范围的值An、Bn(n=1、2、3)(图13A)。该已学习的权重作为权重的初始值而使用。接着,在步骤202中,读入在事先的学习中所用的神经网络的比输出层靠前一个的隐藏层的节点的个数K。接着,进入到步骤203,取得新的输入值x、即新的数据,该新的输入值x、即新的数据存储于电子控制单元30的存储部。而且,在步骤203中,与新的输入值x对应的内燃机输出转矩的实测值作为教师数据而存储于电子控制单元30的存储部。
接着,在步骤204中,判别新的输入值xn是否处于输入数据的预先设定的范围Rn(An与Bn之间)内,即新的输入值xn是否为An以上且Bn以下。在新的输入值xn处于输入数据的预先设定的范围Rn内时,进入到步骤205,各输入值xn向神经网络的输入层的对应的节点输入,基于从神经网络的输出层的节点输出的输出值y和教师数据,使用误差逆传播法,以使得输出值y与教师数据之差变小的方式学习神经网络的权重。
另一方面,在步骤204中,在判别为新的输入值xn不处于输入数据的预先设定的范围Rn(An与Bn之间)内时,例如,在图13B中表示内燃机转速的输入值x1处于从B1到C1(B1<C1)的范围(B1~C1)内那样的情况、或者在图13B中表示外气温的输入值x3处于从C3到A3(C3<A3)的范围(C3~A3)内那样的情况下,进入到步骤206。在步骤206中,判别新的输入值xn所属的范围(Bn~Cn)或者范围(Cn~An)内的输入数据密度D(=输入数据个数/(Cn―Bn)、或者输入数据个数/(An―Cn))是否比预先确定的数据密度D0高。在输入数据密度D比预先确定的数据密度D0低的情况下完成处理循环。
另一方面,在步骤206中,在判别为输入数据密度D比预先确定的数据密度D0高时进入到步骤207。在该情况下,在D(=输入数据个数/(An―Cn))>D0时,由下式算出追加节点数α。
追加节点数α=round{(K/(Bn-An))·(An-Cn)}
另一方面,在D(=输入数据个数/(Cn―Bn))>D0时,由下式算出追加节点数α。
追加节点数α=round{(K/(Bn-An))·(Cn-Bn)}
此外,在上式中,K表示节点的个数,round意味着四舍五入。
如上所述,从步骤206进入步骤207是在输入数据密度D达到了预先确定的数据密度D0时,因此,在步骤207中用于追加节点数α的算出的(An―Cn)的值及(Cn―Bn)的值与输入数据的个数成比例。因此,从上式可知,追加节点数α与新的输入值xn所属的范围(Bn~Cn)或者范围(Cn~An)内的输入数据的个数成比例。
当在步骤207中算出追加节点数α后,进入到步骤208,更新神经网络的比输出层靠前一个的隐藏层的节点的个数K,使比输出层靠前一个的隐藏层的节点的个数K增大追加节点数α(K←K+α)。接着,在步骤209中,以使比输出层靠前一个的隐藏层的节点的个数K增大的方式更新神经网络,接着,进入到步骤205。在步骤205中,将针对新的输入值x新得到的教师数据也包含于教师数据地、以使得输出值y与教师数据之差变小的方式,学习更新后的神经网络的权重。
在本发明的第2实施例中,表示针对内燃机的运转参数的值预先设定的范围Rn的值An、Bn预先存储于ROM32内、即上述的存储部。另外,已学习的权重和在事先的学习中所用的教师数据存储于RAM33内、即上述的存储部。
即,本发明的第2实施例中,预先设定了内燃机的运转参数的值的范围,并且预先设定了与内燃机的运转参数的值的范围相应的神经网络的个数及神经网络的隐藏层的节点的个数。针对预先设定的范围内的内燃机的运转参数的值通过实测而得到的教师数据存储于存储部,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围内时,使用存储于存储部的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由运算部学习神经网络的权重。在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,根据针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的数据密度,增大神经网络的比输出层靠前一个的隐藏层的节点的个数,使用针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由运算部学习神经网络的权重。使用学习了权重的神经网络输出与内燃机的运转参数的值对应的输出值。
在该情况下,在该第2实施例中,如上所述,在新的输入值xn所属的范围(Bn~Cn)或者范围(Cn~An)内的输入数据密度D比预先确定的数据密度D0高时,使神经网络的比输出层靠前一个的隐藏层的节点的个数增大。即,在该第2实施例中,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的数据密度比预先设定的密度高,则使神经网络的比输出层靠前一个的隐藏层的节点的个数增大,使用存储于存储部的教师数据及针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由运算部学习神经网络的权重。
另外,在该第2实施例中,如上所述,追加节点数α与新的输入值xn所属的范围(Bn~Cn)或者范围(Cn~An)内的输入数据的个数成比例,因此,新的输入值xn所属的范围(Bn~Cn)或者范围(Cn~An)内的输入数据的个数越多,则越增大神经网络的隐藏层的节点的个数。即,在该第2实施例中,新取得的内燃机的运转参数的值所属的范围内的、新取得的内燃机的运转参数的值的个数越多,则越增大神经网络的比输出层靠前一个的隐藏层的节点的个数。
图14及图15示出本发明的第3实施例。在该第3实施例中,也是内燃机的运转参数包括多个运转参数,基于多个运转参数的值进行神经网络的权重的学习。在该第3实施例中,如图15所示,针对各运转参数的值而事先将教师数据的取得的范围分割为多个区域〔Xn,Ym〕(n=1、2…n,m=1、2…m)。此外,在图15中,X1、X2…Xn及Y1、Y2…Yn分别示出不同的运转参数的值的被划分的范围。另外,在该第3实施例中,作为具体的一例,示出内燃机的运转参数包括内燃机转速及外气温,基于这些内燃机的运转参数的值来推定来自内燃机的HC排出量的神经网络模型的情况。在该情况下,X1、X2…Xn表示例如按每1000rpm划分的内燃机转速(1000rpm≤X1<200rpm,2000rpm≤X2<3000rpm…),Y1、Y2…Yn表示例如按每10℃划分的外气温(-30℃≤Y1<-20℃,-20℃≤Y2<-10℃…)。
在该第3实施例中,按各区域〔Xn,Ym〕,分别使用独立的神经网络。在这些神经网络中,输入层(L=1)包括2个节点,向输入层(L=1)的各节点,输入表示内燃机转速的输入值x1及表示外气温的输入值x2。另外,隐藏层(L=2,L=3)的层数可以设为1个或任意个数,隐藏层(L=2,L=3)的节点的数也可以设为任意个数。此外,在任一神经网络中,输出层(L=4)的节点的数量均设为1个。
在该第3实施例中,隐藏层(L=3)的节点的数按每个神经网络而不同,以下,将区域〔Xn,Yn〕中的神经网络的比输出层靠前一个的隐藏层的节点的个数用Knm表示。该隐藏层的节点的个数Knm根据各区域〔Xn,Ym〕内的相对于输入值的变化的教师数据的变化的复杂度而事先设定。此外,在该第3实施例中,改为图1所示的NOX传感器23而HC传感器配置于排气通路内。在该第3实施例中,由该HC传感器实测来自内燃机的HC排出量,通过该实测而得到的HC排出量设为教师数据。
在该第3实施例中,针对各区域〔Xn,Ym〕(n=1、2…n,m=1、2…m)内的各种输入值x1、x2实测到的HC排出量作为教师数据而事先求出,根据这些输入值数据及教师数据,也包含隐藏层的节点的个数Knm地,决定针对各区域〔Xn,Ym〕的神经网络的结构,以使得输出值y与同输入值x1、x2对应的教师数据之差变小的方式事先学习各区域〔Xn,Ym〕的神经网络的权重。因此,在该第3实施例中,将该事先进行学习的区域〔Xn,Ym〕(n=1、2…n,m=1、2…m)以下称为已学习区域〔Xn,Ym〕。此外,在该第3实施例中,也是针对各区域〔Xn,Ym〕,使用与在事先学习中所用的神经网络相同结构的神经网络,使用学习完成时的神经网络的权重,在车辆运转中以车载的方式进一步进行学习。图14示出以该车载的方式进行的第3实施例的学习处理例程,该学习处理例程通过每一定时间的、例如每一秒钟的***来执行。
参照图14,首先,在步骤301中,读入存储于电子控制单元30的存储部的已学习的权重、在事先的学习中所用的教师数据、及各已学习区域〔Xn,Ym〕(n=1、2…n,m=1、2…m)。该已学习的权重作为权重的初始值而使用。接着,在步骤302中,针对各已学习区域〔Xn,Ym〕读入在事先的学习中所用的比输出层靠前一个的隐藏层的节点的个数Knm。接着,进入到步骤303,取得新的输入值x1、x2即新的数据,该新的输入值x1、x2即新的数据存储于电子控制单元30的存储部。而且,在步骤303中,针对新的输入值x1、x2的HC排出量的实测值作为教师数据而存储于电子控制单元30的存储部。
接着,在步骤304中,判别新的输入值x1、x2是否处于已学习区域〔Xn,Ym〕内。在新的输入值x1、x2处于已学习区域〔Xn,Ym〕内时,进入到步骤305,输入值x1、x2向输入值x1、x2所属的已学习区域〔Xn,Ym〕的神经网络的输入层的各节点输入,基于从神经网络的输出层的节点输出的输出值y和教师数据,使用误差逆传播法,以使得输出值y与教师数据之差变小的方式进一步学习输入值x1、x2所属的已学习区域〔Xn,Ym〕的神经网络的权重。
另一方面,在步骤304中,在判别为新的输入值x1、x2不处于已学习区域〔Xn,Ym〕内时,例如,在图15中输入值x1、x2处于不是已学习的新区域〔Xa,Yb〕内时,进入到步骤306。在步骤306中,判别新的输入值x1、x2所属的新区域〔Xa,Yb〕内的输入数据密度D(=输入数据个数/〔Xa,Yb〕)是否比预先确定的数据密度D0高,及,新的输入值x1、x2所属的新区域〔Xa,Yb〕内的输入数据的方差S2是否比预先确定的方差S2 0大。在输入数据密度D比预先确定的数据密度D0低的情况下,或,在输入数据的方差S2比预先确定的方差S2 0小的情况下完成处理循环。
另一方面,在步骤306中,在判别为输入数据密度D比预先确定的数据密度D0高、且输入数据的方差S2比预先确定的方差S2 0大时进入到步骤307。在步骤307中,基于下述的节点数算出式,根据新区域〔Xa,Yb〕周围的已学***均值,算出针对新区域〔Xa,Yb〕的节点数Kab。
节点数Kab=1/NΣΣKij(i=(a-1)~(a+1),j=(b-1)~(b+1))
此外,在上式中,N表示在新区域〔Xa,Yb〕周围存在的已学***均值设为针对新区域〔Xa,Yb〕的节点数Kab。
在各区域〔Xn,Ym〕内的相对于输入值的变化的教师数据的变化的关系简单的情况下,即使减少隐藏层的节点的个数Knm,也能够充分地进行学***均值设为针对新区域〔Xa,Yb〕的节点数Kab。
在此,作为第3实施例的变形例,对将新区域〔Xa,Yb〕中的输入数据个数考虑在内地求出针对新区域〔Xa,Yb〕的节点数Kab的方法简单地进行说明。即,在新区域〔Xa,Yb〕中的输入数据个数即教师数据个数比新区域〔Xa,Yb〕周围的已学***均值MD,将新区域〔Xa,Yb〕中的输入数据个数MN除以平均值MD,由此求出节点数增大率RK(=MN/MD),对根据上述的节点数算出式求出的针对新区域〔Xa,Yb〕的节点数Kab乘以该节点数增大率RK,而设为最终的针对新区域〔Xa,Yb〕的节点数Kab。
在步骤307中算出针对新区域〔Xa,Yb〕的节点数Kab后,进入到步骤308,制作出针对新区域〔Xa,Yb〕的新的神经网络。在该新的神经网络中,节点的个数对于输入层设为2个,对于比输出层靠前一个的隐藏层设为Kab个,对于输出层设为1个。接着,进入到步骤305。在步骤305中,针对新区域〔Xa,Yb〕,以使得输出值y与教师数据之差变小的方式学习对新区域〔Xa,Yb〕制作出的神经网络的权重。
即,本发明的第3实施例中,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的数据密度比预先设定的密度高,则通过制作出新的神经网络来增大神经网络的比输出层靠前一个的隐藏层的节点的个数,使用针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式,由运算部学习新的神经网络的权重。
再稍具体而言,在本发明的第3实施例中,内燃机的运转参数包括不同的多个内燃机运转参数,在各内燃机运转参数的值的预先设定的范围内,预先设定了根据各内燃机运转参数的值来划分且事先完成了学习的已学习区域。按每个已学习区域制作出神经网络,在由参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外且不是已学习的新区域内时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的新区域内的数据密度比预先设定的密度高,则针对新区域制作出新的神经网络。使用针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式,由运算部学习对新区域制作出的新的神经网络的权重。
在该情况下,在该第3实施例中,如上所述,根据针对位于新区域的周围的已学***均值,设定针对新区域制作出的新的神经网络的比输出层靠前一个的隐藏层的节点的个数。而且,在该情况下,针对新区域的输入数据数越多,则越增大针对新区域制作出的新的神经网络的比输出层靠前一个的隐藏层的节点的个数。
接着,参照图16A~图17B,对将本发明应用于低负荷用的特殊的内燃机的情况下的具体例进行说明。在该具体例中,如图12所示,使用隐藏层(L=3)具有4个节点的神经网络,制作根据节气门12的开度、内燃机转速及点火正时输出表示NOX排出量的输出值y的模型。此外,在该具体例中所用的内燃机中,节气门12的开度的使用范围设定于5.5°~11.5°(将最大关闭位置处的节气门12的开度设为0°)之间,内燃机转速的使用范围设定于1600(rpm)~3000(rpm)之间,点火正时的使用范围设定于0°(压缩上止点)~ATDC(压缩上止点前)40°之间。
图16A示出相对于点火正时和内燃机转速的教师数据的分布,图16B示出相对于节气门开度和点火正时的教师数据的分布。此外,在图16A及图16B中,黑圆示出事先取得的教师数据的存在场所,三角形标记示出没有事先取得教师数据的场所。从图16A及图16B可知,针对什么样的节气门开度、什么样的内燃机转速、及什么样的点火正时事先取得了教师数据。例如,可知,在图16A中内燃机转速N为2000(rpm)、点火正时为ATDC20°时,事先取得了教师数据,如图16B所示,在点火正时为ATDC20°时,针对各种节气门开度事先取得了教师数据。
另一方面,在该具体例中,节气门开度、内燃机转速及点火正时向神经网络的输入层(L=1)的各节点输入,以使得输出值y与表示由NOX传感器23检测到的NOX排出量的教师数据一致的方式学习神经网络的权重。学习后的输出值y与教师数据的关系在图16C、图17A及图17B中示出,此外,在图16C、图17A及图17B中,学习后的输出值y及教师数据的值以最大值为1的方式正规化地示出。
如上所述,在该具体例中所用的内燃机中,节气门12的开度的使用范围设定于5.5°~11.5°之间,内燃机转速N的使用范围设定于1600(rpm)~3000(rpm)之间,点火正时的使用范围设定于0°(压缩上止点)~ATDC40°之间。在图16C中,在这些使用范围内,将使用了节气门开度、内燃机转速N及点火正时时的NOX排出量作为教师数据而事先取得,以使得输出值y与事先取得的教师数据一致的方式学习了神经网络的权重时的、学习后的输出值y与教师数据的关系用圆形标记表示。
如图16C所示,表示学习后的输出值y与教师数据的关系的圆形标记集于一直线上,因此,可知,使得学习后的输出值y与教师数据一致了。例如,若举出节气门12的开度为例,则由于发动机的个体差和/或历时变化,节气门12的开度会偏离正规的开度,即使节气门12的开度的使用范围设定于5.5°~11.5°之间,实际上有时节气门12的开度也会超出预先设定的使用范围。图16A及图16B所示的三角形标记示出在节气门12的开度超出预先设定的使用范围而成为了13.5°时新取得的教师数据的场所。
图16C的三角形标记示出不使用在像这样节气门12的开度超出预先设定的使用范围而成为了13.5°时新取得的教师数据、而仅使用事先取得的教师数据进行了神经网络的权重的学习的情况。在该情况下,可知节气门12的开度超出预先设定的使用范围而成为了13.5°时的NOX排出量的推定值会大幅偏离实测值。另一方面,图17A的圆形标记示出使用在像这样节气门12的开度超出预先设定的使用范围而成为了13.5°时所取得的新的教师数据、和事先取得的教师数据这双方的教师数据进行了神经网络的权重的学习的情况。在该情况下,可知NOX排出量的推定值整体上偏离实测值。
与此相对,图17B的圆形标记示出与图17A同样地使用在节气门12的开度超出预先设定的使用范围而成为了13.5°时所取得的新的教师数据、和事先取得的教师数据这双方的教师数据,与图17A不同而将神经网络的隐藏层(L=3)的节点的数从4个增大至7个后进行了神经网络的权重的学习的情况。在该情况下,可知NOX排出量的推定值与实测值精度良好地一致。这样,在新取得的内燃机的运转参数的值处于预先设定的范围外时,通过使神经网络的比输出层靠前一个的隐藏层的节点的个数增大,能够提高推定精度。
Claims (10)
1.一种内燃机的控制装置,具备电子控制单元,该电子控制单元具备:参数值取得部,取得内燃机的运转参数的值;运算部,使用包括输入层、隐藏层及输出层的神经网络进行运算;及存储部,内燃机的运转参数的值向输入层输入,根据内燃机的运转参数的值而变化的输出值从输出层输出,其中,
预先设定了内燃机的运转参数的值的范围,并且预先设定了与内燃机的运转参数的值的范围相应的神经网络的个数及神经网络的隐藏层的节点的个数,针对该预先设定的范围内的内燃机的运转参数的值通过实测而得到的教师数据存储于存储部,在由该参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围内时,使用存储于该存储部的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式,由该运算部学习神经网络的权重,在由该参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的数据密度比预先设定的密度高,则使神经网络的比输出层靠前一个的隐藏层的节点的个数增大,并且使用存储于该存储部的教师数据及针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由该运算部学习神经网络的权重,使用学习了权重的神经网络输出与内燃机的运转参数的值相对应的输出值。
2.根据权利要求1所述的内燃机的控制装置,
在由该参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的个数为一个以上,则使比输出层靠前一个的隐藏层的节点的个数增大,并且使用存储于该存储部的教师数据及针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式由该运算部学习神经网络的权重。
3.根据权利要求1所述的内燃机的控制装置,
新取得的内燃机的运转参数的值所属的范围内的、新取得的内燃机的运转参数的值的个数越多,则越增大神经网络的比输出层靠前一个的隐藏层的节点的个数。
4.根据权利要求1所述的内燃机的控制装置,
在由该参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的数据密度比预先设定的密度高,则通过制作出新的神经网络来使神经网络的比输出层靠前一个的隐藏层的节点的个数增大,并且使用针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式,由该运算部学习新的神经网络的权重。
5.根据权利要求4所述的内燃机的控制装置,
内燃机的运转参数包括不同的多个内燃机运转参数,在各内燃机运转参数的值的预先设定的范围内,预先设定了根据各内燃机运转参数的值来划分且事先完成了学习的已学习区域,按每个已学习区域制作出神经网络,在由该参数值取得部新取得的内燃机的运转参数的值处于预先设定的范围外且不是已学习的新区域内时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的该新区域内的数据密度比预先设定的密度高,则针对该新区域制作出新的神经网络,并且使用针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式,由该运算部学习针对该新区域制作出的新的神经网络的权重。
6.根据权利要求5所述的内燃机的控制装置,
基于针对位于该新区域的周围的已学***均值,设定针对该新区域制作出的新的神经网络的比输出层靠前一个的隐藏层的节点的个数。
7.根据权利要求6所述的内燃机的控制装置,
针对该新区域的输入数据数越多,则越增大针对该新区域制作出的新的神经网络的比输出层靠前一个的隐藏层的节点的个数。
8.一种内燃机的控制装置,使用了神经网络,其中,
预先设定了内燃机的运转参数的值的范围,并且预先设定了与内燃机的运转参数的值的范围相应的神经网络的个数及神经网络的隐藏层的节点的个数,在新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的数据密度比预先设定的密度高,则使神经网络的比输出层靠前一个的隐藏层的节点的个数增大,并且使用所存储的教师数据及针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式学习神经网络的权重。
9.一种内燃机的控制装置,使用了神经网络,其中,
预先设定了内燃机的运转参数的值的范围,并且预先设定了与内燃机的运转参数的值的范围相应的神经网络的个数及神经网络的隐藏层的节点的个数,在新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的数据密度比预先设定的密度高,则使神经网络的比输出层靠前一个的隐藏层的节点的个数增大,并且使用所存储的教师数据及针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式学习神经网络的权重,使用学习了权重的神经网络输出与内燃机的运转参数的值相对应的输出值。
10.一种内燃机的控制装置,使用了神经网络,其中,
预先设定了内燃机的运转参数的值的范围,并且预先设定了与内燃机的运转参数的值的范围相应的神经网络的个数及神经网络的隐藏层的节点的个数,存储针对该预先设定的范围内的内燃机的运转参数的值通过实测而得到的教师数据,在新取得的内燃机的运转参数的值处于预先设定的范围内时,使用该存储的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式学习神经网络的权重,在该新取得的内燃机的运转参数的值处于预先设定的范围外时,若针对新取得的内燃机的运转参数的值通过实测而得到的教师数据的数据密度比预先设定的密度高,则使神经网络的比输出层靠前一个的隐藏层的节点的个数增大,并且使用所存储的教师数据及针对新取得的内燃机的运转参数的值通过实测而得到的教师数据,以使得根据内燃机的运转参数的值而变化的输出值与同内燃机的运转参数的值对应的教师数据之差变小的方式学习神经网络的权重,使用学习了权重的神经网络输出与内燃机的运转参数的值相对应的输出值。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018-018425 | 2018-02-05 | ||
JP2018018425 | 2018-02-05 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN110118130A CN110118130A (zh) | 2019-08-13 |
CN110118130B true CN110118130B (zh) | 2022-07-05 |
Family
ID=67308891
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201811531856.6A Active CN110118130B (zh) | 2018-02-05 | 2018-12-14 | 内燃机的控制装置 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10634081B2 (zh) |
JP (2) | JP2019135392A (zh) |
CN (1) | CN110118130B (zh) |
DE (1) | DE102019102835B4 (zh) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019116881A (ja) * | 2017-12-27 | 2019-07-18 | トヨタ自動車株式会社 | 内燃機関の制御装置 |
CN110352297B (zh) | 2018-02-05 | 2020-09-15 | 丰田自动车株式会社 | 机器学习装置 |
JP6501018B1 (ja) * | 2018-04-20 | 2019-04-17 | トヨタ自動車株式会社 | 未燃燃料量の機械学習装置 |
JP6702380B2 (ja) * | 2018-09-14 | 2020-06-03 | トヨタ自動車株式会社 | 内燃機関の制御装置 |
JP6702389B2 (ja) * | 2018-10-09 | 2020-06-03 | トヨタ自動車株式会社 | 車両用駆動装置の制御装置、車載電子制御ユニット、学習済みモデル、機械学習システム、車両用駆動装置の制御方法、電子制御ユニットの製造方法及び出力パラメータ算出装置 |
JP6593560B1 (ja) * | 2019-02-15 | 2019-10-23 | トヨタ自動車株式会社 | 内燃機関の失火検出装置、内燃機関の失火検出システム、データ解析装置、および内燃機関の制御装置 |
DE102019218395A1 (de) * | 2019-10-31 | 2021-05-06 | Deere & Company | Verfahren zur Ermittlung einer emittierten Stoffmenge |
US11459962B2 (en) * | 2020-03-02 | 2022-10-04 | Sparkcognitton, Inc. | Electronic valve control |
DE102020106591A1 (de) * | 2020-03-11 | 2021-09-16 | Ford Global Technologies, Llc | Verfahren zum Erstellen eines trainierten künstlichen neuronalen Netzes, Verfahren zum Vorhersagen von Emissionsdaten eines Fahrzeugs sowie Verfahren zum Ermitteln von Kalibrierwerten |
CN114934848B (zh) * | 2022-06-16 | 2023-04-07 | 哈尔滨工程大学 | 一种面向柴油机燃烧性能优化控制的模糊神经网络建模方法 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1182137A (ja) * | 1998-02-09 | 1999-03-26 | Matsushita Electric Ind Co Ltd | パラメータ推定装置 |
CN1647107A (zh) * | 2002-04-19 | 2005-07-27 | 计算机联合思想公司 | 自动的神经网络模型生成与保持 |
CN105787592A (zh) * | 2016-02-26 | 2016-07-20 | 河海大学 | 基于改进rbf网络的风电机组超短期风功率预测方法 |
Family Cites Families (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7164117B2 (en) * | 1992-05-05 | 2007-01-16 | Automotive Technologies International, Inc. | Vehicular restraint system control system and method using multiple optical imagers |
US5093899A (en) | 1988-09-17 | 1992-03-03 | Sony Corporation | Neural network with normalized learning constant for high-speed stable learning |
JP2606317B2 (ja) | 1988-09-20 | 1997-04-30 | ソニー株式会社 | 学習処理装置 |
JPH0738186B2 (ja) | 1989-03-13 | 1995-04-26 | シャープ株式会社 | 自己拡張形ニユーラル・ネットワーク |
JPH0711256B2 (ja) * | 1989-09-06 | 1995-02-08 | 本田技研工業株式会社 | 内燃エンジンの制御装置 |
US5627941A (en) * | 1992-08-28 | 1997-05-06 | Hitachi, Ltd. | Method of configuring a neural network and a diagnosis/control system using the neural network |
CA2081519C (en) * | 1992-10-27 | 2000-09-05 | The University Of Toronto | Parametric control device |
US6601051B1 (en) * | 1993-08-09 | 2003-07-29 | Maryland Technology Corporation | Neural systems with range reducers and/or extenders |
JPH07224698A (ja) * | 1993-12-15 | 1995-08-22 | Hitachi Ltd | エンジンの学習制御方法 |
US5625750A (en) * | 1994-06-29 | 1997-04-29 | Ford Motor Company | Catalyst monitor with direct prediction of hydrocarbon conversion efficiency by dynamic neural networks |
JP3642591B2 (ja) * | 1994-11-29 | 2005-04-27 | 株式会社日立メディコ | 画像処理装置 |
US6098012A (en) * | 1995-02-13 | 2000-08-01 | Daimlerchrysler Corporation | Neural network based transient fuel control method |
US5781700A (en) * | 1996-02-05 | 1998-07-14 | Ford Global Technologies, Inc. | Trained Neural network air/fuel control system |
EP0810363B1 (en) * | 1996-05-28 | 2004-07-28 | Matsushita Electric Industrial Co., Ltd. | Air/fuel ratio control apparatus that uses a neural network |
JPH1025257A (ja) * | 1996-07-12 | 1998-01-27 | Toyota Motor Corp | メチル基をビニル基に転化する方法 |
JPH10252537A (ja) * | 1997-03-14 | 1998-09-22 | Honda Motor Co Ltd | 内燃機関の制御装置 |
JP3550985B2 (ja) * | 1997-12-02 | 2004-08-04 | 株式会社デンソー | 神経回路網の検証方法,検証装置及び記録媒体 |
US5904227A (en) * | 1997-12-30 | 1999-05-18 | Otis Elevator Company | Method for continuously adjusting the architecture of a neural network used in elevator dispatching |
US6269351B1 (en) * | 1999-03-31 | 2001-07-31 | Dryken Technologies, Inc. | Method and system for training an artificial neural network |
US7092922B2 (en) * | 2003-05-23 | 2006-08-15 | Computer Associates Think, Inc. | Adaptive learning enhancement to automated model maintenance |
DE102004031007A1 (de) | 2003-07-23 | 2005-02-10 | Daimlerchrysler Ag | Verfahren zur Erzeugung eines künstlichen neuronalen Netzes zur Datenverarbeitung |
WO2007056803A1 (en) * | 2005-11-15 | 2007-05-24 | Bernadette Garner | Method for training neural networks |
JP2007299366A (ja) | 2006-01-31 | 2007-11-15 | Sony Corp | 学習装置および学習方法、認識装置および認識方法、生成装置および生成方法、認識生成装置および認識生成方法、並びにプログラム |
US20080154811A1 (en) * | 2006-12-21 | 2008-06-26 | Caterpillar Inc. | Method and system for verifying virtual sensors |
US8862194B2 (en) * | 2008-06-30 | 2014-10-14 | Covidien Lp | Method for improved oxygen saturation estimation in the presence of noise |
US7917333B2 (en) * | 2008-08-20 | 2011-03-29 | Caterpillar Inc. | Virtual sensor network (VSN) based control system and method |
JP5467951B2 (ja) * | 2010-07-05 | 2014-04-09 | 本田技研工業株式会社 | ニューラルネットワーク学習装置 |
JP5426520B2 (ja) | 2010-11-24 | 2014-02-26 | 本田技研工業株式会社 | 内燃機関の制御装置 |
MX2013008812A (es) * | 2011-01-31 | 2014-09-11 | Landmark Graphics Corp | Sistema y metodo para utilizar una red artificial neural para simular tuberias hidraulicas en un simulador de deposito. |
JP5899272B2 (ja) | 2014-06-19 | 2016-04-06 | ヤフー株式会社 | 算出装置、算出方法及び算出プログラム |
US10891540B2 (en) * | 2015-12-18 | 2021-01-12 | National Technology & Engineering Solutions Of Sandia, Llc | Adaptive neural network management system |
-
2018
- 2018-03-15 US US15/922,151 patent/US10634081B2/en not_active Expired - Fee Related
- 2018-11-19 JP JP2018216766A patent/JP2019135392A/ja active Pending
- 2018-11-21 JP JP2018218455A patent/JP2019135393A/ja active Pending
- 2018-12-14 CN CN201811531856.6A patent/CN110118130B/zh active Active
-
2019
- 2019-02-05 DE DE102019102835.3A patent/DE102019102835B4/de active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1182137A (ja) * | 1998-02-09 | 1999-03-26 | Matsushita Electric Ind Co Ltd | パラメータ推定装置 |
CN1647107A (zh) * | 2002-04-19 | 2005-07-27 | 计算机联合思想公司 | 自动的神经网络模型生成与保持 |
CN105787592A (zh) * | 2016-02-26 | 2016-07-20 | 河海大学 | 基于改进rbf网络的风电机组超短期风功率预测方法 |
Non-Patent Citations (1)
Title |
---|
生物医用多孔金属材料的制备及表面改性;***、于景媛、石萍等;《生物医用多孔金属材料的制备及表面改性》;20160831;第122页倒数第1-2段 * |
Also Published As
Publication number | Publication date |
---|---|
DE102019102835A1 (de) | 2019-08-08 |
CN110118130A (zh) | 2019-08-13 |
JP2019135392A (ja) | 2019-08-15 |
JP2019135393A (ja) | 2019-08-15 |
DE102019102835B4 (de) | 2023-08-31 |
US20190242318A1 (en) | 2019-08-08 |
US10634081B2 (en) | 2020-04-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN110118130B (zh) | 内燃机的控制装置 | |
JP6477951B1 (ja) | 車載電子制御ユニット | |
CN110352297B (zh) | 机器学习装置 | |
US7181332B1 (en) | Method for controlling an operating condition of a vehicle engine | |
JP6702390B2 (ja) | 車両用駆動装置の制御装置、車載電子制御ユニット、学習済みモデル、機械学習システム、車両用駆動装置の制御方法、電子制御ユニットの製造方法及び出力パラメータ算出装置 | |
US20200264074A1 (en) | State detection system for internal combustion engine, data analysis device, and vehicle | |
CN110552799A (zh) | 一种废气再循环控制方法及装置 | |
JP2002206456A (ja) | エンジン制御パラメータの適合方法及び適合システム | |
CN110005537B (zh) | 内燃机的控制装置 | |
CN112031962B (zh) | 废气再循环***的异常检测装置 | |
JPH11343916A (ja) | エンジン制御におけるデータ推定方法 | |
JP2020063699A (ja) | 内燃機関の制御装置及びその制御方法、並びに内燃機関を制御するための学習モデル及びその学習方法 | |
JP3985746B2 (ja) | 内燃機関の制御装置 | |
JP2008215204A (ja) | 内燃機関の熱発生率のシミュレーション方法、内燃機関のトルクモデル作成方法および内燃機関のトルク推定方法 | |
JP6501032B1 (ja) | 機械学習装置 | |
WO2019151536A1 (ja) | 機械学習装置 | |
JP4393239B2 (ja) | 内燃機関のための空気質量捕捉装置の少なくとも1つの特性曲線を生成する方法 | |
JP2019143477A (ja) | 内燃機関の制御装置 | |
JP3897690B2 (ja) | 制御弁通過ガス流量算出装置 | |
JP2019148243A (ja) | 内燃機関の制御装置 | |
JP2018062913A (ja) | 内燃機関のモデリング装置及び制御装置 | |
JP2004197619A (ja) | 内燃機関の制御装置 | |
JP3627658B2 (ja) | 内燃機関の燃料噴射制御装置 | |
CN113250882A (zh) | 用于借助于点火角模型来运行燃烧马达的方法和装置 | |
JP2023080500A (ja) | エンジン制御装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |