CN112017305A - 一种基于强化学习的三维模型自动上色方法 - Google Patents
一种基于强化学习的三维模型自动上色方法 Download PDFInfo
- Publication number
- CN112017305A CN112017305A CN202010876342.5A CN202010876342A CN112017305A CN 112017305 A CN112017305 A CN 112017305A CN 202010876342 A CN202010876342 A CN 202010876342A CN 112017305 A CN112017305 A CN 112017305A
- Authority
- CN
- China
- Prior art keywords
- model
- semantic segmentation
- training
- function
- network
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
- G06T19/20—Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B33—ADDITIVE MANUFACTURING TECHNOLOGY
- B33Y—ADDITIVE MANUFACTURING, i.e. MANUFACTURING OF THREE-DIMENSIONAL [3-D] OBJECTS BY ADDITIVE DEPOSITION, ADDITIVE AGGLOMERATION OR ADDITIVE LAYERING, e.g. BY 3-D PRINTING, STEREOLITHOGRAPHY OR SELECTIVE LASER SINTERING
- B33Y50/00—Data acquisition or data processing for additive manufacturing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/23—Clustering techniques
- G06F18/232—Non-hierarchical techniques
- G06F18/2321—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions
- G06F18/23213—Non-hierarchical techniques using statistics or function optimisation, e.g. modelling of probability density functions with fixed number of clusters, e.g. K-means clustering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/187—Segmentation; Edge detection involving region growing; involving region merging; involving connected component labelling
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2219/00—Indexing scheme for manipulating 3D models or images for computer graphics
- G06T2219/20—Indexing scheme for editing of 3D models
- G06T2219/2012—Colour editing, changing, or manipulating; Use of colour codes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Life Sciences & Earth Sciences (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Evolutionary Computation (AREA)
- Mathematical Physics (AREA)
- Computing Systems (AREA)
- Molecular Biology (AREA)
- Health & Medical Sciences (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Probability & Statistics with Applications (AREA)
- Architecture (AREA)
- Computer Graphics (AREA)
- Computer Hardware Design (AREA)
- Chemical & Material Sciences (AREA)
- Manufacturing & Machinery (AREA)
- Materials Engineering (AREA)
- Image Analysis (AREA)
Abstract
本发明公开了一种基于强化学习的三维模型自动上色方法,其特点是采用不断基于初始数据集进行训练,并对其进行扩充和补全,进而采用强化学习技术,诱导网络利用新加入的模型进行迭代自学习,最终,对于输入模型采用渐进式功能增强网络得到其对象级语义分割,并根据用户指定的模型目标功能描述或在“几何‑材料‑功能”数据集进行基于离散Hausdorff距离的高效几何匹配,得到输入模型的对象级可打印多材料智能分布结果。本发明与现有技术相比具有自动对三维模型进行多材料分布及上色,能精确制造出符合用户指定的三维模型多材料分布信息的打印模型,大大满足了航空、航天、医疗等领域的实际制造需求,具有良好的应用前景。
Description
技术领域
本发明涉及三维模型打印技术领域,尤其是一种基于强化学习的三维模型自动上色的方法。
背景技术
三维打印技术——通常也叫作增材制造技术,正是凭借其全新的制造理念和独特的技术优势迅速发展成为“中国制造2025”中机械领域新的战略方向,在诸多领域已得到广泛的应用,推动了传统制造模式的转型升级。我国正处于信息化与工业化深度融合和产业升级换代的关键阶段,“安全可靠、自主可控”成为信息化发展的国家战略,进一步推进工业制造信息化对于提升我国产业竞争力具有重要的战略意义。国内三维打印市场快速增长,预计2020年达到350亿元。然而,与发达国家相比,我国的三维打印技术自主创新能力不足,特别是在三维打印的处理软件方面,存在着数据处理效率低、稳定性和通用性较差等问题。
目前,三维打印在同一模型中仅能使用一种材料进行制造,无法满足航空、航天、医疗等重要领域的需求,严重限制三维打印的应用范围和技术发展。随着多挤出头技术的产生,多种支持多材料三维打印的硬件设备相继面世。
现有技术的三维模型自动上色方法无法直接扩展到多材料三维打印技术中,无法根据三维模型的目标功能进行模型的自动多材料分布。
发明内容
本发明的目的是提供一种基于强化学习的三维模型自动上色方法,采用渐进式功能增强网络得到其对象级语义分割,并根据用户指定的模型目标功能描述或在“几何-材料-功能”数据集进行基于离散Hausdorff距离的高效几何匹配的方法,得到输入模型的对象级可打印多材料智能分布结果,利用该方法自动对三维模型进行多材料分布及上色,以期降低人工设计成本,提高智能化程度,将模型实际功能与其材料分布进行关联,方法简便,效率高,能精确制造出符合用户指定的三维模型多材料分布信息的打印模型,大大满足了航空、航天、医疗等领域的实际制造需求,具有良好的应用前景。
实现本发明目的的具体技术方案是:一种基于强化学习的三维模型自动上色方法,其特点是采用渐进式功能增强网络得到其对象级语义分割,并根据用户指定的模型目标功能描述或在“几何-材料-功能”数据集进行基于离散Hausdorff距离的几何匹配方法,得到输入模型的对象级可打印多材料智能分布结果,对三维模型进行多材料分布及上色具体包括以下步骤:
步骤1:数据集的补全与扩充
1.1)通过收集包含几何信息、材料信息以及粗略功能类型描述的初始数据集;
1.2)使用K-Means算法对模型进行聚类,当每一类的损失值小于指定阈值时停止训练;
1.3)对每一个聚类核进行高精确功能描述的手动标注,从而获得第一批完整功能标签核心模型。
步骤2:模型的自迭代学习
2.1)将所得的带有完整功能标签的核心模型输入到深度学习神经网络中,采用强化学习的策略,诱导网络利用新加入的模型进行自迭代学习,通过标签和网络输出确定能量函数值;
2.2)根据所述能量函数值和训练参数在所述训练集上训练深度神经网络模型;所述训练参数:学习率为0.00025;
2.3)当所述深度神经网络在训练集上的能量函数值达到设定阈值时,停止训练;
2.4)随着数据集体量不断扩充,模型标注持续自完善,从而得到支持在线优化的“几何-材料-功能”数据集。
步骤3:多材料智能分布
3.1)将所得到的数据集输入语义分割网络,得到其对象级语义分割,通过对象级语义分割和标签数据确定分割损失代价函数值;
3.2)根据所述分割损失代价函数值和训练参数在所述训练集上训练语义分割网络;所述训练参数的学习速率为0.00025;
3.3)当所述语义分割网络在训练集上的分割损失代价函数值小于设定阈值时,停止训练;
3.4)将数据集进行基于离散Hausdorff距离的高效几何匹配,得到输入模型的对象级可打印多材料智能分布结果。
所述步骤1的补全与扩充具体包括:
A1)通过网络查找和数据库搜索,收集三维模型结构与信息,添加到现有的三维模型数据集上进行数据集扩充;
A2)将上述扩充的数据集进行三维模型旋转、裁剪和缩放处理操作;
A3)使用K-Means算法对模型进行聚类,对每一个聚类核手动进行比对、校验,并打上具有高精确功能描述的标注,从而获得第一批完整功能标签核心模型。
所述步骤2的自迭代学习具体包括:
B1)将所述完整功能标签核心模型输入到深度学习神经网络中,确定输出的是三维模型的功能和材料标签信息;
B2)根据深度学习神经网络得到的三维模型的功能和材料标签信息,与原先输入的高精确功能描述的标注对比,通过强化学习方法,计算每个输出的能量函数值;
B3)根据上述能量函数值和训练参数优化神经网络,提高网络输出标签的精确到,从而随着数据集体量不断扩充,模型标注持续自完善,实现支持在线优化的“几何-材料-功能”数据集。
所述步骤3的多材料智能分布具体包括:
C1)从网上获取经训练的深度卷积神经网络U-Net的参数,并根据U-Net的参数确定深度语义分割网络的模型初始参数,将训练集作为上述深度语义分割网络的输入,得到相同维度大小的输出语义分割图,通过训练集的ground-truth与输出语义分割图作对比确定所述语义分割图的Dice损失函数,在初始参数的基础上用训练集训练深度语义分割网络;
C2)根据所述语义分割图Dice损失函数值通过反向传播的方式,在所述训练集上更新所述的深度语义分割网络当中参数。
所述步骤3的多材料智能分布具体包括:
D1)将待上色模型输入上述深度语义分割网络中,输出相应语义分割图;
D2)将所述的语义分割图与数据库中存在的模型作对比,计算基于离散Hausdorff距离进行高效几何匹配,得到输入模型的对象级可打印多材料智能分布结果,并将其输出。
本发明与现有技术相比具有将模型实际功能与其材料分布进行关联,自动对三维模型进行多材料分布及上色,智能化程度高,人工设计成本低的优点,方法简便,效率高,能精确制造出符合用户指定的三维模型多材料分布信息的打印模型,大大满足了航空、航天、医疗等领域的实际制造需求,具有良好的应用前景。
附图说明
图1为本发明流程图;
图2为模型自迭代流程图;
图3为语义分割级智能分布匹配流程图。
具体实施方式
以下通过具体实施例对本发明作进一步的详细阐述:
实施例1
参阅图1,本发明按下述步骤进行三维模型自动上色的:
步骤1:数据集的补全与扩充
S111:通过网络查找和数据库搜索,构建初始数据集,不断基于初始数据集进行训练,并对其进行扩充和补全。
S112:使用K-Means算法对模型进行聚类,对每一个聚类核手动进行比对、校验,并且打上具有高精确功能描述的标注,从而获得第一批完整功能标签核心模型,所述K-Means算法为下述a式定义的代价函数:
S113:采用强化学习技术,诱导网络利用新加入的模型进行迭代自学习。
S114:对于输入模型,采用渐进式功能增强网络得到其对象级语义分割,并根据用户指定的模型目标功能描述或在“几何-材料-功能”数据集进行基于离散Hausdorff距离的高效几何匹配,得到输入模型的对象级可打印多材料智能分布结果。
步骤2:模型的自迭代学习
参阅图2,采用强化学习技术,诱导网络利用新加入的模型进行迭代自学习,主要包括以下步骤:
S211:将所得的带有完整功能标签的核心模型输入到深度学习神经网络中,采用强化学习的策略,诱导网络利用新加入的模型进行自迭代学习,通过标签和网络输出确定能量函数值,根据能量值函数评价状态好与坏,来鼓励网络进行强化学习,网络通过最大化能量值函数进行自迭代学习,所述能量函数值由下述b式计算:
其中:s表示状态;π表示行为策略;Gt表示在t时刻的回报。
S212:根据所述能量函数值和训练参数在训练集上训练深度神经网络模型,所述训练参数的学习率为0.00025。
S213:当深度神经网络在训练集上的能量函数值达到设定阈值时,停止训练。
S214:随着数据集体量不断扩充,模型标注持续自完善,从而得到支持在线优化的“几何-材料-功能”数据集。
步骤3:多材料智能分布
参阅图3,采用渐进式功能增强网络得到其对象级语义分割,并根据用户指定的模型目标功能描述或在“几何-材料-功能”数据集进行基于离散Hausdorff距离的高效几何匹配,得到输入模型的对象级可打印多材料智能分布结果,主要包括以下步骤:
S311:从网上获取经过训练的深度卷积神经网络U-Net的参数,根据U-Net的参数确定深度语义分割网络的模型初始参数,并将训练集作为上述深度语义分割网络的输入,在初始参数的基础上,用训练集训练所述深度语义分割网络,得到相同维度大小的输出语义分割图,通过训练集的ground-truth与输出语义分割图作对比确定语义分割图的Dice损失函数,所述Dice损失函数由下述c式定义:
其中:X为输出语义分割图;Y为对应ground-truth语义分割图。
S312:更新训练参数,根据上述语义分割图Dice损失函数值通过反向传播的方式,在训练集上更新所述的深度语义分割网络当中参数。
S313:将待上色模型输入上述深度语义分割网络中,输出相应语义分割图。
S314:将语义分割图与数据库中存在的模型作对比,计算基于离散Hausdorff距离进行高效几何匹配,得到输入模型的对象级可打印多材料智能分布结果并将其输出,所述Hausdorff距离是描述两组点集之间相似程度的一种量度,Hausdorff距离由下述d式计算:
H(A,B)=max(h(A,B),h(B,A)) (d);
其中:A、B表示两组点集;||·||表示点集A与点集B间的距离范式(如L2或欧几里得距离);h(A,B)=max(a∈A)min(b∈B)||a-b||;h(B,A)=max(b∈B)min(a∈A)||b-a||。
以上实施例只是对本发明作进一步说明,并非用以限制本发明专利,凡为本发明等效实施,均应包含于本发明专利的权利要求范围之内。
Claims (9)
1.一种基于强化学习的三维模型自动上色方法,其特征在于采用渐进式功能增强网络得到其对象级语义分割,并根据用户指定的模型目标功能描述或在“几何-材料-功能”数据集进行基于离散Hausdorff距离的几何匹配方法,得到输入模型的对象级可打印多材料智能分布结果,对三维模型进行多材料分布及上色具体包括以下步骤:
步骤1:数据集的补全与扩充
1.1)通过收集包含几何信息、材料信息以及粗略功能类型描述的初始数据集;
1.2)使用K-Means算法对模型进行聚类,当每一类的损失值小于指定阈值时停止训练;
1.3)对每一个聚类核进行功能描述的手动标注,从而获得第一批完整功能标签核心模型;
步骤2:模型的自迭代学习
2.1)将带有完整功能标签的核心模型输入到深度学习神经网络中,采用强化学习的策略,诱导网络利用新加入的模型进行自迭代学习,通过标签和网络输出确定能量函数值;
2.2)根据能量函数值和训练参数在训练集上训练深度神经网络模型;
2.3)当深度神经网络在训练集上的能量函数值达到设定阈值时,停止训练;
2.4)随着数据集体量不断扩充和模型标注持续自完善,从而得到支持在线优化的“几何-材料-功能”数据集;
步骤3:多材料智能分布
3.1)将上述数据集输入语义分割网络,得到其对象级语义分割,并通过对象级语义分割和标签数据确定分割损失代价函数值;
3.2)根据分割损失代价函数值和训练参数在训练集上训练语义分割网络;
3.3)当语义分割网络在训练集上的分割损失代价函数值小于设定阈值时,停止训练;
3.4)将数据集进行基于离散Hausdorff距离的几何匹配,得到输入模型的对象级可打印多材料智能分布结果。
2.根据权利要求1所述基于强化学习的三维模型自动上色方法,其特征在于所述步骤1的数据集的补全与扩充具体包括:
A1)通过网络查找和数据库搜索,收集三维模型结构与信息,添加到现有的三维模型数据集上进行数据集扩充;
A2)将扩充的数据集进行三维模型旋转、裁剪和缩放处理操作;
A3)使用K-Means算法对三维模型进行聚类,并对每一个聚类核手动进行比对、校验,并打上具有功能描述的标注,从而获得第一批完整功能标签核心模型。
3.根据权利要求1所述基于强化学习的三维模型自动上色方法,其特征在于所述步骤2的模型的自迭代学习具体包括:
B1)将完整功能标签核心模型输入到深度学习神经网络中,确定输出的是三维模型的功能和材料标签信息;
B2)根据上述三维模型的功能和材料标签信息与原先输入的功能描述的标注对比,采用强化学习的方法计算每个输出的能量函数值;
B3)根据上述能量函数值和训练参数优化神经网络,提高网络输出标签的精确度,随着数据集体量的不断扩充和模型标注持续自完善,从而得到支持在线优化的“几何-材料-功能”数据集。
4.根据权利要求1所述基于强化学习的三维模型自动上色方法,其特征在于所述步骤3的多材料智能分布具体包括:
C1)从网上获取经训练的深度卷积神经网络U-Net的参数,并根据U-Net的参数确定深度语义分割网络的模型初始参数,将训练集作为上述深度语义分割网络的输入,得到相同维度大小的输出语义分割图,通过训练集的ground-truth与输出语义分割图作对比,确定语义分割图的Dice损失函数,在初始参数的基础上,用训练集训练深度语义分割网络;
C2)根据语义分割图Dice损失函数值通过反向传播的方式,在训练集上更新深度语义分割网络当中参数;
C3)将待上色模型输入上述深度语义分割网络中,输出相应语义分割图;
C4)将上述语义分割图与数据库中的模型作对比,计算基于离散Hausdorff距离进行几何匹配,得到输入模型的对象级可打印多材料智能分布结果。
5.根据权利要求1所述基于强化学习的三维模型自动上色方法,其特征在于所述训练参数为0.00025的学习率。
9.根据权利要求1所述基于强化学习的三维模型自动上色方法,其特征在于所述Hausdorff距离由下述d式计算:
H(A,B)=max(h(A,B),h(B,A)) (d);
其中:A、B为两组点集;||·||为点集A与点集B间的距离范式。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010876342.5A CN112017305A (zh) | 2020-08-25 | 2020-08-25 | 一种基于强化学习的三维模型自动上色方法 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010876342.5A CN112017305A (zh) | 2020-08-25 | 2020-08-25 | 一种基于强化学习的三维模型自动上色方法 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN112017305A true CN112017305A (zh) | 2020-12-01 |
Family
ID=73502727
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010876342.5A Pending CN112017305A (zh) | 2020-08-25 | 2020-08-25 | 一种基于强化学习的三维模型自动上色方法 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN112017305A (zh) |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104875381A (zh) * | 2014-02-27 | 2015-09-02 | 致伸科技股份有限公司 | 具有上色功能的三维打印装置 |
CN105625720A (zh) * | 2016-01-05 | 2016-06-01 | 江苏敦超电子科技有限公司 | 多材料建筑三维打印成型方法 |
CN108274742A (zh) * | 2017-01-06 | 2018-07-13 | 三纬国际立体列印科技股份有限公司 | 立体打印上色方法与立体打印*** |
CN110084245A (zh) * | 2019-04-04 | 2019-08-02 | 中国科学院自动化研究所 | 基于视觉注意机制强化学习弱监督图像检测方法、*** |
US20190385021A1 (en) * | 2018-06-18 | 2019-12-19 | Drvision Technologies Llc | Optimal and efficient machine learning method for deep semantic segmentation |
-
2020
- 2020-08-25 CN CN202010876342.5A patent/CN112017305A/zh active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104875381A (zh) * | 2014-02-27 | 2015-09-02 | 致伸科技股份有限公司 | 具有上色功能的三维打印装置 |
CN105625720A (zh) * | 2016-01-05 | 2016-06-01 | 江苏敦超电子科技有限公司 | 多材料建筑三维打印成型方法 |
CN108274742A (zh) * | 2017-01-06 | 2018-07-13 | 三纬国际立体列印科技股份有限公司 | 立体打印上色方法与立体打印*** |
US20190385021A1 (en) * | 2018-06-18 | 2019-12-19 | Drvision Technologies Llc | Optimal and efficient machine learning method for deep semantic segmentation |
CN110084245A (zh) * | 2019-04-04 | 2019-08-02 | 中国科学院自动化研究所 | 基于视觉注意机制强化学习弱监督图像检测方法、*** |
Non-Patent Citations (3)
Title |
---|
XU SHENG ETC.: "3D object recognition using multi-moment and neural network", 《IEEEXPLORE》 * |
刘艳申: "工艺亭子三维造型与3D打印", 《电子测试》 * |
李明爱等: "基于多个并行CMAC神经网络的强化学习方法", 《***仿真学报》 * |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2020034632A1 (zh) | 基于mbd的汽车典型机加工零件三维工艺设计方法及平台 | |
CN111291678B (zh) | 一种基于多特征融合的人脸图像聚类方法及装置 | |
CN108595763A (zh) | 基于模型检索技术的模具组件设计方法 | |
CN107679562B (zh) | 三维模型的解析处理方法和装置 | |
CN107330458A (zh) | 一种最小方差优化初始聚类中心的模糊c均值聚类方法 | |
CN102081706B (zh) | 基于相似性理论的工艺规划方法 | |
CN101477529B (zh) | 一种三维对象的检索方法和装置 | |
CN105843799B (zh) | 一种基于多源异构信息图模型的学术论文标签推荐方法 | |
CN102254192A (zh) | 基于模糊k近邻的三维模型半自动标注方法及*** | |
CN102929894A (zh) | 一种文本在线聚类可视化方法 | |
CN110119772B (zh) | 一种基于几何形状特征融合的三维模型分类方法 | |
CN104156433A (zh) | 一种基于语义映射空间构建的图像检索方法 | |
CN106951460A (zh) | 一种基于图匹配的mbd模型检索方法 | |
Zhang et al. | Adaptively Unified Semi-supervised Learning for Cross-Modal Retrieval. | |
CN104392253A (zh) | 一种草图数据集的交互式类别标注方法 | |
CN104809186A (zh) | 模具设计与制造知识库的构建方法 | |
CN102063719B (zh) | 一种三维模型局部匹配方法 | |
CN110348488A (zh) | 一种基于局部密度峰值聚类的模态辨识方法 | |
CN103279746A (zh) | 一种基于支持向量机的人脸识别方法及*** | |
CN104216993A (zh) | 一种标签共现的标签聚类方法 | |
CN104361347B (zh) | 一种基于单一图像的数控机床设计模块三维模型检索方法 | |
CN115081515A (zh) | 能效评价模型构建方法、装置、终端及存储介质 | |
CN114242168A (zh) | 一种识别生物必需蛋白质方法 | |
Jia et al. | Machining feature recognition method based on improved mesh neural network | |
CN112017305A (zh) | 一种基于强化学习的三维模型自动上色方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
WD01 | Invention patent application deemed withdrawn after publication |
Application publication date: 20201201 |
|
WD01 | Invention patent application deemed withdrawn after publication |