论文部分内容阅读
该文讨论了多输出前向网结构分解的理论和方法,即多输出前向网是否可分解为多个单输出前向子网,及怎样作结构分解的问题。作者们发现,多输出前向网确实存在这样的分解,且结构分解系统中的每个子网都可能具有比原网络更少的隐节点。因而整个结构分解系统也会具有更好的泛化能力。基于这一理论。该文提出了两种结构设计方法:基于结构分解的权袁减法(SDBWD方法)和基于结构分解的动态节点创建方法(SDBDNC方法)。作者们用配煤分析和多概念学习作为例子对上述方法进行的测试发现。即使训练样本较少,基于结构分解的所设计的神经网络也会有较好的泛化能力。