论文部分内容阅读
在网络中同一隐层的所有神经元对不同样本的输出所构成的向量相应线性无关、本文利用这一基本事实,对每一隐层引入了一相关向量及相应的无关度,根据无关度对该隐层神经元数目进行删除或增加,同时适当调整相应的网络权值,这样做既可以避免对隐层神经元的预先确定,同时还可以在学习过程中逃离局部极小。根据删除神经元对网络所带来的误差的详细分析,给出了确定删除隐层神经元的最估规则,数据实验表明了该方法的有效性。