BP高手请您看过来,看下我写的Matlab源代码存在的问题
以下是部分代码:HiddenUnitNum=10;%隐节点数
MaxEpochs=100;%最大训练次数
lr=0.1;%学习率
E0=0.01;%目标误差
W1=0.2*rand(HiddenUnitNum,InDim)-0.1;
B1=0.2*rand(HiddenUnitNum,1)-0.1;
W2=0.2*rand(OutDim,HiddenUnitNum)-0.1;
B2=0.2*rand(OutDim,1)-0.1;
W1Ex=;
W2Ex=;
SamInEx=';
ErrHistory=[];
for i=1:MaxEpochs %正向传播计算网络输出
HiddenOut=logsig(W1Ex*SamInEx);
HiddenOutEx=';
NetworkOut=logsig(W2Ex*HiddenOutEx);
% 停止学习判断
Error=SamOut-NetworkOut;
SSE=sumsqr(Error)
%记录每次权值调整后的训练误差
ErrHistory=;
if SSE<E0,break,end
%计算反向传播误差
Delta2=Error.*NetworkOut.*(1-NetworkOut);
Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);
%计算权值调节量
dW2Ex=Delta2*HiddenOutEx';
dW1Ex=Delta1*SamInEx';
%权值调节
W1Ex=W1Ex+lr*dW1Ex;
W2Ex=W2Ex+lr*dW2Ex;
W2=W2Ex(:,1:HiddenUnitNum);
end
W1=W1Ex(:,1:InDim);
B1=W1Ex(:,InDim+1);
W2=W2Ex(:,1:HiddenUnitNum);
B2=W2Ex(:,HiddenUnitNum+1);
我的问题:这个学习训练代码有没有问题??如果有,问题是什么?
我自己比较疑惑的是:%计算反向传播误差
Delta2=Error.*NetworkOut.*(1-NetworkOut);
Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);
标准的BP算法在计算反向传播误差的时候,要用到激活函数的导数来求(在以前会这样写deltak=deltalin(Ok,E);%计算输出层的delta
deltai=deltatan(Oi,deltak,Wki);%计算隐含层的deita
但是deltalin和deltatan都是旧版本的导函数),我以上自己的写法求反向误差对不对啊(就是 Delta2=Error.*NetworkOut.*(1-NetworkOut);
Delta1=W2'*Delta2.*HiddenOut.*(1-HiddenOut);如果对,里面为什么没有导函数),恳请高手指教!!!!
页:
[1]