如何求解如下优化问题
已知A为n×(m-n)的矩阵, A×x=b,求出一组x使得b分布相差最小。b>0
各位,如何编程,并且分析数据结果
[ 本帖最后由 ChaChing 于 2009-12-27 23:18 编辑 ]
回复 楼主 irisjyf 的帖子
水平有限, 不懂"分布相差"是什么?A*x=b,求出一组x => x=a\b???
回答上面热心人
就是求f=f+(b(i)-b(i+1))*(b(i)-b(i+1))的最小值问题,由于方程数目太多,i=127,所以上面的方程生成,只能用编程,下面的程序是我用matlab编的可是在用无约束优化求解时不能求不知道如何做?
function f=myfun(x)
A=importdata('A.txt')
=size(A);
x=sym(ones(1,n));
for i=1:n
x(i)=['x(' num2str(i) ')'];
end
x=x.'
=size(A)
A=A*x;
f3=0;
for i=1:m-1
f3=f3+(A(i)-A(i+1))*(A(i)-A(i+1));
end
f=f3;
回复 板凳 irisjyf 的帖子
水平有限, 实在看不清LZ要什么!?
页:
[1]