[存档!]纯数学、物理学、化学等:与贸易没有任何关系的大脑训练问题 - 页 561

 

我在睡觉,我在睡觉。

 
似乎有一个标准的程序来构建一个正态集。无论是拉格朗日还是其他什么。好吧,如果你已经解决了问题并证明了它,那么还有什么可谈的...
 
Mathemat:
似乎有一个标准的程序来构建一个正态集。要么是拉格朗日的,要么是其他东西的。好吧,如果你已经解决了问题并证明了它,那么还有什么可谈的呢...

不不不!!!。 如果你有一个,请继续发布! 非常有趣,我还没有找到。

以不同的方式感兴趣,因为这可能会影响解决目标问题的速度。

 
tara:

有道理。我们要靠什么来赚钱?

外汇!
 
MetaDriver: Nenenyenne!!! 如果有的话,请继续发布。 这很有意思,我找了半天也没找到。

嗯,我还没有真正深入研究过。Gram-Schmidt过程,它是在线性代数中。或二次元形式。

就我的理解,从这一点开始就足够了,而不是第一步。那里也有一个证明,还有几何插图。

我有这样的怀疑,在OpenCL函数中应该有一些原生的东西用于这个过程。

 

串行正交的方法可以在下面这段代码中看到。梯度是一个随机矢量,从这个随机矢量中去除基向量上的投影。该基础位于一个一维数组Sarray中。所有数组都被声明为全局。我想,这个过程从评论中可以看出。

//+------------------------------------------------------------------+
//|  в массиве Sarray записан ортонормированный базис из k векторов  |
//|  размерности NeuroCellDim каждый                                 |
//|  строится ортогональная проекция вектора Gradient на базис       |
//|  в случае успеха проекция нормируется                            |
//|  и добавляется в базис, если позволяет признак записи: write > 0 |
//+------------------------------------------------------------------+
int OrthogonalProjection(int k, int write)
{
   int   i, j, err = 0, index = 0;
   double Alpha;
   if (k > 0) // если k>0, то базис не пуст
      for (i = 0; i < k; i++)
      {
         for (j = 0; j < NeuroCellDim; j++)
         {
            InputX[j] = Sarray[index]; // извлекаем i-й орт в InputX
            index++;
         }
         Alpha = ScalarProduct( Gradient, InputX); // скалярное произведение, cos(Gradient, InputX)
         if (Alpha > 1.0 - delta)   // если cos() = 1
         {
            err = -1; // считаем, что такой вектор линейно зависим от векторов базиса
            break;
         }
//       Gradient := Gradient - Alpha * InputX     с нормировкой       
         AddVektors( Gradient, InputX, -Alpha); // орт к базису из i+1 векторов
      }

   if (err >= 0 && write > 0) // если существует проекция и позволяет признак записи
      for (j = 0; j < NeuroCellDim; j++)  // записываем новый орт в базис
      {
         Sarray[index] = Gradient[j]; 
         index++;
      }      

   return(err);
}
//+--- OrthogonalProjection End -------------------------------------+
 

人们,给我一个提示。我迷路了。问题是这样的:有一个数据样本,通过线性回归(自变量-参考号)可以很好地接近。

该图显示了一个线性回归方程。我想对来自样本的数据进行转换,使其在计数方面是不变的。我试图通过算术运算选择方程的一个自由项,并将样本中的数据转换为这个值。但在开始时,在0.7、0.46等水平上出现了这样一个峰值,一直到所需水平的渐近线。一开始的这个高峰是怎么来的?是否可以通过改变配方来消除它?

附上Excel,以备不时之需。

附加的文件:
 
alexeymosc:

人们,一个忠告。我迷路了。问题是这样的:有一个数据样本,通过线性回归(自变量-参考号)可以很好地接近。

该图显示了一个线性回归方程。我想对来自样本的数据进行转换,使其在计数方面是不变的。我试图通过算术运算选择方程的一个自由项,并将样本中的数据转换为这个值。但在开始时,在0.7、0.46等水平上出现了这样一个峰值,一直到所需水平的渐近线。一开始的这个高峰是怎么来的?是否可以通过改变配方来消除它?

附上Excel,以备不时之需。

好的,如果没有其他的解决方案,我就寻找一个解决方案,找到方程的自由项的值,通过新的数列(从原来的数列推导出来的,应该是不变的)已经使R^2最小化,也就是说,我使它几乎是线性的。显然,问题在于原始数据不是完全线性的...
 
alexeymosc:

人们,一个忠告。我迷路了。问题是这样的:有一个数据样本,通过线性回归(自变量-参考号)可以很好地接近。

该图显示了一个线性回归方程。我想对来自样本的数据进行转换,使其在计数方面是不变的。我试图通过算术运算选择方程的一个自由项,并将样本中的数据转换为这个值。但在开始时,在0.7、0.46等水平上出现了这样一个峰值,一直到所需水平的渐近线。一开始的这个高峰是怎么来的?是否可以通过改变配方来消除它?

附上Excel,以备不时之需。

好吧,这只意味着一件事--近似的相对误差越大,X(和Y)就越小,但你能指望什么呢,用一个小数字除以另一个小数字?试着改变变量X'=X+100,并在100到400的范围内绘制一个新的系列,而不是从0到300 - 图形会更直,但它不会改变问题。
 

1.

Mislaid 10.03.2012 05:46一致正交的方法 可以在下面的代码中看到。梯度是一个随机向量

数学

1. 嗯,我还没有真正进入它。Gram-Schmidt过程,他们在线性代数中教过它。或二次元形式。

据我所知,仅仅从第一步开始是不够的。那里也有一个证明,还有几何插图。

2. 我有一种预感,在OpenCL函数中应该有一些原生的东西来处理这个过程。

1. 1.对Mislaid, Mathemat,

这里和那里都是一样的,都是我昨天自己设计的过程。 连续减去以前正射的矢量投影。

正是这样的日子让我觉得自己是个经典....。 :-))

--

顺便说一下,我昨晚已经制作并调试了我的测试脚本。我还发现了优化器中的一个错误,并将其发送给了Servicedesk。 我通过稍微修改代码绕过了这个错误。因此,一切都很顺利。可靠和快速,正是我需要的方式。

2. OpenZL中确实有一个,但只针对三维情况。[cross(a, b); 建立一个正交于两个给定的矢量] 我需要它用于任意维度。