交易中的机器学习:理论、模型、实践和算法交易 - 页 2147

 
RStudio AI Blog: FNN-VAE for noisy time series forecasting
RStudio AI Blog: FNN-VAE for noisy time series forecasting
  • 2020.07.31
  • blogs.rstudio.com
This post did not end up quite the way I’d imagined. A quick follow-up on the recent Time series prediction with FNN-LSTM, it was supposed to demonstrate how noisy time series (so common in practice) could profit from a change in architecture: Instead of FNN-LSTM, an LSTM autoencoder regularized by false nearest neighbors (FNN) loss, use...
 
mytarmailS:

那么你没有看过,或者你看过,但你没有听过...


语境空间,我们如何思考,如何能在代码中实现...

VAE , CNN是一样的,但作为从主属性创建二级属性的特殊情况,他说如何与任何数据一起工作。

上下文空间是通过递归之类的东西实现的。他发明了什么?

 
Maxim Dmitrievsky:

那里有很多水,我没有看到任何关于代码的参考。

有12个小时的代码)他只是想模拟整个大脑,不仅是计算器,还有内存。

 
mytarmailS:

嗯,这是一个12小时的课题)他只是想模拟整个大脑,不仅仅是计算器,还有记忆。

记忆是由复现中的潜伏状态来模拟的

我认为他只是在敷衍了事。

 
Maxim Dmitrievsky:

上下文空间是通过递归等方式实现的。 他发明了什么?

我不想解释,我不确定我自己是否理解......

简单地说,一些变换被应用于属性,数十亿的变换 (嗨,MGUA),如果有一个变换在属性上给出了一些 "正确 "的反应,那么我们就找到了一个 "上下文",所以有成千上万的上下文,我们算是转移到一个新的属性(上下文)空间...

而现在我们甚至不需要看主要特征,识别是基于上下文的。


为什么它比今天的技术好1000倍,好吧,这需要一个视频,但相信我,这值得看,正是这种方法有未来。

他有很多的视频

 
mytarmailS:

我就不解释了,我自己也不太明白 ...

简单地说,一些变换被应用于特征,数十亿的变换 (你好,MGUA),如果有一个变换能对特征做出一些 "正确 "的反应,那么我们就找到了一个 "语境",所以有成千上万的语境,我们算是转移到一个新的特征(语境)空间...

而现在我们甚至不需要看主要特征,识别是基于上下文的。


为什么它比今天的技术好1000倍,好吧,这需要一个视频,但相信我,这值得看,正是这种方法有未来。

他有很多的视频。

我翻了翻视频......当我看到一些关于金字塔的垃圾时,我就把它关掉了)。

据我所知,他是在论证某种波脑理论。简而言之,是深奥的。

我的印象是他是个风流人物。

 
Maxim Dmitrievsky:

我翻了翻视频......当我看到一些关于金字塔的废话时,我把它关掉了 ))

我得到的印象是我是个风流人物。

不要翻看,但要看视频,当然不是关于金字塔的。这个人多才多艺,这不好吗?

他是一个很酷的人,他是一个人工智能研究者...



如果你在海豹突击队上训练一个网格

并给它一张被刮伤的沙发的照片,如果不是在教室里,那就可以了。

但结合背景,她认识到有一只猫。而且它解释了如何和为什么,我们就像这样思考,通过上下文。

 
mytarmailS:

不要翻阅它。 看,当然不是关于金字塔的。多才多艺有什么不好?

一个很酷的家伙,一个人工智能研究员...

有什么可看的? NS代码在哪里? 听一个小时的口头腹泻并不有趣。

 
Maxim Dmitrievsky:

有什么可看的? NS代码在哪里? 一个小时的口头腹泻,听起来毫无乐趣。

我不知道,我张着嘴看完了一切......。

即使是金字塔....

 
mytarmailS:

我不知道,我张着嘴看完了一切......。

即使是金字塔....

这让我想起了一个疯子的胡言乱语)。