This post did not end up quite the way I’d imagined. A quick follow-up on the recent Time series prediction with FNN-LSTM, it was supposed to demonstrate how noisy time series (so common in practice) could profit from a change in architecture: Instead of FNN-LSTM, an LSTM autoencoder regularized by false nearest neighbors (FNN) loss, use...
那么你没有看过,或者你看过,但你没有听过...
语境空间,我们如何思考,如何能在代码中实现...
VAE , CNN是一样的,但作为从主属性创建二级属性的特殊情况,他说如何与任何数据一起工作。
上下文空间是通过递归之类的东西实现的。他发明了什么?
那里有很多水,我没有看到任何关于代码的参考。
有12个小时的代码)他只是想模拟整个大脑,不仅是计算器,还有内存。
嗯,这是一个12小时的课题)他只是想模拟整个大脑,不仅仅是计算器,还有记忆。
记忆是由复现中的潜伏状态来模拟的
我认为他只是在敷衍了事。
上下文空间是通过递归等方式实现的。 他发明了什么?
我不想解释,我不确定我自己是否理解......
简单地说,一些变换被应用于属性,数十亿的变换 (嗨,MGUA),如果有一个变换在属性上给出了一些 "正确 "的反应,那么我们就找到了一个 "上下文",所以有成千上万的上下文,我们算是转移到一个新的属性(上下文)空间...
而现在我们甚至不需要看主要特征,识别是基于上下文的。
为什么它比今天的技术好1000倍,好吧,这需要一个视频,但相信我,这值得看,正是这种方法有未来。
他有很多的视频
我就不解释了,我自己也不太明白 ...
简单地说,一些变换被应用于特征,数十亿的变换 (你好,MGUA),如果有一个变换能对特征做出一些 "正确 "的反应,那么我们就找到了一个 "语境",所以有成千上万的语境,我们算是转移到一个新的特征(语境)空间...
而现在我们甚至不需要看主要特征,识别是基于上下文的。
为什么它比今天的技术好1000倍,好吧,这需要一个视频,但相信我,这值得看,正是这种方法有未来。
他有很多的视频。
我翻了翻视频......当我看到一些关于金字塔的垃圾时,我就把它关掉了)。
据我所知,他是在论证某种波脑理论。简而言之,是深奥的。
我的印象是他是个风流人物。
我翻了翻视频......当我看到一些关于金字塔的废话时,我把它关掉了 ))
我得到的印象是我是个风流人物。
不要翻看,但要看视频,当然不是关于金字塔的。这个人多才多艺,这不好吗?
他是一个很酷的人,他是一个人工智能研究者...
如果你在海豹突击队上训练一个网格
并给它一张被刮伤的沙发的照片,如果不是在教室里,那就可以了。
但结合背景,她认识到有一只猫。而且它解释了如何和为什么,我们就像这样思考,通过上下文。
不要翻阅它。 看,当然不是关于金字塔的。多才多艺有什么不好?
一个很酷的家伙,一个人工智能研究员...
有什么可看的? NS代码在哪里? 听一个小时的口头腹泻并不有趣。
有什么可看的? NS代码在哪里? 一个小时的口头腹泻,听起来毫无乐趣。
我不知道,我张着嘴看完了一切......。
即使是金字塔....
我不知道,我张着嘴看完了一切......。
即使是金字塔....
这让我想起了一个疯子的胡言乱语)。