交易中的机器学习:理论、模型、实践和算法交易 - 页 3397

 

我想为模型组合写一个优化器,因为它们在工业规模上生成得 很快。

纯粹假设一下,如果我们保存的不是模型,而是训练模型的数据集,然后在这些数据集上训练一个最终模型,结果应该与模型组合相当,对吗?

Причинно-следственный вывод в задачах классификации временных рядов
Причинно-следственный вывод в задачах классификации временных рядов
  • www.mql5.com
В этой статье мы рассмотрим теорию причинно-следственного вывода с применением машинного обучения, а также реализацию авторского подхода на языке Python. Причинно-следственный вывод и причинно-следственное мышление берут свои корни в философии и психологии, это важная часть нашего способа мыслить эту реальность.
 

我还计划不采用文章中的位置匹配法,而是采用倾向得分法。这样可以同时校准概率。

然后,我打算使用谷歌的 liba,看看能从中得到什么。

也许稍后我会公布结果。

 
如果在获取结果时,优化参数底线中的存款、利润或股本为负值,那么这一结果肯定会在某一天被删除。 所有优化都只能获取这一时期的数据。虽然这并不可悲,但事实如此。
 
Maxim Dmitrievsky #:

我还计划不采用文章中的位置匹配法,而是采用倾向得分 法。这样可以同时校准概率。

理论上,你可以通过它搜索和匹配样本

例如,随机将样本中的一块标记为 0,另一块标记为 1。教 NS 分离出哪个样本属于哪个样本。这也叫做对抗验证。

理想情况下,NS 不应识别样本,误差应在 0.5 左右。这意味着原始样本的随机性很好。

propensity
0.38        3
0.40        3
0.41        3
0.42       20
0.43       27
0.44       40
0.45       56
0.46      140
0.47      745
0.48     3213
0.49     8041
0.50    11718
0.51     5324
0.52     1187
0.53      749
0.54      209
0.55       95
0.56       54
0.57       29
0.58       12
0.59       14
0.60        8
0.61        6
0.63        1

任何在 0.5 附近的数据都是好数据,都可用于训练。极端值就是异常值。

然后,对于每个 "概率",你都可以计算出猜中案例的百分比。

到目前为止,采用这种方法有点令人费解。

 

一个有趣的持续性竞赛--为那些想与其他参赛者比较自己预测报价成功与否的人准备的。

Numerai
Numerai
  • numer.ai
The hardest data science tournament on the planet. Build the world's open hedge fund by modeling the stock market.
 
Aleksey Vyazmikin #:

正在进行的有趣比赛--为那些想与其他参赛者比较自己预测报价成功率的人准备的。

这个链接已经在这里出现过很多次了
 
mytarmailS #:
这个链接在这里已经出现过很多次了

我不记得了--我猜当时还不清楚该怎么做,但现在我看了帮助,就更清楚了。 总之,这个想法已经运行了很长时间,这是事实。据我所知,他们用某种加密货币来支付好的预测。

当然,缺点是代码是开放的,必须转让才能参与。

 

未来已来,我正在本地运行谷歌的 LLM。现在,我不需要妻子和朋友了。


 
Maxim Dmitrievsky #:

未来已来,我正在本地运行谷歌的 LLM。现在,我不需要妻子和朋友了。

https://blog.google/technology/developers/gemma-open-models/

Gemma: Introducing new state-of-the-art open models
Gemma: Introducing new state-of-the-art open models
  • blog.google
Gemma is designed with our AI Principles at the forefront. As part of making Gemma pre-trained models safe and reliable, we used automated techniques to filter out certain personal information and other sensitive data from training sets. Additionally, we used extensive fine-tuning and reinforcement learning from human feedback (RLHF) to align...
 

对整个主题的精辟概括