De la théorie à la pratique - page 128

 
Nikolay Demko:

Désolé mon pote, c'est la coutume d'avoir sa propre cuillère.


Il a déposé une archive de données de tic-tac traitées par exposant il y a quelques feuilles, et il s'avère maintenant qu'elles n'ont pas d'horodatage.

 
СанСаныч Фоменко:

Il a déposé une archive de données de tic-tac traitées par exposant il y a quelques feuilles, et il s'avère maintenant qu'elles n'ont pas d'horodatage.


Oui, c'est embarrassant, qu'est-ce que je peux dire... Je commencerai à collectionner avec des horodateurs la semaine prochaine...

 
Nikolay Demko:

Jetez un exemple de l'archive, un script pour écrire comment transférer deux octets.

https://yadi.sk/d/snmT60R43RNUeL fichier AUDCAD_3DC.rar 247 Mb

Voici les ticks sur 3+ ans (de 2014 à 2017 28 octobre.) pour AUDCAD, un outil, déjà traité de nombreuses fois par Alexander, pour 3 DC, dont un était coté 4 chiffres et dont les ticks se sont terminés le 26.02.2016. Les tiques ont été prises sur http://advancetools.net/index.php/instrumenty/tikovye-ob-emy/istoriya-tikov, décompressées et fusionnées en 3 fichiers solides. Je n'ai fait aucun contrôle. La taille de 2 des 3 fichiers .csv est supérieure à 2 Go.

La ressource ne le dit pas explicitement, mais selon mes informations, Igor Gerasko devrait être remercié pour ces tics.

AUDCAD_3DC.rar
AUDCAD_3DC.rar
  • yadi.sk
View and download from Yandex.Disk
 
Dmitriy Skub:

Nikolaï, voici l'archive rouble/dollar de l'échange.

Format :

Date Heure en msec Bid Ask Last Volume


Il y a beaucoup de doubles dans les archives par temps, je ne comprends pas quel est le gimmick. Comme ceci

2017.09.21 11:59:11.601,59843,59862,60100,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60120,150,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60099,10,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60025,2,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60085,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60089,7,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60230,2,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60599,30,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60600,3,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60600,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60394,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60300,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60361,2,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60362,44,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59874,10,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59873,10,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59876,10,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59875,10,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59862,3,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59862,3,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59872,10,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59862,3,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60000,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59950,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60025,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,60025,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59878,10,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59877,10,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59950,1,BUY,1505995151601 0
2017.09.21 11:59:11.601,59843,59862,59880,100,BUY,1505995151601 0




De plus, les archives ne sont pas triées par heure, les horaires sont aléatoires. Parfois une minute d'avance, parfois même plus.

D'où la question : "Traiter les données ?", de sorte qu'ils n'ont mesuré que le temps, sans prêter attention à ce qui va de chaque transaction.

Je pense que nous devons vérifier les doublons complets, non seulement par temps mais aussi par prix, volume, direction.

 
Nikolay Demko:

Il y a beaucoup de duplication de temps dans les archives, je ne vois pas où est le problème. C'est comme ça.

De plus, les archives ne sont pas triées par heure, les horaires sont éparpillés dans tous les sens. Parfois une minute d'avance, parfois même plus.

D'où la question : faut-il traiter les données ? pour qu'elles ne mesurent que le timing, sans prêter attention au fait que l'enregistrement provient de chaque transaction.

Il ne s'agit pas d'un doublon, mais d'un certain volume de marché qui est réparti entre plusieurs ordres Limit. Les prix y sont différents. Il devrait être trié par heure - pouvez-vous préciser l'heure à laquelle le tri est interrompu ?

C'est une question pour Alexandre, d'ailleurs. Il y a plusieurs incréments en même temps (si vous suivez votre logique) - et comment devons-nous calculer ?

 
Dmitriy Skub:

Il ne s'agit pas de doublons, mais d'un volume de marché réparti entre plusieurs ordres limités. Les prix y sont différents. Il devrait être trié par heure - pouvez-vous préciser l'heure à laquelle le tri est interrompu ?

C'est une question pour Alexandre, d'ailleurs. Vous obtenez plusieurs incréments en même temps (si vous suivez votre logique) - et comment devons-nous les calculer ?


Pardonnez-moi de m'immiscer. Je pense qu'il est juste de compter comme sur la bourse, dans le système "netting" : prix [moyen] de la position = coût de toutes les transactions / volume de toutes les transactions.

Où valeur de la transaction = volume de la transaction * taux de change. Par exemple, si vous avez acheté 1,2 lot d'EURUSD à 1,2025, la valeur de la transaction est de 120 000 * 1,2025 = 144 300 $.

 
Dmitriy Skub:

Il ne s'agit pas de doublons, mais d'un volume de marché réparti entre plusieurs ordres limités. Les prix y sont différents. Il devrait être trié par heure - pouvez-vous préciser l'heure à laquelle le tri est interrompu ?

C'est une question pour Alexandre, d'ailleurs. Il y a plusieurs incréments en même temps (si vous suivez votre logique) - et comment devons-nous calculer ?

C'est pourquoi je suis passé à mon échelle de temps, pour éviter de telles situations. Dans ce cas - je ne sais pas. Feynman a considéré deltaT -->0. Mais à =0, une telle situation, hélas, dans la théorie n'existe pas.
 
Nikolay Demko:

Il y a beaucoup de duplication de temps dans les archives, je ne vois pas où est le problème. C'est comme ça.

De plus, les archives ne sont pas triées par heure, les horaires sont éparpillés dans tous les sens. Parfois une minute d'avance, parfois même plus.

D'où la question : "Traiter les données ?", de sorte qu'ils n'ont mesuré que le temps, sans prêter attention à ce qui va de chaque transaction.

Je pense que nous devons encore vérifier les doubles complets, non seulement par temps mais aussi par prix, volume, direction.

Allez, Nikolaï. Je vois que ce n'est pas rapide - la semaine prochaine, je vais collecter les tiques et vérifier moi-même. Mais si vous êtes sérieusement intéressé, il sera intéressant de voir vos résultats.
 
Alexander_K2:
Oh, allez, Nikolaï. Je vois que ce n'est pas une affaire rapide - je vais réunir les tics la semaine prochaine et vérifier moi-même. Mais, si vous êtes sérieusement intéressé - il sera intéressant de voir vos résultats.
Et Alexander, les données boursières vous conviennent-elles vraiment ? Je pensais que vous ne parliez que du forex...
 
Vladimir:
Les données boursières vous conviennent-elles vraiment, Alexander ?
Je ne sais pas... Je possède un compte NDD (j'avais l'habitude de mal orthographier ECN). Je suis confus par ces noms. J'ai posé la question à mon responsable - c'est un NDD. Ils disent qu'ils le font directement à partir des échanges. J'obtiens des devis en demandant et en offrant. Il n'y a pas de citations pour Last. Mais, on peut échanger certaines choses comme le riz, le sucre, le café. Je n'ai pas encore résolu le problème.
Raison: