Você está perdendo oportunidades de negociação:
- Aplicativos de negociação gratuitos
- 8 000+ sinais para cópia
- Notícias econômicas para análise dos mercados financeiros
Registro
Login
Você concorda com a política do site e com os termos de uso
Se você não tem uma conta, por favor registre-se
E há também um link para um arquivo grande que não pode ser descompactado corretamente. Defino o tamanho deles como 0, e então o programa de chamada entende por esse 0 que há um erro e que é necessário usar outro arquivador.
Talvez você possa pensar em algo melhor em vez de 0.
https://quote-saver.bycsi.com/orderbook/linear/BTCUSDT/2025-05-09_BTCUSDT_ob500.data.zip
Classifiquei os arquivos (descompactados) que excedem um determinado volume (para arquivos diferentes, de 1,7 Gb a 2136507776 - ou seja, quase até MAX_INT=2147483647, e as matrizes não podem ter mais elementos) e que são cortados na saída. Descobriu-se que todos eles foram marcados como errôneos em:
Ou seja, valor de saída = 0.
Mas o CZIP não controla isso. Eu zerei o tamanho da matriz de saída.
Assim, em minhas funções, posso determinar com 100% de garantia que o arquivo foi descompactado com êxito.
Antes disso, verifiquei o final correto do arquivo JSON }\r\n - mas essa solução não é universal e parece que vários arquivos de ~1000 foram acidentalmente cortados por uma linha intermediária e foram aceitos como descompactados com sucesso, mas os dados neles não estão completos.
Nova versão da função:
A nova versão está destacadaem amarelo .
Talvez os desenvolvedores devessem também zerar a matriz, pois os dados cortados não são necessários para ninguém. E podem levar a erros difíceis de ver.
E há também um link para um arquivo grande que não pode ser descompactado corretamente. Eu defini o tamanho deles como 0, e então o programa de chamada entende por esse 0 que há um erro e que é necessário usar outro arquivador.
Talvez você possa pensar em algo melhor em vez de 0.
https://quote-saver.bycsi.com/orderbook/linear/BTCUSDT/2025-05-09_BTCUSDT_ob500.data.zip