트레이딩의 머신러닝: 이론, 모델, 실전 및 알고리즘 트레이딩 - 페이지 2208

 
발레리 야스트렘스키 :

그는 바닥 .ktrl .. 교육에 대한 위키 링크를 제공했습니다. 내가 이해한 표시는 안정적인 영역의 가장자리입니다.

ZZ는 작동하지 않습니다. 마크업이 섹션의 차이 없이 진행되고 훈련도 같은 방식으로 진행되기 때문입니다. ZZ 마크에 따르면 이는 다른 기능을 가진 너무 많은 예제와 같으며 훈련 결과는 잘해.

레이블은 알려진 target\classes입니다. 그것들이 없는 나머지 데이터는 기능의 형태로만 존재합니다.

이 레이블에는 어떤 의미가 있습니다. 예를 들어 고양이 또는 악어라는 라벨

우리의 경우 고양이가 어디에 있는지 전혀 모릅니다. 저것들. 패턴과 차이점을 모르기 때문에 작업이 더욱 복잡해집니다.

따라서 레이블의 초기 마크업은 강제적일 수 있으며 옵션을 반복합니다.

 
막심 드미트리예프스키 :

그것은 단지 알려진 target\classes입니다. 그것들이 없는 다른 데이터

올바른 검색 방향을 설정하는 방법입니다.)))

막심 드미트리예프스키 :


이 레이블에는 어떤 의미가 있습니다. 예를 들어 고양이 또는 악어라는 라벨

우리의 경우 고양이가 어디에 있는지 전혀 모릅니다. 저것들. 패턴과 차이점을 모르기 때문에 작업이 더욱 복잡해집니다.

따라서 레이블의 초기 마크업은 강제적일 수 있으며 옵션을 반복합니다.

완전한 열거는 불완전한 열거보다 항상 낫습니다. 불완전하게 올바른 마크업에는 항상 의미가 있습니다. 그리고 차원의 저주는 탐색의 올바른 방향에 의해서만 해결됩니다. 옵션을 분류하기에 좋은 사이트를 찾거나 결정하는 문제.

 

나는 GMM에 대한 작은 샘플을 수락한다는 아이디어를 확장하려고했습니다. 6개월 훈련, 5년 시험. 레이블은 고정 크기의 n 부분으로 나뉩니다. 각 부품에 대해 고유한 GMM 모델을 만들고 각각에서 1000개의 샘플을 생성하고 더미에 넣고 컷버스를 훈련했습니다. 나는 기능을 집어 들었고 다음과 같이 밝혀졌습니다.

Iteration:   0 R^ 2 :   0.9209352881222573
Iteration:   1 R^ 2 :   0.9379233716807497
Iteration:   2 R^ 2 :   0.94604683760217
Iteration:   3 R^ 2 :   0.9316240202095838
Iteration:   4 R^ 2 :   0.8813998843225924
Iteration:   5 R^ 2 :   0.8820262895230507
Iteration:   6 R^ 2 :   0.9068275822699385
Iteration:   7 R^ 2 :   0.9335383124164518
Iteration:   8 R^ 2 :   0.8960336270368543
Iteration:   9 R^ 2 :   0.8879176417296292
Iteration:   10 R^ 2 :   0.9143324457906077
Iteration:   11 R^ 2 :   0.9468819523130443
Iteration:   12 R^ 2 :   0.9058317279184074
Iteration:   13 R^ 2 :   0.9169237743824633
Iteration:   14 R^ 2 :   0.9004312808918618
Iteration:   15 R^ 2 :   0.8914705535825033
Iteration:   16 R^ 2 :   0.9303813779412192
Iteration:   17 R^ 2 :   0.9207720444742649
Iteration:   18 R^ 2 :   0.9508313124156939
Iteration:   19 R^ 2 :   0.9365410846386889
Iteration:   20 R^ 2 :   0.9227862991881809
Iteration:   21 R^ 2 :   0.9052003797596105
Iteration:   22 R^ 2 :   0.8975861474045481
Iteration:   23 R^ 2 :   0.9431936051970786
Iteration:   24 R^ 2 :   0.9147205226323929
Iteration:   25 R^ 2 :   0.9476544304761072
Iteration:   26 R^ 2 :   0.9333016398932669
Iteration:   27 R^ 2 :   0.9076751168791403
Iteration:   28 R^ 2 :   0.8697156778100353
Iteration:   29 R^ 2 :   0.8845935705960335
Iteration:   30 R^ 2 :   0.9159489461919911
Iteration:   31 R^ 2 :   0.9232528133285296
Iteration:   32 R^ 2 :   0.9465969161207943
Iteration:   33 R^ 2 :   0.923873107775384
Iteration:   34 R^ 2 :   0.887118901781171
Iteration:   35 R^ 2 :   0.9077338861211618
Iteration:   36 R^ 2 :   0.9174686253027636
Iteration:   37 R^ 2 :   0.9293399179092457
Iteration:   38 R^ 2 :   0.8978226916069179
Iteration:   39 R^ 2 :   0.927290878522851
Iteration:   40 R^ 2 :   0.9030239602884128
Iteration:   41 R^ 2 :   0.9621423075912642
Iteration:   42 R^ 2 :   0.9311707303177966
Iteration:   43 R^ 2 :   0.8710910233452236
Iteration:   44 R^ 2 :   0.9103469394662375
Iteration:   45 R^ 2 :   0.8919753688513302
Iteration:   46 R^ 2 :   0.948991254496016
Iteration:   47 R^ 2 :   0.9052353780393834
Iteration:   48 R^ 2 :   0.9512288525623317
Iteration:   49 R^ 2 :   0.9208453469280165
Iteration:   50 R^ 2 :   0.893737366120048
Iteration:   51 R^ 2 :   0.928125477787328
Iteration:   52 R^ 2 :   0.8942972434275139
Iteration:   53 R^ 2 :   0.9199962696797981
Iteration:   54 R^ 2 :   0.915636353356246
Iteration:   55 R^ 2 :   0.8985519043156066
Iteration:   56 R^ 2 :   0.9347755921190894
Iteration:   57 R^ 2 :   0.9584552730083282
Iteration:   58 R^ 2 :   0.9032314235396457
Iteration:   59 R^ 2 :   0.9054094988875886
Iteration:   60 R^ 2 :   0.9297272696445005
Iteration:   61 R^ 2 :   0.9115802884108607
Iteration:   62 R^ 2 :   0.9413266801702871
Iteration:   63 R^ 2 :   0.8828780223711544
Iteration:   64 R^ 2 :   0.8824525390982221
Iteration:   65 R^ 2 :   0.9053951498492597
Iteration:   66 R^ 2 :   0.8714355206255209
Iteration:   67 R^ 2 :   0.918076158247141
Iteration:   68 R^ 2 :   0.8364078585625844
Iteration:   69 R^ 2 :   0.9105699936970394
Iteration:   70 R^ 2 :   0.8964063526272564
Iteration:   71 R^ 2 :   0.9167952116250836
Iteration:   72 R^ 2 :   0.8755502709003292
Iteration:   73 R^ 2 :   0.9386759877643626
Iteration:   74 R^ 2 :   0.9111343213701268
Iteration:   75 R^ 2 :   0.9316337347065893
Iteration:   76 R^ 2 :   0.9491318658912862
Iteration:   77 R^ 2 :   0.8793801507135458
Iteration:   78 R^ 2 :   0.88457680290715
Iteration:   79 R^ 2 :   0.9320128938747305
Iteration:   80 R^ 2 :   0.8718850318456811
Iteration:   81 R^ 2 :   0.9435554177361902
Iteration:   82 R^ 2 :   0.9203305196370429
Iteration:   83 R^ 2 :   0.9260245682457562
Iteration:   84 R^ 2 :   0.9049805884830662
Iteration:   85 R^ 2 :   0.9623136916438867
Iteration:   86 R^ 2 :   0.9489381651270304
Iteration:   87 R^ 2 :   0.9185761083088367
Iteration:   88 R^ 2 :   0.9300874485193825
Iteration:   89 R^ 2 :   0.9270368671164058
Iteration:   90 R^ 2 :   0.89171822598241
Iteration:   91 R^ 2 :   0.9442365127017215
Iteration:   92 R^ 2 :   0.9147433442119735
Iteration:   93 R^ 2 :   0.9466461518946063
Iteration:   94 R^ 2 :   0.8985030583949476
Iteration:   95 R^ 2 :   0.9227935867673295
Iteration:   96 R^ 2 :   0.9270658994573892
Iteration:   97 R^ 2 :   0.8861414609105617
Iteration:   98 R^ 2 :   0.9069299245110212
Iteration:   99 R^ 2 :   0.9381808829667341

두 번째 옵션, 동일한 레이블, 동일한 파티션이 있지만 사전 혼합:

X = X.sample(frac= 1.0 )
Iteration:   0 R^ 2 :  - 0.9147922986362467
Iteration:   1 R^ 2 :  - 0.8891349235839455
Iteration:   2 R^ 2 :  - 0.7756433696750841
Iteration:   3 R^ 2 :  - 0.9294701419803408
Iteration:   4 R^ 2 :  - 0.8675029639731144
Iteration:   5 R^ 2 :  - 0.9333665101462129
Iteration:   6 R^ 2 :  - 0.7215820820380785
Iteration:   7 R^ 2 :  - 0.835634878720925
Iteration:   8 R^ 2 :  - 0.8982572730634232
Iteration:   9 R^ 2 :  - 0.8433406526089088
Iteration:   10 R^ 2 :  - 0.8905214289474265
Iteration:   11 R^ 2 :  - 0.9523382605378116
Iteration:   12 R^ 2 :  - 0.9353234698827787
Iteration:   13 R^ 2 :  - 0.9255519745316118
Iteration:   14 R^ 2 :  - 0.8961044791463404
Iteration:   15 R^ 2 :  - 0.8720720502698673
Iteration:   16 R^ 2 :  - 0.7673961693909795
Iteration:   17 R^ 2 :  - 0.9178099795704201
Iteration:   18 R^ 2 :  - 0.8028458725344336
Iteration:   19 R^ 2 :  - 0.9171290688719891
Iteration:   20 R^ 2 :  - 0.8315941217013689
Iteration:   21 R^ 2 :  - 0.5070548765483025
Iteration:   22 R^ 2 :  - 0.8116346823881794
Iteration:   23 R^ 2 :  - 0.8640716653285909
Iteration:   24 R^ 2 :  - 0.8410638452155568
Iteration:   25 R^ 2 :  - 0.8840402609492392
Iteration:   26 R^ 2 :  - 0.8499245238176002
Iteration:   27 R^ 2 :  - 0.8778289064553249
Iteration:   28 R^ 2 :  - 0.9268702558814643
Iteration:   29 R^ 2 :  - 0.8925221189558847
Iteration:   30 R^ 2 :  - 0.9657842200006661
Iteration:   31 R^ 2 :  - 0.77464827311577
Iteration:   32 R^ 2 :  - 0.6464089792356508
Iteration:   33 R^ 2 :  - 0.7362468345293623
Iteration:   34 R^ 2 :  - 0.8359119411978162
Iteration:   35 R^ 2 :  - 0.8953980020172865
Iteration:   36 R^ 2 :  - 0.9643167791133879
Iteration:   37 R^ 2 :  - 0.9200720117785897
Iteration:   38 R^ 2 :  - 0.4930038499649341
Iteration:   39 R^ 2 :  - 0.8563412086058743
Iteration:   40 R^ 2 :  - 0.7534658472329049
Iteration:   41 R^ 2 :  - 0.9058712268796619
Iteration:   42 R^ 2 :  - 0.8404352444846342
Iteration:   43 R^ 2 :  - 0.8956393865296916
Iteration:   44 R^ 2 :  - 0.7697676598374891
Iteration:   45 R^ 2 :  - 0.827402321523272
Iteration:   46 R^ 2 :  - 0.7733648036339182
Iteration:   47 R^ 2 :  - 0.9094911321363413
Iteration:   48 R^ 2 :  - 0.8112209852571995
Iteration:   49 R^ 2 :  - 0.9272815570481083
Iteration:   50 R^ 2 :  - 0.9516373600713565
Iteration:   51 R^ 2 :  - 0.923161311310859
Iteration:   52 R^ 2 :  - 0.9454357553057322
Iteration:   53 R^ 2 :  - 0.8874717694423527
Iteration:   54 R^ 2 :  - 0.9442569831498039
Iteration:   55 R^ 2 :  - 0.8509749828624672
Iteration:   56 R^ 2 :  - 0.8880233388858068
Iteration:   57 R^ 2 :  - 0.829081492806442
Iteration:   58 R^ 2 :  - 0.8104288788378895
Iteration:   59 R^ 2 :  - 0.9461212586368714
Iteration:   60 R^ 2 :  - 0.9638585005999462
Iteration:   61 R^ 2 :  - 0.9331377065042211
Iteration:   62 R^ 2 :  - 0.9273729445871957
Iteration:   63 R^ 2 :  - 0.9087582575118714
Iteration:   64 R^ 2 :  - 0.9413841949907823
Iteration:   65 R^ 2 :  - 0.9322001763523151
Iteration:   66 R^ 2 :  - 0.7762699813649556
Iteration:   67 R^ 2 :  - 0.8157764341998059
Iteration:   68 R^ 2 :  - 0.8553516949784419
Iteration:   69 R^ 2 :  - 0.8892466719564891
Iteration:   70 R^ 2 :  - 0.927962172458
Iteration:   71 R^ 2 :  - 0.9155014169139781
Iteration:   72 R^ 2 :  - 0.813270189921209
Iteration:   73 R^ 2 :  - 0.8906455890506758
Iteration:   74 R^ 2 :  - 0.8515052662862699
Iteration:   75 R^ 2 :  - 0.7464436838057231
Iteration:   76 R^ 2 :  - 0.9265461731236329
Iteration:   77 R^ 2 :  - 0.9097917153476209
Iteration:   78 R^ 2 :  - 0.9320352532410676
Iteration:   79 R^ 2 :  - 0.9136167627146698
Iteration:   80 R^ 2 :  - 0.9058376874038158
Iteration:   81 R^ 2 :  - 0.9218661728537026
Iteration:   82 R^ 2 :  - 0.8761532667040411
Iteration:   83 R^ 2 :  - 0.8613901314137971
Iteration:   84 R^ 2 :  - 0.9549329316806329
Iteration:   85 R^ 2 :  - 0.9369577646891263
Iteration:   86 R^ 2 :  - 0.9088532629673239
Iteration:   87 R^ 2 :  - 0.913690880309502
Iteration:   88 R^ 2 :  - 0.9380433297279352
Iteration:   89 R^ 2 :  - 0.9022452839070761
Iteration:   90 R^ 2 :  - 0.8628005914827953
Iteration:   91 R^ 2 :  - 0.6997900178668703
Iteration:   92 R^ 2 :  - 0.9236900047877985
Iteration:   93 R^ 2 :  - 0.7743753260702735
Iteration:   94 R^ 2 :  - 0.8915162635095815
Iteration:   95 R^ 2 :  - 0.9238512868243697
Iteration:   96 R^ 2 :  - 0.7885755415193383
Iteration:   97 R^ 2 :  - 0.8691156336449682
Iteration:   98 R^ 2 :  - 0.8358956414656111
Iteration:   99 R^ 2 :  - 0.9681215417714616

두 경우 모두 하나의 고정 대상이 사용되었습니다. 원한다면 이 실험을 재현할 수 있습니다. 나는 그러한 현상을 해석하는 데 강하지 않으며 아마도 설명이있을 것입니다.

 
웰리모른 :

나는 GMM에 대한 작은 샘플을 수락한다는 아이디어를 확장하려고했습니다. 6개월 훈련, 5년 시험. 레이블은 고정 크기의 n 부분으로 나뉩니다. 각 부품에 대해 고유한 GMM 모델을 만들고 각각에서 1000개의 샘플을 생성하고 더미에 넣고 컷버스를 훈련했습니다. 나는 기능을 집어 들었고 다음과 같이 밝혀졌습니다.

두 번째 옵션, 동일한 레이블, 동일한 파티션이 있지만 사전 혼합:

두 경우 모두 하나의 고정 대상이 사용되었습니다. 원한다면 이 실험을 재현할 수 있습니다. 나는 그러한 현상을 해석하는 데 강하지 않습니다. 아마도 설명이있을 것입니다.

흠 전인가 부스트 전인가? 기차/시험을 위한 클래스 밸런스 확인이 필요합니다. 아마도 0은 기차에, 1은 테스트에 들어갈 수 있습니다. 레이블을 구매 및 판매하여 별도의 클러스터링을 시도할 수도 있습니다.
 

죄송합니다 여러분, 질문이 있습니다.

그리드에 얼마나 많은 가중치가 있고 얼마나 많은 거래가 훈련되어 있습니까?

나는 이 숫자들 사이의 관계를 이해하고 이 관계에 대한 재훈련 가능성의 의존성에 대해 생각하고 싶습니다. 고맙습니다.

 
막심 드미트리예프스키 :
흠, 부스트 전에 믹싱하고 있습니까? 기차/시험을 위한 클래스 밸런스 확인이 필요합니다. 아마도 0은 기차에, 1은 테스트에 들어갈 수 있습니다. 레이블을 구매 및 판매하여 별도의 클러스터링을 시도할 수도 있습니다.

믹싱은 GMM 생성 전에 수행됩니다.

그 전에 조건에 따라 레이블을 삭제합니다.

dataset['labels'].loc[dataset['labels'].diff(1) == 0] = np.nan


dataset = dataset.dropna()

이것은 항상 작은 편차로 클래스의 균형을 1/1로 만듭니다.

count labels 0 before GMM: 57
count labels 1 before GMM: 58

이 경우 115개의 레이블을 섞어서 4부분으로 나누었습니다. 이후 이를 기반으로 4개의 GMM 모델을 만들었다. 각 샘플에서 1000개의 레이블이 샘플링되어 하나의 데이터 프레임으로 결합됩니다. 그 후, 기차와 테스트로 반으로 나뉩니다.

샘플 클래스의 균형은 이상과 약간 다릅니다. 그러나 기차와 테스트 샘플에서는 거의 동일한 비율이 나타났습니다.

count labels train before train_test_split  lab0/lab1 2006 / 1994
count labels train before CatBoost lab0/lab1   972 / 1028
count labels test before CatBoost lab0/lab1   1034 / 966
Iteration:   0 R^ 2 :  - 0.09193595558595069

count labels train before train_test_split  lab0/lab1 1956 / 2044
count labels train before CatBoost lab0/lab1   968 / 1032
count labels test before CatBoost lab0/lab1   988 / 1012
Iteration:   1 R^ 2 :   0.2187933983460144

count labels train before train_test_split  lab0/lab1 1937 / 2063
count labels train before CatBoost lab0/lab1   968 / 1032
count labels test before CatBoost lab0/lab1   969 / 1031
Iteration:   2 R^ 2 :   0.07935341972355503

count labels train before train_test_split  lab0/lab1 2004 / 1996
count labels train before CatBoost lab0/lab1   1006 / 994
count labels test before CatBoost lab0/lab1   998 / 1002
Iteration:   3 R^ 2 :   0.5243959241368454

count labels train before train_test_split  lab0/lab1 2002 / 1998
count labels train before CatBoost lab0/lab1   999 / 1001
count labels test before CatBoost lab0/lab1   1003 / 997
Iteration:   4 R^ 2 :  - 0.11495440249539668

count labels train before train_test_split  lab0/lab1 2034 / 1966
count labels train before CatBoost lab0/lab1   1016 / 984
count labels test before CatBoost lab0/lab1   1018 / 982
Iteration:   5 R^ 2 :  - 0.2007764868672567

...

다음은 115개 레이블의 동일한 샘플을 4개 부분으로 나누어 셔플링하지 않은 시뮬레이션 결과입니다. 물론 수업의 균형은 조금 나아지지만 이것이 결과에 큰 영향을 미치지 않는 것 같습니다.

count labels train before train_test_split  lab0/lab1 2012 / 1988
count labels train before CatBoost lab0/lab1   1008 / 992
count labels test before CatBoost lab0/lab1   1004 / 996
Iteration:   0 R^ 2 :   0.6604621522811843

count labels train before train_test_split  lab0/lab1 1978 / 2022
count labels train before CatBoost lab0/lab1   1003 / 997
count labels test before CatBoost lab0/lab1   975 / 1025
Iteration:   1 R^ 2 :   0.9280130097632814

count labels train before train_test_split  lab0/lab1 2024 / 1976
count labels train before CatBoost lab0/lab1   1031 / 969
count labels test before CatBoost lab0/lab1   993 / 1007
Iteration:   2 R^ 2 :   0.8262169779783981

count labels train before train_test_split  lab0/lab1 1980 / 2020
count labels train before CatBoost lab0/lab1   1010 / 990
count labels test before CatBoost lab0/lab1   970 / 1030
Iteration:   3 R^ 2 :   0.9348696093090818

count labels train before train_test_split  lab0/lab1 2030 / 1970
count labels train before CatBoost lab0/lab1   1016 / 984
count labels test before CatBoost lab0/lab1   1014 / 986
Iteration:   4 R^ 2 :   0.5284975351783288

count labels train before train_test_split  lab0/lab1 2042 / 1958
count labels train before CatBoost lab0/lab1   1024 / 976
count labels test before CatBoost lab0/lab1   1018 / 982
Iteration:   5 R^ 2 :   0.9246045699747673

...

아마도 어리석게 들릴지 모르지만 시리즈에는 GMM 모델이 시리즈의 다른 부분에서 찾을 수 있는 일종의 관계가 있는 것 같습니다. 행을 섞어서 순서를 어지럽히면 사라집니다.

따로 클러스터링은 생각 못했는데 저녁에 해봐야겠습니다.

 
Сбербанк запустил сервис постановки диагноза с помощью нейросетей
Сбербанк запустил сервис постановки диагноза с помощью нейросетей
  • 2020.12.02
  • РБК
  • www.rbc.ru
Сбербанк запустил сервис, в котором диагноз по описанным пациентами симптомам будет ставить искусственный интеллект. Цифровая медицина — перспективное направление, но эксперты пока видят очень много рисков в «лечении» нейросетями Входящие в группу Сбербанка компании — «СберЗдоровье», «СберМед ИИ» и «Лаборатория по искусственному интеллекту» —...
 
웰리모른 :

믹싱은 GMM 생성 전에 수행됩니다.

그 전에 조건에 따라 레이블을 삭제합니다.

이것은 항상 작은 편차로 클래스의 균형을 1/1로 만듭니다.

이 경우 115개의 레이블을 섞어서 4부분으로 나누었습니다. 이후 이를 기반으로 4개의 GMM 모델을 만들었다. 각 샘플에서 1000개의 레이블이 샘플링되어 하나의 데이터 프레임으로 결합됩니다. 그 후, 기차와 테스트로 반으로 나뉩니다.

샘플 클래스의 균형은 이상과 약간 다릅니다. 그러나 기차와 테스트 샘플에서는 거의 동일한 비율이 나타났습니다.

다음은 115개 레이블의 동일한 샘플을 4개 부분으로 나누어 셔플링하지 않은 시뮬레이션 결과입니다. 물론 수업의 균형은 조금 나아지지만 이것이 결과에 큰 영향을 미치지 않는 것 같습니다.

아마도 어리석게 들릴지 모르지만 시리즈에는 GMM 모델이 시리즈의 다른 부분에서 찾을 수 있는 일종의 관계가 있는 것 같습니다. 행을 섞어서 순서를 어지럽히면 사라집니다.

따로 클러스터링은 생각 못했는데 저녁에 해봐야겠습니다.

그려야 해서 불명확 .. 뭐, 두 경우 모두 분포가 다르다는 것은 사실입니다. 또한 이미 직렬화를 제거했습니다. 대부분의 경우 분포는 매우 유익하지 않은 것으로 판명되었으며 샘플링 후 새로운 포인트는 이해할 수 없는 위치에 놓이기 시작합니다. 저것들. 연속된 정보가 손실됩니다. 예, 따옴표는 독립적이지 않습니다.

또는 따옴표가 아닌 간단한 예에서 수행하고 나중에 비교하십시오.

 
막심 드미트리예프스키 :

그려야 해서 불명확 .. 뭐, 두 경우 모두 분포가 다르다는 것은 사실입니다. 또한 직렬화를 이미 제거했습니다. 대부분의 경우 분포는 매우 유익하지 않은 것으로 판명되었으며 샘플링 후 새로운 포인트는 이해할 수 없는 위치에 놓이기 시작합니다. 저것들. 연속된 정보가 손실됩니다. 따옴표는 독립적이지 않습니다.

또는 따옴표가 아닌 간단한 예에서 수행하고 나중에 비교하십시오.

맥심, 안녕하세요. 나는 여기에 오랫동안 있지 않았습니다 ... 당신의 마지막 기사에 대해) 나는 결국 파이썬을 넣었습니다) 나는 그것을 알아 내려고 노력하고 있으며 많은 질문이 있습니다))) MARKUP은 이것이 내가 이해하는 방식입니다 확산? 현재 값을 현재 값 + 임의의 숫자와 비교하여 레이블을 배치합니다. > 또는 < 기호에 따라 레이블 1 또는 0을 넣습니다. 맞습니까? 테스트를 위해 markup=0.0을 설정합니까? 기차와 함께 MARKUP=0,00001 like))) 맞죠?

 
알렉산더 알렉세비치 :

맥심, 안녕하세요. 나는 여기에 오랫동안 있지 않았습니다 ... 당신의 마지막 기사에 대해) 나는 결국 파이썬을 넣었습니다) 나는 그것을 알아 내려고 노력하고 있으며 많은 질문이 있습니다))) MARKUP은 이것이 내가 이해하는 방식입니다 확산? 현재 값을 현재 값 + 임의의 숫자와 비교하여 레이블을 배치합니다. > 또는 < 기호에 따라 레이블 1 또는 0을 넣습니다. 맞습니까? 테스트를 위해 markup=0.0을 설정합니까? 기차와 함께 MARKUP=0,00001 like))) 맞죠?

안녕하세요. 네, 맞습니다. 테스터에서는 동일한 마크업이 사용됩니다. 기사의 기사에 대해 묻는 것이 더 나을 것입니다. 한 곳에 있기 위해

피드백을 분석하고 개선할 수 있는 부분을 확인합니다.
사유: