Verrückter Cache von Prüfmitteln - Seite 3

 
Renat Fatkhullin:
Ich habe vergessen, Ihnen ein Geheimnis zu verraten: Die Leute finden hundert Gründe, warum sie einen kostenpflichtigen Dienst nicht nutzen wollen, selbst wenn er 1 Dollar kostet.

Dies ist die eigentliche Erklärung für die Schwierigkeiten beim Verkauf. Aber stattdessen kommen die Leute mit vermeintlich rationalen Gründen daher :)

Wenn sie es also nicht probieren, wie können sie es dann mögen? Wie wäre es, wenn Sie den Menschen die Möglichkeit geben, das Netz einmal im Monat für eine Stunde kostenlos zu nutzen?

 
Renat Fatkhullin:

Und ihr schaut euch selbst an, anstatt mit Forenaussagen zu operieren.

Vielleicht haben Sie Recht.

Es bleibt zu hoffen, dass die schwerwiegenden Bremsen auf der MQ-Demo-Seite bald endlich beseitigt werden.

 
fxsaber:

Vielleicht haben Sie Recht.

Hoffentlich werden die schweren Bremsen auf der MQ-Demo-Seite bald endlich behoben.

Probieren Sie den neuen Freitags-Build von MT5 1545 aus - es wurde etwas verbessert.

Beachten Sie auch, dass wir über 230.000 ständig aktive Konten auf MetaQuotes-Demo MT5 haben und es ein echtes Handelsbacchanal gibt.
 
Renat Fatkhullin:

Mehrere Gigabyte an Daten von einem Laufwerk lesen zu müssen, ist eine "ekelhafte Organisation"? Selbst das Lesen von 1 GB Daten von einer SSD mit einer durchschnittlichen Geschwindigkeit von 200 MBit/s dauert 5 Sekunden. Und wenn es da draußen 4-32 Agenten gibt?

Sie denken nur an die technische Seite der Aufgabe. Nichts ist umsonst und niemand multipliziert die technischen Anforderungen mit Null.

Die technische Lösung und der Grad der Optimierung der Agenten ist erstaunlich - wir haben eine Menge Arbeit hineingesteckt und bei allen Prozessen Millisekunden herausgekitzelt. Vergessen Sie nicht die Datenvolumina, bauen Sie mehr RAM ein, bauen Sie größere SSDs ein, bauen Sie Rahmenfestplatten ein und alles wird beschleunigt.

Die Preise für all dies sind bereits angemessen, aber die Klasse und das Volumen, die es zu lösen gilt, erfordern einen ernsthaften Ansatz.

Ich habe 64 GB RAM in meinem System. Und Tester für 32 Agenten verwendet maximal 40GB und setzt dann Daten auf die Festplatte zurück, etwa 1,1-2GB, ja ich stimme zu - es könnte nicht alles in den RAM passen. Aber wenn ich die Hälfte der Agenten deaktiviere, verhalten sich die verbleibenden Agenten genau gleich, obwohl noch jede Menge RAM-Speicherplatz vorhanden ist.

Sehr geehrter Admin:

1) Glauben Sie wirklich, dass eine derartige Belastung der Festplatte (Hunderte von Gigabytes an Schreibvorgängen pro Tag) normal ist? Wie lange, glauben Sie, hält eine normale SSD in diesem Modus?

2) Glauben Sie wirklich, dass das Fehlen von Anpassungen der Ressourcennutzung im Tester korrekt ist?

Auch hier habe ich mein Problem mit den gleichen Methoden gelöst, die Sie vorschlagen. Aber es dauerte lange genug, und ich kann nicht sagen, dass diese Lösung immer korrekt funktioniert (zum Beispiel, wenn es mehrere Kopien des Testers in das System auf verschiedenen Festplatten - manchmal führt zu spontanen Entfernung von Agenten, schrieb ich zu diesem Thema ohne Erfolg zu Service-Desk. Auch hier habe ich das Problem selbst gelöst). Und nicht jeder Nutzer wird dazu in der Lage sein.

Renat Fatkhullin:

Der Topikstarter begann den Thread im "Wie lange?"-Modus und stellte einige unbegründete Behauptungen auf. Hätte er ordnungsgemäß erhobene Daten vorgelegt, wären 50 % der Fragen schon bei der Datenerhebung weggefallen.

Welche Beweise brauchen Sie? Wissen Sie nicht, wie viel RAM ein Agent verbraucht, wie viel Cache auf der Festplatte, wie viele Daten pro Tag überschrieben werden können? Multipliziere und erhalte das Ergebnis.

Ganz allgemein: Warum sollten Sie mir etwas beweisen, wenn ich Ihnen etwas vorwerfe? Der Punkt des Themas ist, dass es ein Problem gibt, wie kann es gelöst werden? Sie beginnen, wie im Service Desk, die offensichtlichen Dinge zu erzählen und loben aus irgendeinem Grund die Optimierung des Testers. Denn jeder vernünftige Programmierer weiß, dass kein Programm perfekt ist.
 
Über die Wolke. Die Idee ist großartig. Und so sieht es in der Realität aus:



32 Cent/Tag ist ein guter Tag für meine Agenten)) Und die Cloud verwendet 2 Systeme mit je 32 Agenten und 2 mit 8 Agenten. Insgesamt 80 Mitarbeiter sind praktisch rund um die Uhr im Einsatz. Der Tagesrekord lag bei etwa 2,00 $, oft gab es überhaupt keinen Gewinn. Der rote Balken zeigt die Kosten pro 5 Minuten Test in der Cloud, etwa 40.000 Durchläufe für 3 Monate (wenn ich mich richtig erinnere). Ergebnis für 287.781 Läufe knapp über 20 Pfund, dauerte sechs Monate))))
Es ist eine Schande, aber im Moment macht die Wolke für mich keinen Sinn.

Es wäre toll, wenn es wie bei einem Torrent-Tracker wäre: 100 Pässe machen, 80 bekommen (-20% für Entwickler).

Auch die Einbindung Ihrer Agenten in ein Netzwerk ist keine leichte Aufgabe. Aus diesem Grund sind alle Händlerverbände vor einigen Jahren ausgestorben.

Oder es wäre möglich gewesen, sich gegen eine Gebühr zu vernetzen. Niemand wird kostenpflichtige Dienste in Anspruch nehmen - Sie irren sich. Es ist nur eine Frage der angemessenen Preisgestaltung
 
alrane:
Der rote Balken zeigt die Kosten für 5 Minuten Test in der Cloud, etwa 40.000 Durchläufe über 3 Monate (wenn ich mich richtig erinnere). Verdient für 287.781 Läufe etwas mehr als 20 Pfund, dauerte ein halbes Jahr zu vervollständigen))))

Und wenn Sie auf Ihrem PC testen würden, wie viel Zeit würden Sie dafür benötigen?

 
alrane:
Ich habe 64 GB RAM in meinem System. Und der Tester für 32 Agenten verwendet maximal 40 GB und setzt dann die Daten auf die Festplatte zurück, etwa 1,1-2 GB, ja ich stimme zu - es würde nicht alles in den RAM passen. Aber wenn ich die Hälfte der Agenten deaktiviere, verhalten sich die verbleibenden Agenten genau gleich, obwohl noch jede Menge RAM-Speicherplatz vorhanden ist.

Lieber Admin:

1) Glauben Sie wirklich, dass diese Art von Belastung der Festplatte (Hunderte von Gigabyte an Schreibvorgängen pro Tag) normal ist? Wie lange, glauben Sie, hält eine normale SSD in diesem Modus?

2) Glauben Sie wirklich, dass das Fehlen von Anpassungen der Ressourcennutzung im Tester korrekt ist?

Auch hier habe ich mein Problem mit den gleichen Methoden gelöst, die Sie vorschlagen. Aber es dauerte lange genug, und ich kann nicht sagen, dass diese Lösung immer korrekt funktioniert (zum Beispiel, wenn es mehrere Kopien des Testers in das System auf verschiedenen Festplatten - manchmal führt zu spontanen Entfernung von Agenten, schrieb ich zu diesem Thema ohne Erfolg zu Service-Desk. Auch hier habe ich das Problem selbst gelöst). Und nicht jeder Nutzer wird dazu in der Lage sein.

Welche Beweise brauchen Sie? Wissen Sie nicht, wie viel RAM ein Agent verbraucht, wie viel Cache auf der Festplatte, wie viele Daten pro Tag überschrieben werden können? Multipliziere und erhalte das Ergebnis.

Ganz allgemein: Warum muss ich etwas beweisen, wenn ich Ihnen etwas vorwerfe? Der Punkt des Themas ist, dass es ein Problem gibt, wie kann es gelöst werden? Wie im Service-Desk fangen Sie an, aus irgendeinem Grund das Offensichtliche zu sagen und loben die Optimierung des Testers. Denn jeder vernünftige Programmierer weiß, dass kein Programm perfekt ist.

Sie sind in den Krieg gezogen und fragen dann "warum braucht man so viel Munition".

Meine Meinung - Sie verstehen kategorisch nicht, welche Aufgaben Sie lösen wollen, und für Sie ist die mythische Langlebigkeit der SSD wichtiger als die zu lösenden Aufgaben. Ja, eine solche Belastung ist absolut normal und zu erwarten.

Außerdem wollen Sie nicht zugeben, dass der Tester IHRE Programme mit völlig unbekannten Anforderungen ausführt. Und Sie sind es, der für die Menge der verbrauchten Ressourcen verantwortlich ist.

Es gibt kein Problem. Abgesehen von dem, was Aleks gezeigt hat - die Leute werden sich alles einfallen lassen, um die Rechnung nicht bezahlen zu müssen.

 
alrane:
Über die Wolke. Die Idee ist großartig. Und so sieht es in der Realität aus:



32 Cent/Tag ist ein guter Tag für meine Agenten)) Und die Cloud verwendet 2 Systeme mit je 32 Agenten und 2 mit 8 Agenten. Insgesamt 80 Mitarbeiter sind praktisch rund um die Uhr im Einsatz. Der Tagesrekord lag bei etwa 2,00 $, oft gab es überhaupt keinen Gewinn. Der rote Balken zeigt die Kosten pro 5 Minuten Test in der Cloud, etwa 40.000 Durchläufe für 3 Monate (wenn ich mich richtig erinnere). Ergebnis für 287.781 Läufe knapp über 20 Pfund, dauerte sechs Monate))))

Damit ich das richtig verstehe:

  • Sie haben zwar Agenten online gestellt, aber die haben kaum gearbeitet, weil sie nicht genug Aufträge bekommen haben. Nicht einmal 0,1 % der Zeit waren sie nicht in Betrieb. Von "80 Agenten rund um die Uhr" kann also überhaupt nicht die Rede sein.
  • Sie haben etwa 10 Dollar für eine Aufgabe ausgegeben, die über 8.800 Agenten zugewiesen wurde und die insgesamt fast 8 Tage Arbeit umfasst. Das ist ein sehr guter Preis für diese Art der Beschleunigung.
  • Ihre eigenen Agenten haben nicht so viel Arbeit für das Netzwerk geleistet, um Einnahmen und Ausgaben vergleichen zu können.
  • Man kann die Läufe nicht vergleichen - sie sind alle unterschiedlich für verschiedene Aufgaben. Sie müssen nur die äquivalente Leistung vergleichen - die Quanten werden berechnet.
  • Die Zahlen zeigen, dass das Netz für die Verbraucher sehr profitabel ist

 
-Aleks-:

Und wenn Sie auf Ihrem PC testen würden, wie viel Zeit würden Sie dafür benötigen?

Bei meinem Ordner mit 4 Computern und 80 Agenten sind es etwa 6-10 Stunden.
Renat Fatkhullin:

Sie sind in den Krieg gezogen und fragen dann, "warum ich so viel Munition brauche".

Meine Meinung - Sie verstehen kategorisch nicht, welche Aufgaben Sie lösen wollen, und die mythische Langlebigkeit der SSD ist Ihnen wichtiger als die zu lösenden Aufgaben. Ja, eine solche Belastung ist völlig normal und zu erwarten.

Außerdem wollen Sie nicht zugeben, dass der Tester IHRE Programme mit völlig unbekannten Anforderungen ausführt. Und Sie sind es, der für die Menge der verbrauchten Ressourcen verantwortlich ist.

Es gibt kein Problem. Abgesehen von dem, was Aleks vorgemacht hat - die Leute lassen sich alles einfallen, um die Rechnung nicht zu bezahlen.

Was für ein Krieg? Lesen Sie noch einmal den ersten Beitrag:
alrane:

Ist jemand auf ein solches Problem gestoßen? Wie geht man damit um? Was kann solche Cache-Volumina verursachen?

Wenn die Langlebigkeit von SSDs für mich wichtiger wäre, würde ich sie wahrscheinlich nicht verwenden. Das Problem ist, dass für den Tester dieFestplatte der Engpass im System ist! Glücklicherweise habe ich eine SSD, während die große Mehrheit der Nutzer normale HDDs hat, was die Situation noch trauriger macht.
Nennen Sie
mir ein Beispiel für eine Software, deren Leistung auf der Festplatte und nicht auf dem Prozessor, dem Speicher oder der Grafikkarte begrenzt ist. Ich persönlich war noch nie mit einer solchen Situation konfrontiert, und deshalb ist sie für mich nicht normal.
Und es ist unmöglich, diesen Engpass (mit freien Ressourcen des Systems) mit Hilfe des Testers zu erweitern. Und Sie denken, das ist normal? Finden Sie das wirklich so toll? Dann brauchen Sie nicht zu antworten
 

Hören Sie auf, so viel Aufhebens zu machen.

Möchten Sie ein echtes Kräftemessen über die Effizienz und Leistung der Tester spielen? Versuchen Sie, eine Agenteninstanz zu nehmen, eine einfache Aufgabe, und protokollieren Sie alle Ressourcen im Einzel-, Wiederholungs- und Optimierungsmodus. Dann hole ich Sie schnell wieder auf den Boden der Tatsachen zurück. Wenn Sie Ihre Worte nicht selbst zurücknehmen, nachdem Sie die Aufgabe tatsächlich bewertet haben.

Und ssd ist für Sie wichtiger - Sie haben nicht umsonst so viel Zeit damit verbracht, es zu beschreiben. Und Sie haben sich nicht einmal die Mühe gemacht, über meine Erklärungen nachzudenken. Sie haben gerade einen Knopf gedrückt, und plötzlich verschwenden Sie Ressourcen. Und Sie machen sich keine Gedanken darüber, was wirklich unter der Motorhaube steckt, wie groß die Datenmenge ist.