Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Wirklich erstaunlich!
Sie müssen nur den "Dateipfad" im Code ändern, aufgrund des Betriebssystems und des MT5-Updates, und dann können Sie TTS auf Windows 11 mit der neuesten Version von MT5 implementieren.
In 5 Jahren ist das Thema völlig überholt. Heutzutage sollte man kein dummes Microsoft TTS verwenden, sondern moderne KI-Modelle mit natürlicher Aussprache. Stimmt, das erfordert RAM oder GPU. Ist das notwendig?
Die Integration von TTS in meinen MT5 EA ist nur eine Grundvoraussetzung.
Ich bin Autodidakt im Programmieren,
daher bin ich auch sehr an den von Ihnen erwähnten Vorteilen von KI-Modellen interessiert, aber ich weiß nicht, wo ich anfangen soll. Könnten Sie einige praktische Fälle nennen?
Ich wäre Ihnen sehr dankbar dafür.
Die Integration von TTS in meinen MT5 EA ist nur eine Grundvoraussetzung.
Ich bin Autodidakt im Programmieren,
daher bin ich auch sehr an den Vorteilen der von Ihnen erwähnten KI-Modelle interessiert, aber ich weiß nicht, wo ich anfangen soll. Könnten Sie bitte einige praktische Beispiele nennen?
Dafür wäre ich Ihnen sehr dankbar.
Ich habe keine TTS-Modelle installiert, sondern nur LLM, deren Qualität ich aus Artikeln und Rezensionen kenne. Russischsprachige Seiten haben sehr nützliche Informationen, werden aber für Sie nicht funktionieren. Und englischsprachige Seiten kenne ich nicht. Aber Sie können eine Menge Dinge auf YouTube zu finden.
Außerdem weiß ich nicht, Ihre Hardware-Kontext - wo Sie Modelle ausführen können - CPU + RAM, GPU NVidia oder AMD, wie viel VRAM. Davon hängt eine Menge ab.
Wenn es sich um ein kommerzielles Projekt handelt, können Sie auch kostenpflichtigen Zugang zu Online-Sprachmodellen (Text2Speech, Speech2Text) nutzen. Davon gibt es eine ganze Menge.
Suchen Sie nach Sprachmodellen auf huggingface, deren Größe von Ihrer Hardware abhängt. Für die LLM-Texterzeugung ist die beliebteste Quantisierung GGUF 4_K_M. Gleichgewicht zwischen Qualität und Größe.
Welche der lokalen Plattformen Sprachmodelle unterstützen, kann ich Ihnen nicht sagen. Ich benutze nur für Text - llama.cpp, ollama, sie unterstützen Modelle im GGUF-Format (mit Gewichtsquantisierung), was eine Menge Speicher spart.
Vielleicht wählen Sie ONNX-Format, es ist direkt in MT5 unterstützt, aber nur auf CPU, so ist es langsam und braucht eine Menge Speicher.
Habe jetzt herausgefunden, dass die 3 besten lokalen AI-Synthesizer in Python sind: coqui TTS, Chatterbox TTS und Piper TTS.
Ich habe es nicht ausprobiert. Ich bin nicht freundlich mit Python überhaupt, so dass ich immer keine Python-Bibliotheken zu lösen, wenn die Installation "pip installieren ...".
Jetzt habe ich herausgefunden, dass die 3 besten lokalen KI-Synthesizer in Python sind: coqui TTS, Chatterbox TTS und Piper TTS.
Ich habe es nicht ausprobiert. Ich bin nicht freundlich mit Python überhaupt, so dass ich immer keine Python-Bibliotheken zu lösen, wenn die Installation "pip installieren ...".
cool.Vielen Dank.