Artikel über maschinelles Lernen im Handel.

icon

Erstellen von KI-basierten Handelsrobotern: native Integration der Bibliotheken für Python, Matrizen und Vektoren, Mathematik und Statistik und vieles mehr.

Finden Sie heraus, wie Sie maschinelles Lernen im Handel einsetzen können. Neuronen, Perzeptronen, Faltungs- und rekurrente Netze, Vorhersagemodelle – beginnen Sie mit den Grundlagen und arbeiten Sie sich bis zur Entwicklung Ihrer eigenen KI vor. Sie lernen, wie man neuronale Netze für den algorithmischen Handel auf Finanzmärkten trainiert und anwendet.

Neuer Artikel
letzte | beste
preview
Handelseinblicke durch Volumen: Mehr als OHLC-Charts

Handelseinblicke durch Volumen: Mehr als OHLC-Charts

Ein algorithmisches Handelssystem, das die Volumenanalyse mit Techniken des maschinellen Lernens, insbesondere neuronalen LSTM-Netzen, kombiniert. Im Gegensatz zu traditionellen Handelsansätzen, die sich in erster Linie auf Preisbewegungen konzentrieren, legt dieses System den Schwerpunkt auf Volumenmuster und deren Ableitungen, um Marktbewegungen vorherzusagen. Die Methodik umfasst drei Hauptkomponenten: Analyse der Volumenderivate (erste und zweite Ableitung), LSTM-Vorhersagen für Volumenmuster und traditionelle technische Indikatoren.
preview
Multimodul-Handelsroboter in Python und MQL5 (Teil I): Erstellung der Grundarchitektur und erster Module

Multimodul-Handelsroboter in Python und MQL5 (Teil I): Erstellung der Grundarchitektur und erster Module

Wir werden ein modulares Handelssystem entwickeln, das Python für die Datenanalyse mit MQL5 für die Handelsausführung kombiniert. Vier unabhängige Module überwachen parallel verschiedene Marktaspekte: Volumen, Arbitrage, Ökonomie und Risiken und wir verwenden RandomForest mit 400 Bäumen für die Analyse. Besonderer Wert wird auf das Risikomanagement gelegt, da selbst die fortschrittlichsten Handelsalgorithmen ohne ein angemessenes Risikomanagement nutzlos sind.
preview
MQL5-Assistent-Techniken, die Sie kennen sollten (Teil 31): Auswahl der Verlustfunktion

MQL5-Assistent-Techniken, die Sie kennen sollten (Teil 31): Auswahl der Verlustfunktion

Die Verlustfunktion ist die wichtigste Kennzahl für Algorithmen des maschinellen Lernens, die eine Rückmeldung für den Trainingsprozess liefert, indem sie angibt, wie gut ein bestimmter Satz von Parametern im Vergleich zum beabsichtigten Ziel funktioniert. Wir untersuchen die verschiedenen Formate dieser Funktion in einer nutzerdefinierten MQL5-Assistenten-Klasse.
preview
Datenwissenschaft und ML(Teil 30): Das Power-Paar für die Vorhersage des Aktienmarktes, Convolutional Neural Networks (CNNs) und Recurrent Neural Networks (RNNs)

Datenwissenschaft und ML(Teil 30): Das Power-Paar für die Vorhersage des Aktienmarktes, Convolutional Neural Networks (CNNs) und Recurrent Neural Networks (RNNs)

In diesem Artikel untersuchen wir die dynamische Integration von Convolutional Neural Networks (CNNs) und Recurrent Neural Networks (RNNs) in der Börsenprognose. Nutzen wir die Fähigkeit von CNNs, Muster zu extrahieren, und die Fähigkeit der RNNs, sequentielle Daten zu verarbeiten. Wir wollen sehen, wie diese leistungsstarke Kombination die Genauigkeit und Effizienz von Handelsalgorithmen verbessern kann.
preview
Klassische Strategien neu interpretieren (Teil III): Prognose von höhere Hochs und tiefere Tiefs

Klassische Strategien neu interpretieren (Teil III): Prognose von höhere Hochs und tiefere Tiefs

In dieser Artikelserie werden wir klassische Handelsstrategien empirisch analysieren, um zu sehen, ob wir sie mithilfe von KI verbessern können. In der heutigen Diskussion haben wir versucht, mithilfe des Modells der linearen Diskriminanzanalyse höhere Hochs und tiefere Tiefs vorherzusagen.
preview
Matrix-Faktorisierung: Die Grundlagen

Matrix-Faktorisierung: Die Grundlagen

Da das Ziel hier didaktisch ist, werden wir so einfach wie möglich vorgehen. Das heißt, wir werden nur das implementieren, was wir brauchen: Matrixmultiplikation. Sie werden heute sehen, dass dies ausreicht, um die Matrix-Skalar-Multiplikation zu simulieren. Die größte Schwierigkeit, auf die viele Menschen bei der Implementierung von Code mit Matrixfaktorisierung stoßen, ist folgende: Im Gegensatz zur skalaren Faktorisierung, bei der in fast allen Fällen die Reihenfolge der Faktoren das Ergebnis nicht verändert, ist dies bei der Verwendung von Matrizen nicht der Fall.
preview
Neuronale Netze leicht gemacht (Teil 78): Decoderfreier Objektdetektor mit Transformator (DFFT)

Neuronale Netze leicht gemacht (Teil 78): Decoderfreier Objektdetektor mit Transformator (DFFT)

In diesem Artikel schlage ich vor, das Thema der Entwicklung einer Handelsstrategie aus einem anderen Blickwinkel zu betrachten. Wir werden keine zukünftigen Kursbewegungen vorhersagen, sondern versuchen, ein Handelssystem auf der Grundlage der Analyse historischer Daten aufzubauen.
preview
Neuronale Netze leicht gemacht (Teil 83): Der „Conformer“-Algorithmus für räumlich-zeitliche kontinuierliche Aufmerksamkeitstransformation

Neuronale Netze leicht gemacht (Teil 83): Der „Conformer“-Algorithmus für räumlich-zeitliche kontinuierliche Aufmerksamkeitstransformation

In diesem Artikel wird der Conformer-Algorithmus vorgestellt, der ursprünglich für die Wettervorhersage entwickelt wurde, die in Bezug auf Variabilität und Launenhaftigkeit mit den Finanzmärkten verglichen werden kann. Conformer ist eine komplexe Methode. Es kombiniert die Vorteile von Aufmerksamkeitsmodellen und gewöhnlichen Differentialgleichungen.
preview
Neuronale Netze im Handel: Eine komplexe Methode zur Vorhersage einer Trajektorie (Traj-LLM)

Neuronale Netze im Handel: Eine komplexe Methode zur Vorhersage einer Trajektorie (Traj-LLM)

In diesem Artikel möchte ich Ihnen eine interessante Methode zur Vorhersage von Trajektorien vorstellen, die zur Lösung von Problemen im Bereich der autonomen Fahrzeugbewegungen entwickelt wurde. Die Autoren der Methode haben die besten Elemente verschiedener architektonischer Lösungen kombiniert.
preview
Neuronale Netze leicht gemacht (Teil 71): Zielkonditionierte prädiktive Kodierung (Goal-Conditioned Predictive Coding, GCPC)

Neuronale Netze leicht gemacht (Teil 71): Zielkonditionierte prädiktive Kodierung (Goal-Conditioned Predictive Coding, GCPC)

In früheren Artikeln haben wir die Decision-Transformer-Methode und mehrere davon abgeleitete Algorithmen besprochen. Wir haben mit verschiedenen Zielsetzungsmethoden experimentiert. Während der Experimente haben wir mit verschiedenen Arten der Zielsetzung gearbeitet. Die Studie des Modells über die frühere Trajektorie blieb jedoch immer außerhalb unserer Aufmerksamkeit. In diesem Artikel. Ich möchte Ihnen eine Methode vorstellen, die diese Lücke füllt.
preview
Neuronale Netze leicht gemacht (Teil 84): Umkehrbare Normalisierung (RevIN)

Neuronale Netze leicht gemacht (Teil 84): Umkehrbare Normalisierung (RevIN)

Wir wissen bereits, dass die Vorverarbeitung der Eingabedaten eine wichtige Rolle für die Stabilität der Modellbildung spielt. Für die Online-Verarbeitung von „rohen“ Eingabedaten verwenden wir häufig eine Batch-Normalisierungsschicht. Aber manchmal brauchen wir ein umgekehrtes Verfahren. In diesem Artikel wird einer der möglichen Ansätze zur Lösung dieses Problems erörtert.
preview
Entwicklung eines MQL5 RL-Agenten mit Integration von RestAPI (Teil 3): Erstellen von automatischen Bewegungen und Testskripten in MQL5

Entwicklung eines MQL5 RL-Agenten mit Integration von RestAPI (Teil 3): Erstellen von automatischen Bewegungen und Testskripten in MQL5

Dieser Artikel beschreibt die Implementierung von automatischen Zügen im Tic-Tac-Toe-Spiel in Python, integriert mit MQL5-Funktionen und Unit-Tests. Das Ziel ist es, die Interaktivität des Spiels zu verbessern und die Zuverlässigkeit des Systems durch Tests in MQL5 zu gewährleisten. Die Präsentation umfasst die Entwicklung der Spiellogik, die Integration und praktische Tests und schließt mit der Erstellung einer dynamischen Spielumgebung und eines robusten integrierten Systems.
preview
William-Gann-Methoden (Teil III): Funktioniert Astrologie?

William-Gann-Methoden (Teil III): Funktioniert Astrologie?

Beeinflussen die Positionen von Planeten und Sternen die Finanzmärkte? Bewaffnen wir uns mit Statistiken und Big Data und begeben wir uns auf eine spannende Reise in die Welt, in der sich Sterne und Aktiencharts kreuzen.
preview
Datenwissenschaft und ML (Teil 32): KI-Modelle auf dem neuesten Stand halten, Online-Lernen

Datenwissenschaft und ML (Teil 32): KI-Modelle auf dem neuesten Stand halten, Online-Lernen

In der sich ständig verändernden Welt des Handels ist die Anpassung an Marktveränderungen nicht nur eine Option, sondern eine Notwendigkeit. Täglich entstehen neue Muster und Trends, die es selbst den fortschrittlichsten Modellen für maschinelles Lernen erschweren, angesichts der sich verändernden Bedingungen effektiv zu bleiben. In diesem Artikel erfahren Sie, wie Sie Ihre Modelle durch ein automatisches Neu-Training relevant halten und auf neue Marktdaten reagieren können.
preview
Neuronale Netze leicht gemacht (Teil 70): Operatoren der Closed-Form Policy Improvement (CFPI)

Neuronale Netze leicht gemacht (Teil 70): Operatoren der Closed-Form Policy Improvement (CFPI)

In diesem Artikel werden wir uns mit einem Algorithmus vertraut machen, der geschlossene Operatoren zur Verbesserung der Politik verwendet, um die Aktionen des Agenten im Offline-Modus zu optimieren.
preview
Neuronale Netze im Handel: Einspeisung globaler Informationen in unabhängige Kanäle (InjectTST)

Neuronale Netze im Handel: Einspeisung globaler Informationen in unabhängige Kanäle (InjectTST)

Die meisten modernen Methoden zur multimodalen Zeitreihenprognose verwenden den Ansatz unabhängiger Kanäle. Dabei wird die natürliche Abhängigkeit verschiedener Kanäle derselben Zeitreihe ignoriert. Der intelligente Einsatz zweier Ansätze (unabhängige und gemischte Kanäle) ist der Schlüssel zur Verbesserung der Leistung der Modelle.
preview
Die Basisklasse der Populationsalgorithmen als Rückgrat einer effizienten Optimierung

Die Basisklasse der Populationsalgorithmen als Rückgrat einer effizienten Optimierung

Der Artikel präsentiert einen einzigartigen Forschungsversuch, eine Vielzahl von Populationsalgorithmen in einer einzigen Klasse zu kombinieren, um die Anwendung von Optimierungsmethoden zu vereinfachen. Dieser Ansatz eröffnet nicht nur Möglichkeiten für die Entwicklung neuer Algorithmen, einschließlich hybrider Varianten, sondern schafft auch eine universelle Basis-Testumgebung. Dieser Stand wird zu einem wichtigen Instrument für die Auswahl des optimalen Algorithmus für eine bestimmte Aufgabe.
preview
Integration von MQL5 in Datenverarbeitungspakete (Teil 2): Maschinelles Lernen und prädiktive Analytik

Integration von MQL5 in Datenverarbeitungspakete (Teil 2): Maschinelles Lernen und prädiktive Analytik

In unserer Serie über die Integration von MQL5 mit Datenverarbeitungspaketen befassen wir uns mit der leistungsstarken Kombination aus maschinellem Lernen und prädiktiver Analyse. Wir werden untersuchen, wie MQL5 nahtlos mit gängigen Bibliotheken für maschinelles Lernen verbunden werden kann, um anspruchsvolle Vorhersagemodelle für Finanzmärkte zu ermöglichen.
preview
Wichtigste Änderungen des Algorithmus für die künstliche kooperative Suche (ACSm)

Wichtigste Änderungen des Algorithmus für die künstliche kooperative Suche (ACSm)

Hier werden wir die Entwicklung des ACS-Algorithmus betrachten: drei Änderungen zur Verbesserung der Konvergenzeigenschaften und der Effizienz des Algorithmus. Umwandlung eines der führenden Optimierungsalgorithmen. Von Matrixmodifikationen bis hin zu revolutionären Ansätzen zur Bevölkerungsbildung.
preview
Der Optimierungsalgorithmus Brain Storm (Teil II): Multimodalität

Der Optimierungsalgorithmus Brain Storm (Teil II): Multimodalität

Im zweiten Teil des Artikels werden wir uns mit der praktischen Implementierung des BSO-Algorithmus befassen, Tests mit Testfunktionen durchführen und die Effizienz von BSO mit anderen Optimierungsmethoden vergleichen.
preview
Hybridisierung von Populationsalgorithmen. Sequentielle und parallele Strukturen

Hybridisierung von Populationsalgorithmen. Sequentielle und parallele Strukturen

Hier tauchen wir in die Welt der Hybridisierung von Optimierungsalgorithmen ein, indem wir uns drei Haupttypen ansehen: Strategiemischung, sequentielle und parallele Hybridisierung. Wir werden eine Reihe von Experimenten durchführen, in denen wir die relevanten Optimierungsalgorithmen kombinieren und testen.
preview
Algorithmus einer chemischen Reaktionsoptimierung (CRO) (Teil I): Prozesschemie in der Optimierung

Algorithmus einer chemischen Reaktionsoptimierung (CRO) (Teil I): Prozesschemie in der Optimierung

Im ersten Teil dieses Artikels werden wir in die Welt der chemischen Reaktionen eintauchen und einen neuen Ansatz zur Optimierung entdecken! Die chemische Reaktionsoptimierung (CRO) nutzt Prinzipien, die sich aus den Gesetzen der Thermodynamik ableiten, um effiziente Ergebnisse zu erzielen. Wir werden die Geheimnisse der Zersetzung, der Synthese und anderer chemischer Prozesse lüften, die die Grundlage für diese innovative Methode bilden.
preview
Expert Advisor auf der Grundlage des universellen MLP-Approximators

Expert Advisor auf der Grundlage des universellen MLP-Approximators

In diesem Artikel wird eine einfache und zugängliche Methode zur Verwendung eines neuronalen Netzwerks in einem Handels-EA vorgestellt, für die keine tiefgreifenden Kenntnisse des maschinellen Lernens erforderlich sind. Die Methode eliminiert die Zielfunktionsnormalisierung und überwindet die Probleme der „Gewichtsexplosion“ und des „Netzwerkstaus“, indem sie intuitives Training und visuelle Kontrolle der Ergebnisse bietet.
preview
Integration des AI-Modells in eine bereits bestehende MQL5-Handelsstrategie

Integration des AI-Modells in eine bereits bestehende MQL5-Handelsstrategie

Dieses Thema konzentriert sich auf die Einbindung eines trainierten KI-Modells (z. B. eines Verstärkungslernmodells wie LSTM oder eines auf maschinellem Lernen basierenden Prognosemodells) in eine bestehende MQL5-Handelsstrategie.
preview
Klassische Strategien neu interpretieren (Teil IX): Analyse mehrerer Zeitrahmen (II)

Klassische Strategien neu interpretieren (Teil IX): Analyse mehrerer Zeitrahmen (II)

In der heutigen Diskussion untersuchen wir die Strategie der Analyse mehrerer Zeitrahmen, um zu erfahren, in welchem Zeitrahmen unser KI-Modell am besten abschneidet. Unsere Analyse führt uns zu dem Schluss, dass die monatlichen und stündlichen Zeitrahmen Modelle mit relativ niedrigen Fehlerquoten für das EURUSD-Paar ergeben. Wir haben dies zu unserem Vorteil genutzt und einen Handelsalgorithmus entwickelt, der KI-Prognosen auf dem monatlichen Zeitrahmen erstellt und seine Handelsgeschäfte auf dem stündlichen Zeitrahmen ausführt.
preview
Neuronale Netze im Handel: Ein selbstanpassendes Multi-Agenten-Modell (MASA)

Neuronale Netze im Handel: Ein selbstanpassendes Multi-Agenten-Modell (MASA)

Ich lade Sie ein, sich mit dem Multi-Agent Self-Adaptive (MASA) Framework vertraut zu machen, das Reinforcement Learning und adaptive Strategien kombiniert und ein harmonisches Gleichgewicht zwischen Rentabilität und Risikomanagement unter turbulenten Marktbedingungen bietet.
preview
Die Gruppenmethode der Datenverarbeitung: Implementierung des mehrschichtigen iterativen Algorithmus in MQL5

Die Gruppenmethode der Datenverarbeitung: Implementierung des mehrschichtigen iterativen Algorithmus in MQL5

In diesem Artikel beschreiben wir die Implementierung des mehrschichtigen iterativen Algorithmus der Gruppenmethode der Datenverarbeitung in MQL5.
preview
Neuronale Netze leicht gemacht (Teil 86): U-förmiger Transformator

Neuronale Netze leicht gemacht (Teil 86): U-förmiger Transformator

Wir untersuchen weiterhin Algorithmen für die Zeitreihenprognose. In diesem Artikel werden wir eine andere Methode besprechen: den U-förmigen Transformator.
preview
Neuronale Netze leicht gemacht (Teil 94): Optimierung der Eingabereihenfolge

Neuronale Netze leicht gemacht (Teil 94): Optimierung der Eingabereihenfolge

Wenn wir mit Zeitreihen arbeiten, verwenden wir die Quelldaten immer in ihrer historischen Reihenfolge. Aber ist das die beste Option? Es besteht die Meinung, dass eine Änderung der Reihenfolge der Eingabedaten die Effizienz der trainierten Modelle verbessern wird. In diesem Artikel lade ich Sie ein, sich mit einer der Methoden zur Optimierung der Eingabereihenfolge vertraut zu machen.
preview
MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 36): Q-Learning mit Markov-Ketten

MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 36): Q-Learning mit Markov-Ketten

Reinforcement Learning ist neben dem überwachten und dem unüberwachten Lernen eine der drei Hauptrichtungen des maschinellen Lernens. Es geht also um die optimale Steuerung oder das Erlernen der besten langfristigen Strategie, die der Zielfunktion am besten entspricht. Vor diesem Hintergrund untersuchen wir die mögliche Rolle, die ein MLP für den Lernprozess eines von einem Assistenten zusammengestellten Expertenberaters spielt.
preview
Nutzung des CatBoost Machine Learning Modells als Filter für Trendfolgestrategien

Nutzung des CatBoost Machine Learning Modells als Filter für Trendfolgestrategien

CatBoost ist ein leistungsfähiges, baumbasiertes, maschinelles Lernmodell, das auf die Entscheidungsfindung auf der Grundlage stationärer Merkmale spezialisiert ist. Andere baumbasierte Modelle wie XGBoost und Random Forest haben ähnliche Eigenschaften in Bezug auf ihre Robustheit, ihre Fähigkeit, komplexe Muster zu verarbeiten, und ihre Interpretierbarkeit. Diese Modelle haben ein breites Anwendungsspektrum, das von der Merkmalsanalyse bis zum Risikomanagement reicht.
preview
Neuronales Netz in der Praxis: Skizze eines Neurons

Neuronales Netz in der Praxis: Skizze eines Neurons

In diesem Artikel werden wir ein einfaches Neuron bauen. Und obwohl es einfach aussieht und viele diesen Code für völlig trivial und bedeutungslos halten mögen, möchte ich, dass Sie Spaß beim Studium dieser einfachen Skizze eines Neurons haben. Scheuen Sie sich nicht, den Code zu ändern, denn das Ziel ist es, ihn vollständig zu verstehen.
preview
MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 11): Number Walls

MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 11): Number Walls

Number Walls oder Zahlenwände sind eine Variante der Linear Shift Back Registers, die Sequenzen auf ihre Vorhersagbarkeit hin überprüfen, indem sie auf Konvergenz prüfen. Wir sehen uns an, wie diese Ideen in MQL5 von Nutzen sein könnten.
preview
Neuronale Netze im Handel: Verallgemeinerte 3D-Segmentierung von referenzierten Ausdrücken

Neuronale Netze im Handel: Verallgemeinerte 3D-Segmentierung von referenzierten Ausdrücken

Bei der Analyse der Marktsituation unterteilen wir den Markt in einzelne Segmente und ermitteln die wichtigsten Trends. Herkömmliche Analysemethoden konzentrieren sich jedoch oft auf einen Aspekt und schränken so die richtige Wahrnehmung ein. In diesem Artikel lernen wir eine Methode kennen, die die Auswahl mehrerer Objekte ermöglicht, um ein umfassenderes und vielschichtigeres Verständnis der Situation zu gewährleisten.
preview
Automatisieren von Handelsstrategien in MQL5 (Teil 21): Verbesserung des Handels mit neuronalen Netzen durch adaptive Lernraten

Automatisieren von Handelsstrategien in MQL5 (Teil 21): Verbesserung des Handels mit neuronalen Netzen durch adaptive Lernraten

In diesem Artikel verbessern wir eine Handelsstrategie mit neuronalen Netzen in MQL5 mit einer adaptiven Lernrate, um die Genauigkeit zu erhöhen. Wir entwerfen und implementieren diesen Mechanismus und testen anschließend seine Leistungsfähigkeit. Der Artikel schließt mit Optimierungserkenntnissen für den algorithmischen Handel.
preview
Neuronale Netze leicht gemacht (Teil 82): Modelle für gewöhnliche Differentialgleichungen (NeuralODE)

Neuronale Netze leicht gemacht (Teil 82): Modelle für gewöhnliche Differentialgleichungen (NeuralODE)

In diesem Artikel werden wir eine andere Art von Modellen erörtern, die auf die Untersuchung der Dynamik des Umgebungszustands abzielen.
preview
MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 18): Neuronale Architektursuche mit Eigenvektoren

MQL5-Assistenten-Techniken, die Sie kennen sollten (Teil 18): Neuronale Architektursuche mit Eigenvektoren

Die Suche nach neuronaler Architektur, ein automatischer Ansatz zur Bestimmung der idealen Einstellungen für neuronale Netze, kann bei vielen Optionen und großen Testdatensätzen von Vorteil sein. Wir untersuchen, wie dieser Prozess bei gepaarten Eigenvektoren noch effizienter gestaltet werden kann.
preview
Neuronale Netze leicht gemacht (Teil 89): Transformer zur Frequenzzerlegung (FEDformer)

Neuronale Netze leicht gemacht (Teil 89): Transformer zur Frequenzzerlegung (FEDformer)

Alle Modelle, die wir bisher betrachtet haben, analysieren den Zustand der Umwelt als Zeitfolge. Die Zeitreihen können aber auch in Form von Häufigkeitsmerkmalen dargestellt werden. In diesem Artikel stelle ich Ihnen einen Algorithmus vor, der Frequenzkomponenten einer Zeitsequenz zur Vorhersage zukünftiger Zustände verwendet.
preview
Ensemble-Methoden zur Verbesserung numerischer Vorhersagen in MQL5

Ensemble-Methoden zur Verbesserung numerischer Vorhersagen in MQL5

In diesem Artikel stellen wir die Implementierung mehrerer Ensemble-Lernmethoden in MQL5 vor und untersuchen ihre Wirksamkeit in verschiedenen Szenarien.
preview
Algorithmen zur Optimierung mit Populationen: Künstliche multisoziale Suchobjekte (MSO)

Algorithmen zur Optimierung mit Populationen: Künstliche multisoziale Suchobjekte (MSO)

Dies ist eine Fortsetzung des vorangegangenen Artikels, der sich mit dem Konzept der sozialen Gruppen befasst. In dem Artikel wird die Entwicklung sozialer Gruppen anhand von Bewegungs- und Gedächtnisalgorithmen untersucht. Die Ergebnisse werden dazu beitragen, die Entwicklung sozialer Systeme zu verstehen und sie bei der Optimierung und Suche nach Lösungen anzuwenden.