
Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Guide to MidJourney AI Art – So starten Sie KOSTENLOS!
Guide to MidJourney AI Art – So starten Sie KOSTENLOS!
In diesem Video stellt der Referent MidJourney vor, ein Tool, das auf der Grundlage von Eingabeaufforderungen KI-Grafiken generiert, und bietet Schritt-für-Schritt-Anleitungen für den Einstieg. Sie demonstrieren anhand von Beispielen wie „3D-Rendering“ oder „Tropfende Tinte skizzieren“, wie Sie mit Befehlen den Stil und die Qualität der generierten Bilder ändern können. Darüber hinaus erklären sie den Community-Bereich der MidJourney-Website, wo Benutzer Inspiration finden und Aufforderungen kopieren können, um sie selbst auszuprobieren. Der Redner teilt auch seine Reise mit KI-Kunst und stellt zusätzliche Ressourcen und Codes für diejenigen bereit, die daran interessiert sind, mehr zu erfahren.
Darüber hinaus diskutieren sie den Community-Bereich der MidJourney-Website, wo Benutzer Inspiration finden und Eingabeaufforderungen kopieren können, um sie selbst auszuprobieren. Der Erzähler gibt auch Tipps zur verantwortungsvollen Nutzung von MidJourney, z. B. zum Hinzufügen eines Haftungsausschlusses, wenn generierte Kunst online geteilt wird.
MidJourney – Erste Schritte [Neu & Aktualisiert] Ein kurzes Tutorial, um Ihnen den Einstieg in die KI-Kunsterzeugung zu erleichtern
MidJourney – Erste Schritte [Neu & Aktualisiert] Ein kurzes Tutorial, um Ihnen den Einstieg in die KI-Kunsterzeugung zu erleichtern
Das Video-Tutorial bietet einen umfassenden Überblick über die Verwendung der KI-Kunstgenerierungsplattform von MidJourney, auf die nur über Discord zugegriffen werden kann. Der Referent erklärt die verschiedenen verfügbaren Abonnementmodi, wie man Eingabeaufforderungen mit Künstlern und verschiedenen Bedingungen erstellt, wie man Schalter verwendet, um unerwünschte Elemente aus KI-generierten Bildern zu entfernen, und wie man die Seitenverhältnisse von Bildern hochskaliert und anpasst. Sie geben auch Tipps, wie Sie einzigartige KI-Grafiken mithilfe visuell ansprechender Eingabeaufforderungen und durch Verwendung der Variationsschaltfläche vor dem Hochskalieren erstellen können. Insgesamt wird MidJourney eher als Werkzeug für künstlerische Erforschung und Aufbruch präsentiert als als Mittel zur Schaffung fertiger Kunstwerke.
ChatGPT, erklärt: Wissenswertes über den Chatbot von OpenAI | Tech-News-Briefing-Podcast | Wallstreet Journal
ChatGPT, erklärt: Wissenswertes über den Chatbot von OpenAI | Tech-News-Briefing-Podcast | WSJ
Chatbots sind jetzt öffentlich zugänglich und können verwendet werden, um Fragen zu stellen und Antworten zu erhalten. Es gibt Bedenken darüber, wie diese Tools verwendet werden könnten, aber Experten sagen, dass die Menschen sie verwenden sollten, um ihre Arbeit zu verbessern, und nicht, um ihre Rollen zu ersetzen.
CS 156 Vorlesung 01 - Das Lernproblem
Machine Learning Course von Caltech – CS 156. Vorlesung 01 – Das LernproblemDie erste Vorlesung des Machine Learning-Kurses von Yaser Abu-Mostafa führt in das Lernproblem ein, bei dem es darum geht, Muster in Daten zu finden, um ohne menschliches Eingreifen Vorhersagen zu treffen. Er erklärt die Notwendigkeit der mathematischen Formalisierung zur Abstraktion praktischer Lernprobleme und stellt den ersten Algorithmus für maschinelles Lernen im Kurs vor, das Perceptron-Modell, das einen Gewichtsvektor verwendet, um Datenpunkte in binäre Kategorien zu klassifizieren. Der Vortrag deckt auch verschiedene Arten des Lernens ab, darunter überwachtes, unüberwachtes und bestärkendes Lernen, und stellt dem Publikum ein Problem des überwachten Lernens vor, um die Frage der Bestimmung einer Zielfunktion für das Lernen zu behandeln. Der Professor behandelt verschiedene Themen im Zusammenhang mit maschinellem Lernen. Er betont die Notwendigkeit, bei der Auswahl von Datensätzen Voreingenommenheit zu vermeiden, sowie die Wichtigkeit, eine ausreichende Datenmenge zu sammeln. Der Professor diskutiert auch die Rolle des Hypothesensatzes beim maschinellen Lernen und die Auswirkungen der Wahl der Fehlerfunktion auf die Optimierungstechnik. Er geht auch auf die Kriterien für die Aufnahme von Methoden des maschinellen Lernens in den Kurs und seinen Fokus auf die Vermittlung von praktischem Wissen statt reiner Theorie ein.
Vortrag 2. Ist Lernen machbar?
Machine Learning Course von Caltech - CS 156. Vorlesung 02 - Ist Lernen machbar?
Die Vorlesung diskutiert die Machbarkeit des Lernens, insbesondere den Einsatz von maschinellem Lernen zur Bestimmung von Mustern aus gegebenen Daten. Der Dozent stellt das Konzept von nu und mu in der Wahrscheinlichkeit vor und wie es sich auf das Lernproblem bezieht. Das Hinzufügen von Wahrscheinlichkeiten wird untersucht, was die Machbarkeit des Lernens ermöglicht, ohne die Zielfunktion zu beeinträchtigen, was bedeutet, dass keine Annahmen über die zu lernende Funktion getroffen werden müssen. Das Konzept der Überanpassung und seine Beziehung zur Modellausgereiftheit wird diskutiert, wobei eine größere Anzahl von Hypothesen zu einer schlechteren Verallgemeinerung führt. Letztendlich endet die Vorlesung mit der Bitte, die Folie zur Implikation von nu gleich mu zu überprüfen.
Vorlesung 3 – Das lineare Modell I
Machine Learning Course von Caltech – CS 156. Vorlesung 03 – Das lineare Modell I
Diese Vorlesung behandelt die Themen lineare Modelle im maschinellen Lernen, Eingabedarstellung, den Perzeptron-Algorithmus, den Taschenalgorithmus und die lineare Regression, einschließlich ihrer Verwendung in der Klassifikation. Der Professor betont, wie wichtig es ist, reale Daten zu verwenden, um verschiedene Ideen auszuprobieren, und stellt das Konzept der Funktionen vor, um das Leben des Lernalgorithmus zu vereinfachen. Die Vorlesung behandelt auch die rechnerischen Aspekte der Pseudo-Inversen in der linearen Regression und die Probleme, die auftreten können, wenn die lineare Regression zur Klassifizierung von nicht separierbaren Daten verwendet wird. Schließlich wird das Konzept der Verwendung nichtlinearer Transformationen vorgestellt, um Daten linearer zu machen, mit einem Beispiel, das demonstriert, wie man unter Verwendung der Transformation x1² und x2² vom Ursprung trennbare Daten erhält.
Außerdem behandelt der Professor verschiedene Themen rund um das lineare Modell im maschinellen Lernen. Er erörtert nichtlineare Transformationen und Richtlinien zu deren Auswahl, In-Sample- und Out-of-Sample-Fehler bei der binären Klassifizierung, die Verwendung linearer Regression für die Korrelationsanalyse und die Ableitung sinnvoller Merkmale aus Eingaben. Der Professor betont auch, wie wichtig es ist, den Unterschied zwischen E_in und E_out zu verstehen und wie sie sich auf die Modellleistung auswirken. Schließlich geht er auf die Beziehung zwischen linearer Regression und Maximum-Likelihood-Schätzung, die Verwendung nichtlinearer Transformationen und die Rolle der Theorie beim Verständnis von Konzepten des maschinellen Lernens ein.
Vorlesung 4 - Fehler und Rauschen
Caltech's Machine Learning Course - CS 156. Vorlesung 04 - Fehler und Rauschen
In Vorlesung 04 des Machine Learning-Kurses diskutiert Professor Abu-Mostafa die Bedeutung von Fehlern und Rauschen in realen Problemen des maschinellen Lernens. Er erklärt das Konzept der nichtlinearen Transformation unter Verwendung des Merkmalsraums Z, der für die Wahrung der Linearität beim Lernen unerlässlich ist. Die Vorlesung behandelt auch die Komponenten des überwachten Lerndiagramms und betont die Bedeutung von Fehlermaßen bei der Quantifizierung der Leistung der Hypothese. Verrauschte Ziele werden als typische Komponente von Lernproblemen in der realen Welt eingeführt, die bei der Minimierung des In-Sample-Fehlers berücksichtigt werden müssen. Die Vorlesung endet mit einer Diskussion über die Theorie des Lernens und ihre Relevanz bei der Bewertung von In-Sample-Error, Out-of-Sample-Error und Modellkomplexität.
Der Professor erklärt, wie sich Änderungen in der Wahrscheinlichkeitsverteilung auf den Lernalgorithmus auswirken können und wie sich Fehlermaße für verschiedene Anwendungen unterscheiden können. Er erörtert auch den Algorithmus für die lineare Regression, die Verwendung des quadratischen Fehlers im Vergleich zum absoluten Wert für Fehlermaße bei der Optimierung und den Kompromiss zwischen Komplexität und Leistung in Modellen für maschinelles Lernen. Der Professor verdeutlicht den Unterschied zwischen Eingaberaum und Merkmalsextraktion und stellt fest, dass die Theorie zur gleichzeitigen Verbesserung der Generalisierung und Minimierung von Fehlern in den kommenden Vorlesungen behandelt wird.
Vortrag 5 - Training versus Test
Machine Learning Course von Caltech – CS 156. Vorlesung 05 – Training versus Testen
In Vorlesung 5 seines Kurses zum Lernen aus Daten diskutiert Professor Abu-Mostafa die Konzepte von Fehlern und Rauschen beim maschinellen Lernen, den Unterschied zwischen Training und Testen und die Wachstumsfunktion, die die maximale Anzahl von Dichotomien misst, die durch produziert werden können ein Hypothesensatz für eine gegebene Anzahl von Punkten. Er führt auch den Bruchpunkt ein, der der Komplexität einer Hypothesenmenge entspricht und eine polynomiale Wachstumsrate in N garantiert, falls vorhanden, und diskutiert verschiedene Beispiele für Hypothesenmengen wie positive Strahlen, Intervalle und konvexe Mengen. Die Vorlesung betont, wie wichtig es ist, diese Konzepte und ihre mathematischen Rahmenbedingungen zu verstehen, um die Komplexität von Hypothesensätzen und ihr Potenzial für realisierbares Lernen vollständig zu verstehen.
Der Professor behandelte verschiedene Themen im Zusammenhang mit Training versus Testing. Er ging auf Fragen aus dem Publikum zu nicht-binären Ziel- und Hypothesenfunktionen und dem Kompromiss zwischen Bruchpunkten ein. Der Professor erklärte, wie wichtig es ist, eine Wachstumsfunktion zu finden, und warum sie der Verwendung von 2 hoch N vorgezogen wird, um die Wahrscheinlichkeit einer hohen Verallgemeinerung zu messen. Darüber hinaus diskutierte er die Beziehung zwischen dem Haltepunkt und der Lernsituation und stellte fest, dass das Vorhandensein des Haltepunkts bedeutet, dass Lernen möglich ist, während der Wert des Haltepunkts uns die Ressourcen angibt, die zum Erreichen einer bestimmten Leistung erforderlich sind. Abschließend erläuterte der Professor die Alternativen zu Hoeffding und warum er daran festhält, damit die Leute sich damit vertraut machen.
Vorlesung 6 - Theorie der Generalisierung
Caltech's Machine Learning Course - CS 156. Vorlesung 06 - Theorie der Verallgemeinerung
Die Vorlesung behandelt die Theorie der Verallgemeinerung und die Wachstumsfunktion als Anzahl der Dichotomien, die durch eine Hypothese auf einer Menge von N Punkten erzeugt werden können, mit dem Ziel, die gesamte Wachstumsfunktion zu charakterisieren und für jedes N durch Charakterisierung des Bruchs zu verallgemeinern Punkt. Der Referent demonstriert den Prozess der Berechnung der Wachstumsfunktion für verschiedene Hypothesensätze und den Nachweis der oberen Schranke für die Wachstumsfunktion unter Verwendung der kombinatorischen Identität. Die Diskussion berührt auch die Verwendung der Wachstumsfunktion in der Hoeffding-Ungleichung, der VC, die zur Charakterisierung von Überlappungen zwischen Hypothesen und der Vapnik-Chervonenkis-Ungleichung verpflichtet ist, die in N polynomisch ist, wobei die Ordnung des Polynoms durch den Bruchpunkt bestimmt wird.
Der Professor erörtert die Theorie der Verallgemeinerung, erläutert die vorherigen Punkte und erklärt das Konzept eines Bruchpunkts, der zur Berechnung der für das Lernen erforderlichen Ressourcen verwendet wird. Der Schwerpunkt des Lernens liegt auf der Annäherung an E_out, nicht an E_in, wodurch der Lernende mit vertrauten Größen arbeiten kann. Der Professor erklärt auch die Gründe für das Ersetzen von M durch die Wachstumsfunktion und wie dies mit der kombinatorischen Größe B von N und k zusammenhängt. Bei der Erörterung von Regressionsfunktionen betont der Professor den Bias-Varianz-Kompromiss und die Unabhängigkeit der Lernbarkeit von der Zielfunktion. Abschließend stellt der Professor fest, dass für alle Arten von Funktionen die gleichen Prinzipien gelten.
Vorlesung 07 - Die VC-Dimension
Machine Learning Course von Caltech – CS 156. Vorlesung 07 – Die VC-Dimension
Die Vorlesung stellt das Konzept der VC-Dimension vor, die die maximale Anzahl von Punkten ist, die von einem Hypothesensatz zerstört werden können, und erläutert seine praktischen Anwendungen. Die VC-Dimension stellt die Freiheitsgrade eines Modells dar, und ihre Beziehung zur Anzahl von Parametern in einem Modell wird diskutiert. Es werden Beispiele gegeben, um zu demonstrieren, wie die VC-Dimension für verschiedene Hypothesensätze berechnet wird. Die Beziehung zwischen der Anzahl der benötigten Beispiele und der VC-Dimension wird untersucht, und es wird angemerkt, dass es eine proportionale Beziehung zwischen den beiden gibt. Die Auswirkungen einer Erhöhung der VC-Dimension auf die Leistung eines Lernalgorithmus werden ebenfalls diskutiert. Insgesamt gibt die Vorlesung Einblicke in die VC-Theorie und ihre praktischen Implikationen für maschinelles Lernen.
Das Video behandelt auch das Konzept der Verallgemeinerung und der Verallgemeinerungsgrenze, was eine positive Aussage ist, die den Kompromiss zwischen der Größe des Hypothesensatzes und einer guten Verallgemeinerung beim maschinellen Lernen zeigt. Der Professor erklärt die VC-Dimension, die der größte Wert vor dem ersten Bruchpunkt ist, und wie sie verwendet werden kann, um die Anzahl der benötigten Beispiele anzunähern. Er weist darauf hin, wie wichtig es ist, das richtige Fehlermaß auszuwählen, und stellt klar, dass die VC-Dimensionsschätzung eine lose Schätzung ist, die verwendet werden kann, um Modelle zu vergleichen und die Anzahl der benötigten Beispiele zu approximieren. Die Vorlesung endet mit der Hervorhebung der Gemeinsamkeiten zwischen diesem Material und dem Thema Design of Experiments und wie sich die Prinzipien des Lernens auf andere Situationen über strenge Lernszenarien hinaus erstrecken.