Sie verpassen Handelsmöglichkeiten:
- Freie Handelsapplikationen
- Über 8.000 Signale zum Kopieren
- Wirtschaftsnachrichten für die Lage an den Finanzmärkte
Registrierung
Einloggen
Sie stimmen der Website-Richtlinie und den Nutzungsbedingungen zu.
Wenn Sie kein Benutzerkonto haben, registrieren Sie sich
Moore macht nur Werbung für sein Geistesprodukt und versteht nichts vom Fortschritt der Wissenschaft, so muss es sein.
Die Kolbenfliegerei ist auf ähnliche Weise gestorben - sie hat ihre Obergrenze erreicht, ein solcher Motor hat konstante Leistung. Ein Düsentriebwerk mit konstantem Schub ist eine andere Sache.
Mit den Prozessoren ist es wohl dasselbe. Ich denke, die Antwort liegt in den neuen Materialien. Der Spannungsabfall bei einer Germanium-Diode ist geringer als bei einer Silizium-Diode (in diesem Sinne möchte ich nicht Krmium durch Germanium ersetzen).
Und überhaupt, wofür gibt die heutige"Weltwirtschaft" ihre gestiegenen Hardwarekapazitäten aus? Bei der Freigabe einer neuen Version von Windows? )) (win10 frisst mehr als xp).
Nun, das ist alltäglich. Es gibt viele Beispiele in der Welt, z. B. den Verbrennungsmotor - man kann nicht ständig das Verdichtungsverhältnis erhöhen, um die Effizienz zu steigern (je mehr man es erhöht, desto weniger effizient ist es) und die Geschwindigkeit zu erhöhen. Und hier sind sie ins Stocken geraten, und ernsthafte Durchbrüche sind unwahrscheinlich. Und vorher konnte man ein Gesetz eines Genossen ableiten, wonach der Wirkungsgrad des Motors rasch zunahm.
Die Kolbenfliegerei ist auf ähnliche Weise gestorben - sie hat ihre Obergrenze erreicht, ein solcher Motor hat konstante Leistung. Ein Düsentriebwerk mit konstantem Schub ist eine andere Sache.
Mit den Prozessoren ist es wohl dasselbe. Ich denke, die Antwort liegt in den neuen Materialien. Der Spannungsabfall bei einer Germanium-Diode ist geringer als bei einer Silizium-Diode (in diesem Sinne möchte ich nicht Krmium durch Germanium ersetzen).
Und überhaupt, wofür gibt die heutige"Weltwirtschaft" ihre gestiegenen Hardwarekapazitäten aus? Bei der Freigabe einer neuen Version von Windows? )) (win10 frisst mehr als xp.)
... und die neue Technologie ist nicht aufgetaucht, nicht einmal am Horizont.
Wozu dient diese neue Technologie?
Dient es der PR, um hochgestellte Menschen zu ermutigen, den Computer zu ersetzen?
Ich habe oben vorgeschlagen, den BESM-4 mit modernen Computern zu vergleichen, was die Anzahl der Gleitkommaoperationen angeht. Keiner kann das. Obwohl Gleitkomma ein besseres Maß für den Fortschritt bei Rechenaufgaben ist.
Aus meiner Sicht als Benutzer mit sehr begrenzten Kenntnissen der Programmiertechniken brauche ich überhaupt keine Gigahertz. Ich muss sicher sein, dass ich ohne besondere individuelle Anstrengungen einen Code erhalte, der in einem bestimmten Stadium der Entwicklung so effizient wie möglich ist. Und Gigahertz ist hier eindeutig nicht der erste Platz.
Ich werde folgenden Umstand an die erste Stelle setzen. Wenn mein Anwendungsalgorithmus einen rechnerisch komplexen Algorithmus beinhaltet, z.B. Optimierung oder Operationen mit Matrizen, dann werde ich AUTOMATISCH den effizientesten Code verwenden, der möglich ist, sowohl in Bezug auf die Schreibtechnik als auch auf die Hardware-Nutzung, z.B. durch viel Threading. Und wenn die letzten 15 Jahre Gigahertz innerhalb von 100% gestiegen sind, führt mein Ansatz automatisch, z.B. mit der MKL-Bibliothek für Matrizen, zu einer Steigerung der Leistung um Größenordnungen.
Die Moral von der Geschicht': PC-Leistung kann nicht in Gigahertz gemessen werden, die Leistung sollte an der Geschwindigkeit der Ausführung von angewandten Aufgaben gemessen werden.
Der erste Grafikprozessor mit einer nennenswerten Anzahl von Kernen erschien 2007 (Nvidia, 128 Kerne). Heute ist die Anzahl der Kerne auf 3.000 gestiegen. Konnten Sie Ihren Computer 2007 gegenüber 2006 um das 128-fache beschleunigen? Wie wäre es mit einer 3000-fachen Beschleunigung heute im Vergleich zu 2006? Es gibt keins. Cores werden weiterhin im Grafikbereich eingesetzt, wo die Parallelisierung einfach ist. In den Jahren 2009-2010 habe ich selbst versucht, etwas auf einer GPU mit 256 Kernen zu programmieren. Ich habe sofort herausgefunden, warum die Software meistens nicht Multi-Core nutzt - es ist sehr schwierig, der Entwickler muss manuell entscheiden, welche Teile des Programms parallel geschaltet werden können. Nun, ich habe den neuen Code endlich fertiggestellt und er war mit 256 Kernen 3 Mal schneller. Aber ich war sogar mit der 3-fachen Beschleunigung zufrieden. Aber als ich den nächsten Code erstellen musste, erinnerte ich mich an meine Qualen und parallelisierte nicht mehr. Natürlich werden separate Probleme wie Grafik- und Datenbankverarbeitung weiterhin Multicore verwenden, aber anderen Programmen wird nur durch einen neuen Compiler geholfen, der automatisch Stellen im Programm findet, die parallelisiert werden können, aber soweit ich weiß, gibt es keinen solchen Compiler.
Ich bestreite nicht, dass es möglich ist, die Software zu verbessern und die Computer auf dieser Grundlage schneller zu machen. Ich behaupte, dass der Kauf von neuen Computern und Smartphones in den Jahren 2021-2022 zurückgehen wird, weil sich die Hardware-Verbesserungen verzögern. Würden Sie einen neuen Computer kaufen, wenn er die gleichen Kerne, den gleichen Arbeitsspeicher und die gleiche Frequenz wie Ihr alter Computer hätte? Wahrscheinlich nicht, Sie werden neue Software kaufen. Alle Hardwarehersteller und die damit verbundenen Industrien werden in eine Rezession mit Massenarbeitslosigkeit geraten.
Ich habe irgendwo gelesen, dass ein amerikanisches Institut einen Prozessor mit 1000 Kernen entwickelt hat, der aber nicht mit dem Speicher interagiert.
Die Anzahl der Kerne wird auch nicht weiter steigen, da der Parallelbetrieb mehrerer Kerne mehr Strom verbraucht als der Betrieb eines einzelnen Kerns. Die Verkleinerung der Transistorgröße führte nicht nur zu einer Erhöhung der Anzahl der Kerne, sondern auch zu einer Verringerung der Transistorleistung, so dass die Gesamtleistung in etwa auf demselben Niveau gehalten werden konnte.
Vladimir, erinnern wir uns an das gute alte ESka-Prinzip(ES_computers).
Jetzt sehen wir das Gleiche (im Prinzip) mit Handheld-Terminals und einer Verbindung zu einem Cloud-Dienst mit im Wesentlichen unbegrenzten Rechenkapazitäten.
In Zukunft wird es also Rechenfarmen geben, die Ressourcen für die Benutzer bereitstellen, während Desktops und Handhelds nur Terminals sein werden, die mit dem Großrechner kommunizieren.
Fazit: Intel wird am meisten zu tun haben, denn selbst die verfügbaren Prozessoren werden immer mehr gebraucht, und ich sehe keine Stagnation in dieser Branche (imho).
Vladimir, erinnern wir uns an das gute alte Prinzip der ECU(EC_computer).
Jetzt sehen wir das Gleiche (im Prinzip) mit Handheld-Terminals und einer Verbindung zu einem Cloud-Dienst mit im Wesentlichen unbegrenzten Rechenkapazitäten.
In Zukunft wird es also Rechenfarmen geben, die Ressourcen an Benutzer vermieten, und die Desktops und Handhelds werden nur noch Terminals sein, die mit dem Großrechner kommunizieren.
Folglich wird Intel so viel wie möglich zu tun haben, da auch die vorhandenen Prozessoren immer mehr gebraucht werden, und ich sehe keine Stagnation in dieser Branche voraus (imho).
Und das war eigentlich das Betriebssystem der EU.
Ein System mit virtuellen Maschinen