Diskussion:Supercomputer
Abschnitt hinzufügen| Auf dieser Seite werden Abschnitte ab Überschriftenebene 2 automatisch archiviert, die seit einem Tag mit dem Baustein {{Erledigt|1=--~~~~}} versehen sind. Das aktuelle Archiv befindet sich unter /Archiv. |
Parallelrechner
[Quelltext bearbeiten]"Da sich nicht beliebig schnelle Prozessoren bauen lassen, sind alle Hochleistungsrechner Parallelrechner." - stimmt so nicht, trifft zB nicht auf die Cray 1 und andere ältere Supercomputer zu. Ist aber bei neueren Systemen korrekt.
FLOPS
[Quelltext bearbeiten]Im Artikel "FLOPS" steht bzgl. der FLOPS eines Heimcomputers "Ein normaler PC mit einem Pentium-4-Prozessor bei einer Taktfrequenz von 3 Gigahertz kann nach Angaben von IBM etwa 6 GigaFLOPS ausführen." Wollte nur darauf hinweisen. edit: im Linpack Artikel werden für einen p4 3ghz sogar nur 0,3 bzw 3,0 GigaFLOPS angegeben --212.202.6.33 19:46, 5. Dez 2004 (CET)goedle
Performance des JUBL
[Quelltext bearbeiten]Seit der Jülicher BlueGene/L gestartet ist, wurden hier mehrfach eine Performance von 46 TFLOPS vermerkt. Wahrscheinlich hauptsächlich durch die damalige Pressemeldung.
Die 46 TFLOPS sind allerdings der Spitzenwert (Rpeak), kein realer Linpackwert (Rmax). Zwar kann man sich über synthetischen Werte des Linpack streiten, aber dennoch bietet er eine gemeinsame Basis, die bisher auch für alle anderen gelisteten Maschinen gilt (und auch für das Ranking der TOP500 herangezogen wird).
Ich habe deshalb schon mehrfach wieder die momentanen 36,49 TFLOPS eingetragen. Quelle ist hier die Webpage des FZJ selbst. Weiterhin skalieren die BlueGene gut erlaubt den Schluß von der Performance anderer BlueGene-Installationen mit anderer Prozessorzahl auf die JUBL-Performance. So ergeben sich ausgehend vom BlueGene/L 280,6 / 131.072 * 16.384 = 35,075 TFLOPS. 46 TFLOPS sind hier einfach zuviel, auch wenn dieser Wert dem heutigen Änderungskommentar nach in der Microsoft Encarta Enzyklopädie 2006 als Linpack-Wert angegeben sind.
Das nur als Anmerkung, die vielleicht zukünftigen Änderungen vorbeugt. --jailbird 20:57, 11. Apr 2006 (CEST)
Definition /ab wann
[Quelltext bearbeiten]Im Text steht was von 1970er Jahre. Die Tabelle und Grafik sprechen gründsätzlich (ab 1906) von Supercomputern, in der en.WP steht, das Verb gibt es erst seit 1929. Was denn jetzt? Übrigens war der OPS-Link falsch. Problematisch sind auch die Kategorien der einzelnen Modelle. --Kungfuman 17:31, 18. Sep 2006 (CEST)
Rechenleistung des Darmstädter Systems
[Quelltext bearbeiten]In der aktuellen TOP500 finde ich den Darmstädter Rechner mit einem RMAX von 2052.96, bei einem Peak von 3648. Das ist der einzige LINPACK wert den ich finden konnte - auch auf der Page http://www.tu-darmstadt.de/hrz/hhlr/ finde ich nix weiteres. Zudem ist das System mitlerweile heterogen. Also wird da wohl kaum ein LINPACK auf der ganzen Kiste laufen. Bitte korrigieren!
Speicherzugriff bei Supercomputern
[Quelltext bearbeiten]Mir ist zum Thema Speicher / Peripherie folgender Satz aufgefallen: „Im Vergleich zu einem Supercomputer besitzen die Knoten in einem Cluster eigene Peripherie und ausschließlich einen eigenen, lokalen Hauptspeicher.“ Ganz so sollte man es nicht formulieren. Die Unterschiede gibt es doch vielmehr beim Speicherzugriff: Bei einem Verktorrechner können alle Prozessoren gleich schnell auf den gesamten Speicher zugreifen. Vorschlag: Bei einem Cluster können ebenfalls alle Prozessoren auf den gesamten Speicher zugreifen. Der Zugriff auf den lokalen Speicher erfolgt lediglich schneller. Das wirkt sich auf die Geschwindigkeit aus, mit der Aufgaben gelöst werden.
(ruth2407 - 12.11.2007)
Definition "Supercomputer" von IBM
[Quelltext bearbeiten]In der aktuellen Ausgabe 23 der Fachzeitschrift "Elektronik", wir im Artikel über Supercomputer auf Seite 44ff, darauf hingewiesen, das IBM mit der Definition eines Supercomputers in der Wiki, "die nur die Schnelligkeit herausstellt" nicht zufrieden ist. IBM definiert für Supercomputer durch das "beste Verhältnis zwischen Rechenleistung und Energieverbrauch bei einem vorgegebenen Anwendungsfeld". Gruß --JoBa2282 14:47, 19. Nov. 2007 (CET)
IBM sieht ja auch die Geschichte des Supercomputers erst in den 1980ern beginnen. Jedem seinen POV, hier sollte das Marketinggesülze vielleicht zitiert, aber nicht als korrekt dargestellt werden. TheBug 16:22, 19. Nov. 2007 (CET)
- Das war meine Absicht. Sonst wäre ein Eintrag im Artikel und nicht in der Diskussion erfolgt. ;) Grüße --JoBa2282 16:30, 19. Nov. 2007 (CET)
Eine Definition in Bezug auf das Anwendungsfeld ist aber schon sinnvoll: Beispielsweise lässt sich die spezifische Anwendungswperformance im Verhältnis zur absoluten Spitzenperformance betrachten. Ein niedriger Energieverbrauch gewinnt natürlich mit steigenden Energiekosten an Bedeutung.
21. Nov. 2007 (ruth2407)
Arbeitsspeicher ?
[Quelltext bearbeiten]Bei den meisten hier aufgeführten Supercomputern findet man nur die Rechenleistung (in Flops), die Größe des RAM wird allerdings meistens weggelassen.
In der historischen Liste im unteren Teil des Artikels fehlen die Angabe über den Hauptspeicher sogar völlig. Dabei ist es doch gerade besonders interessant, wieviel Speicher man damals zur Verfügung hatte. Kann nicht mal jemand die Informationen über den Speicher einpflegen? -- 217.93.88.53 02:59, 25. Jul. 2009 (CEST)
Historische Supercomputer
[Quelltext bearbeiten]Also der ersterwähnte Supercomputer wurde nach Wikipedia (sein eigener Artikel) gar nicht gebaut, sondern war lediglich ein Konzept. Einige der danachfolgenden IBMs erfüllen die Kriterien eines Computers nicht mehr als meine ererbte Rechenmaschine (Operationen pro Sekunde je nachdem, wie schnell man kurbelt) 78.52.228.0 01:59, 11. Dez. 2009 (CET)
Liste ist nicht aktuell und z.T. falsch(Cray XT5 (Jaguar)) -- 15:59, 6. Juni 2010 (ohne Benutzername signierter Beitrag von 80.187.106.11 (Diskussion) )
Meine Vorredner haben recht. Die Liste der Supercomputer im Artikel ist so nicht korrekt. Ich würde sie im ersten Schritt gern bzgl. der Eigenschaft "Computer", so wie sie im Artikel Computer beschrieben ist, bereinigen: Also nur tatsächlich gebaute Maschinen, die "universell" programmierbar sind. Der erste Computer Z3 wäre demnach auch der erste Supercomputer.
Mit der Bitte um weitere Meinungen ... freundliche Grüße --DutiesAtHand (Diskussion) 10:24, 1. Mai 2012 (CEST)
1 Peta-FLOPS (10^15 FLOPS)
[Quelltext bearbeiten]selbst als Ingenieur muss ich bei den großen Zahlenvorsätzen wie Tera, Peta, Exa nachdenken, wie viel das eigenlich ist, deshalb sollte hier noch die entsprechende Zehnerpotenz angeführt werden. z.B. ...entspricht 1 PFLOPS, 1 Peta-FLOPS (10^15 FLOPS) -- 92.116.26.107 15:59, 16. Feb. 2011 (CET)
HLRN
[Quelltext bearbeiten]Kann jemand die Daten des HLRN II an den HLRN III anpassen siehe Regionales Rechenzentrum für Niedersachsen und Norddeutscher Verbund für Hoch- und Höchstleistungsrechnen? --AxelHH (Diskussion) 01:20, 18. Jan. 2014 (CET)
Vectorrechner
[Quelltext bearbeiten]Supercomputer sind (wie auch heutzutage jeder Billig-PC) Vektorrechner.
Das ist doch kompletter Unsinn, DEC hat mit seinem Alpha begonnen, Vectorengines in seine Prozessoren einzubauen und im Laufe der Jahrzehnte haben auch AMD und Intel damit angefangen, aber prinzipiell sind CPUs arithmetische Recheneinheiten, die binär addieren und die Fliesskommaoperatoren und Vectoreinheiten unterstützen sie dabei, komplexere mathematische Tüfteleien in kürzerer Zeit zu einem Ergebnis zu bringen.
Moderne Prozessoren sind eigentlich eine Kombination aus verschiedenen Lösungsansätzen. Ein Intel bleibt auf jeden Fall eine CISC und daraus wird auch durch die Unterstüztung nicht plötzlich ein reiner Vectorprocessor.
Lese gerne auch https://de.wikipedia.org/wiki/Vektorprozessor dann siehst Du. x86 sind serial- oder stack-processoren, die in beliebigen Szenarien eingesezt werden wollen.
Ich habe geglaubt, ich werde nicht mehr, als ich gelesen habe Satz: Supercomputer sind (wie auch heutzutage jeder Billig-PC) Vektorrechner. Bitte schnellstens korrigieren, ist lachhaft.
Ausserdem sind doch nicht alle Supercomputer Vectorrechner, das ist doch vollkommen lächerlich, der Satz gehört ersatzlos geschtichen, zeugt doch von null Kompetenz. Fürchterliche Aussage.
Auch ist es unsinnig, auszusagen, dass Vectorrechner einen oder wenige Prozessoren haben und CISC/RISC basierende Rechner viele Prozessoren verwenden. Auch Vectorrchner können ihre Abläufe auf zahllose Prozessoren verteilen und es obliegt dem Programmierer, ihnen dies zu ermöglichen.
Bitte den ganzen Artikel neu schreiben, in der aktuellen Formulierung viel zu viele missverständliche Darlegungen und unsinnige Auslegungen.
Und bevor Leistungen der Cray1 ins Lächerliche gezogen werden, bitte erst erklären, welche Leistungen damals üblich waren, womit die Cray1 überzeugen konnte und wo sie überall eingesetzt wurde. Vergleiche mit einem Grafikchip, der rein vectorbasierend ist, hier bitte gänzlich zu unterlassen, wenn er bei der Anzahl der Additionen selbst 40 Jahre später kaum mithalten kann.
Auch die Vormulierung im Bereich Einsatzzweck lässt sehr zu wünschen übrig. So suggeriert der Artikel, dass Supercomputer Optionen für die Gegenmaßnahmen gegen Atombomben errechnen, was absolut lachhaft ist, gegen Atombomben gibt es keine Gegenmaßnahmen.
Also in Summe bitte etwas weniger Euphorie für tolle nvidia oder Intel Chips und etwas realistischere Darstellung der Position der Supercomputer allgemein. nvidia hat nämlich in der Supercomputerbranche praktisch überhaupt keine Bedeutung und Intel ist eine Kompromisslösung, die zwar Energieverbrauchstechnisch sehr ungünstig ist aber im Preis und verfügbare Anzahl Vorteile bringt. Es werden also in heutigen Supercomputern Schrottprozessoren eingesetzt, ganz einfach weil sie billig sind. Und Intel sind heute Schrottprozessoren. Der Energieverbrauch ist gigantisch und nur noch mit eigenen Kraftwerken abzudecken. Man wäge hier zwischen Anschaffungspreis und laufenden Kosten ab. Bei den laufenden Kosten verliert der Stromfresser Intel in jedem Fall.
Hat sich schon mal jemand über den vollkommen schwachsinnigen Satz: "Damit laufen 92,4 % der Systeme vollständig und 94,6 % zumindest teilweise unter Linux." bei Bewusstsein durchgelesen? Nur mal der Versuch 92,4 und 94,6 zu addieren bringt einem sofort auf mehr als 100. Sonderschüler, die Prozentrechnung wohl erst in der Oberstufe zu hören bekommen, wissen, dass das nicht möglich ist. Bitte dringend einen einwöchigen Buchhaltungskurs besuchen und danach die Prozente neu verteilen. Ein System läuft entweder vollständig oder teilweise unter Linux, wobei ich mir nur sehr schwer vorstellen kann, was ein System tuen muss, um teilweise auf Linux zu laufen, ev. einem Emulator?
Bitte zu versuchen, 90% des Schwachsinnes aus der Seite zu entfernen und versuchen 10% mehr Tatsachen reinzuschreiben. Würde mich erfreuen.
Ist überhaupt schon mal irgendeine der hier gemachten Aussagen überprüft worden? zB.: soll der IBM Roadrunner mit nur 6000 AMD Prozessoren 1,1 Peta rechnen, wärend der Dawning Nebulae für 1,2 Peta zwar mit 55ooo Intel und 65ooo Tesla Processoren 100x so viele Processoren aber nur die hälfte der Energie verbrauchen? Nicht einmal ein Nasenbohrer würde das glauben. Schon mal die Idee, dass Intel 10x soviele Prozessoren braucht, um die gleiche Rechenleistung wie AMD zu schaffen, ist absurd, und dass Intel mit der 10fachen Prozessoranzahl nur die hälfte der Energie verbrauchen sollte, ist absolut lachhaft. Die Realität sollte wohl in beiden Fällen das genaue Gegenteil sein. Bei der gleichen Zuverlässigkeit gewinnt wohl AMD, bei der gelichen Rechenleistung wohl Intel und beim Energieverbrauch wieder AMD. (nicht signierter Beitrag von 62.212.161.198 (Diskussion) 02:12, 30. Jul 2015 (CEST))
Zitat: "Vergleiche mit einem Grafikchip, der rein vectorbasierend ist, hier bitte gänzlich zu unterlassen, wenn er bei der Anzahl der Additionen selbst 40 Jahre später kaum mithalten kann." Dann erkläre mal bitte, warum genau das Hacker machen, Grafikkarten (notfalls parallel) rechnen zu lassen, wenn dies als Rechenleistung so nicht allzuviel taugt? Sind die Berechnungen, die "komplette Rechner" vornehmen können, für GraKa´s nicht geeignet? --31.17.254.227 13:42, 18. Apr. 2020 (CEST)
Weitere Aspekte, die genannt werden sollten
[Quelltext bearbeiten]Ich hab den Artikel heute überarbeitet, auch mit einem schielenden Blick auf en:Supercomputer. Dabei fallen mir folgende Aspekte auf, die noch keine Erwähnung im Artikel finden:
- Wärmemanagament, Green500, Energie pro Watt
- Aktuelle Forschungsfragen zu Supercomputern selber, Verweis auf Green500, Supercomputing-Konferenzen (HiPC, IPC, ...)
- Grid-Computing
- Performance-Messung: Capability vs. Capacity, LINPACK-Benchmarks, Performance-Metriken -- erst darüber machen die FLOPS ja erst Sinn.
Auch die große Tabelle, die den Artikel dominiert, finde ich unglücklich. Der englischsprachige Artikel spart die völlig ein. --Benji (Diskussion) 18:30, 28. Nov. 2016 (CET)
- Energie pro Watt? Ist das ein Übersetzungsfehler? Wenn nicht: Jedem Naturwissenschaftler sträuben sich die Haare, wenn sie das lesen... Ist vielleicht (lt. dem en-Lemma) eher die Effizienz, gemessen in Rechnenleistung pro Watt, gemeint?
- Was die Tabellen angeht: Die könnte man nicht nur auf ca. 5 Zeilen beschränken, sondern ich glaube, die sind auch nicht mehr aktuell?
- --Hlambert63 (Diskussion) 11:23, 6. Sep. 2025 (CEST)
- Ich hab vergessen, den User zu pingen, der ist leider wohl nicht mehr so aktiv :-( : @Benji: --Hlambert63 (Diskussion) 20:13, 6. Sep. 2025 (CEST)
Definition "Superrechner"
[Quelltext bearbeiten]Kann es sein, dass man einmal die Listen der "Superrechner" aktualisieren oder diesen recht unbestimmten Begriff einmal genauer definieren sollte? So in der Art, die besten 50 Rechner der Welt oder alle Rechner über 10 PetaFlops Leistung sind Superrechner. Ich bin "nur" Wirtschaftswissenschaftler und kein Mathematiker, aber Rechenleistungen von 500 Mrd. Berechnungen je Sekunde schaffen heute schon 200 EUR teure Grafikkarten. Eine etwas bessere GraKa für 1.200,- EUR wie die GeForce RTX 2080 ti wird bei Heise.de mit 14,2 Terra Flops angegeben. Hiervon 10 Stück parallel geschaltet und man hätte Leistungen von deutlich über 100 TerraFlops für unter EUR 15.000,- Kosten, WENN ich das Prinzip der parallelen Rechner richtig interpretiere. --- Von daher können doch Rechner wie der in der TU Chemnitz mit hier angegebenen 8,21 TerraFlops nicht wirklich mehr als Superrechner gelten. --- Sollte meine Betrachtung stimmen, müssten doch alle Rechner unterhalb einer Leistung von 1 PetaFlops aus dieser Wertung fliegen oder in eine Art "Oldtimer- / Ehemaligen-Tabelle" wandern. Mit 1 PetaFlops kommt man Stand heute ja nicht einmal mehr in die TOP10 in Deutschland, geschweige denn in die TOP25 der Welt. --- Grüße der Hammaburger --31.17.254.227 13:29, 18. Apr. 2020 (CEST)
Gute Idee (Liste aktualisieren). Bei der Gelegenheit könnte man auch einmal ein Wort zum amerikanischen Geheimdienst bzw. Militär sagen. Soviel ich gehört habe (von GI's), haben die amerikanische Geheimdienste die schnellsten Rechner (oder nutzen die Universitätsrechner). Wäre doch mal ein netter Rechercheauftrag, oder?
--2003:E5:9F49:8300:227:10FF:FE35:AC6C 19:49, 2. Dez. 2023 (CET)
Korrektur zum Graphen zur Rechengeschwindigkeit
[Quelltext bearbeiten]Sollte die oberste Zahl im "Graph zur Rechengeschwindigkeit von Supercomputern, logarithmisch" nicht 10 hoch 21 sein statt 10 hoch 20 ? --Turdus (Diskussion) 14:39, 19. Jun. 2021 (CEST)
- Ja, sollte es, doch um diese Seite kümmert sich anscheinend seit über 2 Jahren niemand mehr. Duftmarke setzen, und dann nie wieder gesehen. Ist mir aber auch heute aufgefallen, was du zurecht bemängelt hast. --2A02:3033:40C:50A9:60EF:5550:A7E3:D9B7 16:46, 8. Mär. 2023 (CET)
Grafik falsch
[Quelltext bearbeiten]Hallo Leute.
Zetta ist 10^21, nicht 10^20. Bitte verbessern. Quelle des Fehlers:
Supercomputer#/media/Datei:Supercomputer.svg --46.114.88.64 14:25, 8. Mär. 2023 (CET)
