Seite 2 von 7 ErsteErste 123 ... LetzteLetzte
Ergebnis 21 bis 40 von 135
  1. #21
    medeman medeman ist offline
    Avatar von medeman

    Nvidia GeForce RTX 40X0-Serie

    Zitat Dragonfire Beitrag anzeigen


    tldr: Boardpartner-Designs sind auf 600Watt Samsung-Prozessoren ausgelegt, es wurde jetzt aber ein deutlich effizienterer 450 Watt TSMC-Prozessor verwendet. Dementsprechend sind die Kühler der 4090-Karten irre überdimensioniert, konnten aber so spät im Designprozess nicht mehr geändert werden.
    Mich würde hierzu ja mal eine Zeitlinie interessieren. Nvidia wird sicherlich nicht erst vor ein paar Wochen/Monaten auf TSMC N4* umgestiegen sein. Den Node vor allem herstellerübergreifend zu wechseln ist dann schon etwas komplexer als im PDF-Programm einen anderen Drucker auszuwählen. Dazu müssen neben dem Chipdesign auch Kapazitäten bei TSMC reserviert werden, die häufig bereits Jahre im voraus vertraglich festgehalten werden. Mal eben anrufen und “hey ich würde gerne ab übermorgen 2 Millionen GPUs bei euch ausdrucken” ist nicht. So hat beispielsweise Apple Kapazitäten bei TSMC für N4 bereits spätestens im März 2021 reserviert (eventuelle Verhandlungen haben sicher früher angefangen) und in diesem September, also gut 18 Monate später, ist ihr erstes Produkt mit dem ersten Apple-Chip im N4-Verfahren erschienen.

    Es würde mich also durchaus wundern, wenn Nvidia nicht spätestens Ende 2021 klar gewesen wäre, dass Ada GPUs im TSMC N4 Verfahren gefertigt werden. Jetzt glaube ich kaum, dass irgendein Boardpartner Ende 2021 bereits “hunderttausende” Kühler für eine etwaige 600 Watt GPU rumliegen hatte oder in Auftrag gegeben hat. Zumal ich mir sowieso nicht vorstellen kann, dass ein Boardpartner bei einer 2.000,-€ Karte “hunderttausende” (laut Igor) vorproduziert.

    Also selbst wenn Designs für Kühler bereits früh abgeschlossen waren, hätten Boardpartner wohl genug Zeit haben müssen. Die Partner haben sowieso schon 450 Watt Kühlerdesigns und Boards wegen der 3090 Ti und diversen OC-Modellen anderer GPUs und laut Igor sollen die GPUs Pin-kompatibel sein (laut ihm wurden die 600 Watt Boards und Kühler mit Ampere GPUs getestet, die sich 600 Watt ziehen durften). Laut der Aussage kann also im Umkehrschluss ein bestehendes Boarddesign + Kühler für eine 3090 Ti mit eventuell minimalen Anpassungen auch für eine 4090 GPU verwendet werden.

    Also entweder hat Nvidia mehrere Monate nach dem Umstieg auf TSMC verpennt seinen Boardpartnern mitzuteilen, dass die GPUs mit maximal 450 Watt laufen werden, oder die wollten ihren TSMC-Chip bis kurz vor Release auch mit 600 Watt fahren (was dann aber mit vorherigen Samsung 8nm Plänen nichts mehr zu tun hatte).

    Von daher würde ich die Aussagen in dem Video nicht für bare Münze nehmen. Sicherlich ist was dran an dem was er sagt (die Kühler sind ja wahrscheinlich tatsächlich überdimensioniert), aber die Details passen finde ich nicht zusammen.

    *was übrigens “nur” eine verbesserte Version von TSMC N5 ist und kein Full Node Shrink, d.h. nicht 4nm, sondern nach wie vor 5nm - wobei selbst die nm-Angabe nicht allzu viel aussagt.

  2. Anzeige

    Nvidia GeForce RTX 40X0-Serie

    Schau dir mal diesen Bereich an. Dort ist für jeden was dabei!
  3. #22
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Ich sags mal so: Aus Erfahrungen aus dem Maschinen- und Anlagenbau in den letzten zwei Jahren, wundern mich extrem lange Vorlauf- und Bestellzeiten, bzw. krasse Preissteigerungen für (in der Vergangenheit) unbedenkliche Teile überhaupt nicht mehr. Es gab da in den letzten Monaten ja nicht nur Probleme bei Chip-Herstellern, sondern die Schwierigkeiten gingen schon bei den Materialien los (Metalle/Kunststoffe).

    Man sollte die Tests abwarten. Ein derart überdimensionierter Kühler dürfte sich in den Temperatur-/Lautstärkediagrammen ja ziemlich eindeutig bemerkbar machen. Wobei Igor die Dinger ja schon zum testen hat. Der würde so ein Video wohl kaum machen, wenn's Blödsinn wäre.
    Und Fakt dürfte auch sein, dass Hersteller die Kühler nicht aus gutem Willen überdimensionieren. Und Igor's Erklärung wäre für mich dann so gut wie jede andere.



    Zitat medeman Beitrag anzeigen
    Also entweder hat Nvidia mehrere Monate nach dem Umstieg auf TSMC verpennt seinen Boardpartnern mitzuteilen, dass die GPUs mit maximal 450 Watt laufen werden...
    Ich mein... Nvidia wusste sicher was, was die anderen nicht wussten.

    Nvidia GeForce RTX 40X0-Serie

  4. #23
    Jonny Knox Jonny Knox ist offline
    Avatar von Jonny Knox

    Nvidia GeForce RTX 40X0-Serie

    Zitat Dragonfire Beitrag anzeigen
    Ich mein... Nvidia wusste sicher was, was die anderen nicht wussten.

    Klicke auf die Grafik für eine größere Ansicht 

Name:	snapshot.jpg 
Hits:	14 
Größe:	320,4 KB 
ID:	198232
    Top: You.
    Bottom: The friend she tells you, not to worry about.

  5. #24
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Die Asus Strix im Vergleich mit einer PS5.

    Nvidia GeForce RTX 40X0-SerieNvidia GeForce RTX 40X0-Serie

    https://www.youtube.com/watch?v=9IOBFl5SQVM

  6. #25
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Konnte nicht mehr editieren, aber PCGH hat fünf weitere Karten auf den Tisch gepackt.

    Nvidia GeForce RTX 40X0-Serie

    https://www.youtube.com/watch?v=xlpty-XjhDE

    Yo, die Custom Design sind ausnahmslos so gewaltig. Sogar die AIO-gekühlte Karte scheint übertrieben groß, wenn auch immerhin nur zwei Slots dick.

    Bei ziemlich allen Karten könnte aber sogar ein moderner Midi-Tower schon zum Problem werden.

  7. #26
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    RTX 4090 Founders Edition: Tests sind online.

    • Rasterizing: PCGH hat im Durchschnitt aus 20 Spielen und vier Auflösungen 49% mehr Leistung, als eine RTX 3090Ti ermittelt. In 4K allein gesehen springt der Schnitt auf 60%.
    • Raytracing: Im Durchschnitt aus 10 Spielen und vier Auflösungen gibt's ein Leistungsplus von 53% im Vergleich zur 3090Ti.

    Im Idealfall kann die 4090 die angekündigte "doppelte Performance" zur 3090 in etwa erreichen. Die FPS z.B. in Cyberpunk 2077 in Raytracing/Ultra-Einstellung und 4K-Auflösungen steigen um 98% im Benchmark. In Legos Builder Journey um 102%.

    Die Test-Ergebnisse sind alle ohne DLSS, um vor allem die Vergleichbarkeit mit AMD zu wahren. DLSS-Tests kommen erst morgen.

    Was bereits jetzt sehr gut funktioniert, ist die Energie-Effizienz: Das Limit von 450 Watt wird nur in den seltensten Fällen ausgereizt, im Normalbetrieb rangiert die Geforce RTX 4090 über eine breite Palette an Spielen und Auflösungen unter 350 Watt.
    https://www.pcgameshardware.de/Gefor...ellen-1404846/



    Der Kühler der Founders Edition ist völlig ausreichend, Gamers Nexus nennt ihn sogar "überraschend gut"... Reviews zu den Custom-Karten kommen erst morgen, die dürften aber wirklich überdimensioniert sein, wenn die Größe der Kühler sich nur annähernd auf die Kühlung überträgt.

  8. #27
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Laut der8auer läuft die 4090 im Prinzip schon in Overclocking-Bereichen.

    Damit ist die Effizienz-Kurve gemeint. Nvidia holt die letzten Prozent-Leistung mit einer Menge Strombedarf raus (bei trotzdem leiser Kühlung!). Nvidia hätte sich das ganze Drama um die übergroßen Kühler und Stromstecker sparen können, wenn sie die Karte mit einem geringeren Power Target ausgestattet hätten.

    Bremst man die Karte auf 60% Power Target ein, verliert man nur wenige Prozent Leistung in Spielen, bleibt dabei aber unter der Grenze von 300 Watt.

    Als Beispiele:

    • 5% weniger Leistung in PUBG bei 33% weniger Stromverbauch.
    • 2% weniger Leistung in Cyberpunk 2077 bei 18% weniger Stromverbrauch.

    Nvidia GeForce RTX 40X0-SerieNvidia GeForce RTX 40X0-Serie




    Ein Zeichen für mich, dass Igor mit seiner Annahme gar nicht so falsch liegt, dass die Karten einfach überdimensioniert sind, weil Nvidia mit wesentlich ineffizienteren Chips gerechnet hat. Und jetzt hatte man vom Design einfach noch eine Menge Luft nach oben, was Stromversorgung und Kühlung angeht. Also Feuer...


    Und ich seh schon, dass Übertakter wieder keinen Spaß mit diesen Karten haben werden. Ein weiterer Punkt für Undervolter.

  9. #28
    medeman medeman ist offline
    Avatar von medeman

    Nvidia GeForce RTX 40X0-Serie

    Brachiale Leistung, wie aber auch zu erwarten war (wenn ich auch zugegeben mit weniger gerechnet habe).

    Ist denke ich ok für eine XX90 Karte. Viel Leistung für sehr viel Geld, Preis/Leistung ist bei der Top-Karte im Lineup schon immer eher schlecht gewesen (man erinnere sich an die Titan-Karten, die jetzt eben XX90 heißen), ist aber irgendwo auch okay so. Problematischer ist die Preisgestaltung der RTX 4080 und "RTX 4080". Die XX80 Karten hatten normalerweise immer ein deutlich besseres P/L-Verhältnis, laut Spec Sheet und Preis dürfte sich das aber erledigt haben.

    Bei der Leistung ist es aber umso schlimmer, dass die Karte kein DisplayPort 2.0 hat, 2160p@240Hz wäre bei einigen Titeln sicher nicht undenkbar. Die Intel Arc Karten können DisplayPort 2.0, also...

    Mal gespannt was AMD am 3. November raushaut, würde mich nicht wundern, wenn deren Top-Karte da leistungstechnisch auch mithalten kann. Ich erwarte auch hier kein Preis-/Leistungswunder, aber die Konkurrenz tut hoffentlich gut.

    Mit der theoretischen Effizienz der 4000er-Serie bin ich auch mal gespannt, wo Nvidia die kleineren Karten (4060, 4050) vom Verbrauch her ansetzt. Eine 4050 (oder 4040) mit 75 Watt Verbrauch (und somit ohne extra Stromanschluss) braucht es finde ich mal wieder für die "ich kaufe einen ausgemusterten Office-PC fürn Hunni und ne kleine Grafikkarte dazu", vorausgesetzt die Karte kostet dann nicht 300,-€ aufwärts.

  10. #29
    medeman medeman ist offline
    Avatar von medeman

    Nvidia GeForce RTX 40X0-Serie

    Die Karten gibt bzw. gab es ab 1.949,-€, mittlerweile haben hierzulande nur noch wenige Shops Karten auf Lager (Geizhals listet eine RTX 4090 von Palit für 2399,-€ bei csl-compuiter.de). Die Premium-Varianten der Karten gibt bzw. gab es so bis um die 2.500,-€ (ASUS ROG Strix bspw.).

    @Dragonfire hast du eine bekommen bzw. es überhaupt versucht?

    Bin mal auf erste Verkaufszahlen gespannt und wie gut die Verfügbarkeit nach der ersten Welle sein wird. Nach den wohl eher mageren Verkaufszahlen und der weiterhin lückenlosen Verfügbarkeit von Zen 4 überrascht es mich doch, dass die 4090 jetzt doch relativ schnell vergriffen ist. Wobei auch sicher weniger Karten als CPUs auf Lager waren, die GPU-Die verbraucht deutlich mehr Silizium als selbst die größte Zen 4 CPU-Die. GPUs werden unter Gamern/Gaming-Enthusiasts (whatever) auch öfter aufgerüstet, aber gerade zur 4090 sollte man sich wohl eine neue CPU kaufen, wo sie doch selbst High-End CPUs in vielen Titeln ausreizt. Wenn ich 2K für eine Grafikkarte hinblättern würde, würde ich wohl auch einen 7950X oder eben dann einen 13900K dazunehmen .

  11. #30
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Zitat medeman Beitrag anzeigen
    @Dragonfire hast du eine bekommen bzw. es überhaupt versucht?
    Jupp. Hab's aber nicht drauf angelegt und hab auch nicht damit gerechnet, dass ich heute eine bestelle... also verglichen mit den letzten großen Launches der letzten Jahre, war das hier wohl doch eher ne "entspannte" Geschichte.

    Bin nach der Arbeit irgendwann nach 16 Uhr, also über eine Stunde nach offiziellem Verkaufsstart, mal auf Alternate und da waren noch so einige Karten verfügbar. Da es darunter noch die Asus TUF gab, die mir auch optisch gut gefällt, bin ich dann doch schwach geworden. Ist auch schon versendet und soll laut Paketverfolgung morgen ankommen.

    Aber was heißt "schwach geworden"... War für mich klar, dass es die 4090 wird oder eben keine Karte. Die Tests haben mich überzeugt und für AMD bin ich zu tief im Nvidia-Ökosystem drin. Nicht nur wegen meinem Gsync-Monitor, sondern auch wegen den Nvidia-Partnerspielen. Da müsste AMD im November schon was unfassbar Unglaubliches vorstellen, dass ich mich jetzt über den Kauf ärgere... von der Leistung her "gleichziehen" würde da sicher nicht ausreichen. Und in dem Fall hätte Alternate ja immernoch 30 Tage Rückgaberecht...

    Ich hoffe trotzdem, dass AMD ein starkes, konkurrenzfähiges Produkt bringt... das würde auch Nvidia-Fanboys gut tun. Aber zumindest beim Preis rechne ich nicht damit, dass AMD hier wirklich den Markt aufrütteln wird. Die aktuellen Ryzen lassen sie sich ja auch saftig bezahlen...



    Ansonsten: Mal sehen, ob der i9 11900k bei 4K wirklich zum Problem wird. Wobei die CPU auf jedenfall noch bis nächstes Jahr halten muss. Denn da hab ich dann doch AMD im Blick, die ja mit neuen X3D-Ryzen kommen sollen.

    Aber ich hab bisher noch jede GPU in die Knie gezwungen. Ich bin z.B. vor einigen Jahren hart auf der frühen Downsampling-Welle mitgeschwommen, wo das Ganze noch kein bequem integrierstes Treiber-Feature war. Ich werd schon Wege finden, um die 4090 auf wackelige 30FPS zu drücken.

  12. #31
    medeman medeman ist offline
    Avatar von medeman

    Nvidia GeForce RTX 40X0-Serie

    Zitat Dragonfire Beitrag anzeigen
    Jupp. Hab's aber nicht drauf angelegt und hab auch nicht damit gerechnet, dass ich heute eine bestelle... also verglichen mit den letzten großen Launches der letzten Jahre, war das hier wohl doch eher ne "entspannte" Geschichte.

    Bin nach der Arbeit irgendwann nach 16 Uhr, also über eine Stunde nach offiziellem Verkaufsstart, mal auf Alternate und da waren noch so einige Karten verfügbar. Da es darunter noch die Asus TUF gab, die mir auch optisch gut gefällt, bin ich dann doch schwach geworden. Ist auch schon versendet und soll laut Paketverfolgung morgen ankommen.
    Zitat Dragonfire Beitrag anzeigen
    Ich hoffe trotzdem, dass AMD ein starkes, konkurrenzfähiges Produkt bringt... das würde auch Nvidia-Fanboys gut tun. Aber zumindest beim Preis rechne ich nicht damit, dass AMD hier wirklich den Markt aufrütteln wird. Die aktuellen Ryzen lassen sie sich ja auch saftig bezahlen...
    Ich glaube auch nicht daran, dass die Karten von AMD vom Preis-/Leistungsverhältnis deutlich besser als die Nvidia-Karten sein werden. Wahrscheinlich bei Rasterization wieder ein paar Prozentpunkte vorne für den gleichen Preis, dafür bei RT hinten (hoffentlich näher als letzte Generation) und wahrscheinlich auch noch ohne Gegenstück zu DLSS 3 Frame Generation. Das Chiplet-Design klingt aber vielversprechend, je nachdem wie viele Chiplets mit einem Interconnect miteinander verbunden werden können, ist leistungstechnisch keine Grenze gesetzt (außer Strom, Hitze und Herstellungskosten). Apple hat mit dem M1 Ultra ja durchaus gezeigt, dass man zwei GPUs "aneinanderkleben" kann - der Interconnect hat hier aber auch 2,5 TB/s (!) Bandbreite. Ist die Frage wie gut AMD das in der ersten Generation hinbekommt, aber wenn man schaut wie es bei den CPUs lief, dürfte es zumindest nach 1-2 Generationen Früchte tragen.

    Zitat Dragonfire Beitrag anzeigen
    Ansonsten: Mal sehen, ob der i9 11900k bei 4K wirklich zum Problem wird. Wobei die CPU auf jedenfall noch bis nächstes Jahr halten muss. Denn da hab ich dann doch AMD im Blick, die ja mit neuen X3D-Ryzen kommen sollen.

    Aber ich hab bisher noch jede GPU in die Knie gezwungen. Ich bin z.B. vor einigen Jahren hart auf der frühen Downsampling-Welle mitgeschwommen, wo das Ganze noch kein bequem integrierstes Treiber-Feature war. Ich werd schon Wege finden, um die 4090 auf wackelige 30FPS zu drücken.
    Ich glaube die X3D sind auch der frühstmögliche (oder frühstwollende) Punkt für mich, von Zen 3 umzusteigen. Bis dahin sind die Boards und DDR5 RAM sicher auch etwas bezahlbarer. Bei vielen Spielen wird dein 11900K sicherlich ausreichen, aber bei einigen Spielen wird laut einigen Tests wohl selbst ein 12900K zum limitierenden Faktor, sogar bei 2160p.

  13. #32
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Zitat medeman Beitrag anzeigen
    ...je nachdem wie viele Chiplets mit einem Interconnect miteinander verbunden werden können, ist leistungstechnisch keine Grenze gesetzt (außer Strom, Hitze und Herstellungskosten).
    In Sachen Strom und Hitze wissen wir ja, wo die Grenze für diese Generation mal angedacht war: 600 Watt. Dass die RTX 4090 das jetzt nicht annähernd erreicht, kam ja anscheinend selbst für die Hersteller mehr oder weniger überraschend.

    AMD könnte für die größte Karte aber durchaus mit selben Limits geplant haben und reizt das mit dem Chiplet-Design und besserer Planung vielleicht auch besser aus. Wenn dann auch noch die Effizienz ähnlich gut ausfällt, könnten die durchaus eine Monster-GPU in der Rückhand halten. Fernab von jeglicher Vernunft natürlich.

    Wie gesagt, für mich persönlich ist AMD weniger interessant... aber das bedeutet nicht, dass ich mich nicht darüber freuen würde, dass Nvidia mal ein bisschen Druck bekommt. Nicht nur beim Preis, sondern auch in Sachen Leistungskrone.

  14. #33
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Nvidia hat eigene Benchmarks zu den beiden 4080-Modellen veröffentlicht. Wie immer sind Hersteller-Benchmarks mit Vorsicht zu genießen...

    Nvidia GeForce RTX 40X0-SerieNvidia GeForce RTX 40X0-SerieNvidia GeForce RTX 40X0-SerieNvidia GeForce RTX 40X0-Serie

    https://www.nvidia.com/en-us/geforce...-game-updates/
    https://www.pcgameshardware.de/Gefor...-DLSS-1405216/

  15. #34
    medeman medeman ist offline
    Avatar von medeman

    Nvidia GeForce RTX 40X0-Serie

    Zitat Dragonfire Beitrag anzeigen
    Nvidia hat eigene Benchmarks zu den beiden 4080-Modellen veröffentlicht. Wie immer sind Hersteller-Benchmarks mit Vorsicht zu genießen...

    Klicke auf die Grafik für eine größere Ansicht 

Name:	a-plague-tale-requiem-geforce-rtx-3840x2160-nvidia-dlss-desktop-gpu-performance-pcgh.jpg 
Hits:	14 
Größe:	161,5 KB 
ID:	198251Klicke auf die Grafik für eine größere Ansicht 

Name:	f1-22-geforce-rtx-3840x2160-nvidia-dlss-desktop-gpu-performance-pcgh.jpg 
Hits:	16 
Größe:	156,4 KB 
ID:	198252Klicke auf die Grafik für eine größere Ansicht 

Name:	microsoft-flight-simulator-geforce-rtx-3840x2160-nvidia-dlss-desktop-gpu-performance-pcgh.jpg 
Hits:	15 
Größe:	170,5 KB 
ID:	198253Klicke auf die Grafik für eine größere Ansicht 

Name:	marvels-spider-man-remastered-geforce-rtx-3840x2160-nvidia-dlss-desktop-gpu-performance.jpg 
Hits:	17 
Größe:	173,7 KB 
ID:	198254

    https://www.nvidia.com/en-us/geforce...-game-updates/
    https://www.pcgameshardware.de/Gefor...-DLSS-1405216/
    Die "RTX 4080" 12 GB (UVP 1.099,-€) ist ohne DLSS langsamer als eine 3090 Ti, und das schon in Nvidias eigenen Benchmarks? Und die RTX 4080 16 GB (UVP 1469,-€) ist dann je nach Spiel 10-25% schneller. What? Die RTX 4090 ist in A Plague Tale ohne DLSS fast doppelt so schnell wie die RTX 4080 16 GB, bzw. eher gesagt ist die RTX 4080 16 GB kaum mehr als halb so schnell.

    Die 4080er-Karten existieren wohl wirklich nur entweder zum Upselling zur 4090 oder zum Abverkauf der 3000er Karten. Wahrscheinlich stellen die nur Placebo-mäßig 3-4 Stück her . In einem gesunden Markt würde die "RTX 4080" 12 GB wohl maximal die UVP der RTX 3080 (739,-€ oder sowas) kosten.

    Also vor allem die 12 GB Version ist ein schlechter Witz.

  16. #35
    Jonny Knox Jonny Knox ist offline
    Avatar von Jonny Knox

    Nvidia GeForce RTX 40X0-Serie

    Was mit Ada Lovelace passiert, wenn man 600-700 Watt anlegt?

    https://www.golem.de/news/rtx-4000-s...10-168919.html
    Die Geforce RTX 4090 ist bereits eine erste Ada-Lovelace-Grafikkarte, die in Tests die klare Nummer eins ist. Nvidia hat allerdings wohl auch an eine noch leistungsfähigeren Karte gearbeitet, einem Titan-Modell der Serie. Das Projekt musste aber erst einmal abgebrochen werden. Die Grafikkarte habe in Testszenarien Netzteile zerstört oder sich selbst zum Schmelzen gebracht. Das berichtet der Youtube-Kanal Moore's Law is Dead mit Berufung auf eine interne Quelle.

    Der Youtuber selbst habe Bilder von geschmolzenen und verbogenen Platinen gesehen, da die Titan Ada die Grenzen der Architektur wohl zu stark ausgereizt habe. Die Grafikkarte war anscheinend für 600 bis 700 Watt Leistungsbudget ausgelegt - über ein Drittel mehr als die 450 Watt der Geforce RTX 4090. Bei maximal 700 Watt entsteht eine entsprechend hohe Abwärme, die für die Hardware schädlich sein kann - und es in diesem Fall auch wurde.
    Zudem sei die Karte so groß gewesen, dass sie nicht direkt auf dem Mainboard installiert wurde.

  17. #36
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Zitat Jonny Knox Beitrag anzeigen
    Was mit Ada Lovelace passiert, wenn man 600-700 Watt anlegt?
    Klingt nach ner hübschen Horror-Story... jetzt wo Halloween naht.

    Man kann 4090 Custom-Modelle durchaus auf über 520 Watt pushen und das steckt der Kühler locker weg.

    Nvidia GeForce RTX 40X0-Serie
    https://www.youtube.com/watch?v=ZLkYpSMkgS4

    Wieso sollen da 80, oder lass es 180 mehr sein, jetzt plötzlich die Karte oder Netzteile schmelzen?

    Aber OK... in frühen Tests kann ich mir schon vorstellen, dass die ein oder andere Hardware spektakulär abraucht, wenn halt noch keine Schutzmechanismen aktiv sind oder sogar bewusst ausgehebelt werden.

  18. #37
    Jonny Knox Jonny Knox ist offline
    Avatar von Jonny Knox

    Nvidia GeForce RTX 40X0-Serie

    War vllt auch noch eine Variante in einem anderen Fertigungsprozess. Aber dennoch interessant, dass es offensichtlich dich ein "zu viel" an Strom gibt, das so ein Board abkann.

  19. #38
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    So, die Asus 4090 TUF steckt im Rechner. Ist schon ne brachiale Karte. Endlich sieht mein Phanteks Big Tower nicht mehr so leer aus, nachdem ich von Custom-Wasserkühlung wieder auf Luftkühlung umgestiegen bin. Die Karte hängt auch ohne zusätzlichen GPU-Halter kaum durch, aber durch das Gewicht und die Länge möcht ich sie dann doch noch zusätzlich abfangen. Das absurde Kabelbündel zieht ja auch noch mit (Ich hoffe, das 12VHPWR-Kabel von Corsair ist bald verfügbar). Ich mach mir da auf Dauer schon etwas Sorgen um den PCIe-Slot, auch wenn der verstärkt ist.

    Ansonsten gestartet, Treiber installiert, Cyberpunk 2077 angefeuert... und ich komm aus dem Grinsen nicht mehr raus. Ich hab jetzt vorab keine großen Benchmarks gemacht, die gibt es ja online zu genüge, aber fast die doppelte Performance in den selben Settings kommt schon so in etwa hin. Ich hab jedes einzelne Setting aufs Maximum, DLSS Quality bei 4K-Auflösung und das Ding rennt die meiste Zeit über 60FPS. Das bestätigt auch der Ingame-Benchmark, Durchschnittlich 68,64, Min.FPS 55,58. Da war ich mit meiner 3090 weit davon entfernt, trotz DLSS im Performance-Setting... Die 4090 läuft in 4K nativ nur marginal schlechter, als die 3090 mit DLSS Performance. Der neue Nvidia-Treiber hat allerdings die Ingame-Map von Cyberpunk zerschossen (auch bei älteren Karten). Hoffe, da kommt ein schneller Hotfix. Wollte eigentlich am Wochenende nochmal ein neues Spiel starten. Und Treiber-Rollback ist bei einer neuen Grafikkarte ja nicht drin... Naja... Die Freuden eines Early Adopters.

    Anschließend hab ich noch den neuen 3D Mark Benchmark (Speed Way) getestet und da auch mal den 20 Minuten-Stresstest laufen lassen. Die Karte bleibt dabei sehr leise und der Lüfter hat eine sehr angenehme Tonlage. Nicht wirklich lauter, als mein Noctua NH-D15. Temperaturen sind für eine luftgekühlte Karte aber fantastisch. Maximale GPU-Temperatur bei nichtmal 65°C (Hotspot ging auf 72,4°C).

    Hier mal ein Screenshot von GPU-Z während dem Stresstest, falls wer Interesse hat.

    Nvidia GeForce RTX 40X0-Serie


    Dazu kamen noch ein paar Runden Overwatch 2 mit ein paar Kollegen... aber naja. Da hat sich schon die 3090 gelangweilt.

  20. #39
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Hab ein bisschen mit MSI Afterburner gespielt. Heute noch in Richtung Overclocking...

    Hab mir jetzt keine große Mühe gegeben und nur den GPU-Takt angerührt, aber für die Benchmarks ausreichend stabil waren bei mir: 133% Power Limit, +500mV Spannung, +250MHz GPU-Takt. Alles drüber hatte Bildartefakte oder ist direkt abgestürzt.

    Hier der Vergleich mit Auslieferungszustand der Asus TUF OC.

    • In 3D Mark "Speed Way" waren es 2,70% mehr Leistung bei 14,94% mehr Stromverbrauch. (Takt 2.820 vs. 3.120).
    • Im Unity "Superposition" waren es 4,54% mehr Leistung bei 17,97% mehr Stromverbrauch. (Takt 2.805 vs. 3.105).
    • Der maximale Verbrauch bei Übertaktung lag bei 481 Watt. Maximale GPU-Temperatur bei 65,9°C (Hotspot 75,5°C). Lüfterdrehzahl bei 1530 RPM.
    • Der maximale Verbrauch ohne Übertaktung lag bei 418 Watt. Maximale GPU-Temperatur bei 62,6°C (Hotspot 70,6°C). Lüfterdrehzahl bei 1330 RPM.


    +250MHz gingen auch ohne Spannungserhöhung stabil (im Rahmen der Benchmarks), wurden aber früher eingebremst. 3.045MHz waren es dann z.B. in Superposition, was dann immerhin in 2,72% mehr Leistung bei nur 3,78% mehr Stromaufnahme resultierte. Das wäre ein halbwegs fairer Deal, fällt aber im Alltag auch sicher nicht auf.


    Sonstige Erkenntnisse:

    • Die Karte erreicht das 450 Watt Power Limit in den Tests erst gar nicht. Ohne gleichzeitige Erhöhung der Spannung bringt ein Ändern des Power Limits also auch nichts.
    • Das Temperatur-Limit wird in keinem Fall erreicht.
    • Der GPU-Takt sitzt bombenfest. Da gibt es im Prinzip keine Schwankungen und der Graph in GPU-Z ist über die gesamte Dauer des Benchmarks eine perfekt gerade Linie.


    Also in Sachen Leistung nicht wirklich Luft nach oben. Werd in den nächsten Tagen vielleicht mal in die andere Richtung spielen und gucken, was sich so an Strom einsparen lässt ohne Leistung zu verlieren.


    Ansonsten denke ich aber, dass ich die Karte einfach im Auslieferungszustand laufen lasse. Sie ist kühl, leise und läuft trotzdem sehr nah am Leistungslimit. Wüsste nicht, was man da noch nachbessern müsste. Fast schon langweilig.

  21. #40
    Dragonfire Dragonfire ist offline
    Avatar von Dragonfire

    Nvidia GeForce RTX 40X0-Serie

    Nvidia stoppt RTX 4080 (12GB).

    Nvidia sieht ein, dass die Namensgebung scheiße war und stoppt den Launch vorerst.

    Die 4080 (16GB) wird dagegen wie geplant Mitte November erscheinen.

    https://www.nvidia.com/en-us/geforce/news/12gb-4080-unlaunch/

Seite 2 von 7 ErsteErste 123 ... LetzteLetzte

Ähnliche Themen


  1. Fermi ist da! Nvidia GeForce GTX 470 und GTX 480: Nvidia hat nun offiziell die neuen DirectX 11 - Grafikkarten GTX 470 und GTX 480 vorgestellt. Die bisher als "Fermi" bekannten Grafikkarten sollen...

  2. NVidia GeForce GTX480: Ich hoffe mal, dass die das wirklich bis zum 26.3 schaffen :D NVIDIA GeForce GTX 480 and GTX 470 Fermi cards launching March 26th -- Engadget ...

  3. NVIDIA GeForce 8700M GT: hiho leute. habe ma wieder ein prob mit meinem laptop ^^ also ich wollte mir den treiber für meine grafikkarte installieren, der funktioniert aber...

  4. Problem, nach Vista Update bzw. (nVidia - Display - NVIDIA GeForce 9600 GT ): Hi, hab hier n Rechner auf dem die Home premium Vista Version läuft, bin ein Counterstrike Source-Spieler, heute kam kein neues Update dass eben...

  5. nVidia Geforce 9600GT: ich von einem Kollegen gehört die 9000er Serie sollte sich wirklich rentieren, was ich bei der 9600 allerdings bezweifle, denn um den Preis als neue...