Fps-Wunder jetzt auch in Cyberpunk 2077! | DLSS 3, Reflex & Benchmarks RTX 4090, 4080, 4070 Ti



Read more about Cyberpunk 2077➜ https://cyberpunk2077.mgn.tv

Fps-Wunder jetzt auch in Cyberpunk 2077! | DLSS 3, Nvidia Reflex & Benchmarks
▶ Viele Monate nach der ersten Ankündigung nebst Presse-Zugängen ist DLSS 3 endlich in Cyberpunk 2077 verfügbar und verheißt riesige Fps-Gewinne. Aber wie gut sieht das Ganze wirklich aus und was haben Spieler ohne RTX-40-Grafikkarte davon? PCGH bittet Cyberpunk 2077 ein weiteres Mal zum Test – und ist angetan von den Ergebnissen.

PCGH-Artikel zum Video-Beitrag:
▶ Cyberpunk 2077 jetzt mit Frame Generation – Alle Infos zu DLSS 3, Nvidia Reflex mit Benchmarks, Latenzen und mehr: http://www.pcgh.de/aid,1412549

Timestamps:
0:00 Intro
0:11 Was steckt im neuen Update?
01:04 Latenzen mit Nvidia Reflex und Frame Generation
02:50 Wie kann ich Frame Generation nutzen?
03:34 Artefakte mit Frame Generation
04:28 Benchmark-Ergebnisse
05:47 Fazit

Die neuesten
▶ Gaming-Monitore*: http://amzn.to/2ttcJiW
▶ Gaming-Headsets*: http://amzn.to/2sPKQQx
▶ Gaming-Tastaturen*: http://amzn.to/2sPD9d6
▶ Gaming-Mäuse*: http://amzn.to/2tPCgVJ
▶ Gaming-Mainboards*: http://amzn.to/2sPprH8

PC Games Hardware:
▶ Mehr News bei PCGH: http:/www.pcgh.de/news
▶ Helft uns mit Amazon-Käufen*: http://amzn.to/2sPzv2w

▶ PCGH Webseite: http://www.pcgh.de
▶ PCGH @ Discord: https://discord.gg/pcgh
▶ PCGH @ Facebook: https://www.facebook.com/pcgameshardware/
▶ PCGH @ Twitter: https://twitter.com/PCGH_Redaktion
▶ PCGH @ Instagram: https://www.instagram.com/pcgh.de/
▶ PCGH @ Youtube: https://www.youtube.com/c/PCGamesHardware

▶ Frag PCGH per Mail: [email protected]

(*) Affiliate-Links haben wir mit einem Sternchen gekennzeichnet. Wir erhalten für einen Kauf über unseren Link eine kleine Provision und können so die kostenlosen Videos teilweise mit diesen Einnahmen finanzieren. Für den User entstehen hierbei keine Kosten.

#pcgh #dlss3 #cyberpunk2077

source

40 thoughts on “Fps-Wunder jetzt auch in Cyberpunk 2077! | DLSS 3, Reflex & Benchmarks RTX 4090, 4080, 4070 Ti”

  1. Sag mal bin ich lost? DLSS gab es doch schon länger in Cyberpunk. Man hat doch schon kurz nach Release der 4090 Vergleichsvideos gemacht, u.a. in Cyberpunk, zu DLSS 3 an und aus und ob man es sieht oder nicht???

    Reply
  2. Hab es mir eben angeschaut! Das ist ja mal echt der absolute Wahnsinn! 120 FPS in 4k und ich merke absolut keine Eingabeverzögerung! Ein Traum jetzt endlich Cyberpunk zu spielen! Ein Glück, dass ich es bisher nur einige Minuten angespielt habe und mehr nicht!

    Reply
  3. Mir ist etwas aufgefallen: mit aktiviertem reflex (+boost) komme ich mit meinem 10850k und einer 3070 bei UWQHD Auflösung ins CPU-Limit. Die GPU Auslastung pendelt auf einmal zwischen 80-85% mit entsprechend weniger FPS. Wenn ich reflex deaktivere habe ich durchgehend 97% Auslastung. Könntet ihr da mal testen ob da was dran ist?

    Reply
  4. An Sich ne echt gute Technik und sicherlich unter anderem die Zukunft von GPUs
    Aber bei so krassen Artefakten, naja. Wenn das verbessert wird und die Latenz nicht spürbar über non DLSS liegt, find ich das Feature super. Mal schauen was AMD da noch bringt 🙂

    Reply
  5. Richtig gutes Video (Richie)! Hat wirklich von Anfang bis Ende den roten Faden beibehalten und wurde nur mit nützlichen Infos und Grafiken gespickt. Vor allem die Latenzzeiten und Infos/Bilder über die Nachteile von FG (mir persönlich geht ja das Geblinke vom normalen DLSS schon extrem auf die Nerven…) hat mir extrem geholfen – Danke ❤

    Reply
  6. Wieso behauptet jeder mit DLSS Framegeneration hätte man eine schlechtere Latenz als ohne? Seit ihr alle Pessimisten?
    Du hast exakt die gleiche Latenz, bekommst aber zusätzlich mehr fps für die Bildflüssigkeit geschenkt. Nur für diese *zusätzlichen fps*, erhältst du nicht die (normalerweise mit einer fps Erhöhung einhergehenden) Latenzboni.
    Beispiel:
    Du hast normalerweise 60fps.
    Jetzt schaltest du DLSS mit Framegeneration an und hast 90 fps, aber "nur" die Latenz die du bei 60 fps auch schon hattest, denn nur diese werden vom Spiel berechnet, nur nur da kann das Spiel eingreifen und aktualisieren. Also ja, sicher, hättest du native 90 fps ohne Framegen wäre das natürlich noch besser, und du hättest eine noch bessere Latenz, aber hey, wenn du sonst nur 60 hast, ist es exakt das selbe!!

    Reply
  7. Ich bin mit Frame Generation insgesamt sehr zufrieden.
    Die Artefakte sind bei hohen Bildraten (>100FPS) und Monitoren, die diese auch darstellen können, wirklich kaum spürbar, weil sie eben nur für wenigster als hundertstel von Sekunden auf dem Schirm sind. Dementsprechend sind Artefakte bei 60-Hertz-Monitoren sowie den zukünftigen schwächeren RTX 40 Modellen eher ein Thema, das es zu beachten gilt.
    Latenz merk ich ein wenig, aber da hilft auch DLSS 2 neben Reflex sehr gut aus.

    Reply
  8. Toll, mein Cyberpunk startet jetzt gar nicht mehr, nach dem ich das Update installiert habe. Eine Reparatur bringt auch nichts. Auf eine komplette Neuinstallation habe ich aktuell gar keine Lust. Schade

    Reply
  9. Wenn ich an die Anfänge von DLSS1 denke, dann hat DLSS3 bzw. Frame Generation einen guten Start hingelegt. Ich finde es schon erstaunlich wie man aktuelle AAA-Titel wie "A Plague Tale" oder "Cyberpunk" in 4k, Raytracing, Ultra Details und 100 Frames+ spielen kann. Und das ganze sogar mit nur 200 – 250 Watt.

    Reply
  10. Was mir aufgefallen ist:
    Man kann kein VSync aktivieren bei DLSS3 mit Frame Generation. Wenn man keinen Monitor mit passender Grafikkarte hat, G-Sync Nvidea, Free Sync AMD, dann hat man Stufen im Bildaufbau bei schnellen Bewegungen.
    Mich stört das weil ich auch bei schnellen Bewegungen ein klares Bild haben möchte.
    Nvidea Reflex lässt sich auch "nur" auf "An" stellen und nicht mehr auf "An-Boost".
    Was auch schade ist, denn ab ca 30ms Latenz, merk ich die Verzögerung, und es fängt an "schwamming" zu werden. Und in den Bereich rutscht man immer mal wieder rein bei Cyberpunk.
    Trotz alle dem macht es jetzt noch mehr Bock Cyberpunk zu zocken und ich freue mich schon auf die nächsten grafischen Updates. 😉👍

    Reply
  11. Mal ne Frage zu dem Framegeneration Kram: Macht das ein Monitor oder Fernseher nicht schon von sich aus? Da werden doch andauernd Bilder dazwischen gerechnet. Einige Monitore zeigen das auch, wenn man den monitorseitigen FPS Zähler einschaltet, dann sieht man das bei einigen Modellen. Warum sollte ich zwischen den Bildern und den noch dazwischen gesteckten Bildern noch mehr Bilder dazwischen stecken?

    Reply
  12. bin als 15 jahre langer pc besitzer auf ps5 und series x umgestiegen. muss wirklich sagen was heute auf denn markt geworfen wird ist nicht mehr tragbar. sogut wie jedes spiel ist einfach ein schlechter port. hatte eine 4090 mit 12700k und mein ziel war es einfach in uhd ein flüssiges spiel mit über 100fps zu haben. aber egal welche hardware man hat es wird immer ein problem von der software geben. hatte wirklich immer im vergleich zu ps5 und series x die gleichen games getestet und war nur noch schockierd. ich habe zwar das bessere bild aber es wird immer wieder zerstört von shader rucklern,nachlade rucklern, up and downs wegen schlechter ports sodas für mich erst wieder ein pc ins haus kommt wenn direct storage standard wird und wirklich alles immer flüssig bleibt. ich kann sogar mit ps5 und 30fps besser spieler als vorher mit 4090 und 120fps weil eben sogut wie 0 drops da sind. cyberpunk ist das ausnahme beispiel weil dort ist s mit pc wirklich am besten gelaufen aber das wars auch schon und habe ca 700 games

    Reply
  13. ich find es immer sehr schade das man auch die älteren karten nich hin zu zieht. wie 2080 und 3080. man nimmt immer nur die neusten karten und bei denen ist der vorteil komplett nur ein bonus. wie schn gesagt wenn man schon genug FPS bekommt um flüssigen spielen zu erlauben warum brauche ich mehr. geiler ist doch zu sehen wie sich die technologie auf die übrigen karten und auch älteren generationen aus wirkt. ersten um den generationen unterschid der technik zu sehen wie auch das was mindestens nötig ist um die FPS zu bekommen die man will.

    lohnt sich der kauf einer neuen gen jetzt schon oder kann die alten doch noch durch verbesserung dinge ausgleichen und. vileicht siht man das man bestimmte vorteile nur bekommt wenn man dinge richtig konfiguriert wie vulkan oder doch DX12. die frage ist wo mit die neunen technologien besser funktionieren. vulkan kann eine besserung darstellen aber nicht wenn die technologie nur so eingebaut wird um AMd technologie kompatibel zu sein. so wird die Nvidia karte eingeschrängt. weil gewisse möglichkeiten die bei RTX zu tragen kommen können nich passieren wie KI unterstützung und so mit auf CUDA verzichtet werden kann. was dann bei cuda merh resurcen vrei macht. so wie das verbessern der daten um Vram zusparen. wird warscheinlich oft nicht gemacht weil bei AMD das nicht nötig ist mit 16 GB aber dan halt mehr strom verbraucht. ich finde die effizenz fragen die nicht gestellt werden viel wichtiger. nun ja weil die den unterschid machen und ich glaube das kaum ein spiel alle vorteile der Nvidia karte wirklich voll ausnutzt. darum blieb der boost bei der 3000 serie im grunde aus. und nur der mehr takt und mehr cuda also die reinen hardware unter schide die als bonus da sind kommen zum zug. dafür wird aber ja kein geld ausgegeben sondern das man die volle unterstützung bekommt und auch software wie auch hardware umsetzt.

    ich finde einfach ein spiel anmachen und testen kann das nicht zeige. nur wie der spiele entwikler auch die technologien nutzt und oft ist schon die tendenz rein AMd seite da. durch die konsole. das heist im endefekt ist Nvidia wirklich sein geld wert. der rohleistungs vergleich zeigt schon das trotz der nicht guten basis Nvidia punktet. ich bin mir aber sicher wenn es besser eingebaut wird von den entwiklern ist auch nocht viel mehr möglich. auserdem ist das die ersteversion die macht so wss wie nur die verfügbarkeik. ich bin positifv was die leistung angeht hoffen wir mal das jetzt spile endlich mehr RTX unterstützung und optionen wie auch optimierungen bekommen und auch KI optimierung bekommen zu mal ja AMD jetzt AI hat.

    Reply

Leave a Comment