AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Ich habe selbst auch einen 144HZ. Aber so ganz unrecht hast nicht. Natürlich ist es so das FPS und HZ was ausmachen, ganz so ist es nicht. Aber irgendwo ist auch eine Grenze. Es kommt halt der Punkt wo man den Unterschied nicht mehr sehen kann. Einen Unterschied zwischen 100FPS oder 140FPS kann keiner mehr sehen. Nicht mal zwischen 80 oder 140. Genau so ist es mit den HZ. 144, OK. Aber 240 wie es sie jetzt schon gibt?

Es spielen da ja auch noch andere Dinge eine Rolle. Z.B. die Auflösung, Bildschärfe.

144HZ hab ich mir deshalb genommen weil es auch keinen Sinn nicht macht 100FPS zu haben und dann einen Bildschirm der nur 60Hz hat. 4K Auflösung halte ich bei den heutigen Grafikkarten für nicht ganz sinnvoll. WQHD ist für mich eine gute Lösung. HD ist mir aber zu wenig. Das merkt man schon.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Selten so einen Quatsch gelesen. Nur weil unterschiedliche Architekturen zum Einsatz kommen, sollen Vergleiche unfair sein? :wall:. Sollen in Zukunft CPUs und GPUs nicht mehr miteinander verglichen werden weil sie anders aufgebaut sind? Was für eine bescheuerte Logik ist das bitte?

Fürs Aussagen aus dem Zusammenhangen reißen hats also gereicht, fürs komplett zu ende lesen und vorallem fürs verstehen anscheinend nicht! :nene:
Viel Spaß weiterhin auf Kindergartenniveau.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Es kommt halt der Punkt wo man den Unterschied nicht mehr sehen kann. Einen Unterschied zwischen 100FPS oder 140FPS kann keiner mehr sehen. Nicht mal zwischen 80 oder 140. Genau so ist es mit den HZ. 144, OK. Aber 240 wie es sie jetzt schon gibt?


Sorry aber, sehe ich völlig anders.

Ich betreibe 2 Monitore im Multi Monitorbetrieb nebeneinander.

1. Monitor: Alienware AW2518H mit 240Hz und G-Sync
2. Monitor: Ein einfacher ASUS 60Hz Monitor

Ich hab viel hin und her getestet und verglichen.
Da sehe ich schon Unterschiede zwischen 60Hz zu 100Hz,120Hz,144Hz und 240Hz deutlich schon auf dem Desktop.
Da reichen schon einfache Dinge wie schnelle Mauszeiger Bewegungen oder dem verschieben von Fenstern etc.
Beim Zocken sowieso Massiv, egal in welchem Spiel. Wenn ich die Maus schneller bewege spürt man diese positive Veränderung sofort.
Und als Langzeiteffekt ist es einfach viel angenehmer für mich.
G-Sync besorgt dann noch die letzten positive Effekte beim Zocken.

Wo ich mit gehe ist das der Unterschied zwischen 144Hz und 240Hz sehr gering (aber noch da) ist.

Ich möchte nie wieder unter 144Hz gehen, bzw mich unter 240Hz verschlechtern wenn es sich vermeiden lässt.

Es ist einfach zu angenehm.
Auf Arbeit habe ich 60Hz, überhaupt nicht mehr schön.

Sebastian
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Sorry aber, sehe ich völlig anders.
Ich betreibe 2 Monitore im Multi Monitorbetrieb nebeneinander.
[...]
Da sehe ich schon Unterschiede zwischen 60Hz zu 100Hz,120Hz,144Hz und 240Hz deutlich schon auf dem Desktop.
Da reichen schon einfache Dinge wie schnelle Mauszeiger Bewegungen oder dem verschieben von Fenstern etc.

Das ist der Effekt vergleichender Differenz. Wenn du zwei Schüsseln mit Wasser vor dir hast und in der einen Schüssel hat das Wasser lauwarm und in der anderen heiß, kannst du natürlich feststellen, dass der Inhalt der einen Schüssel wärmer ist. Wenn man jedoch nur eine Schüssel mit warmen Wasser vor sich hat, kannst man (bis auf wenige Ausnahmetalente) nicht sagen, welche Temperatur das Wasser hat. Man kann allenfalls feststellen, ob sich die die Temperatur im subjektiv angenehmen Bereich bewegt.

Es gibt zig Faktoren, die entscheidend für einen sauberen Bild- und Bewegungseindruck sind. Der Eindruck verfälscht sich bereits dadurch, dass Monitore mit hoher Frequenz in aller Regel hochwertigere Displays und Controller haben. Der Unterschied zwischen einem 60Hz-Monitor aus dem Profi-Segment und einem preiswerten 144Hz-Monitor ist schon deutlich schwerer erkennbar.

Das spricht natürlich alles nicht gegen Monitore mit hoher Frequenz, weil diese im Schnitt eben doch ein saubereres Bild liefern.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Ich habe selbst auch einen 144HZ. Aber so ganz unrecht hast nicht. Natürlich ist es so das FPS und HZ was ausmachen, ganz so ist es nicht. Aber irgendwo ist auch eine Grenze. Es kommt halt der Punkt wo man den Unterschied nicht mehr sehen kann. Einen Unterschied zwischen 100FPS oder 140FPS kann keiner mehr sehen. Nicht mal zwischen 80 oder 140.

Bitte sprich nicht für alle. Ich hab im Laden einen 34-Zoller angeschaut und der hat mit sehr gut gefallen, ABER nach dem ich auf meinem Monitor mit max. 100Fps gespielt habe, ist mir die Lust vergangen. Mag sein, dass viele Spieler keinen Unterschied siehen, oder es hängt von Spielen ab, aber alles was unter 80Fps läuft ist für mich eine Qual zum Spielen, sprich unspielbar, mir wird sogar schwindlig , erst ab 100Fps bin ich zufrieden und erst ab 120Fps bin ich glücklich beim Spielen. Und das ganze mit G-Sync. Bei schnellen Bewegungen merke ich sehr deutlich einen Unterschied von 100Fps zu 144Fps.
 
Zuletzt bearbeitet:
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

,

AMD will ja jetzt was unternehmen das Software und damit auch Game besser an den AMD angepasst werden. Gelingt ihnen das wird der unterschied noch kleiner oder verschwinden.
So wie es aussieht zur Zeit sind die 5 GHZ bei der CPU wohl nicht zu knacken. Also auch nur eine Frage der Zeit bis AMD INTEL im Takt einholt. Wenn da schon einer behauptet mit ZEN2 und 7nn werden man die 5GHZ erreichen könnte das nächstes Jahr schon so weit sein. Und man wird sehen müssen wie hoch die Intel 8 Kerner dann Takten könnten. Den genau so wie bei AMD kann man auch bei INTEL nur mit Wasser kochen.

Es wird in den nächsten Jahren sowieso mehr angepasst, jedenfalls bei den AAA Titeln. Intel bietet ja immerhin nun auch 6 Kerne günstig an.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Wird eigentlich noch ein R7-2800X nachkommen, oder bleibt der 2700X das Top-Model?

Man hat sich das Namensschema sicher überlegt. Es sind ja einige Monate hin bis zum Ryzen 3000 Launch. Durchaus möglich, dass man bei besserem Stepping und Yields noch einen 2800X nachschiebt. Nur weil er nicht gleich am Sttart ist heißt das nix
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Fürs Aussagen aus dem Zusammenhangen reißen hats also gereicht, fürs komplett zu ende lesen und vorallem fürs verstehen anscheinend nicht!
Da ist nichts aus dem Kontext gerissen, ich habe den ganzen Beitrag gelesen. Es ändert trotzdem nichts daran, dass die Aussage kompletter Hohn ist. Aber wenn man keine Argumente mehr bringen kann, wird man natürlich gleich abwertend anderen gegenüber ... das kann ich leiden!

Denk mal scharf nach, wer sich hier eher auf Kindergartenniveau befindet. Wer im Glashaus sitzt und so ...
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Also bitte welche Grafikkarte schafft den in WQHD oder in 4K 240FPS? Die hätte ich dann bitte auch gern mit dazu passenden Computer.

Ich habe selbst hier auch einen 24 Zoll HD 60HZ rumstehen, aber nur rumstehen und ich habe nicht gesagt das man keinen Unterschied zwischen 60Hz und 144Hz sehen kann, sondern das wo die Grenze ist.

Ein 144 oder 240 mit HD Auflösung kommt für mich nicht in Frage. ( Hab auch nichts geschrieben von HD, oder?) Wenn man so wie ich viele Jahre die Top iMac hatte, will man zwei Dinge nicht mehr. Eine HD Auflösung und nicht wirklich unter 27 Zoll.

Den Unterschied zwischen HD, WQHD und 4K sieht man sehr gut. Ist ja auch kein Wunder, das menschliche Auge löst mit ca. 130 Millionen "Pixel" ( wenn man das mal so nennen will) auf. ( Muss man sich mal vorstellen was sich da bei der Auflösung an "Rechenleistung" im Gehirn abspielen muss)
Mir persönlich ist eben HD zu wenig scharf. Am Desktop und bei Games. Vor allem wenn der Monitor größer ist. ( Ok für ein Handy reicht HD, könnte ich mir jetzt einfach nicht verbeisen- Sorry) Als Apple damals die iMacs mit Retina Display angeboten hat war der Unterschied der Hammer, obwohl die Top iMac etwas über WQHD Auflösung hatten. ( Hatte aber selbst dann keinen mehr weil ich auf Windows umgestiegen bin) Der WQHD den ich mir dann genommen habe war für mich eine gute Lösung. Mit 144Hz wird es noch ein wenig dauern biss das die Grafikkarten richtig ausreizen können.

Sich nur auf die HZ zu versteifen geht so auch nicht. Es ist schon so wie ich gesagt habe, das spielen auch noch andere Sachen mit eine Rolle. Da ich ja auch auf die Auflösung Wert lege, schiedet ein 240Hz automatisch aus. Den einen 240Hz mit HD werde ich mir sicher nicht kaufen. Wann muss er mindestens WQHD haben und die Grafikkarte muss das auch annähernd hin bringen. Davon sind wir aber mit 240FPS noch Meilenweit entfernt. Von 4K oder mehr rede ich da erst mal gar nicht.

Ihr werdet mir ja jetzt nicht erzählen wollen das man den unterschied zwischen 144Hz und 240Hz sehen kann, aber nicht den Unterschied zwischen HD und WQHD oder gar zu 4K, oder?

Um das wirklich mal auszutesten ab wann man den Unterschied bei den HZ nicht mehr sehen kann, müsste man einen Monitor in die Verschiedenen Hz schalten. Weil wann das zwei verschiedenen Monitore sind spielen schon wieder andere Dinge mit. Wobei das bei Games sicher interessant wäre wo die Wahrnehmung aufhört. Ob es dann wirklich an den HZ liegt ob einen das Bild besser vorkommt oder nicht ist auch so eine Sachen. Denn dazu müsste man mal wissen wie viel Bilder das Auge wirklich wahr nehmen kann. Unser Gehirn macht zwar ab 12-15 FPS einen laufenden Film daraus, das es mehr sehen kann weiß man allerdings. Mir ist aber jetzt nicht bekannt wie viel es wirklich wahrnehmen kann. Wenn man das überhaupt weiß.

Ich habe mir so einige Monitore angesehen bis ich den gekauft habe. Aber bei keinen egal wie hoch die HZ waren hat mir bei HD Auflösung das Bild gefallen. Wie gesagt mir ist das einfach zu unscharf. Vorgabe für mich war dabei nach einen kurzen Abstecher zu einen 24Zoll, 27 Zoll oder ein wenig größer. WQHD des wegen weil die GPU für 4K halt auch noch nicht so richtig sind. Bringt ja auch nix einen 4K mit 144Hz wenn die CPU dann vielleicht bei 60FPS ist oder man die Grafikdetails noch weiter runterschrauben muss.

Wenn die es GPU mal her geben kann es schon auch sein das ich mir einen 4K mit 240HZ zu legen, kann man nie wissen. Aber bitte geht doch nicht immer her nehme ein Teil eines ganzen raus und vergesst auf den Rest.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

@Gerwald: finde ich eine sehr guten und vernünftigen Beitrag:daumen:
Tatsächlich reicht unserem Gehirn eine "Bildwiederholungszahl" von ca. 30 Bildern pro Sekunde, um es als völlig flüssig in der Wahrnehmung darzustellen. Ja es wird dargestellt und nicht "gesehen". Durch unser Linsensystem, muß das Gehirn das Bild wieder richtig herum drehen, es unserer Sehgewohnheit und Farbempfinden anpassen UND jetzt kommt das aller Stärkst, es sogar mit unseren Erinnerungen/Erfahrungen abgleichen. Man kann also sagen, das sehen ist wie die DNA, nämlich bei jedem Menschen (natürlich nur um Nuancen) anders. So wie ich das "Rot" einer Jacke sehe, wird ein anderer Mensch dieses spezielle (mein) "Rot" niemals sehen können. Sogar die Temperatur spielt beim "Sehen" eine Rolle.
Sehr spannend ist auch, das das Gehirn in der Lage ist, fehlende "Sehinformationen" zu ergänzen und in das Gesehene einzufügen. Unterschiede, die man anfänglich noch registriert, verschwinden bei längerer Betrachtung zusehends.
Es gibt Menschen, die eine sehr gute "Einzelbewegungsauflösung" besitzen und tatsächlich von hohen FPS-Zahlen profitieren können. Das sind aber die Allerwenigsten. Auch kann man natürlich, bis zu einem gewissen Grad so etwas trainieren, aber eben nicht über ca. 60FPS. Wobei eine Frameerhöhung zur Qualtätssteigerung dient und quasi noch etwas mehr "Schärfe" ins Gehirn bringt.
Die Hertzzahl ist da ein ganz anderes Kaliber. Mit ihr sollen eigentlich, durch produktionsbedingte "Fehler", selbige ausgebügelt und es für unser Auge angenehmer gemacht werden. Unser Auge ist evolutionsbedingt auf Lichtwellenreflexion ausgerichtet und nicht darin, in eine selbststrahlende Quelle (TV, PC-Monitor u.ä.) zu starren. Ergo müssen hier dann ein paar Tricks her. Der eine Mensch reagiert positiv auf das Anheben der Hz-Zahl, ein anderer auf stärkerern Kontrast, wieder einer auf mehr oder weniger Helligkeit. Gar nicht erst zu reden von unserem echten 3D-Sehen und dem 2D einer Mattscheibe. Womit unser Gehirn ja auch klarkommen soll.
Es gibt also nicht DIE Einstellung oder DEN Monitor. Jeder muß sozusagen den Sweetspot für sich selbst finden. Und das kann manchmal dauern :D Daher finde ich solche Diskussionen eher als obsolet. Ehrlichgesagt ist der Nutzer der Glückliche, der mit einem €150,- Monitor sein perfektes Spieleerlebnis hat und nicht durch "Überempfindlichkeit" das 5fache ausgeben muß.
Gruß T.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

@Tolotos66: Danke, war sehr informativ.

Was ich gemeint habe ist, zwar sehen wir ab so viel Bilder bereits einen Film. Würde man da aber, sagen wir all 24 oder auch 30 Bilder ein Bild einfügen das nicht dazu passt und da immer da gleiche. So weis man das es "Unterbewusst" war genommen wir, aber vom Gehirn weil es nicht das zupasst, ausgeblendet wird. Das heißt war genommen werden vom Auge schon mehr Bilder, nur wie viele es genau sind weiß man nicht wirklich. Wird auch bei jeden Menschen nicht gleich sein.

Unser Gehirn ist in keiner weiße Logisch. Es erstellt über alles nur Hypothesen. (Selbst 1+1=2 ist nicht logisch für unser Gehirn sondern nur die Hypothese, 1+1 war bis jetzt immer 2 daher wird es jetzt auch 2 sein). Daher sehen wir nicht das was da ist, sondern immer nur das von dem wir glauben das es da ist. Das mag jetzt wie ein Nachteil klingen, ist es aber in keiner Form. Den gerade das macht das Gehirn unvorstellbar lernfähig. Würde man sich eine Brille aussetzen mit der wir alles auf den Kopf gestellt sehen, würde je nach Mensch nach ein paar Tagen das Gehirn das Bild auch richtig darstellen. Nehmen wir diese Brille dann wieder ab, dreht das Gehirn nur nach ein paar Stunden das ganze wieder richtig. Man darf da aber auch nicht Vergessen, das Gehirn kann sich auch neu vernetzen und sind Teile nicht mehr funktionsfähig können andere Teile diese Aufgaben übernehmen. Dadurch ist ein Computer immer unterlegen und dabei benutzen wir noch nicht mal das ganze Ding zwischen den Ohren. Ob da die Schöpfung noch was eingeplant hat?
Heute weis man das man noch so was wie ein zweites Gehirn im Bauch hat, ein verdichtetes Nervennetz das wohl zur Speicherung von Gefühlen dient. Im Rücken steckt ja auch noch was, was auch Steuerbefehle an dem Körper ohne Gehirn senden kann. Das Herz sendet auch Steuersignale an das Gehirn. Wo zu weiß die Wissenschaft nicht. Energetiker gehen da von aus das dies mit der Seele zusammen hängt. Aber genau weiß man es nicht. Wer immer sich das Ganze ausgedacht hat, muss eine unvorstellbare Intelligenz und Bewusstsein besitzen. Daher Daumen hoch für den Schöpfer.-)

Was mich an den Diskussionen hier immer wieder stört ist das endgültige. Es wir aber dabei immer vergessen das das eine in das andere Greift. Aber eben auch der Mensch. Den jeder von uns ist einzigartig und hat daher ganz andere Bedürfnisse und Vorstellungen. Daher legen wir auch auf unterschiedliche Dinge wert. Auch beim PC, ist für den einen das wichtig und vorrangig, ist es für einen anderen war anderes. Und wenn da noch wer sein Ego falsch benutzt dann ist der Streit hier schon perfekt.
So findet halt ein Austausch von Meinungen und Diskussion dann oft nicht statt. Leider. Das Austauschen von Erfahrungen würde aber jeden weiter bringen. Auch den "Superprofi", denn die Weisheit hat keiner von uns mit dem Löffel gefressen. Ich leider auch nicht.-)
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Das mit den fps ist so ne Sache.
Wenn man nen Film mit 30fps guckt, mag das für die meisten flüssig sein.
Aber viele bevorzugen eher 60fps.
Es kommen da aber auch noch die Hertz dazu, die erstmal nichts mit den fps zu tun haben.
Dann gibt es auch noch Spiele, bei denen sich 30fps nochmals ganz anders anfühlen.
Im Endeffekt kann es nur jeder für sich selber beantworten, was für ihn die beste Lösung ist.

Zum Thema, welche Grafikkarte denn in WQHD oder UHD 240fps schaffen.
Das sind viele, einfach weil es auf die jeweiligen Spiele ankommt und deren Einstellungen ankommt.
Schafft meine 1070 in Witcher 3 mit Ultra Einstellungen und WQHD 240fps?
Wohl kaum.
Bei LoL sieht das aber schon wieder ganz anders.
Am Ende kommt da aber auch wieder das übliche drauf, nämlich dass man keine 240fps braucht um einen Vorteil von 240Hz zu haben.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Da ist nichts aus dem Kontext gerissen, ich habe den ganzen Beitrag gelesen. Es ändert trotzdem nichts daran, dass die Aussage kompletter Hohn ist. Aber wenn man keine Argumente mehr bringen kann, wird man natürlich gleich abwertend anderen gegenüber ... das kann ich leiden!

Du warst der jenige, der mit der abwertenden Wortwahl begonnen hat und das ohne jeden Grund, dann wundere dich auch nicht, wenn ein entsprechendes Echo kommt. Ich fange mit sowas nie von mir aus an, also beschwere dich nun nicht.

Zurück zum Thema, mein erster Satz war vielleicht etwas gewagt, aber später konnte man ersehen, was ich damit meinte.
Natürlich kann man über Fairness bei Hardwarevergleichen diskutieren, ich bin da der Auffassung, das fair ist, was gleich viel kostet, das ist für mich dann meist ein halbwegs fairer Vergleich und damit meine ich die Gesamtkosten für die Plattform, also mindestens CPU + Board.
Was ich mit unfair meinte, hab ich doch im weiteren Verlauf noch genauer erklärt gehabt, Ryzen ist Anfang 2017 eine komplett neue Architektur gewesen, die Softwareindustrie hatte sich über viele Jahre auf die Intel Core Architektur eingeschossen, darauf hin waren die Kompiler optimiert und sind es meiner Ansicht nach heute immer noch zum allergrößten Teil.
Dazu kamen wie bei jeder neuen Architektur die Kinderkrankheiten, die mit den BIOS und Treiberupdates dann behoben wurden.
Coffeelake kam deutlich später, eigentlich waren alle CPUs erst Anfang 2018 gut verfügar, die Preise gingen ja erst in den letzten Wochen merklich runter, aber Coffeelake ist meiner Ansicht nach im Gegensatz zu Ryzen keine komplett neue Architektur, sondern im wesentlichen nur Kabylake mit ein paar Kernen mehr, also brauchte Intel nicht viel zu investieren und hatte wenig Risiko beim Launch, umso peinlicher wie mieserabel die Verfügbarkeiten und wie utopisch die Preise am Anfang waren.
Du siehst also, der Vergleich wird nie absolut fair sein, aber er sollte mindestes so fair wie möglich ausfallen, also z.B. das was AMD jetzt mit der Ryzen 2000er Reihe bringt, kann man einigermaßen fair mit Intel Coffeelake vergleichen, vorausgesetzt die verglichenen CPUs kosten in etwa das gleiche (ebenso die Boards mit etwa gleicher Ausstattung).
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

ich glaube 2700x wird das topmodel und es gibt nur noch einen 2700

Ich denke eher, das der 2800X später noch als potentielle Antwort auf einen nachgeschobenen Intel kommen wird und momentan einfach nur die besten Auswürfe aus der Produktion sammelt. Hat ja Intel so ähnlich bei Zen-Release gemacht.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Zurück zum Thema, mein erster Satz war vielleicht etwas gewagt, aber später konnte man ersehen, was ich damit meinte.
Natürlich kann man über Fairness bei Hardwarevergleichen diskutieren, ich bin da der Auffassung, das fair ist, was gleich viel kostet, das ist für mich dann meist ein halbwegs fairer Vergleich und damit meine ich die Gesamtkosten für die Plattform, also mindestens CPU + Board.

Ich bin aber anderer Meinung was einen Vergleich bei dem gleichen Preis angeht, weil die Prozessoren nicht gleich ausgestattet sind. Einer hat einen besseren Boxedkühler, der andere iGPU, OC-Potential, verlötet oder Wärmeleitpaste, PCIe-Lanes, Takt, Leistung pro Takt.
Stromverbrauch, Ryzen verbraucht im Leerlauf 29% mehr Strom, unter Last liegen 8700K und 1600X gleich auf und wenn es gerade mal ca.5€( je nach Einsatz) im Jahr sind. Ich möchte an dieser Stelle AMD bedanken, dass Intel 6-Kerner für 300€ zu haben ist und mit Ryzen 2000 wird es höchstwahrscheinlich einen Intel 8-Kerner für ca.400€ geben.
Core i7-8700 und i5-8600K im Test: Alle Coffee-Lake-CPUs, „Auto OC“ und DDR4-4000 analysiert (Seite 3) - ComputerBase
 
Zuletzt bearbeitet:
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

So pauschal würde ich das mit dem Energieverbrauch mal anzweifeln, bzw. es nur so zu sehen halte ich für falsch, weil die CPU ja zum einem nicht nur im idle läuft, das sollte man eh vermeiden und den Energiesparmodus nutzen, interessanter finde ich den Verbrauch unter Last. Zu anderen sollte man sich an der TDP-Klasse orientieren, eine TDP 65 Watt CPU kann man nicht mit einer TDP 95 Watt CPU vergleichen, daß es aber auch innerhalb der TDP-Klassen noch Unterschiede gibt ist natürlich auch richtig.

Das mit der Ausstattung stimmt natürlich, ich finde das ist auch ein Nachteil der Ryzen-CPUs, das diese abgesehen von den beiden neuen APUs, keine iGPU haben, denn eine iGPU bringt schon einen Mehrwert, z.B. wenn die dGPU mal defekt ist und eingeschickt wird, oder wenn man den Rechner als energiesparenden Arbeits-PC nutzen möchte, man spart dann durch die iGPU wieder etwas ein, sowohl beim Kaufpreis, als auch bei den Energiekosten und kann den Luftstrom im Gehäuse besser optimieren ohne Karten.

Dafür bietet AMD eben bei Ryzen (abgesehen vom R3-2200g und R5-2400g) einen verlöteten Heatspreader und eine dickere CPU-Platine, ebenso den PGA-Sockel und sehr gute boxed-Kühler, dazu den offenen Multiplikator bei allen Ryzen-Modellen.

Es ist also extrem schwer bzw. eigentlich unmöglich fair zu vergleichen, darum macht es im Grunde nur Sinn danach zu gehen, was einem selbst wichtig ist und was es in der Preislage die man anvisiert noch als Alternativen gibt.
 
AW: AMD Pinnacle Ridge: Ryzen 7 2700X in öffentlichen Benchmarks aufgetaucht

Also bitte welche Grafikkarte schafft den in WQHD oder in 4K 240FPS? Die hätte ich dann bitte auch gern mit dazu passenden Computer.
Ich würde sagen das hängt von Spiel und Einstellungen ab.

Den Unterschied zwischen HD, WQHD und 4K sieht man sehr gut. Ist ja auch kein Wunder, das menschliche Auge löst mit ca. 130 Millionen "Pixel" ( wenn man das mal so nennen will) auf. ( Muss man sich mal vorstellen was sich da bei der Auflösung an "Rechenleistung" im Gehirn abspielen muss)
1) das hängt halt stark von der Entfernung zum Bildschirm und dessen Größe ab
2) Pixel ist ein Ausdruck der IT
3) ja unser Hirn ist unglaublich genial in vielerlei Hinsicht. Das beginnt damit, dass was wir sehen nicht immer das ist, was sich abspielt vor uns, sondern unser Hirn es ständig mit Mustern vergleicht die es schon kennt (im Prinzip also eine intelligente Kompression stattfindet, denn es werden nicht alle Informationen verarbeitet... bei weitem nicht. Du sprichst ja hier von 130 Mio Pixel, aber letztlich liegt die tatsächliche Informationsaufnahme deutlich niedriger, wenn auch immer noch enorm viel höher las bei einem Computer).
Tolotos66 geht ja auch etwas auf die Optische Wahrnehmung ein.
...
Es gibt also nicht DIE Einstellung oder DEN Monitor. Jeder muß sozusagen den Sweetspot für sich selbst finden. Und das kann manchmal dauern :D Daher finde ich solche Diskussionen eher als obsolet. Ehrlichgesagt ist der Nutzer der Glückliche, der mit einem €150,- Monitor sein perfektes Spieleerlebnis hat und nicht durch "Überempfindlichkeit" das 5fache ausgeben muß.
Gruß T.
Man muss aber auch so ehrlich sein und sagen, dass vieles davon "übung" und Gewohnheit ist.
Wenn ich mich also auf Details konzentriere die ich vorher nicht beachtet habe (etwa ein Flimmern in diversen Auflösungen) wird mir das danach natürlich viel eher bewusst als vorher und somit fallen diverse Monitore aus die vorher nicht ausgefallen wären.
Genauso ist es übrigens beim Gehör. Da kann man auch das Gehör schulen und zum Audiophilen werden: manche erkennen den Unterschied zwischen Onboardsound und Soundkarte nicht, aber jemand der Wert darauf legt wird da einen teils großen Unterschied bemerken.
Es ist also extrem schwer bzw. eigentlich unmöglich fair zu vergleichen, darum macht es im Grunde nur Sinn danach zu gehen, was einem selbst wichtig ist und was es in der Preislage die man anvisiert noch als Alternativen gibt.
Naja, dann kann man sowieso nie verschiedene Produkte "fair" vergleichen. Ob CPU oder GPU oder sonstwas
 
Zurück