Nvidia Ampere vielleicht auf der GTC Ende März

AW: Nvidia Ampere vielleicht auf der GTC Ende März

Die Keynote von Huang dreht sich um Deep Learning mit primären Fokus auf Industrial = AI Business, Autonomous Machines, HPC/AI und Computing der Zukunft. Von der Gamingabteilung ist niemand dabei.

An einen Gamingableger glaube ich daher auch nicht, jedenfalls nicht im März. Vielleicht einen Teaser, aber das passt dort überhaupt nicht und das wird Huang auch nicht machen, weil es dort viel Wichtigeres gibt. Das interessiert die große Anzahl der Gesprächspartner gar nicht. Kiddies sind denen egal.:D

Vielleicht zeigen sie im Hinterzimmerchen was, aber davon hätte man schon gehört!
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Für was was neues ankündigen wenn amd nicht mal in die nähe kommt.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Eine 1080 hat zum Launch bis zu 789 Euro gekostet, eine 2080 Super ist heute 50% schneller für momentan 689 Euro.

Wow, den Höchstpreis zum Launch einer neuen Generation gegen den gefallenen zum Abverkauf vergleichen? Warum vergleichst du dann nicht fair und nimmst die 1080 für unter 300 € (und damit 50% weniger, also gleiches P/L)? Weil es dir nicht in dein Thema passt, nV ist ja sooooo unglaublich günstig, man muss es sich nur leisten können? ^^
Aber du hast sicher Recht, dass AMD nicht wirklich günstiger wird. Sie werden auch viel zu viel verlangen und effektiv wird man für die selbe Leistung das Selbe zahlen, wie schon vor 3 Jahren. Nur dass es obenrum noch etwas mehr für eben auch etwas mehr geben wird...
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Warum?
TSMC ist bei 7nm dank AMD doch eh komplett ausgebucht!

Strategische Überlegungen. AMD muß einfach nur eine neue Vega oder 2900XT abliefern und schon kracht das GPU Geschäft in den Keller. Mit Nvidia könnte es TSMC egal sein, wer wieviel am am GPU Markt beherrscht, solange es nicht Intel ist. Apropos Intel, AMD muß nur einen neuen Bulldozer abliefern und schon ist TSMC einen recht großen Teil seines Geschäfts los, da können die dann nurnoch auf Apple und co zählen. Zu guter letzt könnte es AMD TSMC in der Verhandlungen spüren lassen, wenn sie irgendwann den größten Block haben.

So oder so ist die Entwicklung nicht gut für TSMC.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Mit Nvidia könnte es TSMC egal sein, wer wieviel am am GPU Markt beherrscht, solange es nicht Intel ist.
Nö überhaupt nicht, dieser Satz ist FUD! Warum? Weil TSMC noch nie dagewesene Gewinne mit 7nm Zen einfährt und Nv kein Exklusivkunde mehr ist, das Volumen ist mickrig und sie damals frühzeitig von 7nm abgesprungen sind, TSMC dabei Verluste eingefahren hat. Die kriegen nur noch was übrig bleibt, es wird wie immer FFN und die Konditionen dafür möchte nicht wissen. Freut euch schon mal. Nv ist ein F*rz zu Zen und Apple. Apple nimmt ja auch 7nm AMD ab. Nicht umsonst schielt Nv für kleinere Die's zu Samsung. Apple will ja schon alsbald 5nm.

Nv's große Chips dürften selbst im eigenständigen Verfahren Risikoproduktion sein und die werden sich schön absichern, dass sie an TSMC nicht für Ausschuss zahlen.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Wird doch eh wie immer, die evtl 3080 ist etwas fixer als die 2080ti, alles drüber ist eh prestige und die 3070 wird auf 2080ti Niveau agieren.
Das ganze für viel Geld und der gebrauchtmarkt gibt sicher wieder viele 2080ti her. Der Preis wird entscheidend.
Alles auf 2080ti Niveau für um400-500€ ist ok.
;)
Selbst ne gebrauchte 2080ti für 400€ wäre sinnlos gegen meine 1080ti zu tauschen, da lohnt das warten was AMD macht eher und schauen was die Preise sprechen.

Wenn ne neue Pixelschleuder kommt muss sie schon ne weile herhalten.
Läuft doch nix weg.

So ungefähr schätze ich Ampere auch ein. Leistungsbereich 2080ti aka 3070 wäre völlig okay für mich sofern es mehr als 8GB VRAM gibt. Der Buschfunk vermutet allerdings das es mehr als 8GB erst ab 3080 gibt.
2080ti ist ein ziemliches Heizkraftwerk, speziell wenn OC, für mich daher selbst als günstige gebrauchte uninteresant, heizt meine Zockerhöhle im Sommer zu sehr auf.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Könntest du aufhören jeden Beitrag der einfach nur so eine persönliche Sichtweise, also Meinung wiedergibt mit deiner toxischen Art und Weise zu kommentieren.
Tu ich doch garnicht. Er schreibt, dass die User damit verarscht werden, dass Minecraft nur mit Texturen aufgepimpt würde und herkömmliche Beleuchtung das gleiche leisten könne.
Somit muss doch, wenn man sich das verlinkte Video ansieht die Frage gestattet sein, wo er denn veränderte Texturen sieht, die den Zuschauer "tricken" sollen.

RTX gehört dir, lebe damit!
RTX ist ein Featureset bzw. die Marketing- Bezeichnung einer Grafikkartenserie.

Aber zwänge deine teilweise verschrobene Sichtweise nicht jedem auf!
Du schreibst, dass ich eine verschrobene Sichtweise hätte. Worauf denn? Habe ich in dem Text irgendetwas geschrieben, was "verschroben" klingt?
Wenn ja, was?

Es gibt sehr viele denen RT auch von der Qualität her, einfach wayne ist.
Wenn mich eine Technik nicht interessiert und mir diese "wayne" ist, warum sollte man sich dann dadurch verarscht fühlen?

Es gibt Gaming vor und nach RT. Wozu ein Minecraft Raytracing braucht weiß nur Nv, für mich verändert sich Minecraft damit vollkommen, weil das Retrodesgin verloren geht das diesen Titel ausmacht.
Warum gibt es remaster Versionen? Warum gibt es überhaupt Grafikeffekte? Minecraft erhält Pathtracing, weil es möglich ist, weil es besser aussieht, weil es realistische Schatten, Reflektionen und Beleuchtung in hoher Präzision ermöglicht.
Wieso nervt Dich das so an? Zwingt Dich irgendeiner RT zu benutzen?
Zwinge ich irgendjemanden RT zu benutzen?

Nur mal als Hinweis am Rande, nochmal die Forenregeln...Meinungsfreiheit und meinungsbezogenes Posting!
Dürfen also hier nur diejenigen ihre Meinung Posten oder versuchen Hintergründe zu erfahren, die nach Deinem Gusto argumentieren?
Hast Du schonmal drüber nachgedacht, dass auch meine Meinung ebenso durch Forenregeln und die Meinungsfreiheit geschützt sind?

Die Mods sehen das hier weniger streng, wäre aber schon gut wenn man sich daran hält und versucht nicht jeden Thread abzuschießen und auch mal eine Diskussion zuzulassen, womit du bei dem Thema erhebliche Probleme hast, die Meinungen anderer zu akzeptieren.
Ich habe überhaupt kein Thema mit der Meinung anderer? Wie kommst Du denn auf die schiefe Bahn?
Und wo impliziert mein Post irgendetwas anderes?

Ich bin hier kein Mod, aber es nervt!
Achso- Aber argumentativ inhaltslose rant- Posts nerven nicht? Marken- und Fanboykriege?

Na Du hast Vorstellungen.... Und ja- Es nervt. Wieso müssen Leute, die sich für ein Thema nicht interessieren oder denen irgendetwas "egal" ist, oder irgendwo vorbeigeht dann trotzdem genau in diese Threads gehen und meckern oder stimmung machen und auf repeat- Mode kundtun, für wie überflüssig sie nicht die neuen Techniken halten und wie sie sich nicht alle hintergangen fühlen?
Wieso wird der Mist in Massen gekauft, wenn er so schlimm und zugleich uninteressant ist?

LG
Zero
 
Zuletzt bearbeitet:
AW: Nvidia Ampere vielleicht auf der GTC Ende März

So ungefähr schätze ich Ampere auch ein. Leistungsbereich 2080ti aka 3070 wäre völlig okay für mich sofern es mehr als 8GB VRAM gibt. Der Buschfunk vermutet allerdings das es mehr als 8GB erst ab 3080 gibt.
2080ti ist ein ziemliches Heizkraftwerk, speziell wenn OC, für mich daher selbst als günstige gebrauchte uninteresant, heizt meine Zockerhöhle im Sommer zu sehr auf.
Diesmal könnte das ganz anders laufen:
GA102@Titan = 2399$ (24GiB)
GA103@3080ti = 1399$ (12GiB)
GA104-A@3080 = 999$ (10GiB)
GA104-B@3070 = 699$ (8GiB)

Billig war gestern!:D

" Und du wirst sehen wie die Lemminge Titanen kaufen die keine sind!" Für 1,4K.:)
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Könntest du aufhören jeden Beitrag der einfach nur so eine persönliche Sichtweise, also Meinung wiedergibt mit deiner toxischen Art und Weise zu kommentieren. RTX gehört dir, lebe damit! Aber zwänge deine teilweise verschrobene Sichtweise nicht jedem auf! Es gibt sehr viele denen RT auch von der Qualität her, einfach wayne ist. Es gibt Gaming vor und nach RT. Wozu ein Minecraft Raytracing braucht weiß nur Nv, für mich verändert sich Minecraft damit vollkommen, weil das Retrodesgin verloren geht das diesen Titel ausmacht.

Nur mal als Hinweis am Rande, nochmal die Forenregeln...Meinungsfreiheit und meinungsbezogenes Posting! Die Mods sehen das hier weniger streng, wäre aber schon gut wenn man sich daran hält und versucht nicht jeden Thread abzuschießen und auch mal eine Diskussion zuzulassen, womit du bei dem Thema erhebliche Probleme hast, die Meinungen anderer zu akzeptieren.

Ich bin hier kein Mod, aber es nervt!


Captain Raytrace kann doch nicht mehr ohne RTX zocken, alles andere ist in seinen Augen keine gute Grafik mehr.

O. T.
Denke mal auch das es sich um eine HPC Karte handelt die auf der Messe gezeigt wird.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Strategische Überlegungen. AMD muß einfach nur eine neue Vega oder 2900XT abliefern und schon kracht das GPU Geschäft in den Keller. Mit Nvidia könnte es TSMC egal sein, wer wieviel am am GPU Markt beherrscht, solange es nicht Intel ist.

Das AMD keine Eierlegendewollmilchsau mehr baut, sondern zwei Designs (einmal Gaming und einmal HPC Markt) verfolgt ist dir bekannt? Von daher sind so Probleme wie sie mit Vega im Gamingmarkt entstanden sind, sehr unwahrscheinlich... Da fragt man sich ernsthaft was solche Postings sollen?

Apropos Intel, AMD muß nur einen neuen Bulldozer abliefern und schon ist TSMC einen recht großen Teil seines Geschäfts los, da können die dann nurnoch auf Apple und co zählen.

Das ist mal wieder bullshit hoch zehn, aber wundert mich ehrlich gesagt auch nicht, dass keine Möglichkeit ausgelassen wird um so einen Unfug von sich zu geben. Dass Bulldozer ein Hochtaktdesign war und Glofo AMD hohe Taktraten in ihrem Prozess versprochen hatte ist dir bekannt? Die erste Iteration von Bulldozer kam mit 3,5 GHz, angedacht waren ~ 5GHz, da wäre die Performance dann auch nicht ganz so schlecht gewesen (über den Verbrauch kann man nur Mutmaßen ob Brechstange oder nicht). Aber aufjedenfall war ein sehr großes Problem, dass Glofo AMD etwas versprochen hatte, was sie dann letztendlich nicht einhalten konnten und dieses Problem hat AMD mit TSMC eben nicht. Sie haben einen verlässlichen Partner der aktuell die versprochenen Prozesse auch liefert und wieso sich das ändern sollte sehe ich ehrlich gesagt nicht. Vor allem auch nicht unter einer Leitung von Lisa Su. Wenn du da andere wirkliche Quellen hast, dann her damit.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Das einzige was am Hintern ist, ist dein Geld, an dem es dir wohl mangelt. Der Markt selbst ist in gutem Zustand, die Absätze stimmen, Problem ist hier nur dein Budget.

Bist du mittlerweile auch noch BankberaterHighlander? Oder wie kommst du dazu zu wissen was andere Menschen auf dem Konto haben und was Ihnen ihr Geld wert ist, in ein bestimmtest Produkt zu investieren?
Wenn Dein Umgang im realen Leben auch so ist, dann bist Du wirklich der ärmste Mensch.

@Topic... die Karte wird entweder eine "RTX Special Edition schieß mich tot ultra Cyberpunk 2077 2070Super", oder die längst überfällige Ablösung von Volta, Sprich eine GA100. Also nichts was die Spieler hier wirklich interessiert.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Für was was neues ankündigen wenn amd nicht mal in die nähe kommt.

Demnach hätte es Turing auch nicht gebraucht. Außer man will die Marktführerschaft weiter ausbauen oder man will-wie bei RTX - eine neue Technologie durchzusetzen und einen massiven Vorsprumg bei der Hardwareverbreitung, Softwareökonomie und Optimierung zu haben
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Es wird wirklich langsam Zeit. Kann es wirklich kaum erwarten die neue Grafikkarte endlich mal zu sehen. Grafik ist schliesslich das A und O beim PC gaming, neben der Maus/Tastatur Unterstützung natürlich.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Wow, den Höchstpreis zum Launch einer neuen Generation gegen den gefallenen zum Abverkauf vergleichen?

Die 2080 wird viel, aber sicherlich nicht abverkauft. Die 1080 gabs dann ab 2017 für 599 Dollar.
So schlimm sind die Zustände nun auch wieder nicht, wie das hier beklagt wird, der Markt regelt den Preis, es interessiert überhaupt nicht, was ein PCGH_User dazu sagt.

Warum vergleichst du dann nicht fair und nimmst die 1080 für unter 300 € (und damit 50% weniger, also gleiches P/L)?

Für den Preis gibt es eine 2060,5600XT oder 5700, welche allesamt auf dem Niveau einer 1080 oder leicht schneller sind.
Leistung wird doch deutlich günstiger - sehe ehrlich gesagt das Problem nicht.

Weil es dir nicht in dein Thema passt, nV ist ja sooooo unglaublich günstig, man muss es sich nur leisten können? ^^

Nein, weil diese Thesen von wegen "Markt ist kaputt" völliger Quark sind.
Sein Budget passt einfach nicht zur GPU, die er will, das ist alles.
Er kann seine 1080 für 300 verkaufen und dann für 400 Euro Invest eine 50% schnellere 2080S kaufen.

Sie werden auch viel zu viel verlangen und effektiv wird man für die selbe Leistung das Selbe zahlen, wie schon vor 3 Jahren.

Wie gesagt vor 3 Jahren kostete eine 1080 noch 599 Dollar. Man zahlt ganz sicher nicht effektiv das selbe, da ist man sehr weit davon entfernt und das ist einfach nur eine freche Übertreibung von dir, die nicht der Wahrheit entspricht.
Eine Radeon 5700XT kratzt an der 1080Ti für lediglich 379 Euro, für die 2070 gilt dasselbe.

Nur dass es obenrum noch etwas mehr für eben auch etwas mehr geben wird...

Man muss ja nicht immer High End kaufen, man kann sich auch mit weniger zufrieden geben.

Bist du mittlerweile auch noch BankberaterHighlander?
Eher Realist.
Oder wie kommst du dazu zu wissen was andere Menschen auf dem Konto haben...

Wie kommst du darauf, dass ich das weiß?

...und was Ihnen ihr Geld wert ist, in ein bestimmtest Produkt zu investieren?

Er hat die GTX 1080 wahrscheinlich bereits 3 Jahre lang. Wenn er nun die 2080 kauft und sie ebenso 3 Jahre behält, dann sind das bei ~100 Euro Aufpreis knappe 3 Euro mehr pro Monat.
Und am Markt liegt es wie gesagt nicht, denn die Leute zahlen diese Preise und die GPU´s verkaufen sich gut bis sehr gut.

Wenn Dein Umgang im realen Leben auch so ist, dann bist Du wirklich der ärmste Mensch.

Natürlich ist der auch im realen Leben so, das nennt man eine nüchterne Betrachtung der Realität. Die Preise werden nicht durch die Nörgler im Forum bestimmt, sondern von Angebot und Nachfrage.
 
Zuletzt bearbeitet:
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Man muss ja nicht immer High End kaufen, man kann sich auch mit weniger zufrieden geben.

2 Argumente in Bevier's Post hast du etwas subjektiv, aber doch fast zutreffend als Antwort ausformuliert (da hofft man ja insgesamt auf Besserung), wobei man bedenken muss das du deinem ehemaligem Kundenkreis, der sich seine Grenze für Enthuisast/Highend bei um 700 gesetzt hat, den du früher so bedient und davon profitiert hast, nicht auf einmal sagen kannst dafür bekommst du nur noch Mainstream, zwar oberes Ende aber nichts Besonderes. Wenn du weiter auf Enthusiast/Highend setzen und spielen willst, zahle gefälligst bis zu das Doppelte!

So funktioniert der Markt nun auch wieder nicht. Es gibt für jedes Unternehmen ein wirtschaftliches Risiko, dass man nicht zu Lasten seiner Kundschaft weiter gibt, sondern das muss man zu Teilen selbst tragen! So kann nicht Nv Verluste aus der Zeit des Kryptokaters und Fehlentscheidungen des Management, einfach so an seine Kundschaft weitergeben und sie mittelmäßig mit zukunfstträchtigen Technologie gegenfinanzieren, die aber noch nicht ausgereift sind.

Da läuft was falsch in "First Amerika's Kopf" Mister Huang, oder? Hat man aber gemacht, vermutlich ist man nur deshalb mit RT vorgeprescht, sonst hätte es wenig Argumente gegeben die Preise zu erhöhen. War auch nur halb fertig, wobei man das Image solcher Technologien, die eigentlich sinnvoll sind, so auch für die Zukunft beschädigen kann. Was klar eingetreten ist, wenn man die Meinungen zu RTX abgleicht. Marketing ist nämlich nicht alles, an der Basis muss es funktional sein und funktionieren.

Auch dort und in diversen Wirtschaftsfachbereichen hast du nur wenig aufgepasst oder nur mitgenommen, was dir in den Kram passt.:)
 
Zuletzt bearbeitet von einem Moderator:
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Ja, und Kaffeekochen kann sie am Ende auch noch ... wieder mal alles heiße Luft, genauso wie die 7nm Wunderkarten die schon vor ca. zwei Jahren kommen sollte.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Eine neue GPU wäre echt nicht verkehrt, halte es zwar noch aus mit der UV 1080Ti, erreiche aber meist nicht meine Wunsch FPS von 113 (trotz angepasster Settings).
Hoffe die hauen mal was ordentliches raus demnächst und dann noch warten bis die Preise mal etwas droppen. Maaaan kein Bock mehr, hoffe AMD released was konkurrenzfähiges, damit sich die Preise dementsprechend gestalten.
Dafür das meine Karte so langsam die 3 Jahre ansteuert, ist die echt noch gut, bin da echt positiv überrascht von.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Hat sich doch zerschlagen (hatte es ja schon geschrieben), wenn Nv eine 2080ti FE als Cyberpunk 2077 Edition, für ein Spiel das am 17.09.2020 gelauncht werden soll, auf Facebook und Twitter teasert. Aus die Maus, Ampere Gamer, vielleicht zu Weihnachten in 10 Monaten.
 
AW: Nvidia Ampere vielleicht auf der GTC Ende März

Nö überhaupt nicht, dieser Satz ist FUD! Warum? Weil TSMC noch nie dagewesene Gewinne mit 7nm Zen einfährt und Nv kein Exklusivkunde mehr ist, das Volumen ist mickrig und sie damals frühzeitig von 7nm abgesprungen sind, TSMC dabei Verluste eingefahren hat. Die kriegen nur noch was übrig bleibt, es wird wie immer FFN und die Konditionen dafür möchte nicht wissen. Freut euch schon mal. Nv ist ein F*rz zu Zen und Apple. Apple nimmt ja auch 7nm AMD ab. Nicht umsonst schielt Nv für kleinere Die's zu Samsung. Apple will ja schon alsbald 5nm.

Nv's große Chips dürften selbst im eigenständigen Verfahren Risikoproduktion sein und die werden sich schön absichern, dass sie an TSMC nicht für Ausschuss zahlen.

Du lieferst gerade die besten Argumente. Nvidia hat die Produktion aus dem alten 12nm Prozess (der ein umbenannter 16nm Prozess ist) abgenommen, während AMD und Apple die 7nm Produktion abgenommen haben. Ohne Nvidia wäre der 12nm Zweig wohl nicht so profitabel gewesen.


Weil es höchst selten gut ist, wenn man einen großen Kunden verliert. Alleine schon deshalb, weil es nun weniger Nachfrage nach TSMCs Produkten gibt und die Konkurrenz gestärkt wird.

Das AMD keine Eierlegendewollmilchsau mehr baut, sondern zwei Designs (einmal Gaming und einmal HPC Markt) verfolgt ist dir bekannt? Von daher sind so Probleme wie sie mit Vega im Gamingmarkt entstanden sind, sehr unwahrscheinlich... Da fragt man sich ernsthaft was solche Postings sollen?

AMD kann immer noch einen Flop hinlegen, da ist nichts ausgeschlossen. Wenn man es skeptisch betrachtet, dann haben sie 7nm gebraucht, um mit Nvidia, von der Leistung sowie dem Verbrauch, gleich zu ziehen und haben keine Spielereien, wie Raytracing oder Tensorkerne. Nvidias Gegenschlag steht noch bevor, von daher ist alles möglich.


Das ist mal wieder bullshit hoch zehn, aber wundert mich ehrlich gesagt auch nicht, dass keine Möglichkeit ausgelassen wird um so einen Unfug von sich zu geben. Dass Bulldozer ein Hochtaktdesign war und Glofo AMD hohe Taktraten in ihrem Prozess versprochen hatte ist dir bekannt? Die erste Iteration von Bulldozer kam mit 3,5 GHz, angedacht waren ~ 5GHz, da wäre die Performance dann auch nicht ganz so schlecht gewesen (über den Verbrauch kann man nur Mutmaßen ob Brechstange oder nicht). Aber aufjedenfall war ein sehr großes Problem, dass Glofo AMD etwas versprochen hatte, was sie dann letztendlich nicht einhalten konnten und dieses Problem hat AMD mit TSMC eben nicht.

Das höre ich heute zum allerersten mal. Tatsache ist, dass der Bulldozer ein Flop war, das hat auch AMD so bestätigt (allerdings erst nachdem sie mit Ryzen wieder die Siegerstraße betreten haben).

Natürlich kann man auch einen Flop, mit den entsprechenden Taktraten, zum Erfolg prügeln. Beim Bulldozer wären dazu 6-7 GHz notwendig, denn hätte er gehalten, was versprochen wurde. Die Taktraten wären keine Überraschung, spätestens beim Phenom I konnte jeder sehen, woran man beim SOI Prozess ist.

Der eigentliche Clou, beim Bulldozerdesign (wenn es denn so funktioniert hätte, wie gedacht) wäre gewesen, dass man, durch die gemeinsamen Kerne, zwei Kerne mit jeweils 80-90% eines normalen Kerns, erhalten und den Aufwand nur um 10-20% gesteigert hätte. Es wären also 8 Kerner, zum Preis von 4 Kernern möglich gewesen, wenn es denn geklappt hätte.

Dummerweise hat es das nicht, die Leistung lag eher bei unter 50% eines Intelkerns, mit HT, bzw. etwa 60% eines Intelkerns ohne HT. So waren die FX 8000er bestenfalls so schnell wie die i7, anstatt doppelt so schnell, der Rest ist Geschichte.

Gleichzeitig ist die Komplexität explodiert, da man viel Cache braucht, damit der Bulldozer nicht völlig abgehängt wird. 315mm² beim Zambezi standen 270mm² beim Sandybridge i7 gegenüber und der hatte noch zusätzlich eine IGP.

Ich würde eher sagen, dass du den Bullshit hoch 10 verzapfst.


Wenn du da andere wirkliche Quellen hast, dann her damit.

Bitte:
AMD Bulldozer: Rechenkerne in Modul-Bauweise | 3DCenter.org

Ich hätte ganz gerne eine Quelle für das angebliche Hochtaktdesign.

Ja, und Kaffeekochen kann sie am Ende auch noch ... wieder mal alles heiße Luft, genauso wie die 7nm Wunderkarten die schon vor ca. zwei Jahren kommen sollte.

Korrigiere mich, wenn ich falsch liege, aber Nvidia hat momentan die stärkeren GPUs, mit Raytracing, die obendrein noch im alten 12nm Prozess gefertigt werden. Von daher ist die Ausgangslage von Nvidia deutlich besser.
 
Zurück