Nvidia Geforce GTX 750 Ti im Test: Maxwell, Meister der Energieeffizienz

Hat sich eigentlich jemand das Interview in Englisch auf der Fazitseite angesehen?
Da sagt der Mann am Ende auch seine Meinung zu Mantle ;)

@Inc Alk:
Ich finde es ja schon erstaunlich, das man soviel Effizienz rausholen kann, während mal nur die Architektur geändert hat.
 
Die Leaks in den nächsten Monaten zu Maxwell werden zeigen, ob sich das Schema von Kepler wiederholt.
Bei Fermi war das noch ganz anders, und es gibt keine absolute Gewissheit darüber.

Wenn man die Tests im Durchschnitt vergleicht, kommt man auf eine Effizienzsteigerung von ca. 35-40%.
http://extreme.pcgameshardware.de/u...-series-von-nvidia-maxwell-5.html#post6172939
Leo arbeitet bestimmt schon an der Launch-Analyse im 3dcenter.

Auf jeden Fall hat Maxwell bewiesen, dass hier sehr viel Potential ist.
 
Bei Fermi war das noch ganz anders, und es gibt keine absolute Gewissheit darüber.

Da war NV gezwungen, den GF100/110 rauszuhauen weil sie von der HD5870 sowohl in der Leistung als auch in der Effizienz abgezogen wurden. Deswegen kamen ja auch die elend stromfressenden und lauten GTX480/580 Karten denen man sogar Löcher ins PCB schneiden und künstlich drosseln musste dass sie nicht überhitzten... quasi AMD mit dem Holzhammer geschlagen.

Ob man zuerst den Kunden mit einer GTX880 aka GM104 melken kann oder sofort eine viel schnellere GTX880 aka GM100/110 kommt liegt am Ende alleine daran wie schnell eine "R9 390" wird... ;)
 
Ich auch. Wenn man schon alleine durch diese Architektur 20-25% mehr Effizienz rauskitzeln kann wären ja theoretisch in 28nm schon High-End Karten drin die bei gleicher Leistungsaufnahme eine 780Ti um entsprechenden Wert schlagen (sofern die Unterstellung stimmt dass Maxwell nach oben hin etwa linear skaliert).

Wenn da ZUSÄTZLICH noch 20nm dazukommt wären ja 50+% Mehrleistung problemlos drin!

Aber Enthusiasmus zurückschrauben - da wird wohl wie bei Kepler zuerst wieder ein GM104 als GTX880 verhökert (die die 780Ti um 25% schlägt) dass man ein Jahr später noch nen GM110 als GTX980 nachschieben kann die dann wiederum die 880 um 25% schlägt. Man muss ja die maximale Kundenmelkung erreichen. :-_-:
Andererseits würde sich dann die Leute beschweren wenn in einem Jahr alles rauskommt und im nächsten komplette Flaute herschen würde.
Man wäre ja auch blöd einen Chip rauszubringen, ihn für 300€(gk104) zu verkaufen mit einem teureren bei 400-1000€ wenn man nicht erst den kleinen für 500€(GK104,680), dann den großen kastriert für 1000€(GK110,Titan), dann den großen nochmal stärker kastriert für 550€(GK110,780), den kleinen wieder für 300€(GK104,680/770) und den großen nochmal diesmal unkastriert für 600€(GK110,780TI) und den großen unkastriert mit doppelten Speicher für weitere 1000€(GK110,Titan BE) verkaufen würde.

Der Sommer wird mit Hochspannung erwartet, brauche die 870 mit mindestens 3GB und am besten max 400€
 
Vielen Dank für den Test und für das Video mit Tom Petersen! :)
Kleiner Kritikpunkt: Im Hintergrund hört man ein recht lautes Lüfterrauschen, als ob neben dem Mikrofon ein offener PC stehen würde. :ugly:
Vielleicht wäre für Interviews diese kleinen Mikrofone für's Revers oder den Kragen besser geeignet. :daumen:

Ja, das wäre es sicherlich. Aber das kann man an meine Kompaktkamera leider nicht anschließen. :( ;)
 
Andererseits würde sich dann die Leute beschweren wenn in einem Jahr alles rauskommt und im nächsten komplette Flaute herschen würde.

Das eine muss mit dem anderen nichts zu tun haben. Wenn die Konkurrenz zwingt schnellere Karten zu bringen dann können auch die Abstände der Entwicklungen kürzer werden (das ist kein Problem bis zu einem gewissen Punkt - nur eben teurer) - diese sind nicht zwingend so lang.
Ich meine seien wir ehrlich, den GK100 gabs ziemlich sicher bereits anfang 2012 in NVidias Schubladen. Er kam mangels Konkurrenzdruck gar nicht und der GK110 kam erst im Mai 2013. Das IST fast ein ganzes Jahr flaute!

Seit dem ist fast ein Jahr vergangen und jetzt erst kommen so langsam mal die Low-End Maxwells, bis der große kommt wird noch viel viel Zeit ins Land gehen.

Glaub mir wenn es eine Konkurrenz gäbe die bedeutend schneller wäre dann hättest du den GM110 vermutlich schon in den Regalen. ;)
 
Die Diskussion ist ja schön und gut,

und ich bin kein Gpu-spezi.

aber alle gehen davon aus das sich die bessere Effizienz auch bei höherer Performance beibehalten wird, bzw mit 20nm Fertigung nochmals deutlich besser wird.

aber einige Indizien lassen mich daran Zweifeln.

z.B. Leckströme: wenn mehr Strom durch die Bahnen gejagt wird... das wäre zumindest eine Erklärung warum die Karte nach oben hin so abgeriegelt ist.
man sollte bedenken das man für nicht stark belastete chips das design "gewagter" auslegen kann.
Ausserdem kommt es mir spanisch vor das die Leistung der 260X nicht übertroffen wird. Leistung ist immerhin der Hauptgrund beim Kauf und die 28nm Maxwells kommen ja jetzt fast ein jahr danach
Nichtsdestotrotz freue ich mich auf die 20nm Maxwells und hoffe auf einen grösseren Leistungssprung als das was wir in den letzten 2 Jahren sahen.

Grüsse
 
da wird wohl wie bei Kepler zuerst wieder ein GM104 als GTX880 verhökert (die die 780Ti um 25% schlägt) dass man ein Jahr später noch nen GM110 als GTX980 nachschieben kann die dann wiederum die 880 um 25% schlägt. Man muss ja die maximale Kundenmelkung erreichen. :-_-:

Wenn AMD mit seinen High-End-Chips grade mal so die Mittelklasse-Chips von Nvidia schlagen kann sind sie halt selbst schuld. Memo an mich selbst: Makro für diesen Satz anlegen.
Außerdem hält der "kleine" GK104 aka GTX770 immer noch gut mit und wird nicht so warm oder laut wie die 280X, weil ihm genau das fehlt was auch 99% der AMD-User bei der 280X nicht nutzen werden. ;)

Bis hierhin geb ich dir Recht aber spätestens an DEM Punkt wirds Unsinn. NVidia ist wie in allen anderen Branchen auch eben ein Markenname der es geschafft hat sich eher als "Premium" in den Köpfen der Leute verankert zu haben. Dass AMD Dumping betreibt ist genauso Käse wie dass NV Wucher anbietet aber dass NV generell immer etwas höher angesiedelt ist liegt garantiert nicht an technisch besseren Produkten (da hat jeder seine Vor und Nachteile) sondern einer besseren Martketingstrategie über lange Zeiträume.

Das Nvidia nur wegen des Namens gekauft wird, ist natürlich auch Unsinn. ;) Es hat vielleicht Auswirkungen auf den Preis, aber nicht so extrem wie du es gern hättest.
Nvidia macht einem vieles leichter, siehe Downsampling oder Shadowplay. Und das lassen sie sich natürlich bezahlen. Du würdest solche Vorteile verschenken, richtig?
Auch bietet Nvidia bei gleicher Leistung wie AMD eine besser Effizienz. Oder bei gleichem Verbrauch eine bessere Leistung, wenn dir das besser gefällt.. Gleichstand sieht anders aus. :schief:
Ich weiß ja nicht wie du ein "technisch besseres" Produkt definierst. Nvidia ist Hardware-technisch überlegen (Es sei denn du reitest auf DX11.1/2 rum..), und kostet auch deswegen mehr. Logisch, oder?
 
Nuallan schrieb:
Also bitte.. Wenn x Leute statt einer 260X eine 750Ti kaufen bedeutet das ein explodiertes Fukushima weniger. Aber lass mich raten: Du isst eh keinen Fisch? :P
Ne ehrlich, diese Diskussion bringt nix und wäre viel zu gigantisch um sie hier auszutragen. Ich habs so schon nicht einfach als grüner in diesem Forum. :)


Die Karte ist sehr gut geworden und ist der Effizienzmeister, aber solche Argumentationen halte ich doch schon für sehr hahnebüchen.
Wegen 3 Euro mehr Stromkosten im Jahr, spart man kein Kraftwerk ein. Immerhin kostete es auch unmengen Strom die Karte zu produzieren, jetzt rechen mal bitte ob Nvidia oder AMD mehr Strom benötigt haben, ihre Karten zu produzieren.

Abgehoben? Nur weil sie die Dumping-Preise vom AMD nicht mitmachen? AMD brauch das halt, um seine Karten loszuwerden. Nvidia brauch das nicht, so einfach. ;)
Die Preise sind etwas zu hoch, auch für meinen Geschmack (Titan ist Luxus/Professionell und zählt nicht), aber sicher nicht abgehoben. FPS sind nicht alles.
Die Verkaufszahlen werden wohl stimmen, sonst müssten sie auch runtergehen. Und wo sich was einpendelt.. tja.. dafür müsste ich mir mal deine Glaskugel ausleihen..
Richtig FPS sind nicht alles, ich wüsste aber nicht wo AMD Qualitativ zurückliegen würde, eher bieten sie die gleiche Qualität für weniger Geld.

Wie steht es mit deinem verständnis zu Dumpinpreisen?:schief:

Auch bietet Nvidia bei gleicher Leistung wie AMD eine besser Effizienz. Oder bei gleichem Verbrauch eine bessere Leistung, wenn dir das besser gefällt..
Aber doch auch nur bei den neuen Karten? Du übertreibst eindeutig. Was für ein Käse.

Verwarnung erhalten.... lol, deswegen abgeändert.
 
Zuletzt bearbeitet:
Nvidia macht einem vieles leichter, siehe Downsampling oder Shadowplay. Und das lassen sie sich natürlich bezahlen. Du würdest solche Vorteile verschenken, richtig?
Auch bietet Nvidia bei gleicher Leistung wie AMD eine besser Effizienz. Oder bei gleichem Verbrauch eine bessere Leistung, wenn dir das besser gefällt.. Gleichstand sieht anders aus. :schief:
Ich weiß ja nicht wie du ein "technisch besseres" Produkt definierst. Nvidia ist Hardware-technisch überlegen (Es sei denn du reitest auf DX11.1/2 rum..), und kostet auch deswegen mehr. Logisch, oder?


AMD macht einem vieles leichter, siehe GPU Computing oder Mantle/TrueAudio, ZeroCorePower, DX11.1/2, PCIe 3.0 auf allen Systemen. Und das lassen sie sich nicht gesondert bezahlen. Du würdest solche Vorteile extra bezahlen, richtig?
Auch bietet AMD bei gleicher Leistung wie NVidia ein besses P/L Verhältnis und eine viel höhere Leistung pro Chipfläche. Oder bei gleichem Preis/Fläche eine bessere Leistung, wenn dir das besser gefällt.. Gleichstand sieht anders aus. :schief:
Ich weiß ja nicht wie du ein "technisch besseres" Produkt definierst. AMD ist Hardware-technisch überlegen (Es sei denn du reitest auf Performance pro Watt rum.), und kostet auch deswegen weniger. Nicht mehr so logisch, oder?


Bemerkst du, wie einfach diese ganzen Dinge für beide Firmen geschrieben werden können? Es kommt eben darauf an wo man seinen Schwerpunkt setzt (auch ich hab ja grade ne NV Karte drin, das kann sich aber bei jeder Generation ändern).

Ich weiß es ist sinnlos mit Leuten die ich nenne es mal sehr voreingenommen dahingehend eingestellt sind zu diskutieren und da das hier nich wie üblich ein AMD vs NV Thread werden soll höre ich an der Stelle auch auf. Man sollte nur vielleicht die ganze Thematik von einer etwas größeren Entfernung aus betrachten als viele es hier tun. ;-)
 
Nvidia ist Hardware-technisch überlegen (Es sei denn du reitest auf DX11.1/2 rum..), und kostet auch deswegen mehr. Logisch, oder?


:lol:

Und nein, diese Karte läßt bestenfalls unsichere Spekulationen zu wie die großen in 20nm effizienztechnisch abschneiden werden. Gabs nicht sogar von Nvidia selber neulich ein Statement, dass der neue Prozess wesentlich schlechter performt als erwartet und sich kaum von 28nm absetzen kann?
Ok, mehr Einheiten und dafür niedrigerer Takt bringen auch was.
 
Zuletzt bearbeitet:

Keine Ahnung, auf jeden Fall wirst du jetzt bestimmt von Incredible Alk verwarnt, weil man das bei diesem Wort hier gerne macht (ich weiß wovon ich rede ;)), und er hier ja sogar mitliest und schreibt.

Immerhin kostete es auch unmengen Strom die Karte zu produzieren, jetzt rechen mal bitte ob Nvidia oder AMD mehr Strom benötigt haben, ihre Karten zu produzieren.

Und du nennst meine Argumentationen "hahnebüchen".. :lol: Da beide soweit ich weiß bei TSMC prdozieren dürfte sich das nicht viel nehmen. Aber wenn du es schon genau wissen willst:
Ich denke die Entwicklung könnte bei Nvidia "grüner" ablaufen (haha), weil sie mehr Kohle haben und deswegen neuere/bessere Anlagen benutzen. Blöd gelaufen, was? :P

Aber doch auch nur bei den neuen Karten? Du übertreibst eindeutig. Was für ein Käse.

Ähm.. ja? Wollen wir jetzt auf Grundlagen von vor ein paar Jahren diskutieren, damit dir das besser passt oder wie? Also ich lebe im heute, sorry.. :schief:

Ich weiß es ist sinnlos mit Leuten die ich nenne es mal sehr voreingenommen dahingehend eingestellt sind zu diskutieren

Ja, das kenne ich nur zu gut.. ;) Aber du hast natürlich Recht mit deinem Text, wenn auch bei weitem nicht mit allem..
Ich kenne z.B. keinen der vor seinem PC sitzt und schreit: "Yeah, ich hab ne viel höhere Leistung pro Chipfläche! Am Ende hab ich zwar weniger als bei der Konkurrenz, aber egal, mehr Leistung pro Chipfläche, yeah!". :lol:

und da das hier nich wie üblich ein AMD vs NV Thread werden soll höre ich an der Stelle auch auf.

Gleichfalls. Auch wenn es dafür glaube schon etwas zu spät ist.. :(
 
Man man man.. Ihr kritisiert teilweise wie die Weltmeister hier :ugly:

Ich sehe in der GTX750TI ne hammer Karte mit TOP Effizienz!

PCGH hats auch sehr gut ausgedrückt:
So erreicht der GM107-Vollausbau das Leistungsniveau mittelgroßer Fermi-Grafikkarten wie der Geforce GTX 560 Ti, verbraucht dabei jedoch nur ein Drittel des Stroms.

Als "GTX560TI AMP!"-Besitzer finde sowas schon stark erstaunlich! Ich bin auf die weiteren Maxwell-Karten äußerst gespannt! Wenn die 860 sich ähnlich gut schlägt, und davon gehe ich aus, wird das meine nächste Karte! Denn mir gehts bei der Effizienz weniger um die Watt, sondern um die Lautstärke!

Was ich auch sehr heftig finde ist, dass die 750TI beim Litecoin-Mining ähnliche Leistung wie die 260X erziehlt und das bei halben Verbrauch!

Zum Thema Preis: Wartet doch erstmal ab, wo sich der Preis einpendelt! :D Sollte man doch wissen, dass dieser am ersten Tag noch nicht gerade niedrig ist und die UVP hat in Zeiten von idealo, geithals und co. eh nicht mehr als Richtwert-Funktion!
 
Hat man sich bei PCGH von der Karte mehr Leistung versprochen oder warum ist die Karte immer Schlusslicht vom Grafikkartenpool im Benchmark,
die gtx650ti-booster hätte ihr schon mittesten können?
 
@Inc Alk:
Ich finde es ja schon erstaunlich, das man soviel Effizienz rausholen kann, während mal nur die Architektur geändert hat.
Naja, wenn man sich so anschaut, was Sie alles geändert haben, dann überrascht das jetzt nicht unbedingt. Sie haben ja schon so einiges umgekrempelt. Allein durch das verbesserte Clockgating kann man richtig viel rausholen. Dazu dann noch der fette L2.

Das eine muss mit dem anderen nichts zu tun haben. Wenn die Konkurrenz zwingt schnellere Karten zu bringen dann können auch die Abstände der Entwicklungen kürzer werden (das ist kein Problem bis zu einem gewissen Punkt - nur eben teurer) - diese sind nicht zwingend so lang.
Ich meine seien wir ehrlich, den GK100 gabs ziemlich sicher bereits anfang 2012 in NVidias Schubladen. Er kam mangels Konkurrenzdruck gar nicht und der GK110 kam erst im Mai 2013. Das IST fast ein ganzes Jahr flaute!

Seit dem ist fast ein Jahr vergangen und jetzt erst kommen so langsam mal die Low-End Maxwells, bis der große kommt wird noch viel viel Zeit ins Land gehen.

Glaub mir wenn es eine Konkurrenz gäbe die bedeutend schneller wäre dann hättest du den GM110 vermutlich schon in den Regalen. ;)
BOAH! Fang jetzt bitte nicht wieder mit der GK100 SCHEISE an.... Ich kanns nicht mehr hören... Es wurde zichfach durchgekaut, dass das mit GK100 einfach BULLSHIT ist :motz:

So @Topic:
Meine Bewertung zum Chip/Karte:

Top :daumen:

  • sehr schöne Effizienz
  • endlich wird der L2 mal kräftig aufgepumpt
  • schön kühl
  • sehr leise
  • im Ref Design ohne 6 Pin Anschluss
  • Abkehr vom HÄSSLICHEN! 192 ALU/SMX Keplerdesign
  • Annäherung an AMDs GCN Design
Flop :daumen2:

  • Immer noch nur DX11.0 Featurelvl :klatsch:
  • Kein HDMI2.0, was gerade für HTPCs interessant wäre als Zuspieler für 4k Fernseher usw :-_-:
  • 2 Slot Design, was total überflüssig ist für die Karte :ugly:
  • Kein Unified (Virtual) Memory. Dann wird man wohl entgegen der SC Aussagen sicherlich auch Kepler kein UVM mehr bekommen :daumen2:
  • VIEL zu teuer für die gebotene Leistung. Da muss 1/3 vom Preis runter :ugly:
  • Kein DisplayPort auf einigen Karten...
Also an sich ne "nette" Karte, aber wenn man sich dann die Flops anschaut, dann verschenkt einfach verdammt viel Potenzial, bzw patzt sogar an wichtigen Punkten. Man hätte ja sogar noch 10W Luft gehabt nach oben. Dank PowerTarget ja kein all zu großes Problem mehr heute, die Specs auch aus zu reizen.


Man macht es AMD echt richtig einfach, nen Konter zu fahren, der die Maxwell Chips alt aussehen lässt. Gerade HDMI2.0 tut halt schon richtig weh.
 
[...] Also bitte.. Wenn x Leute statt einer 260X eine 750Ti kaufen bedeutet das ein explodiertes Fukushima weniger. Aber lass mich raten: Du isst eh keinen Fisch? :P
Ne ehrlich, diese Diskussion bringt nix und wäre viel zu gigantisch um sie hier auszutragen. Ich habs so schon nicht einfach als grüner in diesem Forum. :) [...]
Ähm?
Das AKW Fuskushima hatet 4,5 Gigawatt elektrische Nennleistung, das sind 4,5 Milliarden Watt. (Quelle) Eine 750Ti spart gegenüber der 260X wie viel? 20W unter Vollast?
Du musst also 225 000 000 (225 Millionen Grafikkarten) Karten unter Furmark laufen lassen damit diese so viel einsparen, wie dieses Kraftwerk leistet.

Deine "leichte" Übertreibung bemerkst du hoffentlich selbst, oder?

Aber du darfst dir natürlich gerne selbst weiterhin einreden, dass du durch das Kaufen von nVidias den Klimawandel aufhälst und damit die Welt rettest. :schief:



[...] Abgehoben? Nur weil sie die Dumping-Preise vom AMD nicht mitmachen? AMD brauch das halt, um seine Karten loszuwerden. Nvidia brauch das nicht, so einfach. ;)
Die Preise sind etwas zu hoch, auch für meinen Geschmack (Titan ist Luxus/Professionell und zählt nicht), aber sicher nicht abgehoben. FPS sind nicht alles.
Die Verkaufszahlen werden wohl stimmen, sonst müssten sie auch runtergehen. Und wo sich was einpendelt.. tja.. dafür müsste ich mir mal deine Glaskugel ausleihen..
Ob abgehoben oder nicht kann man streiten.
Fakt ist aber, sie kosten deutlich mehr als AMDs. Und das liegt nicht an besserer "Qualität", sondern an einer dicken Fan(boy)base und sehr gutem Marketing, was den Markt dazu bring, den im Vergleich zu AMD mMn abgehobenen Preis zu bezahlen.



[...] Auch bietet Nvidia bei gleicher Leistung wie AMD eine besser Effizienz. Oder bei gleichem Verbrauch eine bessere Leistung, wenn dir das besser gefällt.. Gleichstand sieht anders aus. :schief:
Ich weiß ja nicht wie du ein "technisch besseres" Produkt definierst. Nvidia ist Hardware-technisch überlegen (Es sei denn du reitest auf DX11.1/2 rum..), und kostet auch deswegen mehr. Logisch, oder?
Saubere Pauschalisierung. :daumen: :schief: :wall:
Davon abgesehen, dass es (teilweise) einfach nur falsch ist, wie Incredible Alk gut dargelegt hat.



Keine Ahnung, auf jeden Fall wirst du jetzt bestimmt von Incredible Alk verwarnt, weil man das bei diesem Wort hier gerne macht (ich weiß wovon ich rede ;)), und er hier ja sogar mitliest und schreibt. [...]
Da wär ich mir gar nicht so sicher. Wenn ich mir seine letzten Posts hier so durchlese, dann vermute ich, insgeheim denkt er sich bestimmt was ähnliches. Genau so wie vermutlich die Hälfte aller anderen hier mitlesenden.
 
Zuletzt bearbeitet:
Ich meine seien wir ehrlich, den GK100 gabs ziemlich sicher bereits anfang 2012 in NVidias Schubladen. Er kam mangels Konkurrenzdruck gar nicht und der GK110 kam erst im Mai 2013. Das IST fast ein ganzes Jahr flaute!
Wäre Ail hier, er würde wieder abkotzen. :D
Er hat im 3DC glaube ich ein Jahr hoffnungslos immer versucht zu erklären, dass es keinen GK100 gab.
Jedenfalls mangelte es aus meiner Sicht nicht direkt an Konkurrenz, sondern an den Yields und dem nötigen Volumen für den Markt.
Tahiti und Xeon Phi haben schon Druck ausgeübt und im HPC Market verdient Nvidia viel Geld und es ist ein sehr wichtiger Markt für sie.
GK110 ist einfach nicht schneller aus der Schublade herausgekommen.

Ich kenne z.B. keinen der vor seinem PC sitzt und schreit: "Yeah, ich hab ne viel höhere Leistung pro Chipfläche! Am Ende hab ich zwar weniger als bei der Konkurrenz, aber egal, mehr Leistung pro Chipfläche, yeah!". :lol:
Wenn wir das bisschen umleiten meintest du Nvidia ist technisch besser, aber woran machst du das fest?
Nur an der Perf/Watt?
Mehr Leistung pro Chipfläche ist auch ein Aspekt.
Aber egal im Grunde, dass wird man als Laie nur sehr schwer beantworten können.
Perf/Watt und Chipfläche sind hier und da dann auch nur ein paar Stellschrauben wo mit Kompromissen hantiert wird und nicht unbedingt mit technischer Überlegenheit gegenüber dem Konkurrenten.

Was ich auch sehr heftig finde ist, dass die 750TI beim Litecoin-Mining ähnliche Leistung wie die 260X erziehlt und das bei halben Verbrauch!
Quelle? :)
 
Die Effizienz beeindruckt. Ich hoffe dass auch AMD in diesem Bereich nicht untätig ist, und mit der nächsten Chipgeneration hier nicht den Anschluss verliert.
 
Ist ja erstaunlich wie man mit dem beiläufig erwähnten Begriff GK100 hier die Gemüter erhitzen kann... wenigstens bleibt einer der beiden sachlich und schreit nicht gleich 'Bullshit' durch die Gegend. :daumen:

Entschuldigt bitte dass diese Sache an mir vorbei gezogen ist und ich wohl fälschlicherweise angenommen habe, dass auf ein Produkt das quasi den Namen "Produkt2" trägt ein "Produkt1" vorangegangen sein sollte wie es beim Vorgänger auch war.

Wie auch immer warten wir mal ab ob und wenn ja wie AMDs Antwort aussieht.
 
Zurück