Vega und Ryzen: Erstes Foto eines Vega-Boards, Ryzen-Infos von deutschem OEM [User-News von XD-User]

Das ist ein Engineering Sample....
Sie hat nunmal wenig Aussagekraft für die kommenden Karten ;) Ich finde jedenfalls interessant mal so etwas zu sehen.
Wäre eben schöner gewesen kein abgeklebtes Engineering-Sample zu sehen, sondern eine abgeklebte Vorserienversion. Mmn lässt dass auch andere Rückschlüsse als HBM2 Lieferengpässe zu, aber sogesehen ist ja jede Fehlerbehebung ja auch eine Effizienzverbesserung bzw. Optimierung. Ich muss mal ganz böse sagen, das Ganze errinnert mich etwas an das Bulldozer Release. Hoffentlich (im Ernst!) bleibt euch diesmal nach den langen Wartezeiten mehr als ein feuchter Traum.

Solang zock ich auf meinem technisch veraltetem GDDR-5 Speicher, welcher meine jetzigen Erwartungen erfüllt aber sicher keine 5 Jahre mithalten kann. Bis dahin werden sich meine Ansprüche sowieso ändern. Entweder mehr Hz am Screen oder mehr Pixel als jetzt.
 
Ich muss ganz ehrlich sagen, dass ich dieses Ingenieurssample sehr interessant finde. Und auch das, was AMD damit laut dem "Interview" macht. Nämlich auch mal den Softwareingenieuren die Möglichkeit geben, konkret und bis aufs kleinste Detail die Folgen im Energiehaushalt der Karten durch Softwareänderungen nachzuvollziehen. Das ist meiner Meinung nach ein wichtiger Punkt in einer guten Treiberentwicklung. Man nehme an die Ingenieure basteln nen Treiber, der wunderbar läuft, die Karte wird heiß und drosselt. Durch die Möglichkeit jetzt zu sehen wo wieviel Energie umgesetzt wird ist es jetzt möglich den Treiber zu optimieren, sprich zu sehen, welche Änderungen im Treiber welche Änderungen im Energieverbrauch hervorrufen. Im Optimalfall gleiche Leistung zu Beginn, aber weniger Energieumsatz -> geringere Temperaturen -> keine Drosselung -> im Endeffekt nach längerer Nutzung höhere Leistung.

Es birgt natürlich auch das Risiko des zu passiven Treibers, aber davon geh ich jetzt mal nicht aus.

#Edit: Und zum Thema Abkleben seh ich es so: Nur weil beispielsweise 2x 8-Pin bei nem Engineeringsample verbaut sind, heißt es noch lange nicht, dass sie benötigt werden. Eventuell sind diese nur verbaut um wirklich alles testen zu können. Daher das Abkleben. Nicht das jetzt groß rumgeheult wird "es wird ein 350W-Monster", was garnicht stimmt. Kann natürlich auch wahr sein, aber verübeln kann an es ihnen nicht. Macht aus Unternehmenssicht auf jedenfall Sinn.
 
Offensichtlich nicht, denn außer einem "sollten" enthält deine Quelle keinerlei Fakten. Reines Gerüchtegeblubber.
Ich hab dir das Review von Jay doch gepostet, da siehst du den Stromverbrauch im Rivatuner-OSD. Die eine Quelle spricht von Fertigungsoptimierung, andere Quellen berichten von RX 480 die nur noch 100W verbrauchen. Passt also wie Arsch auf Eimer...
 
Ich muss ganz ehrlich sagen, dass ich dieses Ingenieurssample sehr interessant finde. Und auch das, was AMD damit laut dem "Interview" macht. Nämlich auch mal den Softwareingenieuren die Möglichkeit geben, konkret und bis aufs kleinste Detail die Folgen im Energiehaushalt der Karten durch Softwareänderungen nachzuvollziehen. Das ist meiner Meinung nach ein wichtiger Punkt in einer guten Treiberentwicklung. Man nehme an die Ingenieure basteln nen Treiber, der wunderbar läuft, die Karte wird heiß und drosselt. Durch die Möglichkeit jetzt zu sehen wo wieviel Energie umgesetzt wird ist es jetzt möglich den Treiber zu optimieren, sprich zu sehen, welche Änderungen im Treiber welche Änderungen im Energieverbrauch hervorrufen. Im Optimalfall gleiche Leistung zu Beginn, aber weniger Energieumsatz -> geringere Temperaturen -> keine Drosselung -> im Endeffekt nach längerer Nutzung höhere Leistung.

Es birgt natürlich auch das Risiko des zu passiven Treibers, aber davon geh ich jetzt mal nicht aus.

#Edit: Und zum Thema Abkleben seh ich es so: Nur weil beispielsweise 2x 8-Pin bei nem Engineeringsample verbaut sind, heißt es noch lange nicht, dass sie benötigt werden. Eventuell sind diese nur verbaut um wirklich alles testen zu können. Daher das Abkleben. Nicht das jetzt groß rumgeheult wird "es wird ein 350W-Monster", was garnicht stimmt. Kann natürlich auch wahr sein, aber verübeln kann an es ihnen nicht. Macht aus Unternehmenssicht auf jedenfall Sinn.

Ja Engeneering Samples sind was tolles. Das wird so schon seit der Erfindung der Banane so gemacht.

Allerdings haben die Teile zu 50% Features die es so nie in Serie schaffen und für 95% keine Relevanz haben, eben so wie der USB Port.

Ob es aus Unternehmenssicht Sinn macht zur CES ein Engineering Sample vorzuführen sei mal dahin gestellt.
 
@Shorty:
Ich hab auch nie was anderes behauptet. Finde es nur interessant und hab mich für sowas halt noch nie interessiert. Ich war jetzt nicht davon ausgegangen, dass es zum ersten Mal so gemacht wird. Das sie ein Engineeringsample nehmen spricht auf jedenfall nicht für einen zeitnahen release. Was ich nur meinte was als Unternehmen Sinn macht, bzw was ich verstehen kann, ist das Abkleben der Stromversorgung. Nicht, dass sie so eine Karte überhaupt zeigen, ich glaube das hast du falsch verstanden. Das ist so, als würde VW ein neues Auto auf der IAA zeigen, was noch voller Testequipment, ohne Innenausstattung und mit anderem Motor da steht. Also nicht wirklich aussagekräftig, zeigt halt nur, dass irgendwas läuft und das sich noch was tut.
 
Du weißt hoffentlich schon, dass der "Stromverbrauch" im Rivatuner nur der reine Chip-Verbrauch ohne Speicher & Co ist? :lol:

Und wenn es 100W nur für die GPU sind, dann sind es eben auch 150W+ für die gesamte Grafikkarte - alles wie immer also.
Weiß ich schon, nur das ältere Karten im Rivatuner-OSD weitaus mehr anzeigen. Somit müsste sich schon etwas an der Fertigung geändert haben, zumal einige Chips deutlich niedrigere Spannungen benötigen als vorher. Hab leider keine RX 480 hier um das mit meinem Messgerät zu prüfen, bei niedrigerer Spannung sollte sich aber durchaus was getan haben, laufen einige der neueren Karten bei 1,3GHz mit 1,05V. Denke 130W für die ganze Karte sollte da gut hin kommen.
 
laufen einige der neueren Karten bei 1,3GHz mit 1,05V
Das ist exakt die Einstellung, die ich mit meiner Red Devil fahre (gekauft ende August).
Auch wenn es schön wäre, aber ich glaube an der Fertigung hat sich nicht viel gebessert, sonst hätte man da schon mehr gehört.

Edit: Stromverbauch für die ganze Karte liegt so laut HWINFO64 unter Vollast (DOOM) bei etwa 145 Watt.
Editedit: Hab gerade nochmal nachgeschaut, sind sogar nur 135 Watt, allerdings hab ich auch die Speicherspannung noch abgesenkt
 
Zuletzt bearbeitet:
Ganz ehrlich, entweder erzählst du Mist oder du solltest mal zum Arzt. Ich hatte auch mal eine 6950 mit Referenzkühler und mir sind unter Last die Ohren abgefallen. Ich hatte fast das Gefühl (vom Lärm her), der Lüfter drückt den PC von der Wand weg. Das Ding hat so keinen Monat überlebt und wurde dann getauscht.

BTT: Der Zustand der gezeigten Karte läßt jetzt leider nicht auf einen baldigen Release hoffen :(

Keine Sorge, meine Ohren tun ihren Dienst noch ganz ausgezeichnet. ;-)
Und ich wüsste auch nicht, was es mir bringen sollte mich als Verfechter alter AMD-Referenzdesigns zu profilieren? Das die Customkarten idR besser sind, steht wohl außer Frage.
Zu meinen Erfahrungen mit der Referenz 6950:
Erstens schilderte ich meinen subjektiven Eindruck und es ist durchaus möglich, dass ich deutlich "lärmtoleranter" bin als andere User, oder meine Karte besonders laufruhig ist, ich weiß es nicht. Dennoch empfinde icih meine alte 6950 nicht als laut (schon gar nicht störend), was wohl vor allem an der Programmierung der Lüftersteuerung liegen wird. Im Idle und Desktopbetrieb ist sie für mich unhörbar, im Spielebetrieb kratzt die Lüftergeschwindigkeit knapp an der 40% Marke, dafür wird die Karte aber auch 81/82°C heiß. Bei dieser Lüfterdrehzahl ist dann zwar ein säuseln unter meinem Schreibtisch zu vernehmen, da ich beim Spielen aber idR auch Tonwiedergabe per Boxen nutze, bemerke ich davon nüscht.
Aber du hast recht, ab 50% Lüfterdrehzahl wird die Karte selbst in meinen Ohren zu laut und bei 100% glaubt man gar einen Staubsauger unterm Schreibtisch stehen zu haben, da fallen einem fast die Ohren ab. ;) Aber im Alltags- und Spielebetrieb wird meine Karte halt nicht derartig laut...

BTT:

Ich verstehe gar nicht, warum das für manche so ein großer Aufhänger ist, dass die Stromversorgung der Vega-GPU abgeklebt war? Who cares? Was zählt ist das fertige Produkt und kein Engineeringsample. Und wie schon von anderen USern geschrieben wurde, selbst bei den grünen gibt es karten mit zwei 8-Pol Strombuchsen, so what?
Aber schade ist es schon, dass der Vegarelease wohl noch eine weile auf sich warten lässt...
 
es ist ein 8-Pol-Stecker in der karte, wurde auf Reddit anhand der Fotos nachgestellt. Das modulare Netzteil haben die Helden nämlich nicht abgeklebt :D
AMD will hier einfach Spekulationen von Hosentaschenredakteuren vermeiden

Edit: Ok, das stimmt nicht. >Es kann auch ein Strang mit 2*8Pol sein.
 
Zuletzt bearbeitet:
Ob es aus Unternehmenssicht Sinn macht zur CES ein Engineering Sample vorzuführen sei mal dahin gestellt.

Ja macht es durchaus. Stell dir mal vor, AMD hätte zur CES nichts gezeigt. Sie sind schon jetzt im HighEnd-Sektor ziemlich spät dran. Wenn jetzt keine Lebenszeichen gekommen wäre, was meinst du was dann los gewesen wäre. Viele Ungeduldige wären ins "Grüne Lager" abgewandert. So kann man sie noch etwas bei der Stange halten.
Insbesondere mit der Aussage, dass sie 10% schneller als eine GTX1080 in Doom/Vulkan ist.
Wird wohl einige in Wartestellung verharren lassen, die sonst spätestens jetzt (ohne Neuigkeiten von AMD-Seite) das Lager gewechselt hätten.

Immerhin besser als eine "Holzkarte" (In Wirklichkeit war es ja eine Holzschraube in einem Dummy: GTC: Gezeigte Fermi-Karte war eine Attrappe | heise online) in die Kamera zu halten, wie ein gewisses andersfarbiges Unternehmen.

Edit:
Wegen der Stromanbindung würde ich jetzt auch noch keine Panik schieben. Engineering Samples dürften von der Stromversorgung her ziemlich Overpowered sein, damit man die Karten auch im Extrembereich testen kann. Diese Stromversorgung wird nicht dem Referenzdesign entsprechen, sonder wird eher wie eine Custom-Karte her ausgelegt sein.
Nimmt man als Vergleich eine GTX1080 so hat man einmal die FE mit ihren 8-PIN-Anschluss und auf der anderen Seite die EVGA GTX1080 FTW mit 2x8-PIN.

Was würde man also tun um die Grenzwerte zu testen? Der Karte soviel Power wie möglich zugestehen.
Von der PIN-Anzahl auf den realen Stromverbrauch des fertigen Produkts Rückschlüsse ziehen zu wollen ist in diesem Fall wirklich mehr als sinnlos ... Was auf der anderen Seite aber grade die Phantasie beider Lager anregt und in so manche Argumentation einfließt.
 
Zuletzt bearbeitet:
Weiß ich schon, nur das ältere Karten im Rivatuner-OSD weitaus mehr anzeigen.
Und warum behauptest du dann, die Karte würde nur 100W anzeigen? Wenn das nur die GPU ist und du das weißt, dann weißt du auch sehr wohl, dass die gesamte Karte eher 150W und mehr aufnimmt. Da frage ich mich schon echt, warum du so dummdreist die Unwahrheit behauptest und jetzt behauptest das auch noch zu wissen.

Somit müsste sich schon etwas an der Fertigung geändert haben
Nenn doch mal bitte das neue Stepping dass es ja geben muss, wenn es solch massiven Fortschritte in der Fertigung gegeben haben soll.

Denke 130W für die ganze Karte sollte da gut hin kommen.
So wie die Karten bisher ja angeblich nur 100W aufnehmen sollten, wie du es erst behauptet hast? :lol:
 
Ja macht es durchaus. Stell dir mal vor, AMD hätte zur CES nichts gezeigt. Sie sind schon jetzt im HighEnd-Sektor ziemlich spät dran. Wenn jetzt keine Lebenszeichen gekommen wäre, was meinst du was dann los gewesen wäre. Viele Ungeduldige wären ins "Grüne Lager" abgewandert. So kann man sie noch etwas bei der Stange halten.
Insbesondere mit der Aussage, dass sie 10% schneller als eine GTX1080 in Doom/Vulkan ist.
Wird wohl einige in Wartestellung verharren lassen, die sonst spätestens jetzt (ohne Neuigkeiten von AMD-Seite) das Lager gewechselt hätten.

Immerhin besser als eine "Holzkarte" (In Wirklichkeit war es ja eine Holzschraube in einem Dummy: GTC: Gezeigte Fermi-Karte war eine Attrappe | heise online) in die Kamera zu halten, wie ein gewisses andersfarbiges Unternehmen.

Edit:
Wegen der Stromanbindung würde ich jetzt auch noch keine Panik schieben. Engineering Samples dürften von der Stromversorgung her ziemlich Overpowered sein, damit man die Karten auch im Extrembereich testen kann. Diese Stromversorgung wird nicht dem Referenzdesign entsprechen, sonder wird eher wie eine Custom-Karte her ausgelegt sein.
Nimmt man als Vergleich eine GTX1080 so hat man einmal die FE mit ihren 8-PIN-Anschluss und auf der anderen Seite die EVGA GTX1080 FTW mit 2x8-PIN.

Was würde man also tun um die Grenzwerte zu testen? Der Karte soviel Power wie möglich zugestehen.
Von der PIN-Anzahl auf den realen Stromverbrauch des fertigen Produkts Rückschlüsse ziehen zu wollen ist in diesem Fall wirklich mehr als sinnlos ... Was auf der anderen Seite aber grade die Phantasie beider Lager anregt und in so manche Argumentation einfließt.

Spielt für mich alles in der selben Liga. Zumal viele ungeduldige längst abgewandert sind.

Finde den Umstand witzig, die Stromversorgung an der Karte verstecken zu müssen, sollte dann nicht auch der Monitor abgeklebt werden? Alles noch in der Entwicklung, nur das Leistungsplus ist bereits in Stein gemeißelt, logisch.
So viel anders als mit einer Attrappe zu werben ist das hier auch nicht. Wenn man dann noch schaut wer welche Webeversprechen halten kann...
 
Ganz ehrlich, entweder erzählst du Mist oder du solltest mal zum Arzt. Ich hatte auch mal eine 6950 mit Referenzkühler und mir sind unter Last die Ohren abgefallen. Ich hatte fast das Gefühl (vom Lärm her), der Lüfter drückt den PC von der Wand weg. Das Ding hat so keinen Monat überlebt und wurde dann getauscht.

Ich hatte auch jahrelang ein solches Referenzdesign, der Punkt war halt, dass die Karte nur beim Spielen (bzw. unter 3D-Last) so unerträglich wurde. Und der Krach ging dann zumindest bei mir im Gewummer von Battlefield 3 o.Ä. unter. Hab aber auch mit geschlossenen Kopfhörern gespielt, die boten selbst in leisen Szenen ein wenig "Schutz".

Würde die Refdesigns von AMD aber trotzdem nicht weiterempfehlen :ugly:
 
Ich hatte auch jahrelang ein solches Referenzdesign, der Punkt war halt, dass die Karte nur beim Spielen (bzw. unter 3D-Last) so unerträglich wurde. Und der Krach ging dann zumindest bei mir im Gewummer von Battlefield 3 o.Ä. unter. Hab aber auch mit geschlossenen Kopfhörern gespielt, die boten selbst in leisen Szenen ein wenig "Schutz".

Würde die Refdesigns von AMD aber trotzdem nicht weiterempfehlen :ugly:
Naja, ich fand die auch im Desktopbetrieb schon zu laut. Mir sind zugegebenermassen auch die hochgelobten MSI Gaming Karten unter Last deutlich zu laut. Das ist mir vor allem bei Witcher 3 & GTA 5 aufgefallen. Die aktuelle Ex-Premiumkarte (deren Referenzkühler unter Last ebenso eine Turbine wie bei der 6950 ist) mit Kompakt-WaKü ist da schon ein deutlicher Schritt in die richtige Richtung gewesen. Und auch zukünftig, egal ob Vega, 1080 TI oder Volta, auf Luftkühlung werde ich nicht mehr setzen, auf Referenzdesign nur wegen dem Standard-Layout.
 
Zurück