Die Konsumenten könnten auch in die richtige Richtung lenken, in dem sie gezielt nicht die ERSTbesten, sondern die seriösesten Reviewer aufrufen/der Publikationen kaufen und weiterverlinken.
In dem Fall war es kein "Fehler". Der getestete Kühler war für die getestete Heizleistung bei den getesteten Lüfterdrehzahlen schlichtweg zu klein. Falsches Marktsegment – meine Test-CPU hat 150 W TDP und der Parcours geht bis 50 Prozent Drehzahl runter. Retail-Modelle für die Plattform gab es zu dem Zeitpunkt zwischen 95 und 130 W TDP und die Low-Profile-Konstruktion versprach 130-W-Eignung bei voller Drehzahl. Aber genau das habe ich halt geschrieben: "Kühler ist in unserem Test überfordert, weil er überhaupt nicht für unsere Testbedingungen gedacht ist." Obwohl das Review somit vornehmlich schlechte Ergebnisse besprochen hat, die der Hersteller auch nicht durch Korrekturen hätte abstellen können, hat sich der Hersteller dafür bedankt, weil ich das Produkt trotzdem fair beschrieben habe und ein "throttelt knapp" in Anbetracht der Überforderung nichts peinliches war. Andere Hersteller sehen so etwas komplett anders, für die zählt bei eine schlechten Ergebnisse unter noch schlechteren Bedigungen nur, dass es ein schlechtes Ergebnis ist.
Umgekehrt wären deren PR-Verantwortlich vermutlich begeistert über ein sehr gutes Abschneiden unter lachhaften Bedingungen. Das Netz ist voll von "kühlt 20 °C [sic] besser als der Boxed-Kühler"-Vergleichen, in denen der Boxed-Kühler zum Teil noch der leisere ist. Dem technisch informiertem Leser rollen sich da die Fußnägel hoch, aber der PRler weiß: Im Kopf bleibt sowieso nicht das genaue Testergebniss, sondern nur dessen positiver Tonfall.
Die meisten Hersteller rangieren halt irgendwo zwischen diesen beiden Extremen; meiner Meinung nach durchaus auch zu ihrem eigenen Nachteil. So hatte ich kürzlich ein Muster aus einer Nullserienproduktion und der Hersteller wollte verständlicherweise sicher gehen, dass da nicht irgendein Fehler auftritt, weswegen er vorab Einblick in die Rohdaten wünschte. Soweit, so gut – kommt immer mal wieder vor. Man war dann aber hoffnungslos enttäuscht, dass man in der Leistungswertung nicht vor absolut top platzierten Konkurrenten lag, obwohl man ein ganz offensichtlich nicht (nur) auf die Leistung optimiertes Konzept gewäht hat. In der Annahme eines Defektes wurde das Muster dann zwecks Prüfung zurückgezogen, aber sowas kann Monate dauern. In meinen Augen eine absolut überzogene Reaktion, denn verglichen mit anderen Produkten, die mit ähnlichem Handicap in die Leistungsmessungen gingen, lag man ausdrücklich vorne und die Leistung war eben nicht der einzige Selling-Point, sodass man ja immer noch viel Potenzial bezüglich der Endnote hatte. Aber der Hersteller hat sich halt so entschieden – zur (unbewussten) Freude zahlreicher Konkurrenten, die jetzt auf Platz 4 statt 5 bzw. 5 statt 6 bzw. ... im Einkaufsführer stehen.
Ich weiß nicht, wie es für ein Schwergewicht wie Nvidia ist, deren Hardware ja selbst einem JTZ noch überdurchschnittlich viele Zugriffe beschert. Aber Endkundenmarken kommen in der Linus-Klasse schon lange nicht mehr mit Bereitstellung der bloßen Hardware durch. Ich habe mal ohne konkrete Namensnennung gehört, dass man bei den Top-Hardware-Stars teilweise eine vierstellige Summe hinlegen muss, wenn man etwas in einem Regelfach im Hintergrund liegen haben möchte. Um zum Fokus des Videos zu werden entsprechend mehr und das heißt bei Linus ja noch lange nicht, dass auch die sachgemäße Funktion des Produktes getestet wird. Überprüfen kann solche Zahlen natürlich niemand, aber gemessen an der Zahl der Videos, der Einnahmen und der geschalteten als solche erkennbaren Werbung ist es naheliegend, dass die Top-Kanäle erhebeliche Zusatzeinnahmen durch Produktplacement haben. Verglichen mit den Werbekosten bei kleinen deutschen Channels sind in oben genannter Klasse mindestens gehoben 5-, wenn nicht 6-stellige für Einzeltests durchaus denkbar und mit soviel Marktmacht kann ein Influencer selbst auf Nvidia & Co Druck ausüben.
Das meinte ich, Dank dafür Schwächen der eigenen Hardeware aufzuzeigen, man lebt also gegenseitig voreinander, und das ist mehr als Fairness. Ich schicke dem Tester mein Produkt, damit er es auf Herz Nieren testen kann, sein Statement hilft mir weiter unentdeckte Fehlerquellen zu beseitigen, oder es zu verbessern weil er oft weiß was meine Kundschaft sich wünscht und auch dazu gehört. Genau daher muss der Tester unabhängig bleiben, er ist damit wesentlicher Teil des Verbraucherschutzes. Ansonsten versuchen Unternehmen aus Prestige und Kostengründen gerne eigene Schwächen zu kaschieren.
"its not a bug, its a feature" ist der beste Beweis dafür, genauso wie "it is work", nein tut es überhaupt nicht wenn ich nicht zig tausend Zeilen Code schreibe. Das wird viel zu oft und gerne vergessen.
In dem Fall war es kein "Fehler". Der getestete Kühler war für die getestete Heizleistung bei den getesteten Lüfterdrehzahlen schlichtweg zu klein. Falsches Marktsegment – meine Test-CPU hat 150 W TDP und der Parcours geht bis 50 Prozent Drehzahl runter. Retail-Modelle für die Plattform gab es zu dem Zeitpunkt zwischen 95 und 130 W TDP und die Low-Profile-Konstruktion versprach 130-W-Eignung bei voller Drehzahl. Aber genau das habe ich halt geschrieben: "Kühler ist in unserem Test überfordert, weil er überhaupt nicht für unsere Testbedingungen gedacht ist." Obwohl das Review somit vornehmlich schlechte Ergebnisse besprochen hat, die der Hersteller auch nicht durch Korrekturen hätte abstellen können, hat sich der Hersteller dafür bedankt, weil ich das Produkt trotzdem fair beschrieben habe und ein "throttelt knapp" in Anbetracht der Überforderung nichts peinliches war. Andere Hersteller sehen so etwas komplett anders, für die zählt bei eine schlechten Ergebnisse unter noch schlechteren Bedigungen nur, dass es ein schlechtes Ergebnis ist.
Umgekehrt wären deren PR-Verantwortlich vermutlich begeistert über ein sehr gutes Abschneiden unter lachhaften Bedingungen. Das Netz ist voll von "kühlt 20 °C [sic] besser als der Boxed-Kühler"-Vergleichen, in denen der Boxed-Kühler zum Teil noch der leisere ist. Dem technisch informiertem Leser rollen sich da die Fußnägel hoch, aber der PRler weiß: Im Kopf bleibt sowieso nicht das genaue Testergebniss, sondern nur dessen positiver Tonfall.
Die meisten Hersteller rangieren halt irgendwo zwischen diesen beiden Extremen; meiner Meinung nach durchaus auch zu ihrem eigenen Nachteil. So hatte ich kürzlich ein Muster aus einer Nullserienproduktion und der Hersteller wollte verständlicherweise sicher gehen, dass da nicht irgendein Fehler auftritt, weswegen er vorab Einblick in die Rohdaten wünschte. Soweit, so gut – kommt immer mal wieder vor. Man war dann aber hoffnungslos enttäuscht, dass man in der Leistungswertung nicht vor absolut top platzierten Konkurrenten lag, obwohl man ein ganz offensichtlich nicht (nur) auf die Leistung optimiertes Konzept gewäht hat. In der Annahme eines Defektes wurde das Muster dann zwecks Prüfung zurückgezogen, aber sowas kann Monate dauern. In meinen Augen eine absolut überzogene Reaktion, denn verglichen mit anderen Produkten, die mit ähnlichem Handicap in die Leistungsmessungen gingen, lag man ausdrücklich vorne und die Leistung war eben nicht der einzige Selling-Point, sodass man ja immer noch viel Potenzial bezüglich der Endnote hatte. Aber der Hersteller hat sich halt so entschieden – zur (unbewussten) Freude zahlreicher Konkurrenten, die jetzt auf Platz 4 statt 5 bzw. 5 statt 6 bzw. ... im Einkaufsführer stehen.
Wow, ich wär auch gerne mal so Markenverblendet um die Realität komplett zu ignorieren. Nettigkeit.
Das Review zur 3080 von Linus hat Millionen klicks
Das Review von JayzTwoCents ebenfalls
Das Review von HUB immer noch >250.000
Und was bezahlt Nvidia dafür?
Eine 3080 FE. Mach mal ne eigene Werbekampagne mit ähnlicher Reichweite und rechne das gegen.
Ich weiß nicht, wie es für ein Schwergewicht wie Nvidia ist, deren Hardware ja selbst einem JTZ noch überdurchschnittlich viele Zugriffe beschert. Aber Endkundenmarken kommen in der Linus-Klasse schon lange nicht mehr mit Bereitstellung der bloßen Hardware durch. Ich habe mal ohne konkrete Namensnennung gehört, dass man bei den Top-Hardware-Stars teilweise eine vierstellige Summe hinlegen muss, wenn man etwas in einem Regelfach im Hintergrund liegen haben möchte. Um zum Fokus des Videos zu werden entsprechend mehr und das heißt bei Linus ja noch lange nicht, dass auch die sachgemäße Funktion des Produktes getestet wird. Überprüfen kann solche Zahlen natürlich niemand, aber gemessen an der Zahl der Videos, der Einnahmen und der geschalteten als solche erkennbaren Werbung ist es naheliegend, dass die Top-Kanäle erhebeliche Zusatzeinnahmen durch Produktplacement haben. Verglichen mit den Werbekosten bei kleinen deutschen Channels sind in oben genannter Klasse mindestens gehoben 5-, wenn nicht 6-stellige für Einzeltests durchaus denkbar und mit soviel Marktmacht kann ein Influencer selbst auf Nvidia & Co Druck ausüben.