es ist 1600 vonnöten, dank der cpu.
die gtx660 ist uneffizient, da nvidia.
Nein, HD7870 nimmt deutlich mehr Strom auf und ist deutlich lauter und dies durchgängig. Also gegenteilig.
I3-3220 läuft mit 1333 und 1600 standardmäßig.
es ist 1600 vonnöten, dank der cpu.
die gtx660 ist uneffizient, da nvidia.
Nein, HD7870 nimmt deutlich mehr Strom auf und ist deutlich lauter und dies durchgängig. Also gegenteilig.
I3-3220 läuft mit 1333 und 1600 standardmäßig.
hab ich ne hd7870 empfohlen?
der pc braucht nichtmal ne 7850 mit der lahmen cpu und hdd
ja dann nimmt man sofort 1600. die 2 eur mehr?
achja, die hd7870 wär sogar schneller.
hab ich ne hd7870 empfohlen?
der pc braucht nichtmal ne 7850 mit der lahmen cpu und hdd
ja dann nimmt man sofort 1600. die 2 eur mehr?
Das mit dem lahm ist gut Schlägt bis auf wenige Zambezi und Vishera genau wie der i3-2100 so einiges...
Green WD aufgrund der Erfordernis in Teilen stromsparend zu sein, zumal wie gesagt (wie oft habe ich es eigentlich schon betont?) Geschwindikeit aufgrund nicht erhöhten Anforderungen nicht das Wichtigste ist. 2€ mehr sind es leider nicht, da muss man ein wenig mehr bezahlen wenn es besser werden soll. Und siehe oben, 1333 vs 1600 soll ein Mensch erstmal bemerken. Grafikkarte kann aufgrund der Tatsache, dass mehr Spiele Grakalastig als CPU-lastig sind, ruhig etwas kräftiger sein.
Damit wir uns hier aber nicht im Kreis drehen - Es war ein Vorschlag der auf Bedürnisse angepasst ist, er soll nicht allgemeingültig sein. Ich habe bpsw einen Monitor für meinen Freund mit ausgewählt, meil einer benötigt wird, ohne hat man natürlich mehr Spielraum.
dann ist die hd7870 trotzdem die bessere wahl.
I3-3220 1333/1600 ca.10 euro unterschied im preis.
chipsatz da gibtes keinen mehr,Ist alles in der Cpu auf dem board da ist nur ein verkrüppeltes etwas wo deine laufwerke drann hängen und der rest
gtx660 effizienter?Auf jeden fall aber auch lahmer.
HD7870 mehr Strom ist aber auch schneller, und beim einem rechner zum spielen ist das mehr an Strom sowas von egal.
I3-3220 1333/1600 ca.10 euro unterschied im preis.chipsatz da gibtes keinen mehr,Ist alles in der Cpu auf dem board da ist nur ein verkrüppeltes etwas wo deine laufwerke drann hängen und der rest
gtx660 effizienter?Auf jeden fall aber auch lahmer.
HD7870 mehr Strom ist aber auch schneller, und beim einem rechner zum spielen ist das mehr an Strom sowas von egal.
Die HD7870 ist 4% schneller, da habe ich aber viel von. Ich laufe Gefahr mich zu wiederholen: Dies war eine beispielgebende Konfig für einen Freund von mir, der wie meine ich auch schon ein paar Mal angedeutet, seine eigenen Wünsche hatte. Da man generell in seinen Games nun nicht umbedingt 4% Unterschied spürt, man aber heute ein kleines bisschen auf seine Umwelt achten kann, nimmt man lieber die Variante, die 20W spart und zudem noch leiser ist und noch ein paar nette Features bietet, die AMD nicht hat. Die dürften ja wohlbekannt sein, nicht?
Achja, solange Intel seine eigenen Produkte nachwievor als Chipsatz bezeichnet und auch intern benennt und diese auch Charakteristika dieser aufweist, denke ich, dass wir auch dabei bleiben können.
Und da mich diese penetrante Art langsam nervt, werde ich mal die Biege machen
Retro? Woher hast du das? Die ist bia zu 20% schneller. Und ich red nicht von cod.
Die ist echt nen ganzes Stück schneller.
Und wie soll die laut sein? Kann ich bspw. von der Asus-DC2 oder Sapphire absolut nicht behaupten. Okay das bisschen weniger Noise merkt man sicher genau so wenig, wie man 4% mehr Leistung bemerken würde.
Naja egal.
Hey i just met you
And this is crazy
But here my Flamewar
So Threadsplit maybe
Die HD7870 ist 4% schneller, da habe ich aber viel von. Ich laufe Gefahr mich zu wiederholen: Dies war eine beispielgebende Konfig für einen Freund von mir, der wie meine ich auch schon ein paar Mal angedeutet, seine eigenen Wünsche hatte. Da man generell in seinen Games nun nicht umbedingt 4% Unterschied spürt, man aber heute ein kleines bisschen auf seine Umwelt achten kann, nimmt man lieber die Variante, die 20W spart und zudem noch leiser ist und noch ein paar nette Features bietet, die AMD nicht hat. Die dürften ja wohlbekannt sein, nicht?
Achja, solange Intel seine eigenen Produkte nachwievor als Chipsatz bezeichnet und auch intern benennt und diese auch Charakteristika dieser aufweist, denke ich, dass wir auch dabei bleiben können.
Und da mich diese penetrante Art langsam nervt, werde ich mal die Biege machen
Penetrant? das einzige penetrante hier ist dein versuch die sparsamkeit der gtx 660 zu betonen ist aber auch egal.
Die 20W die man spart gehen woanders wieder drauf auch egal.
Intel® B75 Express Chipsatz = Platform controller Hub auch egal.
Penetrant? das einzige penetrante hier ist dein versuch die sparsamkeit der gtx 660 zu betonen ist aber auch egal.
er hat aber Recht.
nein, es ist nicht so, es gibt keine gründe bei einer single gpu grafikkarte auf nvidia zusetzen, das erkennt aber ein verkappter nvidia fanboy nicht, check mal hardwareluxx.
nein, es ist nicht so, es gibt keine gründe bei einer single gpu grafikkarte auf nvidia zusetzen, das erkennt aber ein verkappter nvidia fanboy nicht, check mal hardwareluxx.
Fanboy? Oje, das Niveau sinkt ....
Hast du es immer noch nicht begriffen? Es geht hier um wirtschaftlichkeit, nicht um Geschwindigkeit ohne Ende. HD7870 nur 4% schneller (wo ich das her habe? Lese mal ein wenig computerbase.de, dann wird dir das schnell auffallen, 1920x1080 mit AF und AA, was ein normalo auch mal aktiviert, da sind sogar manchmal nur 2%) und dabei noch gute 20-40W unterschied! Ich wiederhole mich hier andauernd, es ging um etwas Individuelles! Wenn du da gewisse Aspekte nicht verstehst, dann kann ich auch nichts dafür, um mal in deiner Sprache zu sprechen: Dann kannst du AMD/ATI Fanboy doch lieber ins computerbild-forum gehen, da wird man dich sicherlich verstehen.
Und wie bereits angeklungen: Eure penetrante Art, ohne Punkt und Komma, unhöfliche, befehlsartige Aussagen zu formulieren, ist wirklich furchtbar. Der von Euch gepflegte Stil ist einfach widerlich.
Grundsätzlich sind ATI-Karten aber bei AA nochmal schneller.
Ansonsten ist das wohl hier echt Geschmackssache: Die GeForce braucht einfach mal 25% weniger Strom und kostet bei mir zumindest 10% mehr, hat aber n paar Prozentchen weniger Leistung.
20 watt sparen macht keinen sinn bei solch einem pc.
20 watt sparen macht keinen sinn bei solch einem pc.
Wenns keinen Leistungsschub gibt, macht's aber auch keinen Sinn die zu verschwenden.
Schon mal dran gedacht, dass es Gründe FÜR nVidia geben kann? Ich glaube ganz ehrlich eher, dass DU hier der ATI Fanboy bist. Wenn ich doch den Fakt habe: 4% schneller und noch ma 20 - 40 Watt druff oder einfach die nVidia nehmen - da lohnt sich ja alleine schon vom Bild her die ATI nicht.
Welches Spiel lastet schon die Grafikkarte so aus das du das groß merkst, ausserdem sind die 20 Watt irgendwann viel, je nach Betriebsdauer.
Meine Meinung! Außerdem... 4%!!! VIER! Das ist einfach mal NIX.
Wenns keinen Leistungsschub gibt, macht's aber auch keinen Sinn die zu verschwenden.
Schon mal dran gedacht, dass es Gründe FÜR nVidia geben kann? Ich glaube ganz ehrlich eher, dass DU hier der ATI Fanboy bist. Wenn ich doch den Fakt habe: 4% schneller und noch ma 20 - 40 Watt druff oder einfach die nVidia nehmen - da lohnt sich ja alleine schon vom Bild her die ATI nicht.
nö bin kein nvidia hasser oder ati fanboy, es gibt nur einfach keine guten gründe für eine nvidia im single gpu bereich zurzeit
und wir reden von deutlich mehr als 4%, 20-30% ja.
Je nach Anwendung mind. ~10%
Du hast noch kein Benutzerkonto auf unserer Seite? Registriere dich kostenlos und nimm an unserer Community teil!