These forums have been archived and are now read-only.

The new forums are live and can be found at https://forums.eveonline.com/

Allgemeines

 
  • Topic is locked indefinitely.
Previous page123Next page
 

Grafikkarte für EVE

First post
Author
CCP Phantom
C C P
C C P Alliance
#21 - 2015-03-12 10:50:21 UTC
Einige off-topic Beiträge wurden entfernt.

Bitte berücksichtigt bei Diskussionen die Forenregeln und vermeidet Diskussionen, die zu sehr vom Thema (hier: welche Grafikkarte mit gutem Preis-Leistungsverhältnis ist für EVE zu empfehlen) abdriften, vielen Dank!

CCP Phantom - Senior Community Developer

Charadrass
Angry Germans
#22 - 2015-03-12 14:10:01 UTC
Gerhard Wunderlich wrote:
Hey,
jemanden auf dem neuesten Stand? Bin schon seit Jahren raus...Kennt jemand was um die 150-250€ mit gutem P/L Verhältnis?

Habe noch eine Radeon 6970...funkzt *noch* bei 6 Clients wirds aber langsam Lol


KFA GALAX 970 4 GB kostet um die 314 euronen. etwas über budget, aber eben deutlich besser.
Gerhard Wunderlich
Evola Deliveries
#23 - 2015-03-12 16:02:31 UTC
Ich wollt ja nicht eve zum Beruf machen :D Ich würde auch 300 Euro dafür zahlen, aber ich vermute mal das ich davor meinen Arbeitspseicher und CPU erweiteren bzw. ersetzen sollte... im Moment noch Phenom X4 980 BE...
Charadrass
Angry Germans
#24 - 2015-03-12 19:56:51 UTC  |  Edited by: Charadrass
wenn du über 8gb oder mehr ram verfügst macht bei der cpu ein upgrade derzeit wenig sinn.

Edith sagt: die cpu reicht für die grafikkarte
stup idity
#25 - 2015-03-13 09:04:19 UTC
Charadrass wrote:
wenn du über 8gb oder mehr ram verfügst macht bei der cpu ein upgrade derzeit wenig sinn.

Edith sagt: die cpu reicht für die grafikkarte


Wer ist nur diese Edith, die dir das so einflüstert, frag ich mich. Und was soll diese Aussage bdeuten?

Man bekommt ein Bild? Ja, das stimmt.

Die CPU bremst die Grafikkarte nicht aus? Das stimmt nicht - zumindest nicht pauschal.

Hier gibt es die passende Diskussion:
http://www.tomshardware.co.uk/answers/id-2455638/phenom-980-ghz-bottleneck-gtx-970-substantially.html

Relativ weit oben sind auch Benchmarks verlinkt, die verschiedene CPUs mit der gleichen HI-End Graka paaren. Der verwendete X4 750k (Overclocked [auf 4.3Ghz]) liegt wohl ein paar Prozent Leistung über dem X4 980 auf Standardtakt, entsprechend sollten die Werte ganz gut vergleichbar sein.

Ergebnis ist, dass die CPU zwischen nahezu gar nicht (z.B. in BF 4) und deutlich über ein Drittel ausbremst. In manchen Kommentaren wird bei anderen Spielen (z.B. Watchdogs) von fast 50% gesprochen. Außerdem lässt sich feststellen: Übertakten kann hier ziemlich was bringen.

Und bevor mir wieder jemand vorwirft, dass das ja alles nichts mit Eve zu tun hat: Ja, das stimmt. Keine Ahnung, wie es sich in Eve verhält.

Gerhard Wunderlich mag da natürlich Licht ins Dunkel bringen, in dem er uns verrät, wie denn überhaupt sein Setup zu Hause aussieht: Anzahl Monitore in welcher Auflösung, welche Grafikeinstellungen gewünscht sind und vor allem auch, wie die CPU Auslastung denn aussieht, wenn die Performance nicht mehr ausreicht.

Stellt sich vielleicht noch die Frage, warum das überhaupt alles interessiert. Bremst die CPU die GPU recht stark, kommt man in der Regel auch mit einer kleineren GPU auf vergleichbare Leistung für weniger Geld.


I am the Herald of all beings that are me.

l0rd carlos
the king asked me to guard the mountain
#26 - 2015-03-13 09:35:03 UTC
Kaum loescht Phantom die "Ja, aber !!!" post fangen sie wieder an.

Youtube Channel about Micro and Small scale PvP with commentary: Fleet Commentary by l0rd carlos

Kira Hhallas
Very Drunken Eve Flying Instructors
Brotherhood Of Silent Space
#27 - 2015-03-13 09:42:18 UTC  |  Edited by: Kira Hhallas
Meine Erfahrung:

Mein Setup:
i5- 2500K; 8GB Speicher; Kingston SSD 128 GB (Nur für EVE);
ATI Radeon 6950 2GB

Meine Wahl wäre für EVE eine Nvidia 970er.

Aus meiner Erfahrung als EDV Techniker , mehrer Chiligreen und mehrer Jahre DiTech, muß ich sagen das eine i5-2500 für 4 Clients sicher reicht und für 6 Clients sicher auch reichen wird.
Und wenn ich auf High Spielen möchte wird die 970er für 2x 22" TFT in Full HD schon für meine vier Clients reichen.

Wenn ich mir jetzt ein neues System kaufen würde, würde ich zu einem kleinen i7 greifen ideal 4C / 8T.
16GB Speicher und 2x SSD 128GB und als Daten Grab 2x 1TB

Als Grafikkarte würde ich wenn du bei 2 - 3 Monitore Bleibst die 970er nehmen.
Als Monitore würde ich Dell XPS oder die HP TFT mit IPS Panel empfehlen. Wer noch mehr Geld ausgeben möchte ist bei EIZO gut aufgehoben.

Abraten würde ich noch von den 4k Panels. Alles was sinn macht kostet ein Vermögen und ohne DP+ Anschluss bekommt mann nur 30HZ bei der Auflösung über HDMI / DVI drüber ....
Weiters hat man dann bei den günstigen 4k Panel immer eine Schlieren Bildung und eine Reaktionszeit bei schnellen Drehungen wo einem nur das Essen wieder Raufkommt.

Auf die Frage wie die CPU Auslastung aussieht wenn die Leistung der Grafikkarte nicht mehr ausreicht.
Der i5-2500 dödelt irgendwo zwischen 25% und 45% herum. (CPU ist nicht übertaktet)
(Ich betreibe meine Clients im Fenstermodus 1600x900. Medium bis High Einstellungen.)

Da läuft aber noch eine menge Schund mit. Youtube, FB, Skype,.. bla blub....

Was man aber beachten muß, ist das Windows bei der Grafikleitung immer Fokussiert. Das Fenster was im Vordergrund ist hat auch die meisten FPS. Wenn die Grafikpower zu Schwach ist, minimiere einige Clients, dann fressen diese keine (weniger) Grafikleistung mehr.

Gerade im PVP kann ich nur 2 - 3 Clients Effektiv steuern, da reicht es wenn der Scout einfach nur Ton macht wenn er getarnt am WH steht.

Wenn du dann aber dann Sagst du willst unbedingt für jeden Client einen Monitor, würde ich zu 2x 960er Greifen.
Alleine wegen den TFT Anschlüssen. Gewürzt mit einer eigenen SSD für die EVE Clients hast du dann auch vernünftige Ladezeiten.....

Noch fragen oder wurden jetzt alle Klarheiten beseitigt...

Kira Hhallas - Austrian EvE Community - ingame =Österreich= - StoryPage - https://oneshotstorys.wordpress.com/ -


Cuiusvis hominis est errare, nullius nisi insipientis in errore perseverare

l0rd carlos
the king asked me to guard the mountain
#28 - 2015-03-13 09:54:15 UTC
Oh, ich sehe gerade OP will vielleicht 3 Bildschirm bentuzten. Da wuerde ich eher zur r9 290 und nicht zur 280x greifen. Bei der 280x kann man ohne weiteres keine 3 Bildschirme anschliessen wenn diese verschienden sind. Also verschiedene Hersteller, groesse etc. Bei genau den gleichen Bildschirm Model soll es wohl gehen. Angeblich auch wenn man einen aktiven Display port adabter benutzt.

Oder halt ein Nvidia model in der gleichen preisklasse.

Youtube Channel about Micro and Small scale PvP with commentary: Fleet Commentary by l0rd carlos

Gerhard Wunderlich
Evola Deliveries
#29 - 2015-03-13 10:14:00 UTC
stup idity wrote:


Gerhard Wunderlich mag da natürlich Licht ins Dunkel bringen, in dem er uns verrät, wie denn überhaupt sein Setup zu Hause aussieht: Anzahl Monitore in welcher Auflösung, welche Grafikeinstellungen gewünscht sind und vor allem auch, wie die CPU Auslastung denn aussieht, wenn die Performance nicht mehr ausreicht.




Phenom II x4 985 BE
8 GB RAM
Radeon 6970
54 GB SSD
2x 24" Benq ISP Monitore Full HD


den dritten Monitor habe ich inzischen verworfen Lol

Mit der CPU habe ich mir inzwischen gedanken gemacht, wollte eventuell zu einem FX 8 Core upgrade...Würdei ch mir ein neues system kaufen würde ich zu Intel greifen, will aber möglichsten im guten P/L Berreich bleiben und das schaffe ich glaube ich nicht wenn ich alles ersetzen muss. Grafikkarte wie gesagt, 970 ist mir zu teuer, desw. tendiere ich inzwischen stark zur GTX 960.
stup idity
#30 - 2015-03-13 10:36:30 UTC
l0rd carlos wrote:
Oh, ich sehe gerade OP will vielleicht 3 Bildschirm bentuzten. Da wuerde ich eher zur r9 290 und nicht zur 280x greifen. Bei der 280x kann man ohne weiteres keine 3 Bildschirme anschliessen wenn diese verschienden sind. Also verschiedene Hersteller, groesse etc. Bei genau den gleichen Bildschirm Model soll es wohl gehen. Angeblich auch wenn man einen aktiven Display port adabter benutzt.

Oder halt ein Nvidia model in der gleichen preisklasse.


Die 6970 war da aber auch schon genauso zickig. Wenn er es damit hinbekommen hat, sollte es mit den neueren Karten auch gehen - mal vorausgesetzt, die benötigten Anschlüsse sind vorhanden.


Quote:
Kaum loescht Phantom die "Ja, aber !!!" post fangen sie wieder an.


"Ja, aber" ist doch noch nett ausgedrückt. Weiß gar nicht, was du hast.

I am the Herald of all beings that are me.

Charadrass
Angry Germans
#31 - 2015-03-13 12:19:43 UTC
du nervst echt.
natürlich bekommt man ein Bild.
Der sog. Flaschenhals tritt möglicherweise auf, allerdings lässt sich darüber streiten, ob man mit 60-70 FPS nicht doch noch spielen kann. Klar sinds keine 120+ FPS, allerdings sollte dir klar sein, dass man bei 60-70 FPS nicht eine neue CPU inkl. Board kauft, nur um 30 FPS mehr zu bekommen.

Von daher: die CPU reicht für die Grafikkarte. Es macht keinen Sinn diese in die Tonne zu kloppen.
Charadrass
Angry Germans
#32 - 2015-03-13 12:20:53 UTC
Gerhard Wunderlich wrote:
stup idity wrote:


Gerhard Wunderlich mag da natürlich Licht ins Dunkel bringen, in dem er uns verrät, wie denn überhaupt sein Setup zu Hause aussieht: Anzahl Monitore in welcher Auflösung, welche Grafikeinstellungen gewünscht sind und vor allem auch, wie die CPU Auslastung denn aussieht, wenn die Performance nicht mehr ausreicht.




Phenom II x4 985 BE
8 GB RAM
Radeon 6970
54 GB SSD
2x 24" Benq ISP Monitore Full HD


den dritten Monitor habe ich inzischen verworfen Lol

Mit der CPU habe ich mir inzwischen gedanken gemacht, wollte eventuell zu einem FX 8 Core upgrade...Würdei ch mir ein neues system kaufen würde ich zu Intel greifen, will aber möglichsten im guten P/L Berreich bleiben und das schaffe ich glaube ich nicht wenn ich alles ersetzen muss. Grafikkarte wie gesagt, 970 ist mir zu teuer, desw. tendiere ich inzwischen stark zur GTX 960.


Bloß nicht. die 960er ist die Platine nicht wert auf der sie zusammengelötet wurde.
Kackpappe
State War Academy
Caldari State
#33 - 2015-03-13 17:21:48 UTC  |  Edited by: Kackpappe
Charadrass wrote:
Kackpappe wrote:

Und wie ;) nie wieder nvidia
und da Star Citizen mit mantle kommt bin ich hier wohl auch im vorteil mit amd


Solange bis DirectX12 rauskommt eventuell. Ab da übernehmen dann wieder die Nvidiakarten :)


Naja darüber könnten wir uns jetzt täglich streiten Big smile möchtest aber weder du noch ich P

Noch zur anmerken an den Ersteller dieses Posts. Im Sommer kommen neue Amd karten also könnte man auch noch warten wenn es nicht sofort sein muss.

Ich für meinen teil kann die r7 260x/r9 270x und zu guter letzt die r9 290x vapor-x mit 8gb empfehlen (alle von sapphire) . Letztere kostet aber um die 500 Euronen also fällt die wohl raus.

ähm ja und schönes Wochenende Blink
Charadrass
Angry Germans
#34 - 2015-03-14 09:17:02 UTC
Wieso willst du über Fakten die bereits vorliegen streiten?

Ich bin weder Fan von Nvidia noch von AMD, ausserdem auch nicht von Intel. Ich bin Opportunist. Ich nutze die Hardware, die momentan am besten ist. Mit kleinem Focus auf Preis/Leistung.
Und nein, da kommt AMD momentan nicht vor, so leid es mir tut. Genausowenig bei den CPUs. Ist halt so. Sollte AMD irgendwann wieder etwas produzieren, was besser als Nvidia / Intel ist, dann wird selbiges auch von mir geschrieben. Kann ich aber zur Zeit leider nicht :)

Fakten die gegen AMD sprechen zur Zeit:
- um 2/3 schlechtere Performance pro Watt als Nvidia
- lauter / wärmer als Nvidia
- um bis zu 2/3 höherer Stromverbrauch <- das ist sogar am Geld messbar über ein Jahr

bei CPUs:
- weniger Rechenoptionen pro MHz Takt gegenüber Intel ( liegt an der Architektur )


Ich lasse bewusst die Optionen des Übertaktens weg, da man erstens dabei viel kaputt machen kann und zweitens gibt es keine Garantie, dass die Wunschtaktraten auch mit der jeweiligen Hardware erreicht werden.
Kackpappe
State War Academy
Caldari State
#35 - 2015-03-14 15:38:08 UTC  |  Edited by: Kackpappe
Charadrass wrote:
Fakten die gegen AMD sprechen zur Zeit:
- um 2/3 schlechtere Performance pro Watt als Nvidia
- lauter / wärmer als Nvidia
- um bis zu 2/3 höherer Stromverbrauch <- das ist sogar am Geld messbar über ein Jahr[quote=Charadrass]



bei CPUs:
- weniger Rechenoptionen pro MHz Takt gegenüber Intel ( liegt an der Architektur )


Laut und Warm? naja das kannst streichen denn nvidia glänzt da auch nicht sonderlich in dem bereich. Beim Verbrauch meckern aber dann doch lieber die 100-200 Euronen mehr zahlen? Graffikkarten wirft man alle 2 Jahre raus oder Sogar 1-2x pro jahr und das rechnet sich dann? Bin mir nicht sicher wie viele Jahrzehnte du die in Gebrauch hast damit sich das auf der Abrechnung bemerkbar macht.

mag stimmen aber mir sind 2-3 fps weniger egal und kann damit leben.Ab 60 fps merkt dein Auge sowieso keinen unterschied mehr.


Es reicht auch viel weniger um einen pc zu zerstören. AMD mag nicht der beste Hersteller sein aber nvidia wohl auch nicht wenn man seine kunden täuschen muss um seinen Plunder zu verhökern. Alleine das reicht mir schon dies nicht noch zu unterstützen.
Charadrass
Angry Germans
#36 - 2015-03-14 23:52:46 UTC
/me würde gerne die Maxwell Grafikkarte sehen, die Laut und Warm ist :)
Meine drei 980er GTX laufen bei 57 Grad unter Volllast.

Ob eine Grafikkarte unter Volllast maximal 158 Watt oder 450 Watt zieht IST ein gewaltiger Unterschied auf der Stromrechnung.

Die Täuschung von Nvidia war unnötig und falsch, aber nichtsdestotrotz ist diese Grafikkarte immernoch besser als die AMD-Pendants. Leider :)
Kackpappe
State War Academy
Caldari State
#37 - 2015-03-15 00:59:21 UTC
ich werde dir ausnahmsweise recht geben. Es ist Spät und ich habe keine lust mehr auf dieses Thema Blink
Ivan Grzonka
Bikini Bottom Surfer
Pandemic Horde
#38 - 2015-03-16 10:38:58 UTC  |  Edited by: Ivan Grzonka
Nur mal so ne Interessenfrage: Ihr wisst schon wie die r8/r9 funktioniert oder ?
Die sind so ziemlich die schlechtesten Grakas für langzeitdaddeln - alleine die Temperaturgrenze sollte einem Angst machen wo ATI hingeht und Leistung rausquetscht - also ich will keine 97 °C in meinem Rechner liegen haben - den bei ATI setzt nicht immer der feste max. Takt die Grenze sondern soweit ich mich erinnere die Temperatur - eine r9 taktet sich so lange hoch bis du die 97 Grad erreichst - was ebenfalls heisst -> je besser die Kühlung desto höher der Takt desto schneller die Graka....(weswegen auch die realen gemessenen Angaben ein so grosses Spektrum haben)

Wer zuverlässig lange daddeln will sollte sich einfach ne NVidia holen - die haben zwar ein wenig mist mit den aktuellen Treibern gebaut aber wenn man nen "älteren" Treiber nimmt ist allet sexy...
Ich hab ne GTX 770 und kann mich absolut nicht beschweren....

Übrigens solltet ihr mal nen Auge auf den Stromverbrauch legen von der ATI - brauchste fast nen eigenes Kraftwerk für das Ding.
Gibt nen Test da hat die r9 290x (wenn ich mich recht entsinne) knappe 600 Watt gezogen (Die meisten denken im übrigen dass die Angabe von TDP der Gesamtenergieverbrauch ist, was völlig daneben liegt -> es dient lediglich zur Dimensionierung des Kühlsystems und sagt nur was die !ANGEBLICH! maximale thermische Abwärme ist, was bei AMD aka ATI üblicherweise mit allen mitteln schön gefönt wird, was im ebenfalls bedeutet, dass wenn ihr so fahrlässig seid und euch dennoch eine ATI holt, dass ihr für mehr als ausreichende Gehäusekühlung sorgen solltet...)

Ich rate definitiv zu einer NVidia !

MfG
stup idity
#39 - 2015-03-16 15:25:54 UTC
Hier kann man wunderbar die aktuellen Graikkarten vergleichen und sich selbst ein Bild machen:

http://www.tomshardware.com/charts/2015-vga-charts/01-3DMark-FireStrike,3664.html


Zum Thema Energieeffizienz:
Ja, NVIDIA sind da momentan deutlich vorne. Allerdings sollte man sich die tatsächlichen Kosten auch mal vor Augen halten:
Eine kWH zu verbrauchen bedeutet, dass man einen Verbrauchsunterschied von 40 bis 45 Watt (unter Berücksichtigung des Wirkungsgrads des Netzteils) für 20 Stunden aufrecht hält und sie kostet 0,28€. Ist die verbrauchsstärkere Karte nur 30€ günstiger, sind wir schon bei 2000h. (Gilt natürlich nur, solange kein neues Netzteil angeschafft werden muss)

Zu beachten wäre auch, dass der Verbrauch im Idle sich eigentlich bei allen aktuellen Karten nicht wirklich unterscheidet. Je nach Benutzerprofil also entsprechend weniger ausmacht,

Und: der Rest des Systems und der Monitor (oder mehrere) verbrauchen auch Strom, ob da auf 200-250 Watt Systemverbrauch nun 180 oder 220 drauf kommen, spielt letztendlich auch keine so große Rolle.

@Ivan:
Das galt zwar alles für die ersten R2x0 Karten, sollte sich aber durchweg gegeben haben.

@Chari:
450 Watt nur für die Graka gibts eigentlich nur bei der R295x2 und da sagt der Name ja schon, dass es zwei Chips auf einer Platine sind - 2in1 also. Preislich und in vielerlei anderer Hinsicht, ist das Ding aber eher unsinnig. Allerdings soll auch die noch "halbwegs" leise sein.

@OP:
Ehrlich gesagt, würde ich an deiner Stelle im Moment keine neue Grafikkarte kaufen, sondern noch ein paar Wochen warten. AMD's nächste Generation kommt im April (angeblich) und man munkelt von NVIDIA's GTX 960 TI. Erstes drückt mit ein wenig Glück die Preise (oder ist ganz furchtbar toll, weiß man nicht) und zweites dürfte innerhalb deines Budgets liegen, ein bisschen mehr Leistung als die normale 960er mitbringen und eventuell 3GB (oder mehr) Speicher (was es dann zu einer defintiven Kaufempfehlung machen würde).

Ich habe am WE mal einen Blick auf Prozessorlast und Grafikhunger von Eve geworfen und es sah so aus als wäre EVE in normalen Situation eher durch die Grafikarte limitiert.
Zudem habe ich gesehen, dass jede Instanz von Eve in 60+ Threads läuft (Resourcenmonitor), was ein Hinweis auf gute Skalierbarkeit über mehrere Prozessorkerne sein kann (nicht muss), was wiederum ein Argument für das Upgrade zum 8-Kerner wäre (aber vom oberen Ende), falls der aktuelle Prozessor denn überhaupt in der Nähe seines Limits ist.
Ist aber alles mit Vorsicht zu genießen, da aufgrund meiner doch recht anderen Hardware eine Menge Abstraktionsvermögen eigneflossen ist.


I am the Herald of all beings that are me.

Charadrass
Angry Germans
#40 - 2015-03-16 16:34:37 UTC
Danke fürs Posten. Sieht man ja eindeutig wer das Performancechart anführt.

Zur Skalierbarkeit. Ein Eveclient belegt eine CPU. Nein nicht mehr.
Previous page123Next page