Eiskaltmacher.de

Hardware => Grafikkarten => ATI => Thema gestartet von: IceCube am 25. Oktober 2006, 15:32:20

Titel: Na bitte, ATI kann ja doch Strom sparen !
Beitrag von: IceCube am 25. Oktober 2006, 15:32:20
Hi Leute,

ich war ja schon länger auf der Suche nach 'ner Graka fürs Streaming Computing (siehe auch den Thread im Forum Programmieren ...), dazu ist ATI laut gpgpu.org am besten geeignet. Nur ATI-Karten verbraten bis jetzt einfach zuviel Strom.

Das hat sich erfreulich geändert: Mit dem neuen R570 in 80nm-Technik hat ATI einen Hit gelandet, Laut Test bei AnandTech (http://www.anandtech.com/video/showdoc.aspx?i=2858&p=12) ist die Karte so richtig sparsam geworden, auch andere Websites haben dasselbe ermittelt. 36 Pixelshader, 12 Pipelines und 8 Vertexeinheiten bei 575 MHz Originaltakt befördern das Teil in die obere Mittelklasse bei Unterklasseverbrauch. Also, es geht doch.

Mit den Stromsäufern scheint jetzt auch so langsam Schluß zu sein, mit dem R600 und dem G80 bei der Konkurrenz ist wohl die Spitze erreicht: In der VR-Zone gibts eine Roadmap, welche GPUs so in der näheren Zukunft geplant sind: schon Ende 2007, also in gut einem Jahr soll alles auf 65nm laufen. Quelle: http://www.vr-zone.com/?i=4188

 :thumbup: IceCube
Titel: Re: Na bitte, ATI kann ja doch Strom sparen !
Beitrag von: M0rre am 25. Oktober 2006, 15:35:31
wie kommst du darauf das die so sparsam ist? weil eine vergleichbare nvidia braucht ja immernoch weniger?! oder hab ich was falsch versatnden?
Titel: Re: Na bitte, ATI kann ja doch Strom sparen !
Beitrag von: ItsME am 25. Oktober 2006, 17:14:49
und beim R6xx gibt's keine Angabe über dir Strukturgröße... wird wohl bei 80nm bleiben, wobei es komisch wäre nichtmal die Refresh-Chips kleiner zu bauen obwohl bereits die Mainstream-Karten der Vorgänger-Generation (RV630/RV610) auf 65nm basieren :hm:

nVidia sollte auch mal seine Chips verkleinern, sogar beim G80 noch 90nm...

Hier liegt halt der Vorteil von ATI, der aus der Fusion mit AMD resultiert, die Grafikchips können dann in den Fabriken von AMD produziert werden, die für CPUs nicht mehr gebraucht werden, da diese noch kleiner werden, allerdings betrifft das ja dann nur die 80nm-GPUs, da AMD ja auch jetzt erst 65nm CPUs ausliefert...
Titel: Re: Na bitte, ATI kann ja doch Strom sparen !
Beitrag von: IceCube am 25. Oktober 2006, 17:55:55
ATI produziert seine GPUs noch auf Monate bei TMSC in Asien.

@M0rre: nVidia setzt dem Streaming Computing arg enge Grenzen, weil derzeit die Länge der Programme für die Pixelshader noch sehr begrenzt ist und dazu auch die hardwaremäßigen Unterschiede zwischen Vertex- und Pixelshadern das programmieren sehr diffizil machen. Die chipinternen Strukturen der ATI-GPUs machen die allgemeine Programmierung doch vergleichsweise einfach, zumal die Programmlänge nicht begrenzt ist. Das alles ist beim Ballerspielprogrammieren eher unwichtig, aber wenn man wie ich die massiv parallelen ALUs in den GPUs für richtige, allgemeine Berechnungen einsetzen will (halt Streaming Computing ...) dann ist der Unterschied schon ein Kriterium.

Was stimmt, ist daß nVidia bislang immer etwas sparsamer als ATI war, trotz 90nm-Technologie, aber der R570 holt jetzt erfreulicherweise auf und liefert jetzt echt konkurrenzfähige Performance/Watt-Werte.

Morgen ist erstmal 'ne Saphire x1950pro fällig, Snogard hat sie schon und ich hab eh' in Frechen zu tun ...  :grin:
Titel: Re: Na bitte, ATI kann ja doch Strom sparen !
Beitrag von: M0rre am 25. Oktober 2006, 19:41:13
joa aufschliessen tun sie aber deswegen sind es für mich noch lange keine stromsparer!