Hallo Leute,
Ich bins tatsächlich, der IceCube, der wieder aus den Nebeln des Nichts entsteigt und die Babypause so langsam beendet.
Mittlerweile ist ja ein Jahr ins Land gegangen und es hat sich auf dem Gebiet der GPGPU etwas getan, das Thema ist in aller Munde. Meine Experimente haben bislang wenig bzw. frustrierendes erbracht: "Brook" habe ich zwar zum Laufen gebracht, aber 2/3 der Beispiele stürzten ab, das ganze war wohl eine Stand Alone-Lösung einer Uni, wo die Protagonisten fertig mit ihrem Doc und damit verschwunden sind und keiner mehr den Ball auffängt.
Das selbe mit Sh, das als großes open source-Projekt begann und dann mit dem Schritt zur Komerzialisierung lautlos unterging. Schade, der Ansatz war genial.
Bleibt CUDA von nVidia, was verständlicherweise nur auf nVidia GPUs läuft, dafür aber gut dokumentiert und verfügbar und auch (einigermaßen) universell ist.
Der Riese aus Redmond ist allerdings aufgewacht und gedenkt, eine weitere Idee, wie immer etwas spät, unter seine nimmersatten Fittiche zu nehmen: Es gehen immer wieder Gerüchte, daß DirectX11 Elemente für den allgemeinen, hochparallelen Gebrauch der Shader in einer GPU enthält.
Einerseits liebe ich M$ nicht wirklich, andererseits wär das schon toll: M$ ist es nämlich egal, ob das alles auf ATI oder nVidia läuft, die absolut notwendige Hardwareneutralität wär hergestellt. Natürlich ist zu erwarten, das dazu das eklige Vista Mindestvorraussetzung ist (was wiederum den erfolg in Frage stellt), na ja, warten wir auf Windows 7, vll. macht M$ ja mal Hausaufgaben und erweist sich als lernfähig, denn der Stern sinkt schon ...
Die informatischen Ansätze von DirectX11 sind den Gerüchten nach dieselben wie bei meinem leider verflossenen Favoriten Sh: Sh war so genial programmiert, daß allgemeine Aufgabe in Shadersequenzen umgeformt wurden, eine sehr abstrakte Sache, aber sie wurde im einzigen brauchbaren Buch zu Sh erläutert. Dennoch, wegen der Komerzialisierung (Bitte zahlen Sie 2500,- $$$$) ein Selbstabschuß. Denn wegen der relativen Unbekanntheit von Sh hat das natürlich niemand getan.
Soweit der Status, ich bleib hat dran, denn GPUs als hochparallele Coprozessoren einzusetzen, ist einfach sexy
Viele Grüße, euer IceCube