zum einen:die meiste endanwendersoftware ist noch auf singlecores hin optiniert, das wird für nicht übermäßig anspruchsvolle anwendungen auch noch sehr lange so bleiben, vermutlich, bis die gängigen compiler von natur aus auf multicore hin optimieren, das wird aber mit sicherheit noch so lange dauern, bis wir 16cores haben. ABER das heißt nicht, dass leute, die nur singlecore-anwendungen nutzen, nicht von dualcores profitieren, undzwar, indem lastprofile, in dem durch gleichzeitige häufung von viel rechenaufwand in mehrern anwendungen ein singlecore zu 100% (ich weiß, 100% last ist sehr schwammig definiert) ausgelastet ist, der anwender also merkt, dass der rechner am limit ist. bei dualcores ist durch die aufteilung auf zwei mehr, oder weniger unabhängige cores dieses limit erst sehr viel später erreich, auch, wenn ein core ausgelastet ist, kann der andere noch genug kapazität haben, um dem anwender ein flüssiges system zu vermitteln, denn bei zwei cores (mit gleicher architektur und takt) hat man etwa 80% mehr theoretische leistung zur verfügung. dabei sind dual/quadcores natürlich KEIN allheilmittel gegen stockende rechner, wenn ich die neuesten screenshots von den nächsten compterspielen sehe, ist schnell zu erkennen, dass trotz grafikkarten, die mittlerweile 10 mal mehr berechnungen / sekunde ausführen können, als die neuesten hauptprozessoren, noch immer sehr viel rechenaufwand in sachen ki, physik, usf. usf. betrieben wird, was auch dualcores ans limit bringen kann.....
was dann kommt, kennen wir ja: mehr takt (wobei das so eine sache ist, mit dem silizium), mehr erformance/takt (jüngstes beispiel der core2duo), oder eben mehr kerne (in servern ja schon seit mehreren dekaden praktiziert)