Schön, dass dieses Thema einmal angesprochen wird!RSE hat geschrieben:Dem im 3. Post angesprochenen verschwindenden Unterschied zwischen CPU und GPU würde ich so nicht unterstützen, schließlich ist die CPU wesentlich mehr auf Logik und Integer-Arithmetik ausgerichtet als die GPU, die mehr auf Matrixoperationen optimiert ist und in diesem Bereich viel mehr Hardwareimplementierungen hat. GPU und CPU sind daher meiner Meinung nach nicht wirklich vergleichbar.
Um es gleich vorweg zu nehmen: Ich bin nicht deiner Auffassung

Es ist wohl unbestreitbar, dass CPUs und GPUs in der Vergangenheit kaum Gemeinsamkeiten hatten: CPUs sind universal einsetzbar. GPUs dagegen waren auf Vektorberechnung in Hardware optimiert und daher recht unflexibel. Aber inzwischen hat sich einiges getan. Mittlerweile sind die Shader weitgehend (auch in Hochsprache) programmierbar. Es gibt bereits Programme, die rechenintensive Anwendungen auf die GPU auslagern. GPUs gewinnen an Flexibilität und können mehr und mehr universelle Aufgaben erledigen und dieser Trend setzt sich fort.
Dennoch bleiben die Vorteile einer GPU: Sie ist nicht auf die x86-Architektur beschränkt, es gibt Unmengen an Registern und parallel arbeitenden Kernen. Von der reinen Rechenleistung sind heutige GPUs den CPUs weit überlegen. Daher und wegen der zunehmenden Ausweitung der möglichen Einsatzgebiete der GPUs ist eine Nutzung deren Leistung für unspezifische Zwecke nicht unattraktiv.
Dass man nicht mehr CPU und GPU getrennt austauschen kann ist wohl wahr. Hinsichtlich der Hitze muss man berücksichtigen, dass eine solche Kombi-PU das Potential hat, ein Vielfaches der heutigen getrennten Prozessoren zu leisten. Ein weiterer nicht zu unterschätzender Vorteil ist nämlich die direkte Anbindung der CPU an die GPU. Damit meine ich nicht nur die eine Richtung, dass die GPU Teilaufgaben der CPU übernehmen könnte. Sondern auch umgekehrt: Der Flaschenhals aktueller Hardware ist bei detailreichen Texturen meist die Anbindung der Grafikkarte an den Arbeitsspeicher, welche über die CPU verläuft. Eine Verschmelzung mit der CPU würde eine volle Ausschöpfung der Bandbreite ermöglichen - die Daten müssen nicht erst über PCI-Express laufen, sondern könnten ihr Ziel auf direktem Wege erreichen.Bei der Verbindung von CPU und GPU sehe ich ein weiteres Problem: Die Kühlung. Schließlich werden dabei die 2 größten Hitzeerzeuger im Computer zusammengelegt. [...]
Zudem kann man nach einer solchen Integration nur noch schlecht (falls überhaupt) nachträglich nochmal eine bessere Grafikkarte einbauen, dann ist immer gleich ein kompletter neuer PC fällig.
Zur Zeit hängt Intel mit seinem Larabee noch weit hinter nVidia und ATI zurück. Aber Raytracing ist meiner Meinung nach ein interessanter Ansatz. Ich habe gehört, er habe das Potential, Direct X überflüssig zu machen. D.h. das für Gamer letzte zwingende Pro-Argument für Windos würde fallen.Christian hat geschrieben:Ich denke Intel machts mit dem larabee