Haupt Sonstiges Ein genauerer Blick auf Nvidias GeForce 4-Reihe
Sonstiges

Ein genauerer Blick auf Nvidias GeForce 4-Reihe

NachrichtenTablets 5. Februar 2002 16:00 PST

von NVIDIA Corp Die neue GeForce4-Reihe bietet potenziellen Power Mac G4-Kunden, die das Beste aus ihren neuen Geräten herausholen möchten, ein neues Vokabular. Sehen Sie sich also an, was die neue Technologie bietet.

wie man mackeeper pop-up beseitigt

GeForce4 Titanium (Ti) ist der High-End-Chip der neuen Architektur. Die Grafikprozessoreinheit bietet eine Vielzahl neuer Funktionen, darunter Lightspeed Memory Architecture II (LMA II), Accuview Antialiasing und die programmierbare nfiniteFX II Engine.

LMA II

Die neue Speicherarchitektur der GeForce4-Reihe bietet vier unabhängige Speichercontroller und Unterstützung für 128-Bit-DDR-Speicher (Double Data Rate). Die Architektur liefert laut NVIDIA die doppelte effektive Speicherbandbreite und bis zu dreimal die Gesamtleistung von GeForce3. Dies wird auf Anhieb zu einer erheblichen Leistungssteigerung für bestehende Anwendungen führen, sagte ein Apple-Sprecher bei der Einführung der neuen Technologie gestern Abend.

Die Geschwindigkeit der GeForce4-GPU schafft laut Tony Tamasi, Senior Director des GPU-Geschäfts von NVIDIA, einen interessanten Flaschenhals: Die heutigen Prozessoren entwickeln sich schneller als die Speicherleistung. Bei diesem Design hat NVIDIA also alles daran gesetzt, damit Daten so schnell wie möglich durch den Speicher wandern. Die GeForce4-Reihe bietet mehrere Speicher-Caches auf einem einzigen Chip, oder was NVIDIA als Quad-Cache bezeichnet – es gibt vier individuell dedizierte und optimierte Speicher-Caches, um den Pipeline-Zugriff über den Chip zu verbessern.

Die verlustfreie 4:1-Z-Kompressionstechnologie hilft, die tatsächlich übertragene Datenmenge zu sparen. Die GeForce4-Reihe verfügt außerdem über eine neue und verbesserte Generation der Z-Occlusion-Culling-Technologie, die es der GeForce4 erspart, Pixel zu rendern, die Sie tatsächlich nicht sehen können. Zur Veranschaulichung zeigte Tamasi eine Animation mit käferähnlichen Kreaturen, die über ein hügeliges Gelände wandern. Bei einer Technologie, die das Z-Occlusion-Culling nicht unterstützt, müssten die aus der Perspektive des Benutzers nicht sichtbaren Ameisenmodelle dennoch gerendert werden; mit Z-Occlusion Culling ist dies nicht mehr der Fall.

LMA II bietet laut Tamasi eine 50 Prozent effizientere Architektur als GeForce3 und rund 100 Prozent mehr Effizienz als GeForce2.

Accuview-Antialiasing

Antialiasing ist seit langem in Bildbearbeitungsprogrammen verfügbar. Die Technologie reduziert das Erscheinungsbild von Zacken – die Kanten scharf definierter Objekte werden geglättet, um ein natürlicheres Erscheinungsbild zu erzielen. Diese Technologie ist seit einiger Zeit auch in 3D-Grafikkarten verfügbar, um das natürliche Erscheinungsbild von 3D-gerenderten Objekten zu verbessern, war jedoch oft nur mit Leistungseinbußen verfügbar.

Nicht so bei GeForce4, so NVIDIA. Die Accuview Antialiasing-Engine implementiert hochauflösende Multisampling-Techniken, darunter 2x, 4x, Quincunx und einen neuen 4XS-Modus. GeForce4 bietet laut NVIDIA die zwei- bis dreifache Leistung anderer High-End-Grafikprodukte und ermöglicht es, Antialiasing als bevorzugten Anzeigemodus beizubehalten.

Das Beste von allem ist, dass sowohl die LMA II- als auch die Accuview-Technologie Standard für die GeForce4 MX- und Ti-Produkte sind, sodass neue Power Mac G4-Benutzer einige Vorteile erhalten, unabhängig davon, welche NVIDIA-basierte Grafikkarte sie für ihr neues System wählen.

nfiniteFX II-Engine

Für Benutzer, die maximalen Realismus in ihren Spielen und 3D-Software suchen, verwendet die GeForce4 Ti speziell eine neue Vertex- und Pixel-Shading-Technologie namens nfiniteFX II Engine. Die neue Technologie bietet bis zu dreimal die Leistung der GeForce3, indem sie zwei Vertex-Shader verwendet (GeForce3 hatte nur einen einzigen Vertex-Shader).

Die GeForce4 Ti verfügt außerdem über neue fortschrittliche Pixel-Shader mit einer neuen Form von Z-korrektem Bump-Mapping. Dadurch können Modelle mit Oberflächendetails erstellt werden, die es auf dem Markt für Consumer-Grafikkarten noch nicht gab.

NVIDIA hob die Technologie in einer Reihe von Demonstrationen hervor, die lebensechte Oberflächendetails in lebenden Objekten, Wasser, Haut und Stoffen zeigten. Die Berechnung von Fluiddynamik, Fell, realistischer Hauttextur und -bewegung und anderen quälenden Details wurde alles auf der Karte selbst gerendert, wodurch die CPU frei wurde, um KI-Subroutinen und andere Dinge auszuführen, die den Spielen Realismus verleihen.

Portabilität

NVIDIA stellte außerdem die GeForce4 Go-Reihe vor, die neueste Implementierung der mobilen Grafiktechnologie des Unternehmens. NVIDIA behauptet, dass die GeForce4 Go die schnellste mobile GPU der Welt ist. Der Chip betont Power-Management-Funktionen wie Spannungs- und Frequenzskalierung, um die Akkulaufzeit zu maximieren – alles in einer Technologie verpackt, die NVIDIA PowerMizer nennt.

Wie die anderen GeForce4-Produkte verfügt auch die GeForce4 Go über die Video Processing Engine (VPE) für die DVD-Wiedergabe und MPEG2-Dekodierung. Es verfügt auch über die Lightspeed Memory Architecture II. NVIDIA behauptet auch, dass die Unterstützung von Accuview Antialiasing durch die GeForce4 Go dazu beiträgt, die Anzeigequalität auf Notebook-LCD-Panels zu verbessern. 3D-Rendering wird durch den Einsatz von NVIDIA Shading Rasterizer (NSR) erreicht, der bis zu 11 Textur- und Beleuchtungsoperationen pro Takt, Single-Pass-Multitexturing und kubische Umgebungszuordnung verarbeiten kann.

Die Technologie leitet sich von derselben Kernarchitektur ab, die auf den GeForce4-Desktop-Chips verwendet wird, und als Ergebnis könnte GeForce4 Go letztendlich von Apple für seine zukünftigen Laptop-Designs übernommen werden. Derzeit verwendet Apple eine von ATI entwickelte Technologie für seine PowerBook- und iBook-Reihen.

Schweres Eisen

Die GeForce4 Ti wurde in 0,15-Mikrometer-Technologie hergestellt und der Chip enthält über 63 Millionen Transistoren. Es verfügt über 650 MHz DDR-Speicher – laut Tamasi die schnellste Implementierung der Welt. Es hat auch einen 300MHz Kerntakt. Es kann 1 Billion Operationen pro Sekunde berechnen.

Um dies in eine gewisse Perspektive zu bringen, bot Tamasi einige skurrile Leistungsbenchmarks an. Die GeForce4 Ti kann etwa 100 Dinosaurier mit der gleichen Komplexität wie im Film Jurassic Park mit 30 Bildern pro Sekunde rendern, behauptete er, und 8 der neuen Chips haben mehr Geometrieleistung als alle 3dfx-Voodoo1- basierte Grafikkarten, die jemals ausgeliefert wurden. Darüber hinaus bietet ein einzelner GeForce4-Chip mehr Gleitkomma-Berechnungsmöglichkeiten, als es 1985 auf dem gesamten Planeten gab.

Weitere Informationen zum Rollout von NVIDIA GeForce4 finden Sie in unserem verwandte Geschichte .