Probleme bei der Montage von Grafikkarten

Der Verkauf von AMD Radeon 6000-Grafikkarten begann am 22. Oktober 2010 mit der Veröffentlichung der Modelle HD 6850 und HD 6870. Die Radeon HD 6000 wurde auf der Grundlage der Videoprozessorenfamilie Northern Islands entwickelt, die mit einer 40-nm-Prozesstechnologie erstellt wurden, obwohl ursprünglich angegeben wurde, dass eine 32-nm-Prozesstechnologie verwendet werden könnte ... Die Videoadapter unterstützen DirectX 11, außerdem wurde die Eyefinity-Technologie weiterentwickelt, mit der Sie sechs Monitore gleichzeitig an die Grafikkarte anschließen können. Neu in der Radeon 6000-Serie ist die Möglichkeit, 3D-Bilder anzuzeigen. Darüber hinaus können Sie bei Verwendung von 3D-Stereo das Modell des Monitors und der Brille frei wählen, dh AMD hat die Richtlinien von nVidia aufgegeben, die ausschließlich die 3D-Entwicklungen den Benutzern auferlegten.

Radeon 6400

Die jüngste Linie der 6000er-Serie wird durch eine Grafikkarte dargestellt - AMD Radeon 6450. Diese Grafiklösung ist in keiner Weise für Computerspiele gedacht, daher ist der Preis recht erschwinglich. Wenn Sie kein Fan von virtueller Unterhaltung sind, aber Funktionen wie Multi-Monitor-Konnektivität, dreidimensionales Bild und hohe Videobildqualität benötigen, ist die Radeon HD 6450 die ideale Wahl. Es macht einfach keinen Sinn, ein teureres Modell zu kaufen. Der HD 6450 basiert auf der preisgünstigen Caicos-GPU und ist in zwei Varianten erhältlich. Der erste ist mit 750 MHz getaktet, der Videopuffer ist 512 mit einer Frequenz von 3600 MHz, der GPU-Takt des zweiten ist 625 MHz, der RAM-Typ ist DDR3 oder GDDR5, die Frequenz ist 1600 bzw. 3200 MHz.

Radeon 6500

Die Produktreihe der AMD Radeon 6500 hat auch nur einen Vertreter - HD 6570. Die Grafikkarte gehört zu einer der niedrigeren Preiskategorien, weist daher keine besonders hohe Leistung auf, insbesondere verliert sie in dieser Hinsicht. Der Grafikprozessor Radeon HD 6570 Turks ist mit 650 MHz getaktet. Es gibt Modelle mit GDDR3- und GDDR5-Speichertypen. Die erste Option hat 512, 1024 oder 2048 MB bei 1800 MHz, die zweite 512 oder 1024 MB bei 4000 MHz.

Radeon 6600

Eine weitere AMD Radeon 6000-Familie, vertreten durch das einzige Modell - HD 6670. Der Grafikadapter basiert auf demselben Videoprozessor wie die AMD Radeon 6570, seine Funktionen werden hier jedoch etwas erweitert. Die Radeon 6670 verdient es, als Gaming-Grafikkarte bezeichnet zu werden. Es wird die meisten Spiele mit einer Auflösung von 1680x1050 verarbeiten, aber Sie sollten nicht mit dem maximalen Grafikniveau rechnen, und die Bremsen werden sich auf jeden Fall bemerkbar machen. Aber auch diese Probleme können vermieden werden - es reicht aus, die Auflösung zu reduzieren. Die Taktrate der GPU Radeon HD 6670 beträgt 800 MHz, die Größe des GDDR5-RAM beträgt 512 oder 1024 MB, die Taktrate beträgt 4000 MHz, die Busbreite beträgt 128 Bit.

Radeon 6700

Die Radeon HD 6700-Reihe besteht aus drei Grafikkarten - HD 6750, HD 6770, HD 6790. Es ist bemerkenswert, dass die ersten beiden auf der in der Radeon HD 5700 verwendeten Juniper-GPU basieren. In Bezug auf die Eigenschaften liegen sie jedoch deutlich vor ähnlichen Modellen der Vorgänger Daher ist die Radeon HD 6750 in Bezug auf die Leistung der HD 5850 sehr ähnlich, und die Radeon HD 6770 ist die leistungsstärkste Grafikkarte mit einem einzelnen Chip in der fünftausendsten Serie. Die Radeon 6750 ist mit einem 700-MHz-Videoprozessor und 1024 MB GDDR5-RAM mit einer effektiven Frequenz von 4600 MHz ausgestattet. Die Frequenz des Radeon 6770-Prozessors beträgt 800 MHz, die Größe des GDDR5-RAM 1024 MB bei einer Betriebsfrequenz von 4400 MHz. Die Radeon HD 6790, die auf einer GPU der nächsten Generation namens Barts basiert, bietet hervorragende Leistung und übertrifft die Hauptkonkurrenten von nVidia. Die Radeon 6790 verfügt über einen 840-MHz-Kern, einen 1024 MB GDDR5-Videopuffer und einen 4200-MHz-RAM auf einem 256-Bit-Bus.

Radeon 6800

Der Kern beider Grafikadapter der Radeon HD 6800-Familie ist der Barts-Videoprozessor. Wirtschaftlich und leistungsstark macht es die Grafikkarten HD 6850 und HD 6870 zu einem der Marktführer und ist ein gefährlicher Konkurrent der GTX 460 von nVidia. Auf den ersten Blick ist Barts der in der Radeon 5800 verwendeten Cypress-GPU unterlegen, dies jedoch nur auf den ersten Blick. In der Tat haben die Anzahl der Transistoren und die Größe des Chips selbst etwas abgenommen, dennoch bietet die einzigartige Architektur unbestreitbare Vorteile gegenüber seinem Vorgänger. Außerdem sind der Prozessor Radeon HD 6850 und Radeon HD 6870 im Gegensatz zu Cypress nicht das Flaggschiff der Serie. Der RAM-Typ für beide Grafikkarten ist GDDR 5, das Volumen beträgt 1024 oder 2048 MB, die Speicherbusbreite beträgt 256 Bit. Die Taktrate der AMD Radeon 6870 GPU beträgt 900 MHz, der AMD Radeon 6850 Prozessor ist weniger leistungsstark - 775 MHz.

Radeon 6900

Und schließlich ist die Radeon HD 6900 das Flaggschiff der sechstausendsten Serie. Es gibt drei Boards - HD 6950, HD 6970 und HD 6990. Und wenn in den ersten beiden ein High-Tech-Cayman-Grafikprozessor eingebaut ist, verfügt die Radeon 6990 über zwei Kerne gleichzeitig. Diese Grafikadapter sind die spielerischsten, ein Spielertraum, der bereits erreichbar ist, wenn auch nicht der billigste. Die Eigenschaften der Radeon 6950 sind wie folgt: 800-MHz-GPU, 1024 oder 2048 MB GDDR5 mit einer Betriebsfrequenz von 5000 MHz. Die Radeon 6970 hat eine Kerntaktrate von 880 MHz, der Videopuffer ist 2048 MB GDDR5 mit einer Betriebsfrequenz von 5500 MHz. Wenn mit der Veröffentlichung der Radeon HD 6950 und der Radeon HD 6970 die Dual-Core-HD 5970 weiterhin führend bei der Leistung von Grafikkarten war, zeigte die Veröffentlichung der Radeon HD 6990 die Überlegenheit der letzteren, das neue Produkt war 30% schneller als sein Vorgänger.

Dieser Artikel konzentriert sich auf eine der besten Grafikkarten, deren Beliebtheit seit mehreren Jahren nicht mehr abgenommen hat - die GeForce 6600. In nur wenigen Jahren sind Technologien im Bereich der Spieleanwendungen so weit gegangen, dass sich die meisten Benutzer nicht mehr an Geräte dieser Klasse erinnern. Es gibt jedoch eine Kategorie von Personen, die es vorziehen, Computer vor dem ersten Ausfall zu verwenden, ohne sie Verbesserungen zu unterziehen. Dieser Artikel richtet sich an diese Zielgruppe.

Der Leser wird herausfinden, warum dieser Videoadapter bei Benutzern so beliebt ist, sich mit Marktvertretern vertraut machen, die auf der GeForce 6600 basieren, und vollständige Informationen zu Leistungstests und Daten zum Übertakten dieser Grafikkarte erhalten.

Historischer Bezug

Die Sache ist, dass der 6600-Videoadapter zum Zeitpunkt des Übergangs der Hersteller von Computerkomponenten von einer Technologie zur anderen hergestellt wurde (der AGP-Videobus wurde durch einen PCI-Steckplatz ersetzt). Dementsprechend versuchte der Hersteller, auf zwei Stühlen zu sitzen: das schnellste Gerät für die alte AGP-Technologie herzustellen und, ohne die Trends des neuen Marktes zu kennen, alle zum Zeitpunkt der Produktion verfügbaren Technologien in Geräten mit dem neuen PCI-Bus zu implementieren. Es ist allgemein anerkannt, dass mit dem GeForce 6600-Videoadapter das Epos mit dem Übertakten des Grafikkerns und des Speicherbusses begann.

Es kann nicht gesagt werden, dass der Videoadapter nach einigen Jahren weiterhin die Spitzenpositionen einnimmt, vielmehr ist seine Leistung für moderne Spiele im Gegenteil vernachlässigbar. Wir können jedoch mit Zuversicht sagen, dass 6600 die beste Lösung für Besitzer alter Computer ist.

Wenn wir über den Chipsatz sprechen

Der Chipsatz trägt den Codenamen NV43 und ist in verschiedenen Modifikationen erhältlich. Die erste Division erfolgt nach Plattform: PCI und AGP. Und der zweite betrifft direkt die technischen Eigenschaften. Deshalb hat der Hersteller eine kostengünstige Lösung namens GeForce 6600 LE entwickelt, die schwache Eigenschaften aufweist. Er veröffentlichte viele grundlegende Modifikationen, die keine Buchstaben in der Markierung enthalten, und stellte die Top-End-GT-Linie her, um sie mit hoher Leistung auszustatten. Darüber hinaus wird genau diese Leistung durch Erhöhen der Frequenzen des Speichers und des Grafikkerns erreicht - das übliche Übertakten, das nur von den Händen des Herstellers durchgeführt wird.

Es gibt viele Bewertungen von IT-Spezialisten in den Medien, die sicherstellen, dass die Aufteilung von Videoadaptern durch Änderungen, die für die Leistung verantwortlich sind, eine häufige Ablehnung darstellt. Wenn der Chipsatz im harten Modus stabil arbeiten kann, wird er als GeForce 6600 GT gekennzeichnet. Wenn der Chip instabil ist, in keiner Weise markiert ist und während des Übertaktens eine starke Erwärmung auftritt, sollte es sich um eine kostengünstige LE-Modifikation handeln.

Technische Eigenschaften

Die NV43-Chipherstellungstechnologie entspricht dem 256-Bit-Standard, hat einen Herstellungsprozess von 0,11 Mikron und umfasst 143 Millionen Transistoren. Der auf Nvidia GeForce 6600 basierende Hersteller führte Modifikationen mit GDDR- und GDDR3-Speicherbus ein. Dieser Unterschied spiegelte sich natürlich in der Leistung von Videoadaptern wider (tatsächlich ist der Unterschied in der Bandbreite für DDRR3 1,5-mal höher). Das Gerät ist 256 MB groß, obwohl manchmal Kopien mit 128 MB an Bord sind.

Die tatsächliche Betriebsfrequenz der verbesserten Modifikation beträgt 500 MHz, aber für billige Chips ist die Grenze auf 350 MHz festgelegt. Alle Geräte unterstützen DirectX 9.0c, 10 Bit pro Farbkanal, und sind mit einem integrierten TV-Encoder ausgestattet, der die Leistung des Videoprozessors für den Betrieb nutzt. Vergessen Sie nicht, dass es die sechste Modifikation von Nvidia war, die das Epos mit der Einführung spezieller Funktionen in seine Hardwarelösungen begann: adaptive, echte trilineare Filterung, UltraShadow und ähnliche Ergänzungen.

Direkter Konkurrent des Chipsatzes

Aufgrund der Tatsache, dass Nvidia einen Konkurrenten auf dem Markt hat - ATI - haben alle Benutzer die Möglichkeit, Computerkomponenten zu einem erschwinglichen Preis zu erwerben. Diese Aussage gilt auch für die Grafikkarte im Test - GeForce 6600, deren Eigenschaften ATi Pro so nahe wie möglich kommen. Der Videoadapter des Mitbewerbers hat eine niedrigere Frequenz des Grafikkerns (425 MHz) und eine unterschätzte Speicherfrequenz (800 MHz), was jedoch nicht verhindert, dass er überhaupt eine hohe Leistung zeigt.

Es geht um die Technologien, die ATI-Adapter unterstützen. Nachdem der Hersteller den Wettlauf um höhere Frequenzen lange aufgegeben hatte, begann er, seine eigenen Entwicklungen in das System einzuführen, die es ihm ermöglichen, ein hervorragendes Potenzial in der Arbeit zu demonstrieren. In den Medien bemerken die Eigentümer den schlechten technischen Support für Benutzer in Bezug auf Treiber, wie er in der GeForce 6600 entwickelt wurde. Windows 7, das einen diskreten ATI Radeon X700 Pro-Videoadapter erkennt, weist ihm einen integrierten Treiber zu.

Marktführer auf dem Grafikkartenmarkt

Der produktivste Videoadapter auf Basis der Nvidia GeForce 6600 GT gilt als Produkt von Leadtek. Seine enorme Leistung verdankt es der hohen Frequenz des Grafikkerns (550 MHz) und des Speicherbusses (1120 MHz). Samsung-Speichermodule bieten eine hohe Geschwindigkeit für die Übertragung von Videodaten. Die Reaktionszeit beträgt 1,6 Nanosekunden.

Der absolute Marktführer bei der Leistung hat mehrere Nachteile. Erstens das Kühlsystem. Es versorgt nur den Grafikchip mit einem kalten Luftstrom, Speichermodule und andere wichtige Komponenten des Geräts wurden jedoch unbeaufsichtigt gelassen. Zweitens gibt es keinen Videoeingang, wie er von allen Wettbewerbern implementiert wird. Der Videoausgang unterstützt jedoch HDTV. In der Tat ist nicht klar, was dies ist - eine Tugend oder ein Nachteil. Übrigens verfolgten viele potenzielle Käufer buchstäblich den Leadtek-Videoadapter, da er drei lizenzierte Spiele enthielt: Splinter Cell, Prince Of Persia und Pandora Tomorrow.

Gold-Serie

Wenn es um Geräte geht, die auf Langlebigkeit ausgelegt sind, denken viele Besitzer sofort an den GeForce 6600 GT-Videoadapter von Gainward. Die Grafikkarte ist in der Gold-Serie enthalten, was zusammen mit der hohen Leistung eine Fehlertoleranz im Betrieb garantiert. Der Hersteller machte einen interessanten Marketingtrick, indem er die Grundeinstellungen für die Frequenzen des Videokerns (500 MHz) und des Speicherbusses (1000 MHz) im BIOS der Grafikkarte installierte. Er gab dem Gerät eine lebenslange Garantie. Nur unter der Bedingung, dass der Benutzer es nicht übertaktet. Bei der Installation der auf der Festplatte enthaltenen proprietären Software übertaktet der Grafiktreiber den Grafikkern unabhängig voneinander auf 540 MHz und den Bus auf 1150 MHz.

Im Vergleich zur Konkurrenz ist die Leistung des Gainward-Videoadapters sehr hoch. Die Hardware-Unterstützung für die Videoeingabe und die Videoausgabe von HDTVs ist eine großartige Ergänzung zu einem lohnenden Kauf. Der zukünftige Besitzer wird auch mit dem System zufrieden sein, das alle auf der Platine installierten Module effektiv kühlt.

Kein Lärm und Staub

Wenn der Benutzer der Meinung ist, dass der 6600 GT mit passiver Kühlung Fans dynamischer Spiele wahrscheinlich nicht überraschen wird, irrt er sich definitiv, da Gigabyte niemals jedem erlauben wird, seine Produkte als minderwertig zu betrachten. Ein Kupferkühlkörper wickelt sich von beiden Seiten um die Grafikkarte und bedeckt alle darauf installierten Chips. Um die Temperaturen zwischen den beiden Heizkörpern zu normalisieren, gibt es ein ausreichend breites Kupferrohr.

Und doch wird es warm. Aber nicht stark genug, damit der Schutz funktioniert, und der Computer wurde neu gestartet. Experten empfehlen zukünftigen Besitzern, über ein geräumiges Systemgehäuse mit angemessener Belüftung nachzudenken. Die hohe Leistung des Adapters wird durch die erhöhte Speicherfrequenz von 1120 MHz und Samsung-Modulen mit 1,6 ns erreicht. Aus diesem Grund wird dieses spezielle Produkt vielen Benutzern empfohlen, bei denen hohe Leistung und Geräuschlosigkeit bei Arbeit und Spielen Vorrang haben. Gigabyte hat keine Konkurrenten für den NV43-Chip und wird nicht erwartet.

Diamant-Serie

Der legendäre 6600 AGP von MSI wird allen Nutzern für seine Werbung in Erinnerung bleiben, denn dank ihm haben alle Fans dynamischer Spiele von dem hervorragenden Shooter The Chronicles of Riddick erfahren. Der Held des Films selbst war auf der Schachtel abgebildet, und das Spielzeug wurde im Set kostenlos zum Videoadapter geliefert. Die Leistung des Geräts wurde als Diamant deklariert. Die Grafikkarte für den AGP-Bus hatte ein riesiges Potenzial - 400 MHz für den Kern und 800 MHz für den Speicher. Es ist schade, dass die Entwickler von MSI keinen weiteren Schritt nach vorne gemacht haben und dem Benutzer zumindest ein Werkzeug zur Verfügung gestellt haben, um die Frequenz des Grafikkerns und des Bus zu erhöhen. In Tests fehlt dies etwas schmerzlich.

Der Hersteller kümmerte sich auch um die Kühlung: Der Kühler bläst auf dem Grafikcontroller und die Speicherchips sind mit Kühlkörpern ausgestattet. Den Bewertungen nach zu urteilen, sind die Benutzer durch das Fehlen einer Kupferbeschichtung auf der Rückseite der Grafikkarte verwirrt, da die Verlustleistung genau dieser Teil der Platine ist. Im Allgemeinen ist die Einstellung zum Produkt positiv, die Grafikkarte ist wunderschön, mit Intelligenz hergestellt und, was die Technologie des letzten Jahrhunderts betrifft, die Aufgaben sehr gut zu bewältigen.

Seltsames Extrem

ASUS-Produkte haben in allen Tests immer Spitzenpositionen belegt. Der Marktführer für Computer war jedoch mit der GeForce 6600 128Mb Extreme-Grafikkarte verlegen. Der werkseitig eingestellte Speicher und die Kerntaktraten bleiben davon unberührt. Was der Hersteller ASUS auf dem Markt erreichen wollte, bleibt ein Rätsel. Durch das Entfernen des Videoeingangs und das Platzieren langsamer 2,5-ns-Speichermodule machte sich die berühmte taiwanesische Marke nicht einmal die Mühe, den Preis ihrer Produkte zu senken.

In den Medien versichern viele Eigentümer ihren Mitmenschen, dass ASUS das einzige Unternehmen auf der Welt ist, das das Bundle mit dem lizenzierten Joint Operations-Spiel ergänzt. Solche Aussagen enthalten keine Logik, da das Spiel separat erworben werden kann und jeder eine produktive Grafikkarte auf seinem eigenen Computer sehen möchte, nicht Konsumgüter.

Der letzte Held

Das Albatron-Produkt Trinity GeForce 6600 AGP gilt als Maßstab für viele Grafikkarten, da diese Marke zu Beginn des Computerzeitalters die Marktrichtung für alle Komponenten vorgab. Das Erscheinungsbild von Albatron-Geräten, sei es eine Grafikkarte, ein Motherboard oder ein Tuner, unterschied sich immer von den Mitbewerbern durch betonte Strenge und Konservativität.

Im Wettlauf um hohe Leistung entschied sich der Marktführer, nicht teilzunehmen, und richtete sein gesamtes Potenzial auf die Verpackung und Software, die mit der Grafikkarte geliefert werden. Es ist schade, dass viele Hersteller zu diesem Zeitpunkt der mit dem Videoadapter gelieferten Software nur sehr wenig Aufmerksamkeit schenken, da in diesen Produkten die Bindung der Benutzer an die Marke liegt.

Testen von Videoadaptern

Es ist unwahrscheinlich, dass ein GeForce 6600-PCI-Gerät mit DirectX 9.0-Technologie gezwungen werden kann, ein fortschrittlicheres Spielzeug in den Tests auszuführen. Daher werden die entsprechenden Anwendungen (The Chronicles Of Riddick, Half-Life 2 und Doom3) zum Vergleichen von Grafikkarten verwendet. Von einem FullHD-Parameter kann natürlich keine Rede sein, es wird eine Standardauflösung von 1024x768 dpi mit 32 Bit Farbe verwendet.

Wie erwartet wurden die führenden Positionen von Geräten mit den maximalen Frequenzen des Grafikkerns und des Speicherbusses eingenommen: Leadtek, Gainward und Gigabyte. Daraus sollte eine einzige richtige Schlussfolgerung gezogen werden, dass die Grafikkarte mit der maximalen Übertaktung in Spielen gewinnt. Aussehen, Schönheit und Ausstattung sollen potenzielle Käufer nur von leistungsstarken Videoadaptern ablenken.

Fallstricke für zukünftige Besitzer

Hersteller verbergen die Mängel ihrer Produkte immer vor neugierigen Blicken. So geschah es mit dem NV43-Chip, der es bereits geschafft hat, sich von seinen Mitbewerbern abzuheben und seine ultrahohe Kristallfestigkeit zu demonstrieren, die bei unachtsamer Handhabung zu katastrophalen Ergebnissen führt. Nachdem der Hersteller die Leistungsmerkmale der GeForce 6600 durch Platzieren von 143 Millionen Transistoren auf einem Chip verbessert hatte, dachte er nicht an die Sicherheit, die durch den unachtsamen Umgang mit der Grafikkarte verletzt wird.

Tatsache ist, dass der Chip nicht fest auf der Oberfläche der Grafikkarte sitzt und der zur Kühlung oben installierte Kühler keine Aussparung für den Grafikchip aufweist. Wenn Sie also auf eine der Kanten des Kühlers drücken, platzt der Kristall des Grafikkerns. Es gibt bereits eine Lotterie: Nur eine Ecke des Chips verschwindet oder die gesamte GPU wird in zwei Teile geteilt. Im ersten Fall funktioniert der Videoadapter wahrscheinlich, und im zweiten Fall müssen Sie für einen Neukauf in den Laden gehen.

Probleme bei der Montage von Grafikkarten

Viele Besitzer nicht moderner Computer haben bereits die seltsame Position von Speichersteckplätzen auf Motherboards mit installiertem Computer bemerkt. Es scheint, dass der Hersteller mit Benutzern scherzte, indem er einen Kontakt zum Installieren einer Grafikkarte in unmittelbarer Nähe der Schlösser zum Anbringen von Speichermodulen platzierte. Alle Besitzer von GeForce 6600-Grafikkarten haben die Möglichkeit, während des Installationsvorgangs einige Klimaanlagen auf der Platine zu beschädigen. Und um dies zu verhindern, müssen Sie mit größter Verantwortung und guter Beleuchtung installieren.

In den Medien empfehlen IT-Experten, zuerst Speichermodule zu installieren und erst dann die Grafikkarte in den Steckplatz einzulegen. Wenn Sie es vorsichtig bis zum Anschlag absenken, müssen Sie mit den Fingern Ihrer anderen Hand die Kante der Platine von den Beinen wegbewegen, um die RAM-Module zu befestigen. Wenn das Ende der Leiterplatte des Videoadapters aus irgendeinem Grund gegen den Kondensator auf der Hauptplatine stößt, kann der Benutzer das Problem leicht selbst beheben, indem er das störende Gerät vorsichtig zur Seite biegt.

Effektives Übertakten

Ein neugieriger Benutzer wird sicherlich zu unabhängigen Schlussfolgerungen kommen, dass die Leistung des Videoadapters durch Übertakten und weiter gesteigert werden kann, wenn die entsprechende Software zur Verfügung steht und die Grafikkarte eine hervorragende Kühlung aufweist. Gemessen an den Bewertungen in den Medien seit mehreren Jahren wurde viel Zeit für das Übertakten der GeForce 6600 aufgewendet. Den Eigentümern gelang es, zu diesem Zeitpunkt Rekordindikatoren zu erzielen: Die Frequenz des Grafikkerns beträgt 615 MHz und die Busfrequenz 1340 MHz.

Zunächst besteht die Aufgabe des Benutzers darin, die Grafikkarte mit einer angemessenen Kühlung zu versehen. Es gibt viele Möglichkeiten. Sie können den Standardkühler durch eine professionelle Lösung von Shuttle oder Zalman ersetzen, aber der Preis der Kühlsysteme lässt Zweifel aufkommen. Es ist einfacher, ein Motherboard gegen einen Prozessor auszutauschen, als eine große Summe für eine professionelle Lösung zu bezahlen. Die zweite Möglichkeit besteht darin, einen zusätzlichen 12-mm-Lüfter mit einem Luftstrom von 90-140 CFM über dem Standardkühler zu installieren. Zum Übertakten wird empfohlen, die offizielle Software zu verwenden, die mit dem Nvidia-Treiber geliefert wird.

Abschließend

Die GeForce 6600-Grafikkarte ist die einzige Verbindung, die noch die beiden Epochen von PCs verbindet, auf denen dynamische Spiele ausgeführt werden können. Übergangsmodelle von Grafikkarten werden den Markt verlassen - die Zeit alter PCs wird enden. Und wenn ein potenzieller Käufer vor der Wahl steht, eine GeForce 6600 zu kaufen oder das gesamte System zu aktualisieren, lohnt es sich, über den letzten Gedanken nachzudenken, denn nichts in unserer Welt existiert für immer. Früher oder später werden alte Technologien für immer für die Menschheit verloren gehen. Wenn jedoch zur Verbesserung eines neuen Systems die Wahl zwischen den Videoadaptern selbst besteht, wird der Käufer in Bezug auf das Preis-Leistungs-Kriterium definitiv nichts finden, was dem GeForce 6600-Chip würdig ist.

Diskrete Grafiken in Laptops sind nicht neu, lösen jedoch viele Probleme. Beispielsweise möchte ein Benutzer nicht nur an einem Laptop arbeiten, sondern auch verschiedene Computerspiele spielen. Für diese Zwecke ist eine diskrete Karte erforderlich, da integrierte Grafikprozessoren nicht über die Ressourcen verfügen, um solche Belastungen zu bewältigen.

AMD Radeon 6600m und 6700m Serien Technische Daten (allgemein)

Das Präfix "M" am Ende des Namens jeder Grafikkarte bedeutet "mobil", dh es kann nur in Laptops verwendet werden. Beide Grafikkarten haben einen 40-nm-Herstellungsprozess, dessen Kern Türken heißt. PCI Ex 2.1x16-Verbindungsschnittstelle. Beide GPUs können bis zu sechs Monitore unterstützen, ohne dass spezielle Software oder Treiber erforderlich sind - alles hängt von der Hardwareunterstützung ab. Der 128-Bit-Bus hält die Bandbreite hoch.

Je nach Art des Videospeichers unterstützen beide das GDDR5-Format, und der RAM liegt im DDR3-Format vor. Die RAM-Speicherfrequenz beträgt 900 Megahertz und die Geschwindigkeit beträgt etwa zwei Gigabit pro Sekunde. Die Videospeicherfrequenz erreicht 800 Megahertz und der 128-Bit-Bus erhöht die Speicherbandbreite auf bis zu 57,6 Gigabit pro Sekunde. Die AMD Radeon 6600m- und 6700m-Serien, deren Eigenschaften eine Übertaktungsgeschwindigkeit des Videospeichers von bis zu 3,6 Gigabit pro Sekunde aufweisen, können nur in Verbindung mit leistungsstarkem RAM ein qualitativ hochwertiges Bild anzeigen.

Unterschiede in den Eigenschaften

ATI Radeon 6600m und 6700m Serie: Ihre Eigenschaften unterscheiden sich in der Frequenz des Grafikkerns. Im 6600m-Modell sind es 500 Megahertz und im 6700m etwas mehr - 725 Megahertz.

Matheblock

AMD Radeon 6600m und 6700m Serie: Spezifikationen in Bezug auf den Mathematikblock - beide Karten produzieren ungefähr 800 Stream-Prozessoren. Es gibt 40 Texturblöcke sowie 16 Farbrasterungsblöcke.

Grafikfunktionen

AMD Radeon 6600m- und 6700m-Serien: Zu den von DirectX 11 unterstützten Funktionen gehören das neue Shader Model 5 und Direct Compute 11. Es wird auch die Programmierung von Hardware-Tessellierungsblöcken unterstützt, mit der Sie realistischere Bilder als ohne genießen können. Es besteht die Möglichkeit eines beschleunigten Multithreading und Verbesserungen bei der Texturverarbeitung. Es gibt auch Transparenz, die auftragsunabhängig ist.

Die Grafikkarte der Serien AMD Radeon 6600m und 6700m mit OpenGL 4.1-Technologie bietet die Möglichkeit, die Bildqualität zu verbessern. Diese Technologie umfasst eine 24-fache Objektglättung und eine maßgeschneiderte Verarbeitung.

Die AMD Eyefinity-Technologie der AMD Radeon 6600m- und 6700m-Serien unterstützt bis zu sechs Monitore mit Gesamtauflösung, Bildwiederholfrequenz, Farbumfang und Videoüberlagerung. Es ist möglich, die Monitore so zu positionieren, dass sie wie ein Bildschirm aussehen. Das Bild wird dann in sechs Monitore unterteilt, sodass die Gruppe der Monitore wie ein großes Display aussieht.

Die Grafikkarte der Serien AMD Radeon 6600m und 6700m, deren Eigenschaften das Vorhandensein der CrossFireX-Technologie belegen, ermöglicht die Verwendung mehrerer Grafikprozessoren. Kurz gesagt, es handelt sich um ein Analogon zu SLI von NVidia. Es gibt auch Unterstützung für OpenCL 11.

Übersicht über die unterstützten Technologien der AMD Radeon 6600m- und 6700m-Serien

Die erste Technologie, die für eine Reihe von Grafikkarten dieses Herstellers neu geworden ist, ist das beschleunigte Codieren, Transcodieren und Strecken von Videosequenzen.

Beide GPUs spielen Videos in allen modernen Formaten und Adobe Flash Player 9 ab.

Zu den fortschrittlichen Bildqualitätstechnologien gehören eine verbesserte Nachbearbeitung und Skalierung, Farbkorrektur und automatische Kontrastanpassung. Erhöhte weiße Helligkeit und erweiterter blauer Bereich. Unabhängige Technologie für den schrittweisen Übergang von einem Ton zum anderen. Kontinuierliche automatische Anpassung des Videobereichs. Unterstützt zwei gleichzeitige Wiedergabestreams mit 1080p.

Die nächste Technologie heißt AMD 3D und unterstützt Stereobrillen und dreidimensionale Bilder auf dem Monitor. Unterstützt auch 3D-Spiele und kann mit Stereo-Software anderer Hersteller mit 3D-Systemen arbeiten.

Erwähnenswert ist die automatische Leistungsregelungstechnologie AMD PowerPlay, die durch automatische Energieverteilung in Ruhe Energie spart. Verteilt die Last kompetent, wenn Sie mit vielen Karten arbeiten.

Die neueste Technologie ist ein eingebauter Controller namens HD-Audio. Mit HDMI können Sie geschützten 7.1-Surround-Sound genießen, ohne dass zusätzliche Kabel erforderlich sind. Diese Technologie spielt Audio in allen bekannten hochwertigen Formaten ab.

Wie Desktop-Grafikkarten unterliegen auch mobile Karten einem Verschleiß. Aus diesen Gründen lohnt es sich, die Wärmeleitpaste alle paar Monate auszutauschen, da dies die Erwärmung des Videospeicherchips beeinflusst. Als nächstes müssen Sie den Kühler der Grafikkarte mindestens alle sechs Monate reinigen, da die Ansammlung von Staub die Temperatur des Chips negativ beeinflussen kann. Es ist besser, die Treiber für diese Grafikkarte von der Festplatte zu installieren oder von der Website des Herstellers herunterzuladen.

Vor etwa einem halben Jahr veröffentlichte die Website einen Artikel "Am Leben bleiben: ATI Radeon X550 gegen NVIDIA GeForce 6600 LE", in dem zwei Grafikkarten des unteren Preissegments überprüft und getestet wurden. Seitdem sind zwei neue "Player" im Bereich von bis zu 100 US-Dollar erschienen - Grafikkarten, die auf ATI Radeon X1300 (RV515) und NVIDIA GeForce 7300 GS (G72) Chips basieren. Der Preis für die ATI Radeon X1300 beträgt heute nicht mehr als 85 US-Dollar, und die NVIDIA GeForce 7300 GS kostet noch weniger - etwa 70 bis 75 US-Dollar. Für ungefähr das gleiche Geld können Sie heute GeForce 6200- und 6600 LE-Grafikkarten sowie alles von der Radeon X600 Pro oder sogar X700 kaufen, abhängig von der installierten Speichermenge. Die Relevanz der letzten beiden Grafikkarten mit der Veröffentlichung jedes neuen Spiels, das Shader Model 3.0 unterstützt, wird immer geringer, aber "Oldies" wie GeForce 6600 (LE) unterstützen Pixel-Shader der dritten Version und haben gleichzeitig erheblich an Preis verloren. Darüber hinaus wäre es interessant, den Geschwindigkeitsunterschied zwischen der "richtigen" GeForce 6600 mit 8 Pixel- und 3 Vertex-Pipelines und der GeForce 6600 LE zu sehen, die in einem 4/2-Pipeline-Schema arbeitet, jedoch bei Frequenzen, die deutlich höher sind als die Nennfrequenzen der GeForce 6600. An den heutigen Tests werden vier Grafikkarten des unteren Preissegments teilnehmen: NVIDIA GeForce 6600, 6600 LE, 7300 GS und ATI Radeon X1300.

1. Technische Eigenschaften von Grafikkarten NVIDIA GeForce 6600 (LE), 7300 GS und ATI Radeon X1300

Schauen wir uns die technischen Eigenschaften der heute getesteten Grafikkarten in einer Übersichtstabelle an:

Name der Merkmale NVIDIA GeForce 6600 (LE) ATI Radeon X1300 NVIDIA GeForce 7300 GS
Grafikchip NV43 (NV43V) RV515 G72
Technischer Prozess, Mikrometer 0.11 0,09, TSMC 0.09
Anzahl der Transistoren, Mio. ~143 ~105 n / a
Kernfläche, mm² 150 100 n / a
Betriebsfrequenzen, MHz (Grafikchip / Speicher) 300 (350, 425) / 500 (700, 1000) 450 / 500 550 / 700
Speicherbusbreite 128 Bit 128/64/32 Bit 64 Bit
Anzahl der Pixelförderer, Stck. 8(4) 4 4
TMU pro Förderer, Stck. 1 1 1
Anzahl der Vertex-Prozessoren, Stk. 3(2) 2 3
Unterstützung der Pixel Shaders-Version 3 3 3
Unterstützung der Vertex Shaders-Version 3 3 3
Schnittstelle PCI-Express Nr. 16
Unterstützung der DirectX-Version 9.0c 9.0c 9.0c
zusätzlich DVI, TV-Ausgang, VIVO (optional) DVI, TV-Ausgang, VIVO, HDTV DVI, TV-Ausgang, VIVO, HDTV

2. Überprüfung der am Testen teilnehmenden Grafikkarten

Alle Grafikkarten wurden von F-Center zum Testen bereitgestellt, daher werden die Preise gemäß der Preisliste des Unternehmens angegeben.

Leadtek WinFast PX6600 TD 128 Mb

Der erste Teilnehmer an den heutigen Tests - die Leadtek WinFast PX6600 TD 128 Mb-Grafikkarte - wird in einer großen Schachtel aus dickem Karton geliefert, die unseren Lesern in Stil und Design bereits bekannt ist:

Leadtek hat die folgenden Komponenten in seine Grafikkarte aufgenommen:

  • splitteradapter;
  • cD mit WinFast 3D-Grafiktreibern;
  • cD mit PowerDVD 6 und anderen Programmen;
  • 2 DVDs mit Splinter Cell 3: Chaostheorie und Prince of Persia: Warrior Within;
  • bedienungsanleitung in mehreren Sprachen (einschließlich Russisch).

Der Benutzer wird sich freuen, dass selbst mit einer solch kostengünstigen Grafikkarte zwei Spiele enthalten sind, wenn auch nicht die neuesten.

Die Grafikkarte befindet sich im zentralen Fach der Box und ist so konzipiert, dass die Möglichkeit einer Beschädigung des Geräts während des Transports ausgeschlossen ist. Auf der Vorderseite der grünen Leadtek WinFast PX6600 TD 128 Mb-Platine befinden sich acht Speicherchips in einem TSOP-Gehäuse, ein Aluminiumkühler und Elemente des Stromversorgungssystems:

Die Grafikkarte ist mit Analog-, Digital- (DVI) und TV-Ausgang ausgestattet. Auf der Rückseite der Tafel gibt es nichts zu beachten:

Ohne Kühlsystem sieht Leadtek WinFast PX6600 TD 128 Mb folgendermaßen aus:

Der Vollaluminiumkühler ist mit zwei federbelasteten Kunststoffnägeln an der Platine befestigt. Rund um den Umfang des Chips befindet sich eine weiche Dichtung, die den Chip vor versehentlichen Spänen schützt:

GPU in Taiwan 45 Woche des letzten Jahres veröffentlicht, A4-Chip-Revision:

Die Nennfrequenz der GPU entspricht den Spezifikationen und beträgt 300 MHz. Die Anzahl der Pixel-Pipelines beträgt 8 und die Anzahl der Vertex-Pipelines beträgt 3.

128 MB DDR-Videospeicher sind mit 8 Samsung-Chips mit einer nominalen Zugriffszeit von 3,6 ns ausgestattet:

Speicherkennzeichnung - K4D261638F-LC36. Die Busbreite des Grafikkartenspeichers beträgt 128 Bit, und die Nennfrequenz des Videospeichers beträgt 500 MHz. Im Allgemeinen entspricht die Grafikkarte vollständig den NVIDIA-Spezifikationen für die GeForce 6600.

Bevor wir uns mit dem Übertaktungspotential einer Grafikkarte befassen, sollten wir hinzufügen, dass alle vier Teilnehmer des heutigen Artikels auf Übertaktung getestet und mit dem installierten Zalman VF700-Cu-Kühler bei der maximalen Drehzahl des Lüfters (ca. 2750 U / min) weiter getestet wurden. Ich verstehe sehr gut, dass Benutzer, die Grafikkarten für 75 bis 100 US-Dollar für sich selbst kaufen, ihre Kühlung nicht ändern, indem sie einen Kühler installieren, der fast ein Drittel einer Grafikkarte kostet. Der Austausch von Standardkühlsystemen wird jedoch nicht nur durch den Wunsch verursacht, das Maximum aus den getesteten Grafikkarten ohne Volt-Mods herauszuholen, sondern auch durch den Wunsch, alle Karten hinsichtlich der Kühlung gleich zu stellen.

Nach dem Austausch des Standardkühlers durch den Zalman VF700-Cu wurde die 128-MB-Grafikkarte Leadtek WinFast PX6600 TD von den Nennfrequenzen 300/500 MHz auf 435/614 MHz übertaktet:

Die Grafikkarte zeigte ein gutes Übertaktungspotential: Die GPU stieg um 45,0% und der Videospeicher um 22,8%. Vor dem Austausch des Kühlsystems konnte der Grafikprozessor bei 390 MHz stabil arbeiten und sich auf 67 Grad Celsius erwärmen. Das Ersetzen des Kühlers hatte keinerlei Auswirkungen auf das Übertakten des Speichers.

Am Ende der Überprüfung von Leadtek WinFast PX6600 TD 128 Mb präsentiere ich einen Link zum Grafikkarten-BIOS (41,4 Kb, WinRAR-Archiv). Die Kosten für die Grafikkarte zum Zeitpunkt der Veröffentlichung des Artikels betragen 101 US-Dollar.

Palit GeForce 6600Very + 128 Mb (6600 LE)

Die Grafikkarte Palit GeForce 6600Very + 128 Mb (6600 LE) wurde uns zum Testen in einem OEM-Paket zur Verfügung gestellt. Zusätzlich zur Grafikkarte enthält das Antistatikpaket eine CD mit Treibern, einen 15-poligen DVI / D-Sub-Adapter, ein S-Video-Kabel und einen Splitter-Adapter für HDTV und VIVO:

Vor uns liegt eine kleine Platine auf einer roten Leiterplatte mit einem burgunderfarbenen Farbton:

Wie die oben genannte Grafikkarte von Leadtek ist auch die Palit GeForce 6600Very + 128 Mb (6600 LE) mit Analog, Digital (DVI) und TV-Ausgang ausgestattet. Der Vollaluminiumkühler des Kühlsystems, der von einer kleinen Turbine gekühlt wird, hat nur durch eine dünne Schicht aus weißer Wärmeleitpaste und "Sauerrahm" -Konsistenz Kontakt mit dem Grafikchip.

Alle Speichermikroschaltungen der Grafikkarte befinden sich auf der Vorderseite der Platine. Auf der Rückseite können Sie daher nur auf eine Art Rückplatte mit Drahtbefestigung und weicher Dichtung achten:

Wir kennen diese Methode zur Montage des Kühlsystems bereits aus den Palit Radeon X1600 Pro 128 Mb-Tests. Diese einfache und bequeme Montagemethode bietet eine ausreichende Klemmkraft für eine effiziente Kühlung.

Ohne ein Kühlsystem um den Chip können wir bis zu 8 Löcher in der Platine markieren, was meines Erachtens die Installation fast jedes Kühlsystems ermöglicht:

Schauen wir uns die GPU an: Das Herkunftsland ist Taiwan, das Erscheinungsdatum ist 7 Wochen 2005, das heißt, der Chip wurde vor über einem Jahr veröffentlicht.

Bitte beachten Sie, dass die Palit GeForce 6600Very + im Gegensatz zur vorherigen "vollwertigen" GeForce 6600 den Namen des Chips auf dem Substrat trägt. Die Nennfrequenz des Grafikprozessors der Grafikkarte beträgt 350 MHz und ist damit 50 MHz höher als die der GeForce 6600 von Leadtek.

Leider hatten sie mit dem Grafikprozessor GeForce 6600Very + 128 Mb kein Glück. Overclocker müssen sich in diesem Fall mit nur vier Pixel- und zwei Vertex-Pipelines zufrieden geben und hoffen auf eine signifikante Übertaktung des Chips:

Es dauert jedoch nicht lange, sich über den Vier-Pipeline-Chip aufzuregen. Tatsache ist, dass das Hauptmerkmal der Palit GeForce 6600Very + die Ausstattung mit 128 MB Standardspeicher ist DDDR-3 mit einer nominalen Zugriffszeit von 2,2 ns:

Die gesamte Speicherkapazität wird von vier Infineon-Chips mit der Bezeichnung HYB18T256321F-22 rekrutiert. Die Nennfrequenz des Videospeichers beträgt 700 MHz und ist damit 200 (!) MHz höher als die der normalen GeForce 6600. Die maximale theoretische Frequenz dieses Speichers beträgt 900 MHz, was uns auf ein gutes Übertakten hoffen lässt, und die Hoffnungen waren berechtigt. Sowohl vor als auch nach dem Austausch des Standardkühlers durch einen Zalman VF700-Cu funktionierte der Speicher stabil bei einer Frequenz von 1000 MHz, was dem Nennwert des GeForce 6600 GT-Speichers entspricht, der fast doppelt so viel kostet:

Der Grafikprozessor blieb ebenfalls nicht verschuldet und erhöhte seine Frequenz auf 481 MHz oder um 37,4% (460 MHz mit einem Standardkühler). Aus der üblichen GeForce 6600 LE gemäß der Frequenzformel stellte sich heraus, dass es sich fast um eine GeForce 6600 GT handelte, wenn auch mit nur vier Pixel- und zwei Vertex-Pipelines.

Eine ähnliche Grafikkarte ist bereits aus dem Artikel "Unruhige Zeiten auf dem Grafikkartenmarkt: Vorsicht vor der GeForce 6600!" Bekannt. Aber dann wurde diese Karte als "falsche" GeForce 6600 angesehen. Ich schlage vor, Sie betrachten Palit GeForce 6600Very + 128 Mb etwas anders, da die Kosten für diese Grafikkarte heute mit der GeForce 6200 vergleichbar sind und etwa 85 US-Dollar betragen, was 15 bis 20 US-Dollar entspricht Dollar niedriger als die "richtige" GeForce 6600. Gleichzeitig fehlt der GeForce 6600Very + im Vergleich zur GeForce 6200 nur eine Vertex-Pipeline, die durch deutlich höhere Frequenzen kompensiert wird (ich habe keine Angst vor diesem Wort). Ob solch hohe Frequenzen des Grafikchips und des Speichers Palit GeForce 6600Very + 128 Mb helfen, erfolgreich mit der "üblichen" GeForce 6600 sowie mit anderen Teilnehmern des heutigen Artikels zu konkurrieren, wird durch Tests gezeigt.

Hier bleibt das Temperaturregime der Grafikkarte zu betrachten, das sich bei Verwendung des Zalman VF700-Cu als sehr bescheiden herausstellte:

Ich werde hinzufügen, dass der ursprüngliche Grafikkartenkühler leise arbeitet, obwohl er vor dem Hintergrund einer leisen Systemeinheit ein wenig hörbar ist.

Sie können das BIOS Palit GeForce 6600Very + 128 Mb (41,4 Kb, WinRAR-Archiv) herunterladen.

Sapphire Radeon X1300 256 Mb

Eine Grafikkarte von Sapphire landete auch im OEM-Paket, in dem zusätzlich enthalten war:

  • s-Video Kabel;
  • adapter von S-Video auf Koaxialkabel;
  • zwei 15-polige DVI / D-Sub-Adapter;
  • cD mit Treibern.

Die Grafikkarte überraschte mich mit einem großen nadelförmigen passiven Kühlkörper, der fast die gesamte Vorderseite der Platine abdeckte:

Der Kühlkörper berührt die GPU über eine dünne Schicht aus sehr dicker grauer Wärmeleitpaste. Bei Speicherchips auf der Vorderseite der Platine erfolgt der Kontakt des Kühlkörpers über dicke Wärmeleitpads:

Ohne Kühlkörper sieht Sapphire Radeon X1300 256 Mb folgendermaßen aus:

Direkt an den Platinenausgängen - analog, digital (DVI) und TV - ist Platz für einen nicht gelöteten ATI Rage Theatre-Chip. Acht Speicherchips in einem TSOP-Paket befinden sich auf beiden Seiten der Platine, aber auf den Speicherchips auf der Rückseite befinden sich keine Kühlkörper.

Herstellungsland der RV515-GPU ist Taiwan:

Der Chip ist 47 Wochen des letzten Jahres datiert, hat 4 Pixel, 2 Vertex-Pipelines und arbeitet mit einer Nennfrequenz von 450 MHz. Aber Videospeicher kann heute fast als Antiquitäten bezeichnet werden:

Seine nominelle Zugriffszeit beträgt 5,0 ns, was einer Frequenz von 400 MHz entspricht, bei der der Speicher arbeitet. Leider liegt dies 100 MHz unter den Spezifikationen der ATI Radeon X1300. Die Chips werden von Samsung hergestellt und sind mit K4D551638F-TC50 gekennzeichnet.

Wenn wir über das Übertakten einer Grafikkarte sprechen, erwärmte sich der passive Strahler der Grafikkarte selbst bei Nennfrequenzen so stark, dass ein Finger darauf nicht einmal 2-3 Sekunden standhalten konnte. Daher war es praktisch, den Kühler durch einen Zalman VF700-Cu zu ersetzen. Danach wurde der Grafikprozessor auf 600 MHz oder + 34% auf den Nennwert übertaktet:

Der Videospeicher übertaktete nur bis zu 440 MHz, seine hohe nominale Zugriffszeit ließ jedoch keine Hoffnung auf Übertaktung aufkommen ...

Leider verfügt die Grafikkarte nicht über integrierte Überwachungstools, sodass es schwierig ist, die Temperatur nach dem Austausch des Kühlsystems und dem Übertakten zu beurteilen. Wenn jemand BIOS Sapphire Radeon X1300 256 Mb benötigt, müssen Sie dafür kein großes Volume herunterladen (34,1 Kb, WinRAR-Archiv). Zum Zeitpunkt der Veröffentlichung dieses Artikels kann diese Grafikkarte für 86 USD erworben werden.

Palit GeForce 7300 GS 256 Mb

Eine weitere von Palit hergestellte Grafikkarte - GeForce 7300 GS 256 Mb - kam zu uns, um sie in einem kleinen Karton zu testen:

Und lassen Sie sich nicht vom Aufkleber mit 512 MB Videospeicher verwechseln, da es sich nur um die Unterstützung der GeForce 7300 GS dieser Speichergröße handelt. Tatsächlich verfügt die getestete Grafikkarte über 256 MB Videospeicher.

Zusätzlich zur Grafikkarte wurden die folgenden Komponenten in der Box gefunden:

Das Füllen der Schachtel ist, um es ganz klar auszudrücken, "spartanisch":

  • splitteradapter für HDTV und VIVO;
  • ein 15-poliger DVI / D-Sub-Adapter;
  • cD mit PowerDVD 5;
  • cD mit Grafikkartentreibern.

Die Palit GeForce 7300 GS 256 Mb Grafikkarte ist mit ihren kleinen Abmessungen etwas überraschend:

Die Höhe der Grafikkarte ist ziemlich normal, aber ihre Länge ist so, dass sie nur 1,5 cm aus dem Rand des PCI-Express-Steckplatzes herausragt. Auf der Vorderseite befindet sich ein kleiner Kühler mit einem Aluminiumkühler und einem holographischen Aufkleber in der Mitte sowie 4 vertikal angeordnete Videospeicherchips in einer Reihe. Auf der Rückseite der Platine befinden sich keine Speicherchips:

Die Palit GeForce 7300 GS 256 Mb ist mit Analog-, Digital- (DVI) und TV-Ausgang ausgestattet, und der Grafikprozessor sieht im Vergleich zu den oben genannten Grafikkarten nur winzig aus:

Die Chip-Revision ist A3 und das Erscheinungsdatum ist 52 Wochen des letzten Jahres:

Vier Silikonkissen, deren Kanten an den vier Ecken des Chipsubstrats sichtbar sind (wie auf dem vorherigen Foto), verhindern, dass der Kern abplatzt und beschädigt wird. Wie Sie sehen, waren sie jedoch nicht ohne. Die Nennfrequenz des Grafikprozessors beträgt 550 MHz und ist damit 250 MHz höher als die der GeForce 6600.

GDDR-2-Speicherchips, hergestellt von Elixir in der 30. Woche 2005:

Die Chips sind mit N2TU51216AG-XP gekennzeichnet und haben eine Nennbetriebsfrequenz von 700 MHz. Mit einer Gesamtspeicherkapazität von 256 MB beträgt der Kommunikationsbus mit dem Grafikchip nur 64 Bit, und dies ist meines Erachtens der Hauptnachteil der GeForce 7300 GS-Leitung.

Wenn wir über das Übertaktungspotential der Palit GeForce 7300 GS 256 Mb sprechen, müssen wir zugeben, dass es sich als recht durchschnittlich herausgestellt hat: Der Grafikprozessor arbeitete stabil bei 640 MHz (+ 16,4%) und der Videospeicher bei 876 MHz (+ 25,1%):

Die letzte Version von Everest, die zum Zeitpunkt der Vorbereitung dieses Artikels verfügbar war, hat es abgelehnt, die Frequenz des GeForce 7300 GS-Videospeichers korrekt wahrzunehmen. Leider verspäten sich die Entwickler dieses Informations- und Diagnose-Dienstprogramms häufig mit der Eingabe von Informationen über neue Geräte. Beispielsweise versteht die GeForce 7600 GT dieses Programm immer noch nicht.

Die Palit GeForce 7300 GS 256 Mb verfügt über keine Möglichkeit zur Überwachung des Temperaturbereichs. Daher muss noch hinzugefügt werden, dass der kleine Lüfter des Standardkühlsystems recht leise arbeitet.

Am Ende der Überprüfung der Grafikkarte poste ich einen Link zum BIOS Palit GeForce 7300 GS 256 Mb (46,6 Kb, WinRAR-Archiv). Die Kosten für diese Grafikkarte betragen derzeit 69 US-Dollar.

3. Testbed-Konfiguration, Betriebssystem, Treiber, Benchmarks und Spiele

Das Testen von Grafikkarten wurde in einem geschlossenen Fall der Systemeinheit mit der folgenden Konfiguration durchgeführt:

  • Hauptplatine: ABIT AN8 SLI (nForce 4 SLI), Sockel 939, BIOS v.2.0;
  • Prozessor: AMD Athlon 64 3200+ (2000 MHz), 1,40 V, 512 Kb, Cool & Quiet - Disable (Venedig, E6).
  • Prozessorkühlsystem: Thermaltake Big Typhoon "Hands Edition", ~ 1100-2000 U / min, ~ 16-21 dBA;
  • Thermische Schnittstelle: Coollaboratory Liquid Pro;
  • RAM: 2 x 512 MB PC3200 Corsair TWINXP1024-3200C2 (SPD: 400 MHz, 2-2-2-5_1T), bei 467 MHz 2-3-4-8_1T;
  • Festplattensubsystem: SATA-II 160 Gbit Seagate Barracuda 7200,9 (ST3160812AS 2AAA) 7200 U / min, 8 Mb;
  • Gehäuse: ATX ASUS ASCOT 6AR2-B Schwarz & Silber + Blasen Coolink SWiF 120 mm (~ 1200 U / min, ~ 24 dBA) + Blasen 120 mm Sharkoon Luminous Blue LED (~ 1000 U / min, ~ 21 dBA);
  • Stromversorgung: MGE Magnum 500 (500 W) + 80 mm GlacialTech SilentBlade-Lüfter (~ 1700 U / min, 19 dBA);
  • Monitor: LCD DELL 1800 / 1FP UltraSharp (1280 x 1024, DVI, 60 Hz).

Das Betriebssystem war Windows XP Professional Edition Service Pack 2, das auf der ersten 8-GB-Festplattenpartition installiert wurde. Alle Testbenchmarks und Spiele wurden auf der dritten Partition der Festplatte mit einer Größe von 65 GB installiert. Alle unnötigen Dienste mit Ausnahme der minimal erforderlichen wurden deaktiviert. Die Tests wurden mit NVIDIA nForce-Systemtreibern 6.82 und DirectX 9.0c-Bibliotheken durchgeführt (Veröffentlichungsdatum - Dezember 2005). ForceWare 83.40 wurde als Treiber für Grafikkarten auf NVIDIA-Chips verwendet, und für die Radeon X1300 war ATI Catalyst 6.3 das letzte, das zum Zeitpunkt der Vorbereitung dieses Artikels verfügbar war.

Die Leistung der Grafikkarten wurde in zwei Auflösungen getestet: 800 x 600 und 1024 x 768 mit Treibereinstellungen nur im Modus "Qualität". Anisotrope Filterung und Vollbild-Anti-Aliasing wurden nicht aktiviert. Da die Leistung der heute getesteten Grafikkarten auf einem niedrigen Niveau liegt, wurden alle aktivierten Optimierungen in den Catalyst- und ForceWare-Treibern aktiviert. Katalysator A.I. auf "Hoch" stellen. Darüber hinaus wurden die Testeinstellungen in Spielen so festgelegt, dass eine komfortable Anzahl von Bildern pro Sekunde (zumindest mindestens) bereitgestellt wird. Daher wurden die folgenden synthetischen, halbsynthetischen Benchmarks, Spiele und deren Einstellungen zum Testen verwendet:

  • 3DMark 2005 - Build 1.2.0, Standardeinstellungen;
  • 3DMark 2006 - Build 1.0.2, nur Auflösung 1280 x 1024, Standardeinstellungen;
  • Halbwertszeit 2: Lost Coast (Direct3D) - Demo-Aufnahme "d2" (647,2 Kb), maximale Grafikeinstellungen werden im Spiel selbst festgelegt;
  • Die Chroniken von Riddick: Flucht aus der Butcher Bay (OpenGL) - Spielversion 1.0.0.1, maximale Grafikqualität, Shader 2.0 , Demo "ducche";
  • Call of Duty 2 (Direct3D) - Spielversion 1.01, Textureinstellungen auf "Mittel" eingestellt, Demoaufnahme "d1" (614,8 Kb);
  • Ernst Sam 2 (Direct3D) - Spielversion 2.066, Standarddemo "GREENDALE", "Mittlere" Grafikeinstellungen im Spiel, HDR Aus;
  • Beben 4 (OpenGL) - Spielversion 1.0.4.0 Build 2147, Demo ganz am Anfang des Levels "Hangar Perimeter", Grafikdetails im Spiel - "Mittlere Qualität", dreifache Demo-Aufzeichnung, um die Abhängigkeit der Ergebnisse von Festplattengeschwindigkeit und Caching zu minimieren;
  • ANGST. (Direct3D) - Spielversion 1.02, integrierter Benchmark, alle Grafikeinstellungen während des Tests sind auf "Mittel", Soft Shadows \u003d eingestellt aus.

In den Diagrammen wurde zur Anzeige der Ergebnisse von Grafikkarten, die im Nennmodus betrieben wurden, ein "kaltes" blau-blaues Gamma und für übertaktete ein "warmes" Orangerot verwendet. Wenn die erhaltenen Ergebnisse eine minimale FPS hatten, wurde dies in den Diagrammen angegeben.

4. Ergebnisse des Testens von Grafikkarten und deren Analyse

Lassen Sie uns zunächst sehen, wie sich Grafikkarten in beliebten synthetischen Benchmarks verhalten: 3DMark 2005 sowie der neue 3DMark 2006.

3DMark 2005

3DMark 2006

Wenn wir in 3DMark 2005 nur einen Außenseiter haben - GeForce 6600 LE, dann wurde in 3DMark 2006 die GeForce 7300 GS hinzugefügt, die in 3DMark 2005 im nominalen Modus von Grafikkarten unter den führenden Unternehmen aufgeführt wurde. Die GeForce 6600 hat eine bescheidene Frequenz (auch nach dem Übertakten), ist aber in Bezug auf die Anzahl der Pipelines vollwertig und umgeht die nächste Radeon X1300 souverän. Das Kräfteverhältnis in beiden synthetischen 3DMark-Benchmarks ist jedoch oft weit von den Testergebnissen in realen Spielen entfernt, die wir weiter untersuchen werden.

Halbwertszeit 2: Lost Coast

In Half-Life 2: Lost Coast können Sie mit den heute getesteten Grafikkarten mit maximaler Grafikqualität spielen, allerdings nur in den für die Tests ausgewählten Auflösungen und ohne Verwendung der HDR-Technologie. Wie Sie sehen können, helfen selbst die hohen Frequenzen der GeForce 6600 LE nach dem Übertakten dieser Grafikkarte nicht, bei 1024 x 768 aus dem Außenseiter auszubrechen. Die GeForce 6600 liegt erneut an der Spitze, gefolgt von der Radeon X1300, und die neue NVIDIA GeForce 7300 GS liegt mit einem minimalen Vorsprung vor der Radeon X1300 auf dem dritten Platz.

Die Chroniken von Riddick: Flucht aus der Butcher Bay

Die Chroniken von Riddick: Escape From Butcher Bay, die die Spieleszene praktisch verlassen haben, können nicht nur Grafikkarten des unteren und mittleren Preissegments, sondern auch einige Top-Grafikbeschleuniger laden. Aus Gründen der Fairness muss ich sagen, dass Sie Shader Model 2.0 ++ und hohe Auflösungen verwenden müssen. Die Flexibilität der Einstellungen für dieses Spiel ermöglicht es mit maximaler Qualität und Shader Model 2.0 in Auflösungen von 800 x 600 und 1024 x 768, selbst auf Grafikkarten, die so schwach sind wie die heute getesteten, akzeptable FPS zu erzielen. Die Marktführer sind GeForce 6600 und 6600 LE, und die zweite mit einer Auflösung von 800 x 600 übertrifft die GeForce 6600 mit acht Pipelines. Mit zunehmender Auflösung kompensieren die hohen Frequenzen der GeForce 6600 LE jedoch nicht mehr den Mangel an Pipelines. Die GeForce 7300 GS liegt in diesem Spiel etwas vor der Radeon X1300.

Call of Duty 2

In einem der grafisch "schwersten" Spiele - Call of Duty 2 - erlauben die heute getesteten Grafikkarten selbst bei mittleren Einstellungen das Spielen nur mit 800 x 600 (dies ist eine Strecke). Die Verwendung des DirectX 8-Profils oder noch bescheidenerer Grafikeinstellungen ist meiner Meinung nach nicht akzeptabel. Es ist besser, überhaupt nicht zu spielen, als zu versuchen, auf diese Weise zu "spielen". Eine völlig unzureichende Vorstellung vom Spiel und dem Gameplay entwickelt sich, was dann zu scharf negativen Bewertungen führt. Es gibt viele Beispiele in unserer Konferenz. Wenn wir über die Testergebnisse in diesem Spiel sprechen, dann hat sich die Radeon X1300 ganz unerwartet als führend herausgestellt. GeForce 6600 und 7300 GS liegen etwas dahinter. Am Ende "webt" ein Hochfrequenzschnitt der GeForce 6600 LE "traurig".

Ernst Sam 2

Aber Serious Sam 2, auch bei mittlerer Grafikqualität, zeigt eine komfortablere Anzahl von Bildern pro Sekunde als Call Of Duty 2. Aber auch hier sehen wir nichts Neues in der Ausrichtung der Kräfte in Bezug auf die Testergebnisse in früheren Spielen.

Beben 4

Die Führung von Grafikkarten auf Basis von NVIDIA-Chips in Quake 4 ist für uns keine Neuheit. Selbst die 64-Bit-GeForce 7300 GS übertrifft die Radeon X1300. Der Vorteil der GeForce 6600 ist in beiden Auflösungen nicht zu leugnen, sowohl im nominalen Betriebsmodus von Grafikkarten als auch beim Übertakten.

ANGST.

Von allen heute getesteten Grafikkarten weist nur die übertaktete GeForce 6600 eine akzeptable Geschwindigkeit bei einer Auflösung von 1024 x 768 und mittleren Einstellungen für die Grafikqualität auf (die Mindest-FPS fallen nicht unter 20). Es ist unwahrscheinlich, dass alle anderen Grafikkarten ein komfortables Spielen von F.E.A.R. Andernfalls müssen Sie die Auflösung opfern oder die Einstellungen für die Grafikqualität im Spiel weiter reduzieren.

Fazit

Zunächst möchte ich sagen, dass Besitzer einer GeForce 6600 mit 8 Pixel und 3 Vertex-Pipelines sich keine Sorgen machen müssen: Es ist schwierig, einen Konkurrenten für diese Grafikkarte in der Preisklasse von bis zu 100 US-Dollar zu finden. Angesichts der Tatsache, dass die GeForce 6600 immer noch etwas teurer ist als der Rest der Testteilnehmer (und eine Überzahlung von 15 bis 20 US-Dollar meiner Meinung nach für Grafikkarten eines solchen Preises von entscheidender Bedeutung ist), ist es richtiger, aus der gleichwertigen Palit GeForce 6600Very + 128 MB (85 US-Dollar) zu wählen und Sapphire Radeon X1300 256 Mb (86 USD). Ihre Geschwindigkeit ist ungefähr gleich: In der Hälfte der Spiele (Half-Life 2, Call Of Duty 2 und Serious Sam 2) liegt die Radeon X1300 vorne, in der zweiten Hälfte (The Chronicles Of Riddick, Quake 4 und F.E.A.R.) liegt der Vorteil auf der Seite der GeForce 6600 LE. Wenn Sie jedoch die Benchmarks "spielen", gewinnt die Radeon X1300 in 3DMark 05 und 06.

Wenn wir die neuen Produkte mit der GeForce 7300 GS und der Radeon X1300 vergleichen, dann hat letztere nur in 3DMark 2006, Call Of Duty 2 und F.E.A.R. Man sollte jedoch berücksichtigen, dass die Grafikkarte mit einer Videospeicherfrequenz von weniger als 100 MHz im Vergleich zu den Spezifikationen getestet wurde und die Ergebnisse der Radeon X1300 etwas stärker steigen sollten. Die Palit GeForce 7300 GS 256 Mb zu einem niedrigeren Preis (69 US-Dollar) bietet jedoch eine ungefähre Parität in allen anderen Spielen und einen Gewinn in Quake 4. Es ist zu beachten, dass Sie möglicherweise auf billige Versionen der Radeon X1300 mit einem 64-Bit- und sogar 32-Bit-Bus stoßen ! Ich denke, es macht keinen Sinn zu erklären, dass es unwahrscheinlich ist, dass Sie auf einer solchen "sichtbaren Karte" spielen können.

Wenn wir also den gesamten Bereich bis zu 100 US-Dollar nutzen, sieht die GeForce 6600 am besten aus. Stellen Sie nur sicher, dass die Eigenschaften der Karte den Spezifikationen entsprechen. Wenn alle 15 US-Dollar zählen, gibt es zwei führende Unternehmen - eine vollwertige GeForce 6600 als schnellste, aber relativ teure und die GeForce 7300 GS als billigste, aber nicht sehr langsame. Angesichts der Vielzahl von nicht standardmäßigen Karten, die sich von den ATI- und NVIDIA-Empfehlungen unterscheiden, die von Herstellern von Standard-Grafiklösungen hergestellt werden, gibt es viele andere Optionen.

Die Bekanntschaft mit dem Sortiment an Grafikkarten im Preisbereich bis zu 100 US-Dollar und die Überprüfung der entsprechenden Diskussionsthreads auf der Konferenz ergaben eine interessante Tatsache. Im Low-End-Segment zeigen Hersteller manchmal eine übermäßige Unabhängigkeit, ohne die ATI- und NVIDIA-Spezifikationen einzuhalten. Ich streite nicht, nur hallo Übergerade als jemand die GeForce 6600 mit schnellem GDDR-3-Speicher ausstattete und sie zu einem Preis verkaufte, der seine Gegenstücke mit herkömmlichem DDR-Speicher nicht übersteigt. Was aber, wenn der Benutzer anstelle von acht Pixel-Pipelines und drei Vertex-Pipelines, die in den GeForce 6600-Spezifikationen festgelegt sind, gleichzeitig ein 4/2-Schema erhält, das noch schlechter ist als das der GeForce 6200, die in einem 4/3-Schema arbeitet? Die Testergebnisse zeigen, dass sich der Wettlauf um hohe Taktfrequenzen zum Nachteil der Anzahl der Pipelines und vor allem der Breite des Speicherbusses überhaupt nicht rechtfertigt. Dies wurde zuvor durch Tests der Radeon X1300 Pro und der Radeon X1600 XT (Pro) bestätigt. Der Beweis dafür ist heute der zuversichtliche Sieg der vollwertigen GeForce 6600 in der überwiegenden Mehrheit der Tests und die vollständige Niederlage der GeForce 6600 LE-Karte, wenn auch mit einer so hochfrequenten.

Ein weiteres typisches Beispiel ist die Ausstattung der Radeon X1300 mit 512 (!) MB Videospeicher mit einer Frequenz, die im Vergleich zu den Spezifikationen zu niedrig ist. Ich nehme nicht an, genau zu beurteilen, wie ATI und NVIDIA diesen Prozess steuern (und ob sie ihn überhaupt steuern), aber ich möchte Sie noch einmal warnen und daran erinnern, dass Sie in Bezug auf die Hauptmerkmale technisch kompetent sein und beim Kauf von Grafikkarten dieser Preisklasse sehr vorsichtig sein müssen. Ich hoffe, der heutige Artikel hat Ihnen geholfen, Ihre Wahl zu treffen und das Kräfteverhältnis zu klären.

In Bezug auf das allgemeine Leistungsniveau von Grafikkarten in diesem Preissegment ist zu beachten, dass die Eigentümer nicht nur die Bildqualität, sondern auch die Auflösung beeinträchtigen müssen. Sie können die Verwendung der anisotropen Filterung und darüber hinaus des Vollbild-Anti-Aliasing vergessen. Es ist immer noch möglich, eine komfortable FPS zu erzielen, jedoch nur auf Kosten der Bildqualität. Daher liegt die Entscheidung über die Zweckmäßigkeit des Kaufs solcher Grafikkarten bei Ihnen.

Der Beginn des Herbstes ... Genau wie vor 5 Jahren, als die Ankündigung des ersten Produkts mit Hardware-Unterstützung für T & L - GeForce256 angekündigt wurde, treffen wir heute auf neue Produkte von NVIDIA. Natürlich ist dies kein High-End, aber dies macht die Ankündigung nicht weniger interessant. Eigentlich war die Ankündigung bereits im August, aber dann wurden nur die Eigenschaften von Grafikkarten vorgestellt, und jetzt haben wir wie viele andere Medien die Möglichkeit zu zeigen, wozu die neuesten Produkte für den mittleren Sektor der 3D-Beschleuniger in der Lage sind.

Bis vor kurzem waren ATI-Produkte in diesem Marktsegment führend: RADEON 9600 / PRO / XT, X600PRO / XT und übertrafen ihre Konkurrenten NVIDIA GeForce FX 5700 / Ultra, PCX5750 / 5900 in Bezug auf Geschwindigkeit in modernen Spielen mit aktivem Einsatz von Shadertechnologien. Und nur "von oben" in diesem Segment eingeführt, konnte der FX 5900XT populär werden und die Hegemonie der kanadischen Produkte unterdrücken. Und nun ...

"Nal ist auf dem Weg zum Hauptpreis ... Ruby muss die Linie halten ..."

Ja, es ist kein Zufall, dass eine Meerjungfrau und ein mutiges Mädchen aus den entsprechenden Demo-Programmen von NVIDIA und ATI, die neue Technologien demonstrieren (SM3.0 von NVIDIA und 3Dc / SM2.0b von ATI), als Heldinnen aufgenommen wurden. Neue Artikel der kalifornischen Firma, die wir heute untersuchen werden, unterstützen Shader 3.0 wie ihre älteren Brüder vollständig.

Wird Ruby Nala, die sie einholt, ihren königlichen Diamanten geben? Schließlich werden bald neue Produkte von ATI im gleichen Bereich der Grafikkarten angekündigt. Was wird das Ergebnis der Schlacht sein? - Wir wissen es noch nicht. Ich denke, dass das Material auf RV410 nicht weniger interessant und aufregend sein wird. Aber im Moment werden wir dies ignorieren und die NV43 (GeForce 6600GT / 6600) so betrachten, als ob diese Karten bereits im Verkauf wären. Dementsprechend werden sie mit den Beschleunigern konkurrieren, die derzeit im Preissegment von 150 bis 200 US-Dollar beliebt sind. Und natürlich die Grafikkarten, die durch neue Produkte ersetzt werden.

Mit Blick auf die Zukunft stellen wir fest, dass NV43 die PCI-Express-Schnittstelle (im Folgenden als PCX bezeichnet) integriert unterstützt, sodass AGP-Produkte ohne ein Kit mit einer HSI-Brücke nicht möglich sind. Folglich sind sie teurer in der Herstellung und werden später als ihre PCX-Gegenstücke veröffentlicht (wenn dies der Fall ist, hängt alles von der Nachfrage ab). Dies ist heute ein erheblicher Nachteil neuer Produkte, da der PCX-Sektor gerade erst mit seiner Entwicklung beginnt und die Nachfrage nach solchen Plattformen immer noch minimal ist. Unabhängig davon, wie groß das neue Produkt ist, ist es von Anfang an zu einer relativ geringen Nachfrage auf dem Einzelhandelsmarkt verurteilt, da das Upgrade von der AGP-Plattform auf die PCX immer noch zweifelhafte Vorteile hat. Auf der anderen Seite werden der OEM-Markt und PC-Hersteller, insbesondere ausländische, nicht zögern, Modelle auf den Markt zu bringen, die nicht so teuer sind wie Top-End-Lösungen, aber dennoch die modernen Anforderungen von DirectX PCX-Lösungen voll erfüllen.

Außerdem, wer weiß, kann die Veröffentlichung interessanter und vorteilhafter Grafikkarten unter dem Gesichtspunkt des Preis-Geschwindigkeits-Verhältnisses das Interesse an PCX im Allgemeinen wecken. Im Allgemeinen wird die Zeit es zeigen. Und vergessen wir nicht, dass der RV410 von ATI auch nur native Unterstützung für PCX bietet, während das kanadische Unternehmen keine eigenen Zwei-Wege-AGPPCX-Brücken hat und es daher fast unmöglich sein wird, neue Elemente auf dem AGP-Bus zu implementieren. Dieser Sektor ist jedoch bereits eng und es gibt viele verschiedene Lösungen mit ähnlicher Leistung wie zuvor oder heute veröffentlicht.

Für uns war es sehr interessant, nicht nur Karten auf derselben Schnittstelle zu vergleichen, sondern auch AGP- und PCX-Versionen. Dies ist natürlich sehr schwierig, da die Plattformen sehr unterschiedlich sind. Wir erinnern uns jedoch daran, dass wir uns im Middle-End-Bereich befinden, wo moderne Prozessoren durchaus in der Lage sind, den Beschleuniger zu 100% zu belasten, und die Leistung nach einer bestimmten Auflösung nicht so stark von der Plattform abhängt. Erfahren Sie unten, was aus unserer plattformübergreifenden Forschung hervorgegangen ist.

Kommen wir nun zu den Objekten der heutigen Analyse zurück: NVIDIA NV43 oder GeForce 6600GT / 6600 (die Linie besteht bisher aus zwei Karten, die sich nur in Teilen unterscheiden).

Offizielle Spezifikationen GeForce 6600GT / 6600 (NV43)

  1. Chip-Codename NV43
  2. 110-nm-Technologie (TSMC) (!)
  3. 146 Millionen Transistoren
  4. FC-Gehäuse (umgekehrter Chip, keine Metallabdeckung)
  5. 128-Bit-Zweikanal-Speicherschnittstelle (!)
  6. Bis zu 256 MB DDR / GDDR2 / GDDR3-Speicher
  7. On-Chip-PCI Express16x mit Busschnittstelle
  8. Möglichkeit, die Schnittstelle mithilfe eines Zwei-Wege-PCI-ExpressAGP-Bridge-HSI in APG 8x zu übersetzen
  9. 8 Pixelprozessoren, jeweils eine Textureinheit mit willkürlicher Filterung von ganzzahligen und schwebenden Texturen (Anisotropie bis einschließlich 16x Grad).
  10. 3 Vertex-Prozessoren, jeweils eine Textureinheit, ohne die ausgewählten Werte zu filtern (diskrete Abtastung)
  11. Berechnung, Überblendung und Aufzeichnung von bis zu 8 Vollpixeln (Farbe, Tiefe, Schablonenpuffer) pro Taktzyklus (Experiment zeigt - bis zu 4)
  12. Berechnung und Aufzeichnung von bis zu 16 Werten für Tiefe und Musterpuffer pro Taktzyklus (wenn keine Operationen mit Farbe ausgeführt werden) (Experiment zeigt - bis zu 8)
  13. Unterstützung für Zweiwege-Schablonenpuffer
  14. Unterstützung für spezielle Geometrie-Rendering-Optimierungen zur Beschleunigung von Schablonenpuffer-basierten Schattenalgorithmen (die sogenannte Ultra Shadow II-Technologie), die insbesondere in der Doom III-Engine weit verbreitet sind
  15. Alles, was Sie zur Unterstützung von Pixel- und Vertex-Shadern 3.0 benötigen, einschließlich dynamischer Verzweigung in Pixel- und Vertex-Prozessoren, Abrufen von Texturwerten von Vertex-Prozessoren usw.
  16. Filtern von Texturen im Floating-Format
  17. Floating Frame Buffer unterstützt (einschließlich Mischvorgänge)
  18. 2 RAMDAC 400 MHz
  19. 2 DVI-Schnittstellen (Schnittstellenchips erforderlich)
  20. TV-Out- und TV-In-Schnittstelle (Schnittstellenchips erforderlich)
  21. Programmierbarer Streaming-Videoprozessor (für Videokomprimierungs-, Dekomprimierungs- und Nachbearbeitungsaufgaben)
  22. 2D-Beschleuniger mit Unterstützung aller GDI + -Funktionen
  23. Eingebaute Temperatur- und Stromverbrauchsüberwachung

Technische Daten der GeForce 6600 GT-Referenzkarte

  1. Kernfrequenz 500 MHz
  2. Effektive Speicherfrequenz 1 GHz (2 * 500 MHz)
  3. Speicherbus 128 Bit
  4. GDDR3-Speichertyp
  5. Speicherkapazität 128 Megabyte
  6. Speicherbandbreite 16 Gigabyte pro Sekunde.
  7. Theoretische Füllrate 4 Gigapixel pro Sekunde.
  8. Theoretische Texturabtastrate 4 Gigatexel pro Sekunde.
  9. Ein VGA- (D-Sub) und ein DVI-I-Anschluss
  10. TV-Out
  11. Verbraucht bis zu 70 Watt Energie (d. H. Auf einer PCI-Express-Karte wird kein Anschluss für zusätzlichen Strom benötigt, ein Netzteil mit einer Gesamtkapazität von 300 Watt oder mehr wird empfohlen).

Liste der derzeit auf der NV43-Basis veröffentlichten Karten:

  • GeForce 6600GT: 500/500 (1000) MHz, 128 MB GDDR3, PCI-Express x16, 8 Pixel und 3 Vertex-Pipelines (199 US-Dollar) - Konkurrent von NVIDIA GeForce PCX5900, ATI RADEON X600 XT (?) Sowie zukünftige ATI-Lösungen (RV410) ;;
  • GeForce 6600: 300 / 250-300 (500-600) MHz, 128 / 256MB DDR, PCI-Express x16, 8 Pixel und 3 Vertex-Pipelines (149 USD) - Konkurrent zu NVIDIA GeForce PCX5750, ATI RADEON X600 PRO (X600 XT?).

Allgemeine Schaltung des Chips

Es gibt keine besonderen architektonischen Unterschiede zu NV40, was jedoch nicht überraschend ist. NV43 ist eine skalierte Lösung (durch Reduzierung der Anzahl von Vertex- und Pixelprozessoren und Speichercontrollerkanälen), die auf der NV40-Architektur basiert. Die Unterschiede sind quantitativ (im Diagramm fett dargestellt) und nicht qualitativ - aus architektonischer Sicht hat sich der Chip praktisch nicht verändert.

Es gibt also 3 (es gab 6) Vertex-Prozessoren und zwei (es gab vier) unabhängige Pixelprozessoren, von denen jeder mit einem Quad (einem 2x2-Pixel-Fragment) arbeitet. Interessanterweise ist PCI Express diesmal zu einer nativen (d. H. Auf einem Chip implementierten) Busschnittstelle geworden, und AGP 8x-Karten enthalten eine zusätzliche Zweiwege-PIC-E-AGP-Brücke (durch eine gepunktete Linie dargestellt), die wir zuvor ausführlich beschrieben haben.
Darüber hinaus stellen wir einen sehr wichtigen Grenzpunkt fest - einen Zweikanal-Controller und einen 128-Bit-Speicherbus - wir werden diese Tatsache im Folgenden ausführlich diskutieren und untersuchen.

Die Architektur der Vertex- und Pixelprozessoren sowie des Videoprozessors bleibt unverändert. Diese Elemente haben wir in unserem Test der GeForce 6800 Ultra (Link) ausführlich beschrieben. Lassen Sie uns nun über mögliche quantitative und qualitative Änderungen in Bezug auf den NV40 sprechen:

Theoretische Überlegungen darüber, was wie geschnitten wurde

Im Allgemeinen erhalten wir derzeit die folgende Reihe von Lösungen, die auf den NV4X- und R4XX-Architekturen basieren:

Pixel /
Scheitel

Memory Lane

Füllrate
Mpix.

Kernfrequenz

256 (4 x 64)
GDDR3 1100

256 (4 x 64)
GDDR3 1000

256 (4 x 64)
DDR 700

256 (4x64)
DDR 700

128 (2x64)
DDDR 3 1000

128 (2x64)
DDR 500-600-700

256 (4 x 64)
GDDR3 1000

256 (4 x 64)
GDDR3 1100

256 (4 x 64)
DDR 700

256 (4x64)
DDR (?)

X 700 PRO / SE *

128 (2x64)
?

Basierend auf der Architektur der vorherigen Generation

*) Daten basieren auf nicht verifizierten Gerüchten (jenseits des 3D-Forums und anderer inoffizieller Online-Quellen). Bald werden diese Produkte offiziell angekündigt.

Während der 6800 Ultra, GT und nur der 6800 in Bezug auf Speicherbandbreite und Füllrate recht ausgewogene Lösungen zu sein scheinen, wird der 6800LE häufiger auf eine unzureichende Füllrate stoßen - es gibt einen Überschuss an Speicherbandbreite, und beide 6600-Modelle leiden hauptsächlich unter einem Mangel an Bandbreite. Übertragung. Der 6600 GT hat eine Spitzenfüllrate von fast 2/3 des 6800 Ultra, während die Speicherbandbreite mehr als die Hälfte beträgt, ohne die potenziell kleineren Caches und den Zweikanal-Speichercontroller.

Daher können wir vorhersagen, dass der Schwachpunkt der 6600-Familie hohe Auflösungen und Modi mit Vollbild-Anti-Aliasing sein wird, insbesondere in einfachen Anwendungen, während Programme mit langen und komplexen Shadern und anisotroper Filterung ohne gleichzeitige MSAA stark sein werden. Als nächstes werden wir diese Annahme mit Spiel- und Synthesetests überprüfen.

Es ist jetzt schwer zu beurteilen, wie gerechtfertigt die Bewegung mit einem 128-Bit-Speicherbus war - einerseits reduziert sie die Kosten des Chipgehäuses und verringert die Anzahl defekter Chips, andererseits ist der Preisunterschied einer Leiterplatte für 256 Bit und 128 Bit nicht groß und wird durch den Unterschied in mehr als kompensiert der Preis für reguläre DDR und bisher teure Hochgeschwindigkeits-GDDR3-Speicher. Aus Sicht der Kartenhersteller wäre eine Lösung mit einem 256-Bit-Bus wahrscheinlich bequemer, zumindest wenn sie die Wahl hätten, und aus Sicht von NVIDIA, das Chips produziert und häufig Speicher mit ihnen verkauft, eine 128-Bit-Lösung komplett mit GDDR3. Es ist eine andere Sache, wie sich dies auf die Geschwindigkeit auswirkt - schließlich gibt es eine mögliche Einschränkung der hervorragenden Fähigkeiten des Chips (8 Pipelines, 500 MHz Kernfrequenz, und dies ist noch nicht die Grenze) aufgrund der erheblich reduzierten Speicherbandbreite:

DDR 700x256 Bit \u003d 22,4 Gigabyte gegenüber GDDR3 1000x128 Bit \u003d 16 Gigabyte.

Diese Tatsache ist vor dem Hintergrund von Gerüchten über das ältere Modell X700, das mit 256-Bit-Speicher ausgestattet sein wird, besonders besorgniserregend.

Beachten Sie jedoch, dass NVIDIA das Ultra-Suffix vorerst beibehalten hat. Angesichts des großen Übertaktungspotenzials der 110-nm-Technologie können wir eine Karte mit einer Kernfrequenz von etwa 600 MHz oder etwas weniger mit 1100 oder sogar 1200 (in der Zukunft) Speicher und dem Namen 6600 Ultra erwarten. Aber was wird der Preis sein? Auf lange Sicht können wir das Erscheinungsbild einer aktualisierten 256-Bit-Version der Mainstream-Lösung vorhersagen. Nennen wir sie NV46, die für die Leistung optimiert ist, mit 8 oder sogar 12 Pipelines und einem 256-Bit-Bus.

Offenbar blieben die Vertex- und Pixelprozessoren in NV43 unverändert, aber die internen Caches hätten proportional zur Anzahl der Pipelines reduziert werden können. Die Anzahl der Transistoren gibt jedoch wenig Anlass zur Sorge - angesichts der nicht so großen Cache-Größen wäre es sinnvoller, sie wie bei NV40 zu belassen, um den spürbaren Mangel an Speicherbandbreite auszugleichen. Es ist durchaus möglich, dass ein Array von ALUs, die in Transistoren groß genug sind und Nachbearbeitung, Validierung, Z-Erzeugung und Pixelmischung zum Aufzeichnen der Ergebnisse in den Bildspeicher durchführen, in jeder Pipeline im Vergleich zum NV40 reduziert wurde - die reduzierte Speicherbandbreite ermöglicht es ohnehin nicht, 4 volle Gigapixel zu schreiben Zweitens wird das Füllpotential (8 Pipelines bei 500 MHz) nur bei mehr oder weniger komplexen Shadern mit mehr als zwei Texturen und den dazugehörigen Shader-Berechnungen voll ausgeschöpft.

Wir werden alle diese Annahmen während der nachfolgenden Synthese- und Spieletests überprüfen.

Bevor Sie die Karte selbst untersuchen, finden Sie hier eine Liste von Artikeln, die sich mit den vorherigen neuen Produkten befassen: NV40 / R420. Immerhin ist es bereits offensichtlich, dass die NV43-Architektur ein direkter Erbe der NV40-Technologien ist (nach der Leistung des Chips wurden sie in zwei Hälften geteilt).

Theoretische und analytische Materialien und Übersichten zu Grafikkarten, in denen die Funktionsmerkmale der GPU ATI RADEON X800 (R420) und NVIDIA GeForce 6800 (NV40) untersucht werden.

  • NVIDIA GeForce 6800 Ultra (NV40). Teil 1 - Architekturfunktionen und synthetische Tests in D3D RightMark (einseitige Version)
  • NVIDIA GeForce 6800 Ultra (NV40). Teil 1 - Architekturmerkmale und synthetische Tests in D3D RightMark (paginierte Version)
  • NVIDIA GeForce 6800 Ultra (NV40). Teil 2 - Untersuchung von Leistung und Qualität in Spieleanwendungen (eine Seite)
  • NVIDIA GeForce 6800 Ultra (NV40). Teil 2 - Untersuchung von Leistung und Qualität in Spieleanwendungen (Paginierte Option)
  • Schlacht von Borodino zwischen ATI RADEON X800 XT und NVIDIA GeForce 6800 Ultra - Szene 2: 450 MHz im zweiten und neuen Test für beide Karten (einseitige Version)
  • Schlacht von Borodino zwischen ATI RADEON X800 XT und NVIDIA GeForce 6800 Ultra - Szene 2: 450 MHz für den zweiten und neuen Test für beide Karten (die Version ist in Seiten unterteilt)
  • Schlacht von Borodino zwischen RADEON X800 und GeForce 6800: Szene Drei - Trilineare Filterung (synthetische Beispiele)
  • Schlacht von Borodino zwischen RADEON X800 und GeForce 6800: Szene 4: Filtertests basierend auf RightMark (einseitige Version)
  • Schlacht von Borodino zwischen RADEON X800 und GeForce 6800: Szene 4: Filtertests basierend auf RightMark (die Version ist paginiert)
  • Schlacht von Borodino zwischen ATI RADEON X800 und NVIDIA GeForce 6800 - Fünfte Szene: Spielbasierte Filtertests (einseitige Version)
  • Schlacht von Borodino zwischen ATI RADEON X800 und NVIDIA GeForce 6800 - Fünfte Szene: Spielbasierte Filtertests (die Version ist paginiert)
  • PowerColor RADEON X800 PRO Limited Edition Test, Hardware-Überarbeitung von X800 PRO in X800 XT Platinum Edition (einseitige Version)
  • PowerColor RADEON X800 PRO Limited Edition Test, Hardware-Überarbeitung von X800 PRO in X800 XT Platinum Edition (paginierte Version)
  • Überprüfung von Leadtek WinFast A400 TDH und Leadtek WinFast A400 Ultra TDH basierend auf NVIDIA GeForce 6800/6800 Ultra (einseitige Version)
  • Überprüfung von Leadtek WinFast A400 TDH, Leadtek WinFast A400 Ultra TDH basierend auf NVIDIA GeForce 6800/6800 Ultra (aufgeteilt in Seiten)
  • Schlacht von Borodino zwischen ATI RADEON X800 und NVIDIA GeForce 6800 - Szene 6: Filter in Spielen (Fortsetzung) (einseitige Version)
  • Schlacht von Borodino zwischen ATI RADEON X800 und NVIDIA GeForce 6800 - Szene 6: Filtration in Spielen (Fortsetzung) (Option ist paginiert)
  • Kurzer Bericht über das Testen von FarCry v.1.2 und die erste Inkarnation von Shader 3.0 in die Realität
  • Kurzbericht über Betriebstests moderner 3D-Karten in DOOM III (X800PRO / XT, GF6800 / GT / Ultra, 9800XT / 5950U)
  • Chaintech Apogee GeForce 6800 Ultra basierend auf NVIDIA GeForce 6800 Ultra - Tests in DOOM III mit "Optimierungen"

Lassen Sie mich noch einmal betonen, dass heute nur der erste Teil der Leistung neuer Produkte gewidmet ist. Wir werden uns die Qualitätskomponenten später im zweiten Teil ansehen (3D-Qualität und Videowiedergabe).

Lassen Sie uns nun über die Karte sprechen. Warum haben wir zwei Karten im Titel, aber ziehen wir tatsächlich eine in Betracht? Tatsache ist, dass sich 6600GT und 6600 nur in den Betriebsfrequenzen voneinander unterscheiden, sodass wir den GF 6600 höchstwahrscheinlich emulieren können, indem wir die Frequenzen in 6600GT verringern. Welches ist, was wir getan haben. Angesichts der Tatsache, dass die serielle GeForce 6600 keinen GDDR3-Speicher hat, sondern nur eine einfache DDR (abgesehen von den Frequenzen sind auch die Timings unterschiedlich) und die Tatsache, dass NVIDIA die Speicherfrequenzen für solche Karten nicht starr deklariert und von 250 taktet bis zu 300 MHz Speicher; Wir können nicht von einer 100% igen Übereinstimmung unserer Ergebnisse mit denen der endgültigen GeForce 6600 sprechen. Aber Sie können schätzen. Und sogar nützlich. Daher zeigen unsere Ergebnisse die GeForce 6600 300/300 (600) MHz (der Grenzfall ist genommen). Jeder versteht, dass der echte 6600 die Leistung NICHT MEHR als in den Diagrammen zeigt, und Sie können grob abschätzen, inwieweit sie sein wird.

Also, Referenzkarte GeForce 6600GT.

Es ist offensichtlich, dass das Design des GF 6600GT einzigartig ist und sich von keinem früheren unterscheidet. Zuallererst ist dies eine Verringerung der Größe der Karte selbst, wodurch das Fehlen eines 256-Bit-Busses ermöglicht wird, was sich immer noch auf die Größe der Leiterplatte auswirkt. Auch eine starke Vereinfachung des Netzteils trug zu einer Verringerung der Leiterplattenfläche bei (schließlich ist für PCX-Karten mit weniger als 75 W kein externes Netzteil mehr erforderlich, was das Design vereinfacht). Unsere Anlage verbraucht bei maximaler Last weniger als 75 W, sodass keine direkten Verbindungen zur Stromversorgung erforderlich sind.

Trotz der enormen Frequenzen für einen 8-Pipeline-Chip ist der Kühler eher primitiv.

Es ist davon auszugehen, dass die Hersteller solcher Karten mit ihren eigenen Kühlern experimentieren oder die Entwicklungen verwenden, die zuvor für die GeForce4 Ti (GeForce FX 5600/5700) vorgenommen wurden.

Die GPU selbst hat eine relativ kleine Größe ihrer Plattform (natürlich wegen des 128-Bit-Busses) und sieht im Allgemeinen der GeForce FX 5700 sehr ähnlich. Und die Kristallabmessungen sind fast gleich. Wenn diese Dimensionen in NV36 jedoch nur für Pipelines mit 4 Pixeln und 3 Scheitelpunkten passen, gibt es in diesem Fall doppelt so viele Pipelines mit Pixeln. Immer noch 0,11 Mikrometer ...

Die Grafikkarte hat eine wichtige Funktion für die Zukunft, nämlich die Unterstützung von SLI (dh wie in den Tagen von Voodoo2 ist es möglich, die Gesamtleistung von 3D-Grafiken durch Hinzufügen eines ähnlichen Beschleunigers zu erhöhen). Zu diesem Zweck befindet sich auf der Platine im oberen Teil ein entsprechender Anschluss zum Anschließen einer speziellen Schleife (oder eines speziellen Anschlusses) an zwei Grafikkarten, um deren Arbeit zu synchronisieren:

Nach Abschluss des Studiums der Karte selbst stellen wir fest, dass die VIVO-Unterstützung über Philips 7115 implementiert wurde (wir haben noch keinen solchen Encoder kennengelernt, sodass unser ständiger Forscher für Multimedia-Add-Ons oder Funktionen von Grafikkarten, Alexey Samsonov, bereits ungeduldig darauf wartet, das neue Produkt zu testen).

Sprechen wir jetzt über das Übertakten. Dank der Effizienz des RivaTuner-Autors Alexei Nikolaychuk kann dieses Dienstprogramm bereits mit NV43 arbeiten.

Die Anzahl der Pipelines (sowohl Pixel als auch Scheitelpunkt) wird für die Karte bestimmt. Im zweiten Screenshot sehen wir, dass die Karte zwei Quads (vier Pixel-Pipelines) hat.

So konnte das Board bei Frequenzen stabil arbeiten 590/590 (1180) MHz!... Beispielloses Potenzial! Ich kann sogar davon ausgehen, dass NVIDIA nach der Veröffentlichung des ATI RV410 die GeForce 6600 Ultra veröffentlichen wird (es ist nicht umsonst, dass das ältere Modell jetzt nur noch das Suffix GT hat).

Die Karte arbeitete bei diesen Frequenzen und wurde von einem externen Lüfter geblasen. Und hier sind die Temperaturen, die wir gesehen haben:

Ja, manchmal erreichte die Kerntemperatur 88 Grad, aber wie Sie wissen, ist dies für solche Chips eindeutig nicht die Grenze (sie können sich auf 100 Grad erwärmen). Es ist interessant festzustellen, dass der externe Lüfter praktisch nur den Speicher gekühlt hat, da das Entfernen zu keinem Anstieg der Kerntemperatur führte.