Zu Anfangszeiten der Computer sah das ganze noch etwas anders aus. Die ersten Computer hatten noch nicht mal einen Bildschirm! Mit fortschreitender Technik und dem steigendem Interesse der Öffentlichkeit, mussten die Computer auch benutzerfreundlicher werden. Es mussten Eingabe- und Anzeigegeräte her die einem Menschen ohne besondere Ausbildung die Bedienung dieser komplexen Geräte ermöglichen. So wurden immer neuere Techniken entwickelt um die Benutzung zu vereinfachen und auch zu verschönern.

 

Ich arbeite selber viel am Computer. Die meiste Zeit zeichne ich daran oder erledige andere grafische Arbeiten. Auch mit Webseiten und Computerspielen beschäftige ich mich intensiv. Gerade Spiele und die Arbeit mit Grafikprogrammen haben mich dazu gebracht, mich etwas intensiver mit der Hardware zu befassen. Das sind auch die beiden Hauptgründe, die die Entwicklung von leistungsstarken Grafikkarten vorangetrieben haben. 

Die ersten Grafikkarten, waren eigentlich nur Adapter, die bereits komplett vorgerechnete Daten in Bilder umwandelten um sie auf einem Anzeigegerät darzustellen. Doch je höher die Ansprüche wurden umso mehr wollte man das Berechnen der Bilder vom Hauptprozessor und Hauptspeicher trennen. So wurden Grafikkarten entwickelt mit eigenen leistungsstarken Prozessoren, die speziell auf die Anforderungen der Grafikberechnung angepasst sind und eigenen RAM Speicher besitzen.

So brauchte der zentrale Prozessor (CPU) quasi nur noch Anfangs-, Endpunkte und sonstige verschiedene Parameter an die Grafikkarte weiter zu leiten und die Grafikkarte machte die ganze Fleißarbeit der Bildberechnung selbstständig. Wer sich noch an die ersten 3dfx Karten erinnern mag, der weiß was für einen Leistungsschub es brachte, wenn man eine Grafikkarte in seinen Rechner baute, die komplexe 3D Umgebungen in Echtzeit rendern konnte. Ein Beispiel dass ich selber erfahren habe war ein 3D Spiel das eigentlich keine 3D Beschleuniger Karte voraussetze, dafür aber einen deutlich stärkeren Prozessor als in dem Rechner verbaut war. Das Spiel verlangte 166MHz, aber der PC hatte nur 90MHz. Eine 3D Beschleuniger Karte kompensierte den Mangel komplett und ich konnte das Spiel spielen. Heute wird das weniger gut funktionieren, weil aktuelle Software deutlich höhere Ansprüche stellt als frühere und es nach der 3D Beschleunigung keinen derartigen Meilenstein mehr gegeben hat, der die Grafikberechnung derart revolutionierte. Aber man kann sehr wohl durch eine stärkere Grafikkarte die sonst schwächere Computer Hardware ein wenig kompensieren.

Das funktioniert allerdings nur bis zu einem gewissen Kompatibilitätsgrad und viele Programme verweigern den Dienst, sobald auch nur ein Bauteil unter den geforderten Spezifikationen liegt.

Das grundlegende Prinzip moderner Grafikkarten ist bis heute gleich geblieben, sie wurden einfach immer schneller und bekamen neue Übertragungsmöglichkeiten, Anschlüsse sowie Möglichkeiten der Effektdarstellung um Grafiken realistischer zu machen.

Grafik, Konsolen und die Zukunft.

Die Funktionen der Grafikkarte werden in kompakteren Geräten immer öfter in die anderen Bauteile integriert, weil sie nicht so viel Platz benötigen und einen niedrigeren Stromverbrauch haben. Zudem sind sie mechanisch weniger störanfällig als Steckkarten.

Die Technik kommt z.B. bei Spielkonsolen zum Einsatz. Die Play Station 4 von Sony und die Xbox One von Microsoft bauen sogar auf derselben X86-Architektur auf wie PCs, was die Programmierung der Spiele vereinfacht. Aber sie vereinen die CPU und die GPU, also den zentralen Prozessor und den Grafik spezifischen Prozessor, in einem einzigen Chip.

Diese Bauweise ist allerdings auch nicht ganz unproblematisch, weil man sich damit die Probleme, die man mit separaten Grafikkarten einst ausmerzen wollte wieder ins Haus holt. Die Berechnung der Grafik passiert zwar in einem separaten Prozessorteil, doch kann durch gemeinsam verwendete Hardware-Bauteile wiederum ein Nadelöhr entstehen und das gesamte System wird verlangsamt. Ich vermute das ist ein Grund weshalb die PS4 ausschließlich den schnellen GDDR5 RAM Speicher verwendet der normalerweise auf Grafikkarten zum Einsatz kommt. 

Die Konsolen sind wegen ihrer Bauart zur Zeit deutlich günstiger zu haben als Gaming PCs und daher auch sehr beliebt. Dafür ist die Leistung der vor einem Jahr erschienenen neusten Generation nicht so hoch wie erwartet und die Entwickler haben zum Teil große Mühe die Spiele auf den Geräten zum Laufen zu bringen. Also muss gelegentlich bei der Grafik eingespart werden und die Spiele sehen schlussendlich nicht so gut aus wie ursprünglich angepriesen und laufen auch nicht so gut. Aber dank dem Internetanschluss der auch hier seit Jahren Standard ist, kann immerhin im Nachhinein nachgebessert und die Effizienz gesteigert werden. 

Da viele grosse Entwickler ihre Spiele mittlerweile fast ausschliesslich über die Grafik pushen, was ich allerdings keine besonders gute Entwicklung finde, sehe ich die Zukunft für klassische Grafikkarten ziemlich rosig, da die PC Hardware in den nächsten Jahren immer leistungsstärker und günstiger werden wird. 
Hinzu kommt noch, das Valve ein eigenes kostenloses Betriebssystem auf den Markt bringen wird dass den klassischen PC so richtig wohnzimmertauglich machen soll. Da Partnerfirmen von Valve Komplettgeräte mit SteamOS anbieten werden, wird man also bald viele Vorteile einer Konsole mit den Vorteilen eines PCs verbinden können.

Ihr seht, dass das ein riesiges Thema ist, mit unendlich vielen Möglichkeiten zum Abzweigen. Aber das sind dann alles andere Geschichten.

 

Apropos Geschichte:

Die Links in diesem Abschnitt verweisen auf Wikipedia. 

Die erste Generation

Das Prinzip der Grafikkarte kam erstmals im Apple II von 1977 zum Einsatz. Zumindest war das der erste serienmäßige Computer, den man durch separate Steckkarten nachrüsten konnte.

Apple II computer. On display at the Musée Bolo, EPFL, Lausanne.

 

 

 

 

 

 

 

Bildquelle 

 

1981 folgte der IBM-PC, der lediglich die Darstellung von einfarbigem Text beherrschte.

Der IBM Personal Computer, Modell 5150, war 1981 das Urmodell der heutigen PCs.

 

 

 

 

 

 

 

 

Bildquelle

Ab 1982 bot die Firma Hercules ihre sehr viel bessere Hercules Graphics Card an. Seit 1981 bot IBM zwar schon eine eigene Grafikkarte an, den CGA (Color Graphics Adapter). Die wurde aber erst 1984 populär als schon die EGA Karte, (Enhanced Graphics Adapter) vor der Tür stand. Diese konnte bei einer Auflösung von 650x350 Pixeln 16Farben darstellen. Bei niedrigerer Auflösung schon 64 Farben.

1984 brachte IBM die PGC (Professional Graphics Controller) auf den Markt. Diese Karte belegte mit allen Erweiterungen gleich drei Steckplätze und war vor Allem für professionelle CAD Anwender gedacht. Sie besaß bereits einen eigenen Mikroprozessor und konnte 640x480 Pixel mit 256 Farben darstellen. Zudem bot sie eine Bildwiederholrate von 60Hz und war diesbezüglich selbst den ersten VGA Karten überlegen.

1987 folgte die erste VGA Karte (VIDEO GRAPHICS ARRAY) die dank ihrer Flexibilität allen bisherigen Karten weit überlegen war. Sie standardisierte diverse Bildformate, arbeitete mit Analogen Signalen und man konnte im Prinzip beliebig viele Farben darstellen.

Das Wettrüsten begann, die Grafikkarten wurden immer schneller und konnten immer höhere Auflösungen und mehr Farben darstellen, auch der VESA Standard für Videos wurde integriert.

 

Beschleuniger Karten

Bis ca. 1990 waren die Möglichkeiten der Grafikkarten noch relativ beschränkt. Ein Programmierer konnte damals im Wesentlichen nur den Textmodus nutzen und im Grafikmodus einzelne Pixel auf eine bestimmte Farbe setzen.

Das änderte sich 1992 mit den Windows Beschleuniger Karten, die bereits ganze Befehlszeilen wie Ziehen von Linien und Füllen von Flächen selbstständig verarbeiten konnten. Dabei muss die CPU nur noch die Anfangs und Endpunkte vorgeben und die Grafikkarte erledigt den Rest.

1995 erschuf nVidia die NV1, die erstmals 3D Grafiken berechnen konnte, diese Karte war allerdings noch nicht ausgereift. Ein Jahr später trat 3Dfx auf mit ihrer Voodoo die als erste wirklich brauchbare 3D Beschleuniger gilt und den Spieleprogrammierern bisher ungeahnte Möglichkeiten schuf.

1999 bringt nVidia die GeForce auf den Markt, die erstmals die Transform & Lighting Engine in den Consumer-Bereich bringt. Diese Engine ermöglicht vor allem bei Games spezielle Effekte die das Spielen attraktiver machen.

Und so geht es weiter und weiter....

Heute

NVidia stellt heute nebst AMD die das Unternehmen ATi übernommen haben, den grössten Hersteller von Grafikchips dar. Diese konkurrieren ständig miteinander und versuchen immer schnellere Chips herzustellen. Wobei nVidia sich nun voll auf den PC Bereich konzentriert, während AMD auch im Konsolenbereich aktiv ist.

 

 

Autor seit 2 Jahren
2 Seiten
Laden ...
Fehler!