Grafikauflösung
Grafikauflösung
Bücher zum Thema bei Amazon.de
Die ersten Computer waren für reine Textaufgaben (bzw. Rechnungen bestimmt). Heute arbeitet fast jeder mit grafischen Betriebssytemen wie
Windows 9x,
BeOS, OS/2 oder
Linux (durch XWindows).
Als erstes wurde
CGA (Color Graphics
Adapter) von
IBM 1981 entwickelt, mithilfe dessen man vier Farben bei einer Auflösung von 320 mal 200
Pixel darstellen konnte. Obwohl
CGA für einfache Spiele wie Tic-Tac-Toe oder Dame ausreichte, war die Auflösung für Textverarbeitungs- oder Grafikprogramme ungenügend.
Deswegen stellte
IBM drei Jahre später (1984) EGA (Enhanced Graphics
Adapter) vor, der bereits 16 Farben darstellen konnte und eine Auflösung von bis zu 640 mal 350 erlaubte. Dies verbesserte die Lesbarkeit von Text erheblich, soda einfache Textverarbeitungen möglich waren, Grafikprogramme waren aber auer Reichweite.
1987 führte
IBM VGA (Video Graphics
Array) ein, das Grafiken mit einer Auflösung von 640x480 bei 16 Farben darstellen konnte. Bei einer Auflösung von 320x200 waren sogar 256 Farben möglich. Selbst heute ist dieser Grafikmodus Standard und wird von jeder gebräuchlichen
Grafikkarte unterstützt.
XGA (Extended Graphics
Array), das 1990 von
IBM auf den Markt gebracht wurde, war die Nachfolgeversion des 8514/A Displays,
XGA-2, eine weitere Nachfolgeversion unterstützte 16,7 Millionen (TrueColor) Farben bei einer Auflösung von 800x600 und 65536 Farben bei 1024x768.
Heute gebräuchliche
Grafikkarten stellen durchwegs
SVGA (Super Video Graphics
Array) dar. Hier werden Auflösungen von bis zu 1600x1200 bei einer
Farbtiefe von 32 bit (32 Millionen Farben).
Was jedoch wirklich dargestellt wird hängt sehr stark vom Speicher der
Grafikkarte und dem Bildschirm ab. Zumeist werden 17 Zoll Monitore und eine Auflösung von 1024x768 und eine
Farbtiefe von 16 bit (65536 Farben) verwendet.
Die Anzahl der Farben erhält man, indem man 2 hoch der
Farbtiefe nimmt, also sind bei einer
Farbtiefe von 8
Bit 65536 Farben darstellbar.