A lo largo de la historia hubo grandes marcas y modelos de tarjetas gráficas que fueron míticas o que marcaron un antes y un después en el mercado. Por ello, en este artículo haré un repaso a todas ellas, para que no caigan en el olvido estas piezas tan importantes de la evolución de la tecnología gráfica hasta las actuales GPUs del mercado.
Los modelos de tarjetas gráficas más míticos de la historia de la informática
Veamos algunos de los modelos más míticos de tarjetas gráficas o GPUs de la historia, algunos de ellos quizás te suenen, ya que marcaron una época y ahora algunas de estas gráficas se venden en plataformas como eBay por miles de euros por su valor para los coleccionistas o amantes del hardware retro.
Era Arcade
Las primeras tarjetas gráficas o aceleradores gráficos datan de los años 1970, cuando las máquinas Arcade, como las de Atari, comenzaron a usar circuitos especializados para los gráficos, además de una RAM para framebuffers que era bastante cara para la época. Los procesadores gráficos de esta época no eran más que un barrel shifter que ayudaba a la CPU a procesar los gráficos RGB de la época.
Para la famosa consola Atari 2600, de 1977, la firma usó un shifter llamado Television Interface Adaptor, y más tarde se presentaría el procesador ANTIC de 1979 que puedes ver en la foto anterior.
Principios de los años 80, la era dorada de los gráficos japoneses
Uno de los primeros procesadores gráficos modernos fue el circuito NEC µPD7220. Este dispositivo conseguía un gran rendimiento para los gráficos de la época, y se usó en varias tarjetas gráficas de la época, como la Number Nine Visual Technology. Poco a poco fueron progresando estos chips, hasta pasar de escala LSI a VLSI, con grandes avances, como la llegada del soporte para resoluciones de 1024×1024 px.
En 1984, Hitachi crea el ARTC HD63484, uno de los primeros procesadores gráficos basados en tecnología CMOS y dirigido a ordenadores personales de la época. Esta gráfica podía llegar a altas resoluciones cuando trabajaba en modo monocromo. Luego llegaría Amiga, que también incluyó un procesador gráfico para manipulación de bitmaps, etc. Y un año más tarde, Texas Instruments se une con su TMS34010, el que se convertiría en el primer procesador gráfico programable y que poseía un conjunto de instrucciones orientado a gráficos como las modernas GPUs. Más tarde, TI evolucionaría hacia TIGA (Texas Instruments Graphics Architecture) para acelerar gráficos en equipos basados en GUI.
Sharp X6800 también sería otro chipset dedicado a gráficos lanzado en 1987, con capacidad para una paleta de colores de hasta 65.536 colores. Fujitsu también crearía sus propios adaptadores gráficos para sus equipos, y en 1988 llegaría la primera tarjeta gráfica con soporte para polígonos 3D, para la arcades Namco System 21 y Taito AIr System.
NEC vuelve a la carga ese mismo año con la creación de VESA (Video Electronics Standards Association, y promueve el estándar SVGA o Super VGA, que sería el sucesor de VGA con capacidad para resoluciones de 800×600 px.
Hercules Computer Technology desarrolló la HGC o Hercules Graphics Card para IBM PC, una gráfica MDA con 64 KB de VRAM. Ya se comenzaban a ver los primeros adaptadores modernos.
Intel también entró en el mercado de los gráficos de forma bastante temprana, y en 1983 lanzaría su iSBX 275, un módulo para gráficos capaz de usar 8 colores y resoluciones de 256×256 px. No obstante, no permanecería en este mercado, con algunos fracasos, dejándolo de lado hasta que comenzó a integrar las primeras iGPUs en sus procesadores y hasta la introducción en el mercado de las discretas con las Arc que hoy día conoces.
Primeras gráficas para IBM PC
Históricamente, las tarjetas gráficas han evolucionado junto con los estándares de visualización. IBM desarrolló las primeras tarjetas de video, MDA y CGA, en 1981, para su IBM PC. La MDA tenía 4 KB de memoria de video, mientras que la CGA tenía 16 KB. La CGA (Color Graphics Adapter), la primera tarjeta gráfica en color de IBM, estableció un estándar de facto para la visualización para equipos de la época.
La tarjeta gráfica CGA original de IBM se construyó alrededor del controlador de pantalla Motorola 6845 o el ATI CW16800 y presentaba varios modos de gráficos y texto. La resolución de pantalla más alta era de 640×200 px y la profundidad de color más alta admitida era de 4 bits (16 colores), toda una revolución para la época. Su lanzamiento se retrasó hasta marzo de 1983, y la pantalla de color de IBM aún no estaba lista, por lo que se usaron monitores de terceros que admitían este formato.
Además, esta CGA se podía conectar a un monitor CRT mediante una interfaz RGBI o a un televisor compatible con NTSC o RCA.
En 1984, IBM introdujo PGC (Professional Graphics Controller) y EGA (Enhanced Graphics Adpater), que mejoraban las prestaciones de los anteriores.
Los americanos empezaban a despertar, y a plantar cara a los chips nipones. En 1987. IBM lanza el sistema gráfico 8514, que fue una de las primeras tarjetas gráficas para IBM PC compatible con 2D. IBM introdujo este mismo año el estándar VGA (Video Graphics Array) que nos ha venido acompañando mucho tiempo, y con resoluciones máximas de 640×480 px.
Por otro lado, ATI también se une al mercado de las VGA con su ATI VGA Wonder, algunas incluían hasta puerto para ratón para usarlas con las nuevas GUIs que comenzaban a aflorar. Además, en este caso era de 16 bits.
Sin embargo, los IBM PC no fueron los únicos con este tipo de avances gráficos. Otro ejemplo de finales de los 80 fue la tarjeta gráfica dedicada 2D de Radius para el Apple Macintosh II.
La revolución de los 90 y el acuñado del término GPU
La década de los 90 supuso un gran paso adelante en el mundo gráfico, ya
que las GUIs estaban a la orden del día, y los videojuegos eran una
industria cada vez más prolífica. Por ello, se crearon las primeras APIs gráficas,
como Microsoft WinG, un antecesor de DirectX 3D, y OpenGL de SGI.
Además, en la primera mitad de esta década comienzan a aparecer tarjetas
gráficas 3D en tiempo real. A pesar de que algunos sistemas Arcade o de
consolas seguían usando chips DSP para acelerar los gráficos, las
tarjetas gráficas se habían afianzado en el mercado, y ya eran parte
indispensable para los nuevos PCs.
El término GPU fue acuñado por Sony para la PlayStation 1 de 1994. El chip gráfico fue denominado GPU (Graphics Processing Unit), era de 32-bit y fue diseñado por Toshiba. Antes de esto se hablaba de adaptadores gráficos, tarjetas gráficas o aceleradores gráficos .
En el mundo de las PC, comenzaron a comercializarse chips gráficos 3D de bajo coste incluyendo modelo como el S3 ViRGE, ATI Rage y Matrox Mystique. Estos chips eran esencialmente aceleradores 2D de generación anterior con características 3D añadidas.
No obstante, no tuvieron demasiado éxito. Las reinas seguían siendo las caras tarjetas gráficas 3D nativas para GUI y 2D en modo completo, como la Imagination Technologies PowerVR, ahora bastante famosa en el mundo Arm, y la mítica 3dfx Voodoo, que ahora se venden por una fortuna dada su fama para coleccionistas. Sin embargo, los chipsets Verite de Rendition serían los primeros en conseguir funcionalidad 3D total de forma correcta. Y no sería hasta la llegada de la NVIDIA RIVA 128 cuando se crearía una de las primeras GPUs con unidad de procesamiento 3D integrada y unidad 2D en el mismo chip…
nVidia RIVA128
RIVA, acrónimo de “Aceleradora Interactiva de Video y Animación en tiempo Real” era un procesador 2D y 3D, 128 bits, perfectamente optimizado para DirectX y para MPEG-2 y, por encima de todo, compatible con la nueva arquitectura AGP de Intel. Era un producto muy “redondo”, pero que no destacaba especialmente en ninguna de sus vertientes.
Y hablando de videojuegos, el cruce entre las 3dfx Voodoo y las nVidia Riva 128 fue claramente favorable a las primeras. La causa fueron las distintas tecnologías de renderizado que utilizaban. Mientras que nVidia utilizaba el mapeado de bits (mipmapping) por polígonos, 3dfx utilizaba un mapeado el más costoso, pero más eficaz, mapeado por pixel. El texturado de polígonos completos de nVidia provocaba que estos se hicieran visibles repentinamente en pantalla, el clásico “popping”, mientras que el texturado por pixel de 3dfx permitía secuencias más fluidas, además de que las texturas eran mucho más precisas.
Voodoo, un antes y un después
Aunque ahora solo se hable de AMD, NVIDIA e Intel, hubo una gran olvidada, como la 3dfx, que marcaría un antes y un después en la industria de las tarjetas gráficas. Las Voodoo se han convertido en auténticos mitos, piezas que se pagan a precio de oro a los coleccionistas.
3dfx Interactive fue una empresa fundada en 1994 por Ross Smith, Gary Tarolli y Scott Sellers, especializada en la fabricación de procesadores gráficos 3D y tarjetas gráficas para PC, licenciando éstas para otros proveedores OEM, aunque luego cambiarían su estrategia para comercializar sus propias tarjetas gráficas. En 1996, lanzaron al mercado su famoso chip Voodoo Graphics, con 4 MB de VRAM, marcando una revolución en el mundo de los gráficos de PC al introducir las tres dimensiones por primera vez.
Las características de mapeo de texturas y z-buffering, que ahora se dan por sentado, fueron introducidas al mundo de los videojuegos gracias a la Voodoo, proporcinando una geometría sólida y mayores detalles de texturas.
Aunque tarjetas como la S3 Virge y Matrox Mystique técnicamente podrían haber tenido estas características primero, gracias a la API gráfica GLIDE de 3dFX y su hardware de alto rendimiento, estas características pudieron marcar una diferencia real en los juegos.
Luego llegaría la Voodoo 2, o la Voodoo 3. Estas gráficas dominaron el mercado de esta época, aunque la compañía terminaría desapareciendo al comienzo del siglo XXI, absorbida por NVIDIA para quedarse con sus tecnologías, propiedad intelectual y patentes.
NVIDIA GeForce 256
La NVIDIA GeForce 256, lanzada en 1999, fue la primera tarjeta comercializada como GPU en el ámbito del PC, destacando su capacidad para descargar cálculos de geometría del CPU. Con características de transformación, recorte y iluminación de hardware (T&L), la GeForce 256 se centró en aliviar al CPU y permitir que la tarjeta gráfica maneje las tareas más pesadas tal como lo hacen las gráficas modernas actuales.
Este cambio en la arquitectura fue un punto de inflexión importante y estableció el estándar para las futuras tarjetas gráficas. Y no solo eso, la GeForce 256, con 32MB de memoria DDR, demostró ser una potencia, ofreciendo a los jugadores un nuevo nivel de rendimiento. Los controladores Detonator propietarios de NVIDIA fueron otra característica clave de la GeForce 256, mejorando el rendimiento, la estabilidad y la compatibilidad de la tarjeta.
ATI Radeon 9700 Pro
La ATI Radeon 9700 Pro, siendo la primera tarjeta DirectX 9 de ATI, se destacó por su avanzada tecnología. A diferencia de las tarjetas FX de NVIDIA, la 9700 Pro era más silenciosa, se calentaba menos y mejoraba la eficiencia energética.
Esta tarjeta simbolizó la intención de ATI de competir en el mercado de tarjetas gráficas de alta gama, una posición que reforzó a lo largo de los años al innovar y competir con NVIDIA, comenzando así la mayor lucha de titanes.
NVIDIA GeForce 6800 Ultra
En 2004, NVIDIA lanzó la GeForce 6800 Ultra, una tarjeta gráfica avanzada para su época. Fue la primera en soportar Shader Model 3.0 y renderizado de Alto Rango Dinámico (HDR).
La arquitectura NV40, que alimentaba estas características, albergaba 222 millones de transistores, más del doble que la Radeon 9700 Pro. La 6800 Ultra estaba equipada con 16 pipelines para píxeles y 6 sombreadores de vértices, lo que aseguraba un enorme rendimiento para la época.
ATI Radeon HD 4870
La tarjeta gráfica en cuestión fue especial porque fue la primera en alcanzar y superar la marca de 1 TFLOPS, registrando precisamente 1.2. Construida con la misma arquitectura RV770 que la HD 4850, la 4870 se distinguió por funcionar a velocidades de reloj más altas, llegando a unos impresionantes 750 MHz. Esto, junto con sus 800 streaming processors, permitió a la 4870 superar el rendimiento de muchos de sus competidores.
La Radeon HD 4870 fue una pionera, inaugurando la era de la memoria GDDR5 en las tarjetas gráficas, que ofrecía el doble de la tasa de datos de la GDDR3, lo que se traducía en gráficos más rápidos, suaves y detallados.
Fuentes:
No hay comentarios:
Publicar un comentario