Tutoriales y Manuales
Entradas Mensuales
-
▼
2024
(Total:
1090
)
- ► septiembre (Total: 50 )
-
▼
marzo
(Total:
123
)
- Encuentran puerta trasera en biblioteca XZ en Linu...
- Twitter ha perdido a casi el 25% de sus usuarios
- Los trucos para acelerar rápida y fácilmente tu Ra...
- MSI SPATIUM M580 FROZR, el SSD PCIe 5.0 con hasta ...
- Copilot de Microsoft se ejecutará de forma local e...
- Construyen la cámara más rápida del mundo: 156,3 b...
- Investigadores belgas han estado entrenando una IA...
- "Es como Amazon en esteroides": cómo funciona Temu...
- Robo de cuentas de Apple mediante bombardeo MFA y ...
- Android 15 permitirá compartir la señal de audio v...
- Samsung 990 EVO vs PRO: comparación y diferencias ...
- WhatsApp mejorará su editor de fotos con funciones...
- El trazado de rayos de próxima generación mejorará...
- Microsoft publica un parche de emergencia para los...
- Europa investiga a Apple, Amazon, Meta y Google po...
- China prohíbe el uso de CPU AMD e Intel en PC gube...
- Las operadoras Españolas aún no han recibido la or...
- Vulnerabilidad incorregible en los procesadores Ap...
- Desmantelan los servidores en Alemania del mercado...
- Continúan los anuncios falsos de Broncano y Sobera...
- MacOS 14.4 causa el caos, los programas se cierran...
- Detenidas ocho personas por almacenar y distribuir...
- Android 15 permitirá enviar y recibir SMS vía saté...
- Estados Unidos demanda a Apple por crear un monopo...
- Web del MIT encuentra la IA que necesites
- Vídeo de Nvidia es el primero donde la IA apunta d...
- Cinco detenidos por robar 3,5 millones de euros co...
- La basura electrónica crece más rápido de lo que p...
- Loop DoS: nuevo ataque de DDoS basado en UDP
- Un grave fallo de seguridad del gobierno francés e...
- Microsoft anuncia Office 2024
- Francia multa a Google con 250 millones de euros p...
- Microsoft contrata a Mustafa Suleyman, cofundador ...
- Elon Musk reconoce tomar ketamina para salir de un...
- La inteligencia artificial superará a los humanos ...
- Descubren cómo romper la seguridad de ChatGPT para...
- Tesla pierde ya 600.000 millones en bolsa y sus pr...
- Confirman la condena del informático que dejó una ...
- Hackean a jugadores profesionales de ‘Apex Legends’
- YouTube avisará si un video realista fue creado co...
- NVIDIA presenta Blackwell GB200, su nuevo “superch...
- Llegan los filtros de belleza de Google Meet a su ...
- Sony PlasyStation PS5 Pro
- Historia de las tarjetas gráficas: los inicios de ...
- Detenidos el padre y el novio de una menor por gra...
- Vulnerabilidad de Kubernetes que permite la adquis...
- VLC supera los 5.000 millones de descargas entre e...
- Microsoft trabaja en una función para que escribas...
- Fluorescentes y luces de mala calidad pueden bajar...
- En España los ilustradores exigen a las editoriale...
- Asus Zenfone 11 Ultra
- WebTunnel Bridge, nueva herramienta de Tor contra ...
- Historia del nacimiento de Kazaa después del éxito...
- WPA3: el protocolo de seguridad más seguro para tu...
- Google tiene un agente de IA que aprende a jugar a...
- Cómo compartir archivos confidenciales por interne...
- En España un joven de Murcia robó 40 millones de m...
- Speedometer 3 es la nueva versión del benchmark má...
- OpenAI presenta Sora, la IA que crea vídeos ultrar...
- El Parlamento Europeo aprueba la Ley de inteligenc...
- Denuncian estafas para vender criptomonedas que us...
- ChatGPT, Claude 3 o Gemini Ultra: ¿cuál es la mejo...
- El móvil más barato de Xiaomi llega a España: Redm...
- Más de 12 millones de claves y secretos filtrados ...
- Taringa dice adiós tras 20 años de historia
- Airbnb prohíbe las cámaras de seguridad en interiores
- Bobby Kotick (Activision) quiere comprar TikTok co...
- Distrobox crea imágenes y ejecuta en contenedores ...
- Un informante de Boeing que señaló fallos de segur...
- Elon Musk va a por ChatGPT: su chatbot Grok será d...
- Mejores sistemas operativos para dispositivos NAS
- Actualizaciones en Windows 11 sin reiniciar
- Olivia Casta, la modelo que no existe
- Las ciberestafas ya son el segundo delito más denu...
- Donald Trump se opone al bloqueo de TikTok en EE. UU.
- Aumenta el uso de malware en ficheros PDF
- Microsoft confirma que está bajo el ataque de un g...
- Firefly llega a Adobe Express para Android e iOS
- Ciberdelincuentes aprovechan vulnerabilidades 0-da...
- Fallece Akira Toriyama, creador de series míticas ...
- Alguien se enfadó tanto con que el emulador de Swi...
- Nothing entra en la gama media con el Phone 2A, di...
- Actualizaciones críticas para VMware ESXi, Worksta...
- Microsoft y OpenAI publican una investigación conj...
- Filtrados millones de códigos de verificación de G...
- Un ingeniero de Microsoft advierte que la intelige...
- Haiper, la alternativa gratuita a Sora que mete mi...
- HBO Max prohibirá "enérgicamente" compartir cuentas
- OpenAI tacha de hipócrita a Elon Musk: quería el c...
- Apple trabaja en un MacBook plegable de 20 pulgada...
- Apple cancela la cuenta de desarrollador de Epic G...
- AntiSPAM con SpamAssassin
- En España será ilegal fotocopiar el DNI (Documento...
- Worldcoin ya es ilegal en España: la AEPD bloquea ...
- Vulnerabilidades en los paquetes de software de có...
- La Casa Blanca pidió a la industria que dejara de ...
- Windows 11 abandona el subsistema de apps para And...
- suyu: Yuzu resurge de sus cenizas en otra app sin ...
- Truco para mejorar el rendimiento del Explorador ...
- Claude 3: la nueva IA capaz de superar a GPT-4 y G...
-
►
2023
(Total:
710
)
- ► septiembre (Total: 65 )
-
►
2022
(Total:
967
)
- ► septiembre (Total: 72 )
-
►
2021
(Total:
730
)
- ► septiembre (Total: 56 )
-
►
2020
(Total:
212
)
- ► septiembre (Total: 21 )
-
►
2019
(Total:
102
)
- ► septiembre (Total: 14 )
-
►
2017
(Total:
231
)
- ► septiembre (Total: 16 )
-
►
2016
(Total:
266
)
- ► septiembre (Total: 38 )
-
►
2015
(Total:
445
)
- ► septiembre (Total: 47 )
-
►
2014
(Total:
185
)
- ► septiembre (Total: 18 )
-
►
2013
(Total:
100
)
- ► septiembre (Total: 3 )
-
►
2011
(Total:
7
)
- ► septiembre (Total: 1 )
Blogroll
Etiquetas
Entradas populares
-
Después de ver qué es una vCPU y la diferencia entre núcleos (cores) e hilos en los procesadores, pasamos a explicar toda la nomenclatura d...
-
iperf3 es la última versión del popular programa iperf para medir el ancho de banda entre dos o más equipos en red local o Internet . Es...
-
A finales del mes de agosto hablábamos de que los legisladores estadounidense habían solicitado la investigación de TP-Link . Y así, ya ten...
Historia de las tarjetas gráficas: los inicios de las GPU
A lo largo de la historia hubo grandes marcas y modelos de tarjetas gráficas que fueron míticas o que marcaron un antes y un después en el mercado. Por ello, en este artículo haré un repaso a todas ellas, para que no caigan en el olvido estas piezas tan importantes de la evolución de la tecnología gráfica hasta las actuales GPUs del mercado.
Los modelos de tarjetas gráficas más míticos de la historia de la informática
Veamos algunos de los modelos más míticos de tarjetas gráficas o GPUs de la historia, algunos de ellos quizás te suenen, ya que marcaron una época y ahora algunas de estas gráficas se venden en plataformas como eBay por miles de euros por su valor para los coleccionistas o amantes del hardware retro.
Era Arcade
Las primeras tarjetas gráficas o aceleradores gráficos datan de los años 1970, cuando las máquinas Arcade, como las de Atari, comenzaron a usar circuitos especializados para los gráficos, además de una RAM para framebuffers que era bastante cara para la época. Los procesadores gráficos de esta época no eran más que un barrel shifter que ayudaba a la CPU a procesar los gráficos RGB de la época.
Para la famosa consola Atari 2600, de 1977, la firma usó un shifter llamado Television Interface Adaptor, y más tarde se presentaría el procesador ANTIC de 1979 que puedes ver en la foto anterior.
Principios de los años 80, la era dorada de los gráficos japoneses
Uno de los primeros procesadores gráficos modernos fue el circuito NEC µPD7220. Este dispositivo conseguía un gran rendimiento para los gráficos de la época, y se usó en varias tarjetas gráficas de la época, como la Number Nine Visual Technology. Poco a poco fueron progresando estos chips, hasta pasar de escala LSI a VLSI, con grandes avances, como la llegada del soporte para resoluciones de 1024×1024 px.
En 1984, Hitachi crea el ARTC HD63484, uno de los primeros procesadores gráficos basados en tecnología CMOS y dirigido a ordenadores personales de la época. Esta gráfica podía llegar a altas resoluciones cuando trabajaba en modo monocromo. Luego llegaría Amiga, que también incluyó un procesador gráfico para manipulación de bitmaps, etc. Y un año más tarde, Texas Instruments se une con su TMS34010, el que se convertiría en el primer procesador gráfico programable y que poseía un conjunto de instrucciones orientado a gráficos como las modernas GPUs. Más tarde, TI evolucionaría hacia TIGA (Texas Instruments Graphics Architecture) para acelerar gráficos en equipos basados en GUI.
Sharp X6800 también sería otro chipset dedicado a gráficos lanzado en 1987, con capacidad para una paleta de colores de hasta 65.536 colores. Fujitsu también crearía sus propios adaptadores gráficos para sus equipos, y en 1988 llegaría la primera tarjeta gráfica con soporte para polígonos 3D, para la arcades Namco System 21 y Taito AIr System.
NEC vuelve a la carga ese mismo año con la creación de VESA (Video Electronics Standards Association, y promueve el estándar SVGA o Super VGA, que sería el sucesor de VGA con capacidad para resoluciones de 800×600 px.
Hercules Computer Technology desarrolló la HGC o Hercules Graphics Card para IBM PC, una gráfica MDA con 64 KB de VRAM. Ya se comenzaban a ver los primeros adaptadores modernos.
Intel también entró en el mercado de los gráficos de forma bastante temprana, y en 1983 lanzaría su iSBX 275, un módulo para gráficos capaz de usar 8 colores y resoluciones de 256×256 px. No obstante, no permanecería en este mercado, con algunos fracasos, dejándolo de lado hasta que comenzó a integrar las primeras iGPUs en sus procesadores y hasta la introducción en el mercado de las discretas con las Arc que hoy día conoces.
Primeras gráficas para IBM PC
Históricamente, las tarjetas gráficas han evolucionado junto con los estándares de visualización. IBM desarrolló las primeras tarjetas de video, MDA y CGA, en 1981, para su IBM PC. La MDA tenía 4 KB de memoria de video, mientras que la CGA tenía 16 KB. La CGA (Color Graphics Adapter), la primera tarjeta gráfica en color de IBM, estableció un estándar de facto para la visualización para equipos de la época.
La tarjeta gráfica CGA original de IBM se construyó alrededor del controlador de pantalla Motorola 6845 o el ATI CW16800 y presentaba varios modos de gráficos y texto. La resolución de pantalla más alta era de 640×200 px y la profundidad de color más alta admitida era de 4 bits (16 colores), toda una revolución para la época. Su lanzamiento se retrasó hasta marzo de 1983, y la pantalla de color de IBM aún no estaba lista, por lo que se usaron monitores de terceros que admitían este formato.
Además, esta CGA se podía conectar a un monitor CRT mediante una interfaz RGBI o a un televisor compatible con NTSC o RCA.
En 1984, IBM introdujo PGC (Professional Graphics Controller) y EGA (Enhanced Graphics Adpater), que mejoraban las prestaciones de los anteriores.
Los americanos empezaban a despertar, y a plantar cara a los chips nipones. En 1987. IBM lanza el sistema gráfico 8514, que fue una de las primeras tarjetas gráficas para IBM PC compatible con 2D. IBM introdujo este mismo año el estándar VGA (Video Graphics Array) que nos ha venido acompañando mucho tiempo, y con resoluciones máximas de 640×480 px.
Por otro lado, ATI también se une al mercado de las VGA con su ATI VGA Wonder, algunas incluían hasta puerto para ratón para usarlas con las nuevas GUIs que comenzaban a aflorar. Además, en este caso era de 16 bits.
Sin embargo, los IBM PC no fueron los únicos con este tipo de avances gráficos. Otro ejemplo de finales de los 80 fue la tarjeta gráfica dedicada 2D de Radius para el Apple Macintosh II.
La revolución de los 90 y el acuñado del término GPU
La década de los 90 supuso un gran paso adelante en el mundo gráfico, ya
que las GUIs estaban a la orden del día, y los videojuegos eran una
industria cada vez más prolífica. Por ello, se crearon las primeras APIs gráficas,
como Microsoft WinG, un antecesor de DirectX 3D, y OpenGL de SGI.
Además, en la primera mitad de esta década comienzan a aparecer tarjetas
gráficas 3D en tiempo real. A pesar de que algunos sistemas Arcade o de
consolas seguían usando chips DSP para acelerar los gráficos, las
tarjetas gráficas se habían afianzado en el mercado, y ya eran parte
indispensable para los nuevos PCs.
El término GPU fue acuñado por Sony para la PlayStation 1 de 1994. El chip gráfico fue denominado GPU (Graphics Processing Unit), era de 32-bit y fue diseñado por Toshiba. Antes de esto se hablaba de adaptadores gráficos, tarjetas gráficas o aceleradores gráficos .
En el mundo de las PC, comenzaron a comercializarse chips gráficos 3D de bajo coste incluyendo modelo como el S3 ViRGE, ATI Rage y Matrox Mystique. Estos chips eran esencialmente aceleradores 2D de generación anterior con características 3D añadidas.
No obstante, no tuvieron demasiado éxito. Las reinas seguían siendo las caras tarjetas gráficas 3D nativas para GUI y 2D en modo completo, como la Imagination Technologies PowerVR, ahora bastante famosa en el mundo Arm, y la mítica 3dfx Voodoo, que ahora se venden por una fortuna dada su fama para coleccionistas. Sin embargo, los chipsets Verite de Rendition serían los primeros en conseguir funcionalidad 3D total de forma correcta. Y no sería hasta la llegada de la NVIDIA RIVA 128 cuando se crearía una de las primeras GPUs con unidad de procesamiento 3D integrada y unidad 2D en el mismo chip…
nVidia RIVA128
RIVA, acrónimo de “Aceleradora Interactiva de Video y Animación en tiempo Real” era un procesador 2D y 3D, 128 bits, perfectamente optimizado para DirectX y para MPEG-2 y, por encima de todo, compatible con la nueva arquitectura AGP de Intel. Era un producto muy “redondo”, pero que no destacaba especialmente en ninguna de sus vertientes.
Y hablando de videojuegos, el cruce entre las 3dfx Voodoo y las nVidia Riva 128 fue claramente favorable a las primeras. La causa fueron las distintas tecnologías de renderizado que utilizaban. Mientras que nVidia utilizaba el mapeado de bits (mipmapping) por polígonos, 3dfx utilizaba un mapeado el más costoso, pero más eficaz, mapeado por pixel. El texturado de polígonos completos de nVidia provocaba que estos se hicieran visibles repentinamente en pantalla, el clásico “popping”, mientras que el texturado por pixel de 3dfx permitía secuencias más fluidas, además de que las texturas eran mucho más precisas.
Voodoo, un antes y un después
Aunque ahora solo se hable de AMD, NVIDIA e Intel, hubo una gran olvidada, como la 3dfx, que marcaría un antes y un después en la industria de las tarjetas gráficas. Las Voodoo se han convertido en auténticos mitos, piezas que se pagan a precio de oro a los coleccionistas.
3dfx Interactive fue una empresa fundada en 1994 por Ross Smith, Gary Tarolli y Scott Sellers, especializada en la fabricación de procesadores gráficos 3D y tarjetas gráficas para PC, licenciando éstas para otros proveedores OEM, aunque luego cambiarían su estrategia para comercializar sus propias tarjetas gráficas. En 1996, lanzaron al mercado su famoso chip Voodoo Graphics, con 4 MB de VRAM, marcando una revolución en el mundo de los gráficos de PC al introducir las tres dimensiones por primera vez.
Las características de mapeo de texturas y z-buffering, que ahora se dan por sentado, fueron introducidas al mundo de los videojuegos gracias a la Voodoo, proporcinando una geometría sólida y mayores detalles de texturas.
Aunque tarjetas como la S3 Virge y Matrox Mystique técnicamente podrían haber tenido estas características primero, gracias a la API gráfica GLIDE de 3dFX y su hardware de alto rendimiento, estas características pudieron marcar una diferencia real en los juegos.
Luego llegaría la Voodoo 2, o la Voodoo 3. Estas gráficas dominaron el mercado de esta época, aunque la compañía terminaría desapareciendo al comienzo del siglo XXI, absorbida por NVIDIA para quedarse con sus tecnologías, propiedad intelectual y patentes.
NVIDIA GeForce 256
La NVIDIA GeForce 256, lanzada en 1999, fue la primera tarjeta comercializada como GPU en el ámbito del PC, destacando su capacidad para descargar cálculos de geometría del CPU. Con características de transformación, recorte y iluminación de hardware (T&L), la GeForce 256 se centró en aliviar al CPU y permitir que la tarjeta gráfica maneje las tareas más pesadas tal como lo hacen las gráficas modernas actuales.
Este cambio en la arquitectura fue un punto de inflexión importante y estableció el estándar para las futuras tarjetas gráficas. Y no solo eso, la GeForce 256, con 32MB de memoria DDR, demostró ser una potencia, ofreciendo a los jugadores un nuevo nivel de rendimiento. Los controladores Detonator propietarios de NVIDIA fueron otra característica clave de la GeForce 256, mejorando el rendimiento, la estabilidad y la compatibilidad de la tarjeta.
ATI Radeon 9700 Pro
La ATI Radeon 9700 Pro, siendo la primera tarjeta DirectX 9 de ATI, se destacó por su avanzada tecnología. A diferencia de las tarjetas FX de NVIDIA, la 9700 Pro era más silenciosa, se calentaba menos y mejoraba la eficiencia energética.
Esta tarjeta simbolizó la intención de ATI de competir en el mercado de tarjetas gráficas de alta gama, una posición que reforzó a lo largo de los años al innovar y competir con NVIDIA, comenzando así la mayor lucha de titanes.
NVIDIA GeForce 6800 Ultra
En 2004, NVIDIA lanzó la GeForce 6800 Ultra, una tarjeta gráfica avanzada para su época. Fue la primera en soportar Shader Model 3.0 y renderizado de Alto Rango Dinámico (HDR).
La arquitectura NV40, que alimentaba estas características, albergaba 222 millones de transistores, más del doble que la Radeon 9700 Pro. La 6800 Ultra estaba equipada con 16 pipelines para píxeles y 6 sombreadores de vértices, lo que aseguraba un enorme rendimiento para la época.
ATI Radeon HD 4870
La tarjeta gráfica en cuestión fue especial porque fue la primera en alcanzar y superar la marca de 1 TFLOPS, registrando precisamente 1.2. Construida con la misma arquitectura RV770 que la HD 4850, la 4870 se distinguió por funcionar a velocidades de reloj más altas, llegando a unos impresionantes 750 MHz. Esto, junto con sus 800 streaming processors, permitió a la 4870 superar el rendimiento de muchos de sus competidores.
La Radeon HD 4870 fue una pionera, inaugurando la era de la memoria GDDR5 en las tarjetas gráficas, que ofrecía el doble de la tasa de datos de la GDDR3, lo que se traducía en gráficos más rápidos, suaves y detallados.
Fuentes:
0 comentarios :
Publicar un comentario
Los comentarios pueden ser revisados en cualquier momento por los moderadores.
Serán publicados aquellos que cumplan las siguientes condiciones:
- Comentario acorde al contenido del post.
- Prohibido mensajes de tipo SPAM.
- Evite incluir links innecesarios en su comentario.
- Contenidos ofensivos, amenazas e insultos no serán permitidos.
Debe saber que los comentarios de los lectores no reflejan necesariamente la opinión del STAFF.