evolucion de las tarjetas gráficas

para comprender el tema dela evolución de las tarjetas gráficas geforce de nvidia, tenemos que saber que es una tarjeta gráfica  y que es NVIDIA.


¿QUE ES NVIDIA?

Resultado de imagen para NVIDIA


NVIDIA o como mejor de le conoce, NVIDIA Corporation, es una empresa multinacional especializada en el desarrollo de unidades de procesamiento gráfico y tecnologías, de circuitos integrados, para estaciones de trabajo, ordenadores personales y dispositivos móviles. Con sede en Santa Clara, California, la compañía se ha convertido en uno de los principales proveedores de circuitos integrados (CI), como unidades de procesamiento gráfico GPU y conjuntos de chips usados en tarjetas de gráficos en videoconsolas y placas base de computadora.

NVIDIA produce GPUs incluyendo la serie GeForse para videojuegos , la Quadro de diseño asistido por ordenador y la creación de contenido digital en las estaciones de trabajo, y la serie de circuitos integrados nForce para placas base.







¿QUE ES UNA TARJETA GRÁFICA ?

La mayoría de las tarjetas gráficas se una tarjeta de expansión de la paca base del ordenador, se encarga de procesar los datos provenientes de la unidad central (CPU).y transformarlos en información comprensible y representable en un dispositivo de salida por ejemplo (monitor, televisor  o proyector.

TAMBIÉN SE LE CONOCE COMO
  • tarjeta acelerase de gráficos
  • placa de vídeo
  • adaptador de pantalla 
  • tarjeta de vídeo
  • adaptador de vídeo


las tarjetas gráficas actuales son capas de acelerar la creación de imágenes tridimensionales como ves en los vídeo juegos y la reproducción de vídeo. 


Aun que lo normal es que solo tengas una sola salida o por lo tanto puedas usar un único monitor, cada vez es mas común ver adaptadores para poder ser capases de conectarse asta 4 monitores de manera simultanea.


Resultado de imagen para tarjeta grafica




GeForce 256

  • Geforce 256 (32/64 MG SDR)
La GeForce 256 tuvo un relativo éxito, eran consideradas tarjetas gráficas caras, pensadas para un usuario exigente o como tarjeta de desarrollo profesional barata. Su máximo competidor fue el primer procesador Radeon de ATI  Su fecha de lanzamiento fue en el año de 1999 si version de directX era la 7.0  y el numero de transiciones que tenia era de 23 millones 


sus características eran,
  •  Prosesador  de 256 bits, 
  • Aparece el GPU 
  • Soporte hardware de Trasform & LighTing
  • Soporte de Cube Environment Mapping (cube mapping),
  •  Implementación de memoria DDR




Resultado de imagen para GeForce 256



GeForce 2



  • GeForce2 MX 100 (32 MB SDR)
  • GeForce2 MX 200 (32/64 MB SDR/DDR)
  • GeForce2 MX (32 MB SDR/DDR)
  • GeForce2 MX 400 (32/64 MB SDR/DDR)
  • GeForce2 GTS (32/64 MB DDR)
  • GeForce2 PRO (32/64 MB DDR)
  • GeForce2 Ti VX (64 MB DDR)
  • GeForce2 Ti (64 MB DDR)
  • GeForce2 Ultra (32/64 MB DDR)







La segunda generación del procesador NVIDIA vino marcada por un enorme éxito comercial y tecnológico. El GeForce 2 fue el procesador doméstico de gráficos más potente de su tiempo desbancando efectivamente a la competencia. La serie MX, de bajo coste, está entre las tarjetas gráficas más vendidas de la historia. Una versión prematura de GPU para ordenadores portátiles, el GeForce 2 Go, señaló la introducción de NVIDIA en este sector. Su fecha de lanzamiento fue en abril del año 2000

su version de directX era de 7.0 y el numero de transiciones que tenia era de 60 millones 



sus características eran 

  • Motores independientes de hardware Transform & Lighting de segunda generación, 
  • Rasterizador Shading integrado (Considerado una versión "antigua" de los shaders actuales), 
  • Procesador de vídeo de alta definición integrado (HDTV), Controlador de memoria DDR


Resultado de imagen para geforce 2



GeForce 3



  • GeForce3 (64/128 MB DDR)
  • GeForce3 Ti 200 (64/128 MB DDR)
  • GeForce3 Ti 500 (64/128 MB DDR)





El procesador GeForce 3 fue lanzado prácticamente sin competencia real, ya que por parte de las compañías rivales no había un producto con características similares, siendo siempre un producto de gama alta del que nunca se desarrolló una versión económica. Asimismo, se trata del primer GPU programable con implementación nativa a la primera versión de DirectX 8. La consola Xbox presentó una implementación de este procesador para su soporte gráfico llamado NV2A, idéntico al GeForce 3 Ti500 pero con 2 unidades de proceso vertex paralelas en lugar de una. el producto se lanzo en febrero del 2001, contando con un derectX de 8.0 y  el numero de transiciones que tenia era de 47 millones 



sus características eran: 

  • Vertex Shader y PixeShader programables, 
  • Optimización del bus de memoria (LightSpeed Memory Architecture), 
  • incorporación de multisampling antialiasing.







Resultado de imagen para GeForce 3


GeForce 4




  • GeForce4 MX 420 (64 MB SDR)
  • GeForce4 MX 440SE (64 MB SDR/DDR)
  • GeForce4 MX 440 8x (64/128 MB DDR)
  • GeForce4 MX 460 (64 MB DDR)
  • GeForce4 MX 4000 (64/128 MB DDR)
  • GeForce PCX 4300 (128 MB DDR)
  • GeForce4 Ti 4200 (64/128 MB DDR)
  • GeForce4 Ti 4200 8x (128 MB DDR)
  • GeForce4 Ti 4400 (128 MB DDR)
  • GeForce4 Ti 4800 SE (128 MB DDR)
  • GeForce4 Ti 4600 (128 MB DDR)
  • GeForce4 Ti 4800 (128 MB DDR







En la cuarta generación del procesador GeForce cabe distinguir entre la "auténtica" iteración, la familia GeForce 4 Ti de gama alta (alto rendimiento y desempeño) y la serie de bajo coste GeForce 4 MX (Lo único de GeForce 4 que tenía esta serie de placas era el nombre: eran nada más y nada menos que una GeForce 2 con algunos agregados como soporte AGP 8x, un controlador de memoria mejorado proveniente de la GeForce 4 real y un rudimentario procesador de vídeo, entre otros). La GeForce 4 Ti encontró rápidamente un hueco entre los usuarios de gráficos de alto rendimiento y fue extremadamente popular mientras que la serie MX, a pesar de su alargado éxito comercial, fue duramente criticada por la carencia de soporte PS/VS (al ser una GeForce 2 revitalizada) y por el uso abusivo del nombre comercial GeForce 4 que indujo a confusión a muchos usuarios. Se produjeron versiones para portátiles de la serie MX llamada GeForce 4 Go y una única adaptación que viera producción de la serie GeForce 4 Ti para portátiles, el GeForce 4200 Go. salio en febrero del 2002 su Vercionde DirectX era de 8.1 y el numero de transiciones que tenia era de 63 millones 



sus características eran: 

  • 2 unidades Vertex Shader programables (estructura de pipeline 4x2)
  • Pixel shader 1.3 (Por no soportar PS 1.4 no se considera una GPU compatible con DirectX 8.1)
  • Nativa en slot AGP 4x de 1,5 V (versiones muy limitadas se manufacturaron en tipo PCI)
  • Soporte de visualización dual (NView)
  • Controlador mejorado de memoria hasta 650 MHz DDR (LightSpeed Memory Architecture 2)
  • Primera generación en soportar el bus AGP 8x (últimas versiones)






Resultado de imagen para GeForce 4





GeForce FX (5)



  • GeForce FX 5200(128/256 MB DDR)
  • GeForce FX 5200 Ultra(256 MB DDR)
  • GeForce PCX 5300(256 MB DDR)
  • GeForce FX 5500(128/256 MB DDR)
  • GeForce FX 5600 XT(128/256 MB DDR)
  • GeForce FX 5600(64/128 MB DDR)
  • GeForce FX 5600 Ultra(256 MB DDR)
  • GeForce FX 5600 Ultra Rev.2(256 MB DDR)
  • GeForce FX 5700 VE(128,256 MB DDR)
  • GeForce FX 5700 LE(128,256 MB DDR)
  • GeForce FX 5700(256 MB DDR)
  • GeForce FX 5700 Ultra(256 MB DDR2)
  • GeForce FX 5700 Ultra GDDR3(256 MB GDDR3)
  • GeForce PCX 5750(256 MB GDDR3)
  • GeForce FX 5800(256 MB DDR2)
  • GeForce FX 5800 Ultra(256 MB DDR2)
  • GeForce FX 5900 XT(256 MB DDR)
  • GeForce FX 5900(128/256 MB DDR)
  • GeForce FX 5900 Ultra(256 MB DDR)
  • GeForce PCX 5900(256 MB DDR)
  • GeForce FX 5950 Ultra(256 MB DDR)
  • GeForce PCX 5950(256 MB DDR)








NVIDIA abandonó la tradicional nomenclatura de sus procesadores en favor del llamado motor FX, que decían iba a permitir a los usuarios de GeForce FX disfrutar de un avanzado motor de efectos y shaders programables. No obstante, desde las primeras muestras se comprobó que la gama alta de la serie FX rendía generalmente por debajo de su competidor la serie Radeon 9 de ATI en parte debido a fallos en los drivers y en parte a deficiencias en el diseño; y todo ello a pesar de haber salido al mercado seis meses más tarde.
En la gama baja, las GeForce FX5200 / FX5600 rendían generalmente por alto de sus competidoras Radeon y, lo mejor, el rendimiento por píxel de la GeForce FX5200 resultaba inferior al de la tarjeta que supuestamente iba a sustituir, la serie GeForce4 MX basada en DirectX 7 y sin soporte de Pixel Shaders.
Posteriormente, la introducción de las FX5700 y su equivalente Ultra trataron de enfrentarse a la potente serie Radeon 9600 de ATI, obteniendo resultados dispares. Mientras el rendimiento por pipeline de las FX5700 era técnicamente superior a su contrapartida Radeon, arrastraban todos los defectos de la deficiente implementación del lenguaje de shaders 2.0 de Microsoft que presentaba la serie FX.
NVIDIA se adelantó al mercado desarrollando versiones de sus procesadores FX5200, FX5700 y FX5900 en el bus PCI-Express; para el que no existía entonces una gama de productos. Fueron respectivamente los modelos PCX5300, PCX5750 y PCX5900.
Los importantes problemas de temperatura junto al enorme tamaño del microprocesador en sí impidieron a NVIDIA desarrollar una GPU para equipos portátiles basada en los procesadores más potentes de la serie FX, por lo que sólo existieron dos productos portátiles: GeForce FX5100 Go y FX5200 Go, ambos basados en el FX5200 de sobremesa.  Su año de lanzamiento fue en enero del 2003, su DitrectX era de 9.0/9.0b, numero de transiciones 125 millones 

sus características eran 
  • Primer procesador en usar memoria DDR 2 (posteriormente hasta GDDR 3)
  • Soporte Vertex Shader 2.0+ y Pixel Shader 2.0+
  • Codificador de TV integrado
  • Implementación mejorada de compresión de texturas y técnicas-Z
  • Hasta 16 texturas por píxel




Resultado de imagen para GeForce FX (5)




GeForce 6

  • GeForce 6200(128/256 MB GDDR2)
  • GeForce 6200TC(16/32/64/128/256 MB GDDR2)
  • GeForce 6200LE(128/256 MB GDDR2)
  • GeForce 6200AGP(128/256/512 MB GDDR2)
  • GeForce 6500(128/256 MB GDDR2)
  • GeForce 6600LE(128/256 MB GDDR2)
  • GeForce 6600(128/256/512 MB GDDR2)
  • GeForce 6600DDR2(256/512 MB GDDR2)
  • GeForce 6600GT(128/256 MB GDDR3)
  • GeForce 6700XL(128 MB GDDR3)
  • GeForce 6800LE(256 MB GDDR3)
  • GeForce 6800XT(256 MB GDDR3)
  • GeForce 6800(256 MB GDDR3)
  • GeForce 6800GTO(256 MB GDDR3)
  • GeForce 6800GS(256 MB GDDR3)
  • GeForce 6800GT(256 MB GDDR3)
  • GeForce 6800 Ultra(512 MB GDDR3)
  • GeForce 6800 Ultra Extreme(256 MB GDDR3)

Recuperándose espectacularmente de los fallos técnicos de la gama FX, la sexta generación de procesadores GeForce mostraba un incremento efectivo del rendimiento de hasta el 65% en aplicaciones DirectX (comparando el 6800 Ultra con el FX 5950 Ultra). El GeForce 6 y el Radeon X inicia, para muchos, otra "edad dorada" para el proceso de gráficos. A fecha de 2005, apenas un puñado de aplicaciones soportaban Pixel Shader o Vertex Shader de tercera generación.
Se produjeron tres familias de la sexta generación, la 6202, 666 y la 69. La sexta generación, coincidiendo con el auge de la industria de los equipos portátiles, es la que más modelos presenta para este sector. Existen el GeForce Go 6100, 6150, 6200, 6400, 6600 y el 6800. Este último representa el procesador gráfico para ordenadores portátiles más potente creado hasta 2005 se calcula que desempeña sobre el 70% que su homónimo de escritorio.
Posteriormente, NVIDIA integró una GPU (la NV44, también conocida como GeForce 6200 TurboCache) en uno de sus chipsets. Estas GPU integradas se conocen como GeForce 6100 y 6150 las cuales tienen un rendimiento de 1.200-1.300 3DMarks03, indicador suficiente para darse una idea de su rendimiento.
Geforce 6 es la última generación que es soportada por los controladores de Nvidia para Windows 98/ME. Año de lanzamiento mayo 2004 Vercion de DirectX 9.0c, numero de transiciones 222 millones 

sus características son 
  • Primer procesador en soportar Vertex Shader 3.0 y Pixel Shader 3.0
  • Arquitectura de 16 vías paralelas (en modelos 6800 Ultra y GT)
  • Introducción del soporte multiprocesador mediante SLI
  • Mejoras sustanciales en los sombreadores programables
  • Decodificación de vídeo por hardware (Purevideo_(NVIDIA)).
  • Mejoras en filtrado anisótropo (hasta 16x) y técnicas de suavizado de bordes (8x)
  • Tratamiento de datos de 128 bits en vías.
  • Desentrelazado de vídeo adaptativo
  • Implementación en hardware de búferes FP16 capaces de hacer varias operaciones como combinación y filtrado. Estos búferes permitieron a NVIDIA implementar un nuevo tipo de iluminación denominado HDRL (iluminación de alto rango dinámico).



GeForce 7



  • GeForce 7100 GS(128/512 MB DDR2)
  • GeForce 7200 GS(64/128/256/512 MB DDR2)
  • GeForce 7300 SE(128/256/512 MB DDR)
  • GeForce 7300 LE(128/256/512 MB DDR2)
  • GeForce 7300 GS(128/256/512 MB DDR2)
  • GeForce 7300 GT(256/512 MB DDR2/GDDR3)
  • GeForce 7500 LE(256/512 MB DDR2)
  • GeForce 7600 GS(256/512 MB DDR2/GDDR3)
  • GeForce 7600 GT(256/512 MB DDR2/GDDR3)
  • GeForce 7600 GT 80 nm(256/512 MB DDR2/GDDR3)
  • GeForce 7650 GS(256 MB DDR2)
  • GeForce 7800 GS(256 MB GDDR3)
  • GeForce 7800 GT(256 MB GDDR3)
  • GeForce 7800 GTX(256 MB GDDR3)
  • GeForce 7800 GTX 512(512 MB GDDR3)
  • GeForce 7900 GS(256 MB GDDR3)
  • GeForce 7900 GT(256/512 MB GDDR3)
  • GeForce 7900 GTO(512 MB GDDR3)
  • GeForce 7900 GTX(512 MB GDDR3)
  • GeForce 7950 GT(256/512 MB GDDR3)
  • GeForce 7950 GX2(512 X 2 MB GDDR3)



Siguiendo un patrón parecido al observado en los momentos iniciales de la gama GeForce 4 Ti, NVIDIA decidió lanzar la séptima generación de su GPU GeForce aun cuando la anterior seguía considerándose de gama alta. La serie anterior de placas de alta gama basada en G70 (GeForce 7800 GTX) fue fabricada con un proceso de 110 nm. La serie que las reemplazó, basada en G71 (GeForce 7900 GTX) es fabricada con un proceso de 90 nm y a la vez reduciendo el número de transistores a aproximadamente 280 millones.
Se ha considerado en comunidades de alto rango tecnológico que NVIDIA desarrollo esta nueva familia de GPUs como una GeForce 6 mejorada y optimizada para mejor rendimiento frente a los inminentes cambios de sistemas operativos y lenguajes de programación para juegos.
En esta serie también se agrega otra tarjeta: la 7950 GT para bus de AGP. Esto da un gran avance en tecnología para el puerto que ya se creía obsoleto. Al igual que en la versión PCI-E, la 7950 GT cuenta con la GPU G71 de última generación para el puerto AGP con un núcleo base a 550 MHz y memoria a 1300 MHz, lo que la convierte en la tarjeta más avanzada para AGP por parte de NVIDIA.
El poder de NVIDIA en cuestiones de mercado, quedó patente cuando Sony le pidió que desarrollara el chip gráfico para su consola PlayStation 3. El RSX, nombre de este chip para Sony, se basa en la arquitectura del G71(GeForce 7900 GTX) , aumentado de MHz, y desarrollando su potencial real, al ser un circuito cerrado. su año de lanzamiento fue en junio 2005, contaba con un DirectX de 9.0c, su numero de transiciones era de 302 millones la (G70),281 millones la (G71) 
sus características eran 
  • Nombre código del GPU : G70 (Se ve un cambio en el nombre código de la GPU -de NVxx a Gxx-)
  • Arquitectura de 24 pistas de píxeles paralelas
  • Arquitectura de 7 pistas de vértex paralelas
  • Bus de Transferencia: PCI-Express y AGP 8x/4x
  • Tecnologías CineFX e IntelliSample de cuarta generación
  • Decodificación de vídeo H.264MPEG-2 y WMV por hardware (PureVideo)
  • Soporte de técnicas TSAA/TMAA (supermuestreo de transparencias/antiescalonamiento por multimuestreo)
  • El rendimiento de una 7800 GTX supondría un incremento en torno al 25-35% frente al modelo 6800 Ultra o incluso algo más en la medida en que escalamos resoluciones.




GeForce 8

  • GeForce 8300 GS (512 MB DDR2)
  • GeForce 8400 GS (128/256/512/1024 MB DDR2/DDR3)
  • GeForce 8400 GS Rev.2 (128/256/512 MB DDR2)
  • GeForce 8500 GT (256/512/1024 MB DDR2)
  • GeForce 8600 GS (256/512 MB DDR2)
  • GeForce 8600 GT (256/512/1024 MB DDR2/GDDR3)
  • GeForce 8600 GTS (256/512 MB GDDR3)
  • GeForce 8800 GS (384/768 MB GDDR3)
  • GeForce 8800 GTS (G80) (320/640 MB GDDR3)
  • GeForce 8800 GTS 112 (G80) (640 MB GDDR3)
  • GeForce 8800 GT (256/512/1024 MB GDDR3)
  • GeForce 8800 GTS (G92) (512 MB GDDR3)
  • GeForce 8800 GTX (768 MB GDDR3)
  • GeForce 8800 Ultra (768 MB GDDR3)
Con su lanzamiento el 8 de noviembre de 2006, la generación de GeForce 8 (nombre en clave G80) fue la primera serie de GPUs en soportar plenamente Direct3D 10. Consiste en una arquitectura nueva, fabricada en 80nm. Una característica principal es la de tener su arquitectura de sombreadores totalmente unificada. Originalmente sólo la 8800GTX fue lanzada al mercado, tardando algo más el modelo 8800GTS y hasta casi los 6 meses para los modelos de rango medio/bajo (8300GS, 8400GS, 8500GT, 8600GS, 8600GT y 8600GTS).
A finales de ese mismo año 2007, se realizó una revisión del chip G80, que se denominó chip G92. Éste paso a fabricarse de los 80nm a los 65 nm en los modelos 8800GS, 8800GT y 8800GTS. Su fecha de lanzamiento fue en noviembre 2006 su versión de DirectX era de 10.0, numero de transiciones 681 millones y su tecnología de fabricación era de 80 nm/65/ nm

sus características eran  
  • Arquitectura unificada, completamente diferente a los diseños anteriores.
  • Sustancial mejora en los algoritmos de AF y de AA, mejorando considerablemente la calidad de imagen comparada a los pobres resultados de las serie 6 y 7, poniéndose a la par de ATi y su familia Radeon HD 2000.
  • Bus de 384 bits (con 768 MB de RAM) nunca usado hasta la fecha.
  • El GPU trae un IHS para ser protegido de las instalaciones de HSFs, por ejemplo. La última vez que NVIDIA usó esto fue con el NV30.
  • El tope de gama (8800 GTX y 8800 Ultra) requieren 2 conectores PCI-E de poder con 2 tomas de poder cada uno (4 tomas en total)
  • PCB de 24 cm, el más largo jamás visto en una placa para consumo masivo (después de la 3dfx Voodoo 5 6000, que nunca se comercializó), causando problemas en varios equipos por su longitud.





GeForce 9


  • GeForce 9300 GS(256 MB DDR2)
  • GeForce 9400 GT(256/512/1024 MB DDR2 y GDDR3)
  • GeForce 9500 GT(256/512/1024 MB DDR2 y GDDR3)
  • GeForce 9600 GSO(384/768/1536 MB GDDR3 y GDDR2)
  • GeForce 9600 GSO 512(512 MB GDDR3)
  • GeForce 9600 GT Green Edition(512/1024 MB GDDR3)
  • GeForce 9600 GT(512/1024 MB GDDR3)
  • GeForce 9800 GT Green Edition(512/1024 MB GDDR3)
  • GeForce 9800 GT(512/1024 MB GDDR3)
  • GeForce 9800 GTX(512 MB GDDR3)
  • GeForce 9800 GTX+(512/1024 MB GDDR3)
  • GeForce 9800 GX2(512 x 2 MB GDDR3)

La generación GeForce 9 se lanzó al mercado en febrero de 2008 con el modelo 9600GT, apenas 4 meses después de que se lanzasen los nuevos modelos de la seria GeForce 8 con el chip G92. Esto es así porque la serie GeForce 9 está basada en ese mismo chip G92, de hecho, algunos modelos son un simple rebautizado de modelos GeForce 8 con algunas de sus características ligeramente cambiadas.
La serie se compone de prácticamente la misma gama de modelos que en su anterior generación, entre los que destacan la 9600GT o la 9800GTX. También habría que destacar el modelo 9800GX2 ya que utiliza una doble GPU y un doble bus de memoria de 256 bits (uno por cada GPU). Salio al mercado en febrero del 2008, con DirectX 10.0, su numero de transiciones era de 754 millones y su tecnología de fabricación era de 65 mn.
sus características eran:
  • Resoluciones de hasta 2.560 · 1.600
  • Tecnología PureVideo® HD
  • Tecnología HybridPower™
  • Tecnología SLI® (SLI y 3-Way SLI)
  • Compatibilidad con PCI-E 2.0
  • Shader Model 4.0, y OpenGL 2.1
  • Compatible con la plataforma CUDA1






GeForce 100




  • GeForce G100(512 MB DDR2)
  • GeForce GT 120(512 MB DDR2)
  • GeForce GT 130(1536 MB DDR2)
  • GeForce GT 140(1024 MB GDDR3)
  • GeForce GTS 150(1024 MB GDDR3)





a serie GeForce 100 se trata de una revisión (PCB y velocidades de reloj) de las tarjetas de gama media/baja de la serie GeForce 9 y destinada al mercado OEM. Por ejemplo, la GT 120 está basada en una 9500GT con una mejora del diseño térmico, mientras que la GT 130 está basada en la 9600GSO (que a su vez era un rebautizado de la 8800GS). A efectos reales, dicha revisión mejora poco el rendimiento de las tarjetas de ésta serie, con respecto a las homólogas de la serie GeForce 9. Su fecha de salida fue en marzo del 2009, si versión de DierctX era de 10.0, su numero  de transiciones de 210 a 754 millones y su tecnológica de fabricación era de 55 nm 





sus características desatacadas eran 



  • Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)
  • Tecnología PureVideo® HD
  • Tecnología HybridPower™
  • Tecnología PhysX™ en modelos seleccionados
  • Tecnología SLI® (SLI y 3-Way SLI)
  • Compatibilidad con PCI-E 2.0
  • Compatible con Shader Model 4.0 y OpenGL 2.1
  • Compatible con la plataforma CUDA1
Resultado de imagen para geforce 200










GeForce 200






  • GeForce GTX 260 192 SP(896 MB GDDR3)
  • GeForce GTX 260 216 SP(896 MB GDDR3)
  • GeForce GTX 280(1024 MB GDDR3)



Se trata de un chip basado en la misma arquitectura que las GeForce 8 y 9 pero con mejoras muy significativas. El chip pasa de tener 128 procesadores stream a tener 240 en la GTX 280 y 192 en la GTX 260. Más tarde se lanzó esta última con 216. Se mantiene el tipo de memoria GDDR 3: 1.792 y 896 MiB. Se trata de tarjetas de gran tamaño y potencia, con las cuales NVIDIA pretendería competir con las HD 4870 y HD 4870 X2 de ATi, mientras que para competir con la HD 4850 emplearía una versión mejorada de la GeForce 9800 GTX, la 9800 GTX+. se lanzo en junio del 2008, con versión de DirectX 10.0, con numero de transiciones, 1400 millones y terminología de fabricacion 65 nm.



con sus respectivas características.



  • Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)
  • Tecnología PureVideo® HD
  • Tecnología HybridPower™
  • Tecnología SLI® (SLI y 3-Way SLI)
  • Tecnología PhysX™ en modelos seleccionados
  • Compatibilidad con PCI-E 2.0
  • Compatible con Shader Model 4.0 y OpenGL 2.1
  • Compatible con la plataforma CUDA1

  



Resultado de imagen para GeForce 100


GeForce 300


  • GeForce G310 (512 MB DDR2)
  • GeForce G315 (512 MB GDDR3)
  • GeForce GT 320 (1024 MB GDDR3)
  • GeForce GT 330 (1024/1536/2048 MB DDR2/GDDR3)
  • GeForce GT 340 (512/1024 MB GDDR5)



La serie GeForce 300 es una serie de tarjetas disponibles sólo en el mercado OEM. La primera tarjeta de esta serie fue la G310 que salió al mercado en noviembre de 2009, y que es un simple renombrado de la GeForce G210. Más tarde, en febrero de 2010, aparecen nuevos modelos, G315, GT 320, GT 330, GT 340. Esta última vuelve a ser un renombre de la GeForce GT 240 (comparten las mismas características), mientras que el resto son simplemente revisiones de sus tarjetas homólogas de la serie GeForce 200, ya que ninguna está basada en la nueva arquitectura Fermi. Se lanzo en noviembre del 2009 , con versión de DirectX 10.1, numero de transiciones de 260 a 754 millones y tecnología de fabricación  40 mn.



sus características eran 



  • Resoluciones de hasta 2560 × 1600 (digital) y 2048 × 1536 (analógico)
  • Tecnología PureVideo® HD
  • Tecnología HybridPower™
  • Tecnología PhysX™ en modelos seleccionados
  • Compatibilidad con PCI-E 2.0
  • Compatible con Shader Model 4.1 y OpenGL 3.2
  • Compatible con la plataforma CUDA1


Resultado de imagen para geforce 300









GeForce 400

  • GeForce 405 (OEM) (512/1024MB DDR3_12,6GB/s , 64 bits, 16 núcleos CUDA, 25 W)
  • GeForce GT 430 (2048 y 1024 MB GDDR3, se especula una versión con GDDR5)
  • GeForce GTS 440 (1024 MB GDDR3 y 512 MB GDDR5)
  • GeForce GTS 450 (1024 MB GDDR5)
  • GeForce GTS 460 SE (1024 MB GDDR5)
  • GeForce GTX 460 (1024 y 768 MB GDDR5)
  • GeForce GTX 465 (1024 MB GDDR5)
  • GeForce GTX 470 (1280 MB GDDR5)
  • GeForce GTX 480 (1536 MB GDDR5)

Esta serie de tarjetas gráficas, con nombre clave Fermi, fue lanzada al mercado en marzo de 2010 tras varios retrasos, y supone un avance en el mercado de las GPUs. Una característica de esta serie es la de no dedicarse sólo al mercado de gráficos 3D sino también centrarse en la computación GPGPU. También es la primera generación de tarjetas Nvidia en soportar Direct3D 11 y OpenGL 4.0 . se puso a la venta en el mes de marzo del 2010, su versión de DirectX era de 11.0 , numero de transiciones 3200 millones y tecnología de fabricación 40 mn 

con sus relevares características que eran 

  • Resoluciones de hasta 2.560×1.600 (digital) y 2.048×1.536 (analógico)
  • NVIDIA SLI® Ready
  • Tecnología PureVideo® HD
  • Tecnología PhysX™
  • GeForce 3D Vision Ready
  • GeForce 3D Vision Surround Ready (Necesita dos o más tarjetas gráficas en configuración NVIDIA SLI, gafas 3D Vision y tres pantallas 3D Vision Ready iguales)
  • Compatibilidad con PCI-E 2.0 x16
  • Compatible con Shader Model 5.0 y OpenGL 4.0
  • Compatible con la plataforma CUDA1



Resultado de imagen para geforce 400





GeForce 500



  • GeForce GT 510 (OEM) (1024/2048MB DDR3_14,4GB/s , 64 bits, 48 CUDA, 25W)
  • GeForce GT 520 (1024/2048MB DDR3_14,4GB/s , 64 bits, 48 CUDA, 29W)
  • GeForce GT 520 (OEM) (1024/2048MB DDR3_14,4GB/s , 64 bits, 48 CUDA, 29W)
  • GeForce GT 530 (OEM) (1024/2048MB DDR3_28,8GB/s , 128 bits, 96 CUDA, 50W)
  • GeForce GT 545 DDR3 (OEM) (1536/3072MB DDR3_43,0GB/s , 192 bits, 144 CUDA, 70W)
  • GeForce GT 545 GDDR5 (OEM) (1024 GDDR5_64,0GB/s , 128 bits, 144 CUDA, 105W)
  • GeForce GTX 550 Ti (1024 MB GDDR5)
  • GeForce GTX 555 (OEM) (1024 GDDR5_91,9GB/s , 192 bits, 288 CUDA, 150W)
  • GeForce GTX 560 (1024 MB GDDR5)
  • GeForce GTX 560 (OEM) (1280/2560 GDDR5_128,2GB/s , 320 bits, 384 CUDA, 150W)
  • GeForce GTX 560 Ti (1024MB GDDR5)
  • GeForce GTX 560 Ti (OEM) (1280/2560 GDDR5_152,0GB/s , 320 bits, 352 CUDA, 210W)
  • GeForce GTX 570 (1280 MB GDDR5)
  • GeForce GTX 580 (1536 MB GDDR5)
  • GeForce GTX 590 (1536 MB x2 GDDR5)





La serie Geforce 500 es una serie de tarjetas gráficas con significativas modificaciones de la serie GeForce 400 en términos de rendimiento y gestión de energía. Al igual que la Nvidia GeForce 400, las Nvidia Geforce 500 son compatibles con DirectX 11, OpenGL 4.1 y OpenCL 1.0. Fueron diseñados para competir con la serie AMD Radeon HD 6000 de tarjetas gráficas diseñadas por AMD (ATI) a mediados de 2010 y lanzado en octubre de 2010.
El renovado chip Fermi es más grande: incluye 512 procesadores stream, agrupados en 16 grupos de multiprocesadores corriente (cada uno con 32 núcleos CUDA), y es fabricado por TSMC en un proceso de 40 nm. El 24 de marzo de 2011 fue presentado el modelo de más alta gama, la tarjeta de doble GPU Geforce GTX 590 (512 x2 sombreadores, 48 x2 ROPs y 2.49 TFLOPS de poder de cálculo). con fecha de salida en el mes de noviembre del 2010, con versión de DirectX 11.0, numero de transiciones 3000 millones, con tecnología de fabricación 65 nm  / 40 nm.
sus características eran 
  • Resoluciones de hasta 2560 × 1600 (digital) y 2048 × 1536 (analógico)
  • NVIDIA SLI® Ready
  • Tecnología PureVideo® HD
  • Tecnología PhysX™
  • GeForce 3D Vision Ready
  • GeForce 3D Vision Surround Ready (Necesita dos o más tarjetas gráficas en configuración NVIDIA SLI, gafas 3D Vision y tres pantallas 3D Vision Ready iguales)
  • Compatibilidad con PCI-E 2.0 x16
  • Compatible con Shader Model 5.0, OpenGL 4.1 y OpenCL 1.0
  • Compatible con la plataforma CUDA1
  
Resultado de imagen para geforce 500



GeForce 600


  • GeForce 605 OEM (GF119, 512 MB / 1024 MB DDR3, 64 bits, 48 núcleos CUDA, 25 W)
  • GeForce GT 610 (GF119, 1024 MB DDR3, 64 bits, 48 CUDA, 29 W)
  • GeForce GT 620 (GF108, 1024 MB DDR3, 64 bits, 96 CUDA, 49 W)
  • GeForce GT 620 OEM (GF119, 512 MB o 1024 MB DDR3, 64 bits, 48 CUDA, 30 W)
  • GeForce GT 630 (GF108, 1024 MB DDR3 / GDDR5, 3.2Gb/s, 128 bits, 96 CUDA, 65 W)
  • GeForce GT 630 OEM (GK107, 1024 MB / 2048 MB DDR3, 128 bits, 192 CUDA, 50 W)
  • GeForce GT 630 Rev. 2 (GK208, 2048 MB DDR3, 64 bits, 384 CUDA, 25 W)
  • GeForce GT 640 (GK107, 2048 MB DDR3, 128 bits, 384 CUDA, 65 W)
  • GeForce GT 640 OEM (GF116 / GK107, 1024 MB o 1536 MB o 2048 MB o 3072 MB de memoria DDR3 o GDDR5, 2500 MHz, 128/192 bits, 144 o 384 CUDA, 50 W o 75 W)
  • GeForce GT 640 Rev. 2 (GK208, 1024 MB GDDR5, 5 Gb/s, 64 bits, 384 CUDA, 49 W)
  • GeForce GT 645 OEM (GF114, 1024 MB GDDR5, 4.0 Gb/s, 128 bits, 576 CUDA, 130 W)
  • GeForce GTX 650 (GK107, 1024 MB GDDR5, 5.0 Gb/s, 128 bits, 384 CUDA, 64 W)
  • GeForce GTX 650 Ti (GK106, 1024 MB GDD5, 5.4 Gb/s, 128 bits, 768 CUDA, 110 W)
  • GeForce GTX 650 Ti BOOST (GK106, 2048 MB GDDR5, 6.0 Gb/s, 192 bits, 768 CUDA, 134 W)
  • GeForce GTX 660 (GK106, 2048MB GDDR5, 6.0 Gbps, 192 bits, 960 CUDA, 140W)
  • GeForce GTX 660 OEM (GK104, 1536 MB / 3072 MB GDDR5, 5.8 Gb/s, 192 bits, 1152 CUDA, 130 W)
  • GeForce GTX 660 Ti (GK104, 2048 MB GDDR5, 6.0 Gb/s, 192 bits, 1344 CUDA, 150 W)
  • GeForce GTX 670 (GK104, 2048 MB GDDR5, 6.0 Gb/s, 256 bits, 1344 CUDA, 170 W)
  • GeForce GTX 680 (GK104, 2048 MB GDDR5, 6.0 Gb/s, 256 bits, 1536 CUDA, 195 W)
  • GeForce GTX 690 (2xGK104, 2 x 2048 MB (4096 MB) GDDR5, 6.0 Gb/s, 2 x 256 bits (512 bits), 3072 CUDA, 300 W)



La GeForce Serie 600 presenta la nueva arquitectura de Kepler, sustituyendo a la anterior arquitectura Fermi, aunque sólo en parte de esta serie dado al rebautizo de varios productos de la gama baja (hasta la última GT). Nvidia ha dado a la arquitectura el nombre de Kepler, en honor al matemático y astrónomo alemán Johannes Kepler.
Los GK104, GK106 y GK107, productos de la primera arquitectura Kepler, tienen un total de 3.540, 2.540 y 1.300 millones de transistores respectivamente, y están fabricados por TSMC en un proceso de 28nm. Son los primeros chips de Nvidia que soportan Direct3D 11.1, OpenCL 1.2 y PCI Express 3.0. Se identifican como gama alta, media y básica.
En las segundas revisiones lanzadas a principios del 2013, a causa de la introducción de modelos con el chip GK208, una 3ª variante en la gama básica de los originales Kepler (las otras 2 variantes GK117 y GK118 podrían estar reservadas para modelos de la serie 700), se ha conseguido mejorar aún más el consumo. También se fabricaron de gama alta y media, pero probablemente se dejarán para la siguiente arquitectura. Se cree que está fabricada en 20nm y de ahí, junto su reducción de transistores, su tan bajo consumo. Lo que ocurre es que se especulan rumores de 20nm en muchos sitios, ya que este proceso de fabricación se preserva para la serie 800, basada en Maxwell. Por lo tanto, la confirmación de los 20nm en las segundas revisiones no es del todo certera y, hasta que no haya una hoja de datos o un libro blanco oficial que lo indique, no podemos fiarnos. salio al mercado en marzo del 2012, con versión de DirectX 11.0 / 11.1, numero de transiciones De 585 a 3.540 millones, tecnología de fabricación 65 mn / 40 mn
sus características eran  

  • Resoluciones de hasta 2560 × 1600 (digital) y 2048 × 1536 (analógico)
  • NVIDIA SLI® Ready
  • Tecnología PureVideo® HD
  • Tecnología PhysX™
  • GeForce 3D Vision 2 Ready
  • GeForce 3D Vision Surround Ready (hasta 4 monitores, con una sola tarjeta)
  • Compatibilidad con PCI-E 3.0 x16
  • Compatible con Shader Model 5.0, OpenGL 4.3 y OpenCL 1.2
  • Compatible con la plataforma CUDA1
  • Compatible con los modelos de suavizado FXAA y TXAA
  • Compatible con el modelo de V-Sync NVIDIA Adaptive VSync.
  • Compatible con GPU-Boost




Resultado de imagen para geforce 600





GeForce 700



  • GeForce GT 705 (OEM) (1024 MB DDR3, 14.4 GB/s, 64 bits, 48 núcleos CUDA, 29 W)
  • GeForce GT 710 (2048 MB DDR3, 14.4 GB/s, 64 bits, 192 CUDA, 19 W)
  • GeForce GT 720 (2048 MB DDR3, 14.4 GB/s, 64 bits, 192 CUDA, 23 W)
  • GeForce GT 730 (2048 MB DDR3 / GDDR5, 14.0 GB/s, 64 bits, 192 CUDA, 35 W)
  • GeForce GT 740 (2048 MB DDR3, 28.8 GB/s / 1024 MB GDDR5, 80,0 GB/s, 128 bits, 384 CUDA, 64 W)
  • GeForce GTX 745 (OEM) (4096 MB DDR3, 28.8 GB/s, 128 bits, 384 CUDA, 55 W)
  • GeForce GTX 750 (GM107, 1024 MB GDDR5, 80.0 GB/s, 128 bits, 512 CUDA, 55 W)
  • GeForce GTX 750 Ti (GM107, 2048 MB GDDR5, 86.4 GB/s, 128 bits, 640 CUDA, 60 W)
  • GeForce GTX 760 192b (OEM) (GK104, 1536 MB / 3072 MB GDDR5, 192.2 GB/s, 192 bits, 1152 CUDA, 130 W)
  • GeForce GTX 760 (GK104, 2048 MB GDDR5, 192.2 GB/s, 256 bits, 1152 CUDA, 170 W)
  • GeForce GTX 760ti (OEM) (GK104, 2048 MB GDDR5, 192.2 GB/s, 256 bits, 1344 CUDA, 170 W)
  • GeForce GTX 770 (GK104, 2048 MB GDDR5, 224.3 GB/s, 256 bits, 1536 CUDA, 230 W)
  • GeForce GTX 780 (GK110-300-A1, 3072 MB GDDR5, 288.4 GB/s, 384 bits, 2304 CUDA, 250 W)
  • GeForce GTX 780 Ti (GK110-300-A1, 3072 MB GDDR5, 336 GB/s, 384 bits, 2880 CUDA, 250 W)
  • GeForce GTX TITAN (GK110-400-A1, 6144 MB GDDR5, 288.4 GB/s, 384 bits, 2688 CUDA, 250 W)



Serie iniciada con la tarjeta gráfica GTX TITAN. El GK110 es la versión inicial de esta serie, basado en la 2ª generación de Kepler. Cuenta con un chip basado en 7.100 millones de transistores, el doble que su anterior GK104 de primera generación, y se diferencia de éste sobre todo en que soporta paralelismo dinámico e Hyper-Q (soporte de conexiones de múltiples CPU's por cada GPU, simultáneamente). su fecha de lanzamiento fue en febrero del 2013, Versión de DirectX 11.0 /  11.1, con numero de transiciones de 585 a 7100 millones, tecnologías de fabricación 28 nm, arquitectura Kepler. 



sus características destacadas eran 



  • Resoluciones de hasta 4096 x 2160 4K (digital) y 2048 × 1536 (analógico)
  • NVIDIA SLI® Ready
  • Tecnología PureVideo® HD
  • Tecnología PhysX™
  • GeForce 3D Vision 2 Ready
  • GeForce 3D Vision Surround Ready (hasta 4 monitores, con una sola tarjeta)
  • Compatibilidad con PCI-E 3.0 x16
  • Compatible con Shader Model 5.0, OpenGL 4.3 y OpenCL 1.2
  • Compatible con la plataforma CUDA1
  • Compatible con los modelos de antiescalonamiento FXAA y TXAA
  • Compatible con el modelo de V-Sync NVIDIA Adaptive VSync.
  • Compatible con GPU-Boost 2.0
  • Compatible con la videoconsola portátil SHIELD de Nvidia





Resultado de imagen para geforce 700


    


GeForce 800



La serie GeForce 800M es una familia de unidad de procesamiento gráfico de Nvidia para PC portátiles.  Consiste en cambios de marcas de las versiones móviles de la serie GeForce 700  y algunos chips más nuevos que son de gama más baja en comparación con los re marcados.
El nombre de la serie GeForce 800 se planeó originalmente para ser utilizado tanto para computadoras de escritorio como para dispositivos móviles basados ​​en la micro arquitectura  Maxwell (chips con nombre GM), llamado así por el físico teórico escocés James Clerk Maxwell , previamente introducido en la serie GeForce  700 en el GTX 750 y GTX 750 Ti, lanzado el 18 de febrero de 2014. Sin embargo, debido a que las GPU móviles bajo la serie GeForce 800M ya habían sido lanzadas usando la arquitectura Kepler, Nvidia decidió renombrar sus GPU de escritorio serie GeForce 800 como GeForce 900 serie. se lanzo en 12 de marzo de 2014, con arquitectura Kepler, Maxwell, transiciones 28 mn, vercion de Ditect3D 12.0 

Resultado de imagen para geforce 800



GeForce 900



  • GeForce GTX 950 (GM206, 2048 MB GDDR5, 105,5 GB/s, 128 bits, 1024 núcleos CUDA, 90 W)
  • GeForce GTX 960 (GM206, 2048 MB GDDR5, 112,2 GB/s, 128 bits, 1024 CUDA, 120 W)
  • GeForce GTX 970 (GM204, 4196 MB GDDR5, 224,3 GB/s, 256 bits, 1664 CUDA, 145 W)
  • GeForce GTX 980 (GM204, 4196 MB GDDR5, 224,3 GB/s, 256 bits, 2048 CUDA, 165 W)
  • GeForce GTX 980 Ti (GM200, 6 GB GDDR5, 336,5 GB/s, 384 bits, 2816 CUDA, 250 W)
  • GeForce GTX TITAN X

Serie iniciada con los modelos de gama alta GTX 970 y 980 basados en el mismo chip en septiembre de 2014; más tarde Nvidia presentó su modelo de gama media GTX 960, a principios de 2015. Familia de tarjetas basada en la tecnología Maxwell de segunda generación. Esta hornada de tarjetas tiene el punto fuerte en la optimizaciónes de la energía, reduciendo notablemente el consumo respecto a modelos anteriores; además esta nueva serie es capaz de mejorar el rendimiento incluso recortando el ancho de banda de memoria debido a militarizaciones en su diseño de sombreadores interno y el añadido de caché de 2 MB de memoria. su Fecha de lanzamiento fue en septiembre del 2014, su versión de DirectX 11.3 / 12.0, numero de transistores de 5200 millones, tecnología de fabricación, 28 nm, arquitectura Maxwell   

Resultado de imagen para geforce 900


GeForce 10



  • GeForce GT 1030 (DDR4) (1151 MHz, 2048 MB DDR4, 16.8 GB/s, 20 W)
  • GeForce GT 1030 (1227 MHz, 2048 MB GDDR5, 48 GB/s, 30 W)
  • GeForce GTX 1050 (1354 MHz, 2048 MB GDDR5, 112 GB/s, 75 W)
  • GeForce GTX 1050 Ti (1290 MHz, 4096 MB GDDR5, 112 GB/s, 75 W)
  • GeForce GTX 1060 (1506 MHz, 3072 MB GDDR5, 192 GB/s, 120 W)
  • GeForce GTX 1060 (1506 MHz, 6144 MB GDDR5, 192 GB/s, 120 W)
  • GeForce GTX 1070 (1506 MHz, 8192 MB GDDR5, 224 GB/s, 150 W)
  • GeForce GTX 1070 Ti (1607 MHz, 8192 MB GDDR5, 256 GB/s, 180 W)
  • GeForce GTX 1080 (1607 MHz, 8192 MB GDDR5X, 320 GB/s, 180 W)
  • GeForce GTX 1080 Ti (1480 MHz, 11264 MB GDDR5X, 484 GB/s, 250 W)
  • GeForce GTX TITAN Xp (1582 MHz, 12288 MB GDDR5X, 548 GB/s, 250W)



Familia de tarjetas basadas en la arquitectura Pascal, disponibles a partir del 27 de mayo del 2016 con la puesta a la venta de los modelos GTX 1080. Esta serie puede utilizar controladores de memoria GDDR5, GDDR5X y HBM2. Su proceso de integración de 16 nm FinFET 2​ corre a cargo de TSMC, aunque hay modelos también fabricados por Samsung a 14 nm. El precio de venta al público recomendado (PVPR) de la GTX 1080 en su presentación fue de 599 dólares, mientras que el de la GTX 1070 fue de 379 dólares. fecha de lanzamiento 27 de mayo de 2016, versión de DirectX 12.1, numero de transiciones 3300 / 7200 billones, tecnología de fabricación 16 nm  por TSMC,  14 nm por samsung, arquitectura pascal  



con sus características destacadas 



  • Resoluciones de 4K escaladas a 1080p para una mejor definición de imagen (DSR)
  • Nvidia VXGI (iluminación global de vóxeles en tiempo real)
  • VR Direct (posibilidad de poder utilizar dispositivos como las gafas Rift de Oculus VR o las Vive de HTC)
  • Muestreo de antiescalonamiento multifotograma (MFAA)
  • HDMI 2.0
  • Compatibilidad nativa con DirectX 12, nivel de características 0 y 1
  • Compatibilidad nativa con Shader Pixel 5.0







Resultado de imagen para geforce 10


Comentarios

Entradas más populares de este blog