Categoría: Placas de Video

Fabio Baccaglioni


Durante el GTC de NVidia se presentó la segunda versión de la supercomputadora/workstation de NVidia, la DGX-2 ofrece unos 2 Petaflops de procesamiento.

La DGX-2 duplica en varios sentidos la DGX-1 del año pasado pero además hace uso de una renovada Tesla V100 con 32GB de memoria HBM2 por placa que antes estaba limitada a 16GB.

Para poder hacer funcionar tantas placas de video al mismo tiempo con tantos datos desarrollaron un switch especializado, el NVSwitch que interconecta hasta 16 GPUs haciendo su espacio de memoria contiguo (la anterior llegaba a 8) cinco veces más rápido y con un ancho de banda de hasta 2.4 Terabytes por segundo, una barbaridad obviamente.



La DGX-2, según afirma NVidia, puede operar con el modelo neural de machine learning FAIRSeq 10 veces más rápido que la anterior, un benchmark que habrá que ver en la realidad, también insiste con 190X más velocidad en reconocimiento de imagenes y 60X más rápido en reconocimiento y sintetización de voz.

Desde ya que este modelo es el que puede performar Ray Tracing en tiempo real que mencionábamos la semana pasada.

Via Hot Hardware
Fabio Baccaglioni


Creo que ya hace una década que NVidia viene tirándonos con la idea de poder realizar Ray Tracing en tiempo real, algo que los GPUs no pueden hacer por falta de potencia/rendimiento adecuado y ¿Qué es Ray Tracing? Pues bien, imaginense renderizar los gráficos no pixel por pixel "emulando" una vista sino simulando cada rayo de luz y cómo impacta, rebota, refracta y refleja en cada superficie y textura. ¿Se imaginan el lío que es calcular esto?

Así funciona la naturaleza y la idea es que los gráficos Ray Traced deberían ser más realistas, pero, claro, si hay que calcular cada rayo de luz en tiempo real (en la naturaleza la cifra tiende a infinito) vamos a necesitar mucho poder y, además, alguna forma de concentrarlo en una API de desarrollo.

La tecnología existe y hace tiempo que se utiliza para renderizar con luces geniales pero no en tiempo real y ahí es donde entra NVIDIA RTX que vendría a ser la combinación entre NVidia Volta, la arquitectura más actual de GPUs, que ya cuenta con varios Tensor Cores para Ray Tracing, con todos los algoritmos que vienen desarrollando plus el acceso vía la nueva API de Direct X 12 de Microsoft y su DirectX Raytracing (DXR).

Así se ve:



Unos cuantos engines ya incorporan acceso como Unreal, Unity, Allegorithmic y Frostbite, con 4A Games, EA Games y Remedy trabajando con la tecnología, y el GameWorks SDK de NVidia habilitándola. Ahora bien, esto no implica que vayasemos a ver un juego actual con Ray Tracing pero tengan en cuenta que ya estan trabajando con esto pero los costos todavía son elevados para cualquier gamer ¿En los próximos años? Nunca estuvo más cerca del consumidor general.

Es algo que vemos en el cine siempre en una escena renderizada ¿Por qué no en un juego renderizado en vivo con UNA sola placa de video? Ese es el quid, hacerlo masivo. Con Microsoft incluyéndolo en DirectX 12 tengan seguro que lo vamos a ver cada vez más seguido, habrá que ver cómo se mete en esto AMD que tiene similar capacidad de cómputo.

El anuncio de RTX en la web oficial aquí
Fabio Baccaglioni


Para aquellos que se quedaron en la idea de que los GPU eran tan sólo para jugar les aviso que esta placa no es para ustedes, en cambio es para los que necesitan un GPU para las otras miles de tareas más intensivas que el más exigente de los juegos.

La NVidia Titan V cuenta con 21.000 millones de transistores porque por dentro cuenta con el mism procesador que las Tesla V100, claro, éstas estaban pensadas exclusivamente para centro de cómputos con costos de USD 10.000 pero el mismo GPU lo podrían adquirir por USD 3000, nada barato pero sí que más económico.

NVidia decidió lanzar el GPU en la forma de la Titan V "dorada", que nos permitiría acceder a semejante GPU por un tercio del costo y abierta al público. Presentada durante la conferencia 2017 Neural Information Processing Systems, es una placa gráfica pero no es su fin específico. Léase Machine Learning hasta criptomonedas, el objetivo es acercar los 5120 núcleos de cómputo a un mercado más amplio.

A diferencia de la Tesla esta sí cuenta con las salidas de DisplayPort y HDMI además de utilizar los drivers de GeForce, sí, podrán jugar, pero no creo que necesiten lo que además viene incorporado como los 640 "tensor cores" que sirven específicamente para aritmética de matrices 4x4 que tiene más sentido en una workstation.

Los clocks son de 1.455GHz (1.37 tiene la V100 original) y es en la memoria donde cambia (y la razón de la diferencia de precio seguramente), utilizando 12GB de HMB2 con un bus de 3072 bits contra los 16GB y 4096 bits de la Tesla V100. La velocidad de la memoria también es levemente menor pero ¿a un tercio del precio? Creo que nadie se puede quejar.

En promedio tienen la misma capacidad de cálculo, 13.8 trillones de operaciones de punto flotante simple, 6.9 TFLOPS de doble precisión, 110 TFLOPS en Machine Learning (14-7-112 en la V100) con ancho de banda de memoria de 653GB/s (900 la V100). Si quieren trabajar en Machine Learning y todavía no van a pasar a grandes servidores, esta es la placa ideal.

Via N Vidia
Fabio Baccaglioni


La Gigabyte GTX1080 Mini. Apenas 16.9 cm de largo, una GTX 1080 con sus 8GB de memoria GDDR5X (overclockeados a 1010MHz de fábrica), conector simple de 8 pines y una altura por encima del standard PCIe con 131mm por el cooler.

Lo que vemos es una compresión total de una típica placa lista para gabinetes Mini ITX ideales para Media Center o una Gaming PC que uno quiera tener en el living o lugar vistoso, porque vamos, para ver video con cualquier cosa vieja sobra, una 1080 es para gaming solamente.

El TDP es elevado, aun si quieren armar una Mini-ITX con esto tienen que considerar que disipa unos 180 Watts, con clocks de 1632MHz normal y 1771MHz en boost mode, un fan semi pasivo de 90mm, la GTX 1080 Mini es la más rápida en su tamaño, sin dudas, aun no hay precio ni disponibilidad de parte de Gigabyte pero no esperen nada barato, por dentro es el mismo GPU así que no menos de USD 600.

Via ARS
Fabio Baccaglioni


Y así es como AMD comienza a tirar sus cartas sobre la mesa, ya no quiere ser vista como la marca "barata" y que eso se interprete como menos potente, las Radeon RX Vega son la apuesta fuerte por performance en GPU que hará reaccionar a NVidia sin dudas.

De hecho, el objetivo es alcanzar a las GTX más potentes tanto en precio como potencia, la RX Vega ofrece para esto varias características desde el doble de procesamiento por cada ciclo de procesador, el doble de ancho de banda por pin, gran ancho de banda en el controlador de cache, motores actualizados de geometrías y pixeles, etc.

Los modelos más grandes ofrecen 53fps en monitores ultra-wide a 1440p contra los 45 de la GTX 1080, promesa de AMD, claro, porque todavía falta ver benchmarks a 4K y el máximo de FPS que puede entregar, pero se dan una idea de qué rivales eligió para su nueva línea y ya no es la gama media.



Ofrece salida para displays 5K (con un sólo cable, nada de inventos raros aquí) algo que va de la mano de Apple y los requerimientos para las Macs, además video acelerado por hardware para VR en 4K, etc.

Falta, eso sí, las specs en detalle, la famosa tablita de specs, en cambio AMD menciona en su anuncio tres packs en los que podremos adquirir incluyendo los precios (raro que se vean precios antes que specs, ¿no?) Bueno, algunas specs obvias hay, 8GB de memoria, interfaz de 2048 bits, 64 o 56 nCU, de 4096 Stream Processors a 3584, entre 10.5 y 13.7 TFLOPs, FreeSync,

Radeon Red Pack – Featuring the Radeon RX Vega 56, an air-cooled card priced at $499 SEP.
Radeon Black Pack – Featuring the Radeon RX Vega 64, an air-cooled card priced at $599 SEP.
Radeon Aqua Pack – Featuring the Radeon RX Vega 64 Liquid Cooled Edition, the most powerful of the Radeon RX Vega graphics cards, priced at $699 SEP.


de USD 500 a 700 es un rango muy competitivo, 56 y 64 se refiere a las unidades lógicas de cómputo, incluyen dos bundles con el Prey y el Wolfenstein II para el mercado de EEUU además de ofrecer descuentos para monitores ultra-wide de Samsung con FreeSync (USD200!) y el motherboard para el procesador Ryzen 7 (USD 100 de descuento). La fecha de lanzamiento es el 14 de Agosto.



Para agregar, el Threadripper de 16 núcleos ya tiene precio y fecha, USD 999 a partir del 10 de Agosto como para hacer el combo completo con las RX Vega, el de 12 núcleos estará unos USD 799 y el de 8 unos UsD 549 recién el 31 de Agosto. Recuerden que estos nuevos procesadores provocaron a Intel a anunciar los i9, ¿qué provocarán las Vega en NVidia?

Via AMD
Fabio Baccaglioni

Una nueva línea de placas de video de rango medio se viene de manos de AMD para darle continuidad a la excelente RX 480 del año pasado. En este caso la familia incluye a la RX580 como la mayor placa y las 570, 560 y 550 en los distintos rangos intermedios y más económicos.

La RX 580, la mayor de las nuevas, puede otorgar 1440p a 60fps en un precio que va desde los USD 200, así es, una placa ideal para VR económico pero en alta resolución y con un framerate más que respetable para gaming.

El GPU es el nuevo Polaris y en la 580 cuenta con 2304 Stream Processors (36 CUs), 144 unidades de textura, clock base de 1257MHz (la 480 era de 1120MHz) , 8GB de VRAM, proceso de fabricación GloFo de 14nm (tercera generación de FinFET) y en general muy similar a la 480 salvo por el boost de 150MHz y el mejorado proceso FinFET.

El precio del modelo de 8GB es de USD 229 y el de 4GB de USD 200, luego la RX570 (para 1080p en este caso en vez de 1440p) va por los USD 169, la RX560 unos USD 99 y la más pequeña, la RX 550, apeans unos USD 79.

Se espera para la E3 de Junio la aparición de las Vega que apuntarán al segmento high-end de la GTX 1080 Ti, por el momento sólo veremos estos modelos modestos pero más que útiles.

Via Engadget, Reviews en Toms Hardware
Fabio Baccaglioni


Se rumoreaba y al fin salió durante la Game Developers Conference (GDC) en San Francisco, la GeForce GTX 1080 Ti es la más potente placa gamer de la firma.

Hay numerosos aumentos de performance comparados a la 1080 normal y la Titan X pero mucho más barata de lo que es esta última (La Titan X cuesta USD 1200), USD 699 para esta pequeña bestia.

El GPU es el GP102 con unos 12.000 millones de transistores que implican 3584 núcleos CUDA, al igual que la Titan X, pero algunos ROP menos con 88 contra los 96 de la Titan X, aun así cuenta con 11GB de memori GDDR5X a 11GHz ofreciendo 11Gbps de transferencia de datos.

La capacidad de cómputo está por encima por lo clocks más acelerados, el bus de datos es de 352 bits (contra 384), la memoria GDDR5X tiene un máximo de 484GB/s, levemente superior a la Titan X, y el overclocking general se puede llevar hasta 2GHz desde los 1.5GHz iniciales.

Es curioso que lancen una placa a mitad de precio que su mayor oferta y que... sea hasta más rápida en varios aspectos!

Comparativamente los modelos quedan así:


GTX 1080 Ti TITAN X GTX 1080
NVIDIA GPU GP102 GP102 GP104
Architecture Pascal  Pascal  Pascal 
Number of Cores 3584 3584 2560
Core Clock (Boost) 1600 MHz 1530 MHz 1733 MHz
Memory 11GB 12GB 8GB
Memory Clock 11000 MHz 10000 MHz 10000 MHz
Memory Interface 352-bit G5X 384-bit G5X 256-bit G5X
Memory Bandwidth 484 GB/s 480 GB/s 320 GB/s
TDP 250 watts 250 watts 180 watts
Peak Compute 11.4 TFLOPS 11.0 TFLOPS 8.2 TFLOPS
Transistor Count 12B 12B 7.2B
Process Tech 16nm FinFET 16nm FinFET 16nm FinFET
MSRP $699 $1,200 $499 (New price)
Fabio Baccaglioni


No toda placa de video se utiliza para jugar, las Quadro de NVidia son para trabajar (bueno, algún tirito cada tanto), y hoy anunciaron el lanzamiento y disponibilidad de la Quadro GP100 que lleva el mismo GPU de la Tesla P100 pero con varios cambios para ser utilizadas en workstations.

Con un formato similar a las demás placas, interfaz PCIe estándar, tiene varios cambios con respecto a la anterior Quadro P6000 que fue la última top-end de la marca. La GP100 cambia en arquitectura donde antes se tenían núcleos CUDA de precisión simple FP32, ahora integran en los Streaming Multiprocessor los FP64 de doble precisión, 32 por SM, esto, siempre según la marca, implica unos 5 Teraflops en FP64.

La memoria utilizada también cambia, ahora son 16GB ECC HBM2 con un ancho de banda de 720GB/s cuando la P6000 tenía 24GB. Esto puede implicar problemas para aquellos que venían trabajando con set de datos enormes pero para ello NVidia apuesta al NVLink para conectar múltiples GPUs en vez del conector SLI que tienen las placas gamers, mejorando el intercambio de datos (y la latencia) sin afectar la compatibilidad con PCIe.

Quadro GP100 Quadro P6000 Quadro P5000 Quadro P4000 Quadro P2000 Quadro P1000 Quadro P600 Quadro P400
CUDA Cores 3,584 3,840 1,792 2,560 1,024 640 384 256
Texture Units 224 240 160 TBC TBC TBC TBC TBC
ROPs TBC 96 64 TBC TBC TBC TBC TBC
Boost Clock ~1430MHz ~1560MHz ~1730MHz ~1480MHz ~1470MHz ~1400MHz ~1430MHz ~1170MHz
Memory Bus Width 4096-bit 384-bit 256-bit 256-bit 160-bit 128-bit TBC TBC
Memory Speed 1.4GHz 9GHz 9GHz TBC TBC TBC TBC TBC
Memory Bandwidth 720GB/s 432GB/s 288GB/s TBC TBC TBC TBC TBC
Memory Size 16GB HBM2 24GB GDDR5X 16GB GDDR5X 8GB GDDR5 5GB GDDR5 4GB GDDR5 2GB GDDR5 2GB GDDR5
TDP 235W 250W 180W 105W 75W 75W 40W 30W


Toda la línea Quadro recibe varias versiones menores más aprovechando el lanzamiento, las P4000, P2000, P1000, P600 y P400 en un variado set de cores y TDPs para todos los gustos, incluyendo varias lo suficientemente pequeñas para servidores con poco espacio, todas con fechas a partir de Marzo.

La GP100, obviamente la que será más cara, estará disponibile a partir de marzo con un precio que rondará los USD 6200, si, nunca barato esto.

Via ARSTechnica
Fabio Baccaglioni
Uno de los nichos más interesantes para los procesadores gráficos son, curiosamente, los servidores orientados a inteligencia artificial. AMD está lanzando su línea Instinct, nombre bien marketinero para definir la línea de productos orientados a deep learning, inteligencia y entrenamiento.

Los GPU van acompañados de librerías y frameworks open source, algo imprescindible para ganar mercado, llamado MIOpen.



Las placas nuevas son las Radeon Instinct MI6, MI8 y MI25 donde el número es más o menos un indicador de la performance en TeraFLOPS (FP16), La MI6 está basada en el GPU Polaris y cuenta con 16GB de memoria con un máximo de 224GB/s de ancho deb anda y alcanzando unos 5.7TFLOPS por debajo de los 150 Watts. La MI8 se basa en las Fiji alcanzando los 512GB/s con 4GB de memorias HBM, la performance alcanza los 8.2TFLOPS con un consumo menor a 175Watts.

El modelo mayor es la MI25 que se basa en el nuevo GPU Vega que todavía no ha visto la luz, aquí hablamos de unos 300Watts por placa, unos 25 TFLOPS y HBM2 para las memorias aunque AMD no entró en mucho más detalle. Todas las placas brindan soporte para AMD MultiGPU (MxGPU), direccionamiento de 64-bit PCIe (Large Base Address Register) para comunicaciones entre múltiples GPUs.



Las plataformas soportadas son X86, OpenPOWER, y ARM AArch64 y además de lanzar placas obviamente AMD está trabajando con proveedores directos para que el lanzamiento incluya equipos como el de Inventec que cuenta con 120 MI25 para ofrecer hasta 3 PetaFLOPS, una barbaridad.

Más datos en Hot Hardware
Fabio Baccaglioni


Todo comenzó como una apuesta entre uno de los mayores ingenieros de NVidia, Brian Kelleher, al CEO de la empresa, Jen-Hsun Huang para ver si podían meter de alguna forma 10 TFlops de capacidad en un solo chip. Y aparentemente lo lograron.

La nueva Titan X basada en el GPU Pascal GP102 cuenta con 12.000 millones de transistores, una bestialidad para cualquier procesador, tengan en cuenta que un i7 Skylake tiene 1750 millones y el CPU con más transistores, el SPARC M7, tiene 10.000 millones.

La nueva placa Titan X supera a la anterior en cantidad de núcleos CUDA pasando de 3072 a 1.08GHz a unos 3584 con un clock en 1.53GHz, además de 44 TOPS INT8 (instrucciones para deep learning), 12GB de memoria GDDR5X (un ancho de banda de 480GB/s), todo esto le da un máximo de 11 TFlops en FP32.

Estará disponible a partir de agosto a USD 1200 y su uso no es precisamente jugar, la idea de esta placa es procesamiento e inteligencia artificial.

Via Hot Hardware