GeForce RTX: la nueva arquitectura de Nvidia Turing analizada

GeForce RTX: la nueva arquitectura de Nvidia Turing analizada

La ofensiva GeForce RTX está en marcha. Las nuevas tarjetas gráficas de Nvidia están llenas de tecnologías innovadoras, todas concentradas en el procesador Turing, sin duda la GPU más exitosa hasta la fecha.

Anunciadas en GamesCom, las nuevas tarjetas GeForce de Nvidia llegarán a las tiendas la próxima semana. Y las dos primeras en abrir el balón son la GeForce RTX 2080 Ti, la gama ultra alta, y la RTX 2080, la gama muy alta. Adiós GTX y bienvenidos a RTX, nuevos monstruos de poder 3D cuya misión es sublimar nuestros juegos pero que también miran hacia el futuro.

Sí, Nvidia ha diseñado las RTX de tal forma que puedan cubrir nuevas necesidades, nuevos usos que, para muchos, no serán relevantes en el lanzamiento. Pero que debería llegar a grandes pasos en los próximos meses y años. Estamos pensando en particular en el renderizado de trazado de rayos ultrarrealista (el RT de RTX) o el uso de la inteligencia artificial al servicio del renderizado gráfico de nuestros juegos. Y la lista de posibilidades no acaba ahí. Tarjetas gráficas "inteligentes" que ya no se limitarían al cálculo exclusivo de nuestros triángulos sino que serían capaces de muchas otras hazañas, suficientes para darnos escalofríos. Antes de continuar, brindemos una descripción general de lo que aportan estos nuevos RTX en comparación con los GTX.

RTX y GTX: las grandes diferencias

Al igual que las Quadro RTX , las GeForce RTX cuentan con un chip gráfico de Turing (nombre en clave TU10x), grabado en 12 nm FFN (FinFet Nvidia). La generación anterior de arquitectura de consumo se llamaba Pascal y estaba grabada en 16 nm o en 14 nm según el modelo.

El nuevo chip de Turing se compone de 18.600 millones de transistores como máximo (frente a 12.000 millones como máximo en la serie GTX 10) y mide 545 mm 2 (frente a 314 mm 2 de Pascal). Reducir el grabado fino y aumentar el tamaño del chip permite a Nvidia agregar aún más elementos al circuito.

El segundo gran desarrollo se encuentra en el corazón del chip. Ya no hay uno, sino tres tipos de unidades informáticas, todas especializadas en una actividad diferente pero capaces de operar de forma concertada en determinados casos. Te las detallamos a continuación, pero ten en cuenta que ninguna tarjeta gráfica GTX ha reunido nunca tantas unidades diferentes en un solo circuito. Solo los modelos profesionales basados ​​en el chip Volta podrían presumir de tener tantos.

Tercer gran cambio, el abandono de la memoria GDDR5X y GDDR5 a favor de GDDR6. Esta migración aumenta significativamente la velocidad de los intercambios entre el chip y los módulos de memoria. Al igual que la posibilidad de almacenar aún más texturas y datos, útil para mostrar juegos en 4K, o incluso… 8K. Y dado que Nvidia ha mejorado aún más los algoritmos que comprimen los datos en los canales de memoria, pero también la forma en que se guardan las instrucciones en diferentes partes del chip (caché), todo va más rápido. Así, la GDDR6 ofrecería hasta un 20% más de rendimiento que la GDDR5X de las tarjetas Pascal más potentes (GTX 10).

Entre los otros cambios visibles, mencionaremos la ventilación que ahora se confía a un sistema de doble ventilador con 13 aspas cada uno y una cámara de vapor de gran capacidad, atravesada por tubos de calor. Selon Nvidia, là où la GTX 1080 pouvait occasionner jusqu'à 36 dB de nuisance sonore, la RTX 2080, elle, n'en produirait que 29. Et le mercure serait également moins prompt à atteindre certains sommets, surtout lorsqu'on overclocke la mapa. Se comprobará durante nuestras próximas evaluaciones.

Cuando se trata de salida de video, Nvidia ha relegado permanentemente la salida de video DVI al armario. Todos los RTX ahora solo tienen una salida HDMI (2.0b), tres DisplayPort (1.4a compatible con 8K a 60 Hz) y, como novedad, una toma USB tipo C compatible con VirtualLink (¿el próximo estándar de realidad virtual?).

Finalmente, vienen los precios. Las RTX son más caras que las GTX cuando se lanzaron hace dos años. Además, tal y como ha anunciado Nvidia, entre una versión Founders Edition vendida por ella misma y una tarjeta comercializada por sus partners, habrá diferencias en la etiqueta y la ficha técnica. Para justificarlo, el diseñador invoca los componentes electrónicos seleccionados que permiten aumentar mejor la frecuencia del chip en GPU Boost, el sistema de ventilación interno, etc. Lo cierto es que a día de hoy, pocos días antes de la venta de las tarjetas, todos los modelos GTX 2080 Ti, aunque anunciados desde 999 dólares, en realidad se venden entre 1250 (el precio de la Founders Edition) y 1300 euros y pueden incluso llegar hasta los 1500 euros. O el precio de un muy buen PC para juegos, ¡completo!

Organización del procesador de Turing

Así es como se ve el diagrama del procesador 3D más avanzado de la gama Turing, el TU102, presente en ciertas tarjetas profesionales de Nvidia.

Es una iteración ligeramente modificada del TU102 que alimenta el RTX 2080 Ti, y en el 2080 es el TU104 el que funciona. Finalmente, en el RTX 2070, será el TU106.

En cada declinación, y como es costumbre en el mundo de las GPU, se desactivan o eliminan pura y simplemente elementos del procesador gráfico para alcanzar los niveles técnicos y de potencia deseados (y por tanto segmentar la oferta).

Para los más experimentados, notamos que el chip de Turing, como Pascal, siempre está organizado como un muñeco de anidación.

Los elementos principales son los conjuntos GPC (Graphic Processing Cluster). Seis están presentes en 2080 y 2080 Ti contra 4 y 6 en 1080 y 1080 Ti.

Cada uno contiene los bloques TPC (Texture Processing Cluster). Hay 23 y 34 en las dos nuevas RTX, mientras que las GTX 1080 y 1080 Ti solo tenían 23 y 28.

Finalmente, dentro de los TPC se alojan las unidades SM (Streaming Multiprocessors) que a su vez se dividen en 4 partes idénticas. En total, hay 68 SM en la 2080 Ti, 46 en la 2080 contra 28 en la 1080 Ti y 20 en la 1080.

Cada unidad SM consta de cuatro partes. Estos albergan dos de las tres familias de unidades de ejecución del chip (así como otros elementos): los núcleos CUDA (64) y los núcleos tensoriales (8). Los RT Cores, por su parte, están presentes a razón de 1 por unidad SM.

En la periferia de los bloques GPC están los controladores de memoria, más o menos en número dependiendo de la cantidad de módulos GDDR6 presentes en la tarjeta gráfica. Esto varía el tamaño de la interfaz de memoria y, por extensión, la velocidad del ancho de banda. Luego viene el GigaThread Engine, la interfaz PCI-Express 3.0 y, finalmente, el NVLink. Heredado del mundo profesional, es una interfaz de comunicación, implantada directamente en el chip (a diferencia de SLI que utiliza PCI-Express) que permite que dos o más tarjetas trabajen juntas, para agrupar su RAM. Sobre todo, NVLink tiene la particularidad de ser más rápida que la interfaz anterior pero, dependiendo de los chips, las velocidades que ofrece varían (100 Gb/s como máximo en la Quadro TU102, 300 Gb/s en la GV100 ).

Turing: la arquitectura "híbrida" de Nvidia

Lo decíamos más arriba, la arquitectura de Turing innova porque está construida sobre tres grandes pilares, los CUDA Cores, los Tensor Cores y los RT Cores, sus tres grandes unidades de cálculo, como las tarjetas basadas en chip Volta de hecho.

Los Núcleos CUDA: Las primeras y más numerosas unidades siguen siendo las unidades de cálculo CUDA, responsables de los cálculos (Shaders, datos gráficos) y representaciones 3D como las conocemos desde hace mucho tiempo. Se heredan de generaciones anteriores de tarjetas GeForce pero, por supuesto, han evolucionado. Ahora son de dos tipos (INT32, FP32 y, una tercera minoría, los FP64) y su funcionamiento ha sido mejorado o incluso rediseñado a todos los niveles. Desde la organización hasta la ejecución de tareas en paralelo, fusionando y reorganizando la memoria compartida y la caché L1, etc. todo ha cambiado en comparación con las GeForce Gen 10.

Es en gran parte gracias a los cambios en las unidades CUDA que Nvidia puede afirmar que las RTX podrían funcionar hasta un 50 % mejor que las tarjetas de la generación anterior en los juegos de hoy.

Tenga en cuenta que, en nuestra opinión, estos desarrollos constituyen uno de los mayores cambios técnicos que han visto las tarjetas de consumo de Nvidia desde la serie 400. Tenga en cuenta también que es gracias a estas nuevas unidades que el diseñador puede ofrecer nuevas formas de mejorar aún más las tradicionales renderizado de nuestros videojuegos (Shading/Rasterizing).

Tensor Cores: Luego vienen las unidades Tensor Core. Se presentaron con la arquitectura profesional Volta, se especializan en todo lo relacionado con la inteligencia artificial y aprovechan el ecosistema de herramientas Nvidia NGX. En Turing, operan principalmente de “inferencia”, es decir, saben interpretar, adaptar e implementar los resultados del entrenamiento realizado previamente en redes neuronales externas.

Nvidia asegura haber retomado y mejorado las unidades presentes en Volta y, en el caso de las RTX, asegura que su potencial se aprovecha primero en gráficos y videojuegos. La primera aplicación concreta es DLSS (Deep Learning Super-Sampling).

Es un proceso de mejora de imágenes impulsado por IA que ofrece una calidad de representación superior y permitiría que una RTX 2080 Ti genere hasta el doble de fotogramas por segundo que una GTX 1080 Ti que utiliza el procesamiento antialiasing temporal (TAA) de la misma imagen. .

Núcleos RT: ahora hablemos de los núcleos RT de GeForce (y Quadro) RTX. Estas unidades llevan la pesada carga de hacer que sea más fácil, más compatible y más rápido renderizar Ray Tracing en tiempo real en juegos compatibles, haciendo uso de DirectX Ray Tracing (disponible en la actualización de octubre de Windows 10), la próxima versión de Vulkan o usando el Nvidia OptiX actual.

Una operación que, hasta ahora, era casi imposible de lograr con las tarjetas 3D de consumo. Solo los modelos profesionales eran capaces de hacer esto, no siempre en tiempo real, y siempre que, además, centraran todo su poder en esta tarea.

Núcleos CUDA + Núcleos RT + Núcleos tensoriales = RTX-OPS

Para cuantificar la potencia global que desarrolla una GeForce RTX al movilizar las diferentes familias de unidades, Nvidia ha creado el índice RTX-OPS. Se encuentra en las fichas técnicas de las nuevas GeForce, junto a los datos tradicionales (frecuencias, número de núcleos, consumo, etc.). Como indicación, Nvidia también lo ha calculado en la Serie 10 para mostrar el alcance de la brecha entre las dos generaciones.

Establecido por Nvidia, el RTX-OPS es el resultado de varias horas de pruebas y largos análisis del comportamiento del chip de Turing. Se calcula, como se ve en el diagrama anterior, según un cierto porcentaje promedio de ocupación de las unidades cuando están trabajando en una imagen compleja utilizando CUDA Cores (INT32 y FP32), RT Cores y Tensor Cores.

Por ejemplo, el RTX-OPS del 2080 Ti es de 76 en los modelos base, 78 en Founders Edition (FF). Una diferencia que se explica por la frecuencia en GPU Boost que alcanza el chip, más alta en los modelos FF que en los demás, recordamos. En comparación, la GeForce GTX 1080 Ti obtiene una puntuación RTX-OPS de 11,3.

A la RTX 2080 se le asigna un índice de 57 para los modelos clásicos, 60 para las tarjetas FF (frente al 8,9 de la GTX 1080) y, por último, la RTX 2070 tiene un pico de 42/45 mientras que la GTX 1070 debe conformarse con 6,5 .

El futuro del 3D está en marcha

La llegada de Turing marca claramente un nuevo comienzo en el mundo del 3D de consumo para Nvidia. El diseñador de la GPU, sin embargo, no comenzó desde una página en blanco para diseñar su arquitectura Turing: está inspirada en gran medida en Volta, el resultado de años de investigación sobre IA y trazado de rayos combinados con aquellos dedicados al diseño de chips para cumplir con el poder cada vez mayor. necesidades del lucrativo mercado de los juegos de PC. Turing, sin embargo, encarna una base nueva y sólida, de la que derivarán las próximas generaciones de chips GeForce, como lo fueron, en su momento, las arquitecturas Tesla (GeForce 8000) o Fermi (GTX 400).

Gracias a las RTX y Turing, Nvidia también espera ampliar un poco más la brecha que actualmente separa a las GeForce y las Radeon de AMD y así mantener su posición de liderazgo en el mercado de las tarjetas gráficas. ¡Especialmente porque los rojos ya no son los únicos cuyo progreso y progreso en esta área deben observarse! Intel tiene la intención de volver al mercado de GPU dedicado para 2020.

Si quieres conocer otros artículos parecidos a GeForce RTX: la nueva arquitectura de Nvidia Turing analizada puedes visitar la categoría Productos.

Maria Luján

Me llamo Maria Luján y soy periodista de todo tipo de información

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir

Esta página web utiliza Cookies con el único fin de mejorar la experiencia de navegación. Leer Más