Epic Games avisa: GPU con 8GB VRAM ya está obsoleta para gaming

Acojonante que con la que está cayendo todavía sigan erre que erre con los 8GB.
A ver si para la siguiente gen los 8GB quedan por fin recluidos a la gama baja.

A estas alturas lo lógico sería:

Gama entusiasta XX90 (20GB)
Gama alta XX80/XX70 (16GB)
Gama media XX60/TI (12GB)
Gama baja XX50/TI (8GB)


Eso lo determinara el precio.

Yo precisamente esta mañana mire el mercado y es que lo más barato medio decente para 1080p son 280€
Kavezacomeback escribió:


Eso lo determinara el precio.

Yo precisamente esta mañana mire el mercado y es que lo más barato medio decente para 1080p son 280€


Por 230€ tienes la 6600 que es lo más decente que hay calidad precio ahora mismo.
A cual te refieres por 280?
@Kavezacomeback las RX 6600 están en tiendas a 240€ y es una gráfica muy digna para jugar a 1080p:
https://www.aussar.es/tarjetas-graficas ... afica.html
https://www.coolmod.com/powercolor-amd- ... gddr6-vga/

@PHANTASIA ¿dónde está a ese precio y qué modelo?

Saludos.
@PHANTASIA @javier español pues me refiero a la 6650 XT por que la 6600 XT la venden a mayor precio [tomaaa]
Kavezacomeback escribió:@PHANTASIA @javier español pues me refiero a la 6650 XT por que la 6600 XT la venden a mayor precio [tomaaa]


la 6600 está a 229€ y rinde muy muy bien en 1080p

https://www.pccomponentes.com/sapphire- ... rrEALw_wcB
@javier español en Coolmod tienes una RX 6600 mas barata que esa, por 219€ y con mejor ensamble.
PHANTASIA escribió:Acojonante que con la que está cayendo todavía sigan erre que erre con los 8GB.
A ver si para la siguiente gen los 8GB quedan por fin recluidos a la gama baja.

A estas alturas lo lógico sería:

Gama entusiasta XX90 (20GB)
Gama alta XX80/XX70 (16GB)
Gama media XX60/TI (12GB)
Gama baja XX50/TI (8GB)


las 70 no es gama alta, media si acaso
@PHANTASIA No.

Top > RTX XX90/TI
Alta > RTX XX80/TI
Media > RTX XX70/TI
Baja > RTX XX60/TI
Entrada> RTX XX50/TI
Simplemente salida de video y poco mas > Las demas gamas
ivan95 escribió:@PHANTASIA No.

Top > RTX XX90/TI
Alta > RTX XX80/TI
Media > RTX XX70/TI
Baja > RTX XX60/TI
Entrada> RTX XX50/TI
Simplemente salida de video y poco mas > Las demas gamas


esta escala es la correcta
ivan95 escribió:@PHANTASIA No.

Top > RTX XX90/TI
Alta > RTX XX80/TI
Media > RTX XX70/TI
Baja > RTX XX60/TI
Entrada> RTX XX50/TI
Simplemente salida de video y poco mas > Las demas gamas


Creo que te equivocas. 90/ti gama entusiasta
80/ti gama alta
70/ti media/alta
60/ti Media
50/ti gama baja
Por debajo de eso gama de entrada

No puedes catalogar una serie como antaño, cuando sólo había por ejemplo una serie 80 como máximo y costaba 500€. Nvidia con la Titan en 2013 sacó lo que antaño era la gama entusiasta de nuevo. No por ello la x70 no es el inicio de la gama alta, porque te lo sigue cobrando como tal.

Metió más modelos para seguir subiendo precios y engañando a la gente con muchos modelos y tal. Pero no por ello hay que degradar al resto de tarjetas.

Aquí lo ponen parecido a lo que he dicho:


Números 9, 8 y 7: indican que estamos ante un modelo de gama alta. Por ejemplo, una RTX 2070 y una RTX 2080 son tarjetas gráficas de gama alta.
Número 6: se utiliza para referirse a tarjetas gráficas de gama media. Por ejemplo, una GTX 1060 es una tarjeta gráfica de gama media.
Número 5: en este caso se refiere a tarjetas gráficas de gama media-baja: La GTX 1050 es un claro ejemplo.
Números 3, 2 y 1: se refieren a tarjetas gráficas de gama baja, como la GT 1030 por ejemplo.


https://www.muycomputer.com/2018/11/20/ ... entificar/
Podeis decir lo que querais, pero al igual que un Audi A8 no es lo mismo que un A6.

Una XX70 no es alta desde la pasada generacion......

Que tienen muy buen rendimiento, pues si, pero en la escala de su propia familia no puedes decir que hay 24 modelos en la gama alta, es ridiculo🤣.

Antes te presentaban la familia de esa generacion con una 1080/2080 como buque insignia, ahora te las presentan con la 3090/4090, no puede ser que lo mas top suba numericamente y las demas se mantengan en el mismo escalon.....
De toda la vida de dios la 770, 970, 1070, 2070, 3070...eran gamas altas.
Y 760, 960, 1060, 2060, 3060...gamas medias.

Pero bueno, si queréis inventaros vuestras propias gamas no es mi problema.
estais metiendo la mayoria de modelos en gama alta con calzador, no tiene sentido

70 es media, 60 baja, y 50... para que sirven las 50?? es que ni lo sé
De toda la vida de dios, la 80 era el tope de gama, sacaban la TI despues (como hicieron la generavion pasada con la 3080) y poco mas, estaban haces unos años las 90 como el modelo Dual GPU (590,690) y cuando dejaron las Dual GPU, sacaron unas TITAN.

Ya no sacan TITAN, sacan la 90 desde el principio.

Por lo que aunque antes era una 70 era gama alta sin duda, hoy no lo es, no pasa nada, quien tenga una 70 o tenga pensada comprarsela no es peor grafica ni mejor por estar catalogada asi por la propia Nvidia.

En lugar de discutir sobre los nombres de por ejemplo la 4070 actual (que es una 4060 en realidad🤣) habria que discutir como puede ser que la 4090 sea un 70% mas potente que la 3090 y sin embargo la 4080 no sea un 70% mas potente que la 3080 y asi sucesivamente hasta que llegamos a la hermana mas floja que tenemos en el mercado que es la 4070, que iguala a la 3080, pero eso no era lo que solian hacer las 60 de la siguiente generacion, como que aqui lo hace una 70.....

Y todavia nos esperan las graficas de 8GB tanto de Nvidia como AMD viendo como esta el patio ultimamente, se rien en nuestra cara, pero solo un poco, por lo que no pasa nada🤣
La 4060ti con 288gb/s de memory bandwith [qmparto] [qmparto] [qmparto]

Rendirá en teoria como una 3070, saldrá a precio de 3070 y aun así en algunos escenarios la 3070 se la pulirá por el ancho de banda, como pasa con la 3080 vs 4070.

Esto es una 4050 renombrada como una catedral, desde que la gente no tragó con la 4080 de 12gb aka la 4070ti aka la 4070 original, han ido subiendo el resto de gamas un peldaño, la 4070 deberia ser la 4060 y la 4060 la 4050.
Vengo a dejar el dato que cada ciertas semanas alguien pasa, y que debería de ser el pilar de la conversación, y no las hipótesis de las que habláis:

Datos de Steam del mes de abril

No sólo el 1080p es lo que ARRASA, sino que por ejemplo la resolución 2k ha pedido casi un 10% de usuarios frente al mes anterior. Y de VRAM tanto de lo mismo, los 8GB es lo que reina.

Que no niego que haya empresas deseando que todos cambien piezas para vender a saco, pero la realidad es la que muestran los usuarios.
Hay que pensar que hay mucha gente en steam que compra juegos en ofertas y hay otros muchos que les dan miles de horas a esports o similares. Para eso una gtx 1650 o así, te vale de sobras. Es más, creo que es la gráfica más usada ahora mismo. [+risas]

Lo que pasa con esto me viene a la cabeza estos puntos:

Los triple A no venden tanto, respecto al total de pceros gamers
Los juegos online atemporales se llevan casi todo el mercado
Gente que juega a esos juegos online en pc, se compran o se acabarán comprando una consola para los triples A.

Lo que falla ahora mismo es sacarte gráficas de 8gb de vram y buses de 128bits por 500€ o más. Si quieres algo equilibrado, ya te vas mínimo a 600€.

Mercado para esports siempre habrá. Lo que se están cargando es el mercado de triples A en pc. Porque ese segmento, dentro de poco será copado por las integradas de AMD. Hay algunos ryzen de portátiles y minis pcs que llevan una 680M integrada y rinde bastante para lo que es. Pero para jugar a juegos mal optimizados es otra cosa.

Pero claro, Nvidia, AMD e Intel iban a vender pocas gráficas caras, si la mayoría pasa de triples A.
Este tema no es para discutir que más usan los usuarios, es para discutir simplemente que 8GB son insuficientes.

@verdezito lo unico que muestra esa realidad, es que mucha gente cambiaria de PC si pudiera. [sonrisa]

Yo creo que en Steam estan las macro comunidades de juegos más longevos del mundo y no necesitas un maquinon.

Pero tambien estan todos los juegos del top 20 o la gran mayoria...........habria que saber cuanta gente juega con el pc en el mundo parta pensar la relevancia de esos datos.

No obstante como yo manejo miles de usuarios, te puedo asegurar que hay de todo, hay gente que tiene PCs como el mio, algunos mejores, no tantos y luego hay mucha gente con PCs sencillos, lo más abundante de hecho son portatiles con graficas sencillas o integradas. Y la gente que juega mis mods, juegan tambien juegos modernos pero siempre vuelven de vez en cuando al viejo, de hecho yo tengo 20000 suscriptores recurrentes en Steam solo en un mod, asi que la gente siempre vuelve a lo más interesante por viejo que sea.
ditifet escribió:
Kavezacomeback escribió:@PHANTASIA @javier español pues me refiero a la 6650 XT por que la 6600 XT la venden a mayor precio [tomaaa]


la 6600 está a 229€ y rinde muy muy bien en 1080p

https://www.pccomponentes.com/sapphire- ... rrEALw_wcB


No me acaba de convencer, rinde como una 2060 y cuesta poco menos que su hermana mayor.
@PHANTASIA @ivan95 pues cuando lo miré en esa tienda, filtré de menor a mayor precio y la más barata que salía era la que puse, pero si hay más baratas ahora, pues mejor que mejor... ;)

Saludos.
Kavezacomeback escribió:
ditifet escribió:
Kavezacomeback escribió:@PHANTASIA @javier español pues me refiero a la 6650 XT por que la 6600 XT la venden a mayor precio [tomaaa]


la 6600 está a 229€ y rinde muy muy bien en 1080p

https://www.pccomponentes.com/sapphire- ... rrEALw_wcB


No me acaba de convencer, rinde como una 2060 y cuesta poco menos que su hermana mayor.


Veo que las 6650xt han bajado a 269€, si es así pues mejor esta si. Pensaba que seguian a 320€
@ditifet de ahí mi comentario.

El tema es que los que estamos medio informados o si lo dejamos un tiempo sabemos donde mirar y preguntar somos muy pocos y la 4060 aún con el sobreprecio que va a salir seguramente se venda bien a base de marketing con las tecnologías de nvidia.

Si venden desde luego no van a dar más de 8GB.
ditifet escribió:
Kavezacomeback escribió:
ditifet escribió:
la 6600 está a 229€ y rinde muy muy bien en 1080p

https://www.pccomponentes.com/sapphire- ... rrEALw_wcB


No me acaba de convencer, rinde como una 2060 y cuesta poco menos que su hermana mayor.


Veo que las 6650xt han bajado a 269€, si es así pues mejor esta si. Pensaba que seguian a 320€


Suena interesante esa 6650 xt para 1080....a ver si con las rx 7000, AMD saca ofertas buenas para desestocar las rx 6000 restantes...estaremos atentos XD XD
dinamita4922 escribió:
ditifet escribió:
Kavezacomeback escribió:
No me acaba de convencer, rinde como una 2060 y cuesta poco menos que su hermana mayor.


Veo que las 6650xt han bajado a 269€, si es así pues mejor esta si. Pensaba que seguian a 320€


Suena interesante esa 6650 xt para 1080....a ver si con las rx 7000, AMD saca ofertas buenas para desestocar las rx 6000 restantes...estaremos atentos XD XD


Esa 6650xt y la 6950xt a 649€ habrá hecho mucho daño a embidia, yo tengo una 3080 y me estoy planteando la tocha si puedo vender la 3080 bien de precio.
Esperad, que llega la solución de Nvidia:

NVIDIA se encuentra desarrollando nuevas tecnologías para comprimir las texturas, y la más avanzada ha recibido el nombre de Neural Texture Compression. Quién nos iba a decir que esta tecnología sería necesaria en estos tiempos, y es que, cuando se ha racaneado bastante en memoria VRAM en las GPU, ahora vemos que una tecnología de este tipo es necesaria para hacer que estas gráficas sigan moviendo juegos modernos sin que su capacidad de VRAM sea el factor limitante.

"El continuo avance del fotorrealismo en el renderizado va acompañado de un crecimiento de los datos de texturas y, en consecuencia, de una mayor demanda de almacenamiento y memoria. Para resolver este problema, proponemos una novedosa técnica de compresión neuronal diseñada específicamente para texturas de materiales".

Como resumen de todo el artículo. En una textura empleada, a una resolución de 4.096 x 4.096 píxeles sin comprimir, ocupa 256 MB. Comprimida con la nueva tecnología, apenas pesa 3,8 MB. La actual tecnología Block Compression, a 1.024 x 1.024 píxeles, arroja un peso de 5,3 MB presentando mucha menos calidad visual.
Así es cómo funciona la tecnología NVIDIA Neural Texture Compression para comprimir texturas

Imagen

NVIDIA Random Access Neural Compression

En concreto, bajo el título de "Random-Access Neural Compression of Material Textures", NVIDIA ha presentado (vía Videocardz) un nuevo algoritmo de compresión de texturas. Como era de esperar, todo este trabajo gira en torno a unos juegos de 2023 que han aumentado de forma notable sus requisitos en términos de memoria utilizada. En concreto, se indica que ahora la memoria no solo almacena texturas de alta resolución, sino también otras muchas propiedades y atributos asociados a ellas para renderizar materiales de alta fidelidad y aspecto natural.

Para ser exactos, la tecnología NVIDIA Neural Texture Compression (NTC) es capaz de proporcionar 4 veces más resolución (16 texels más) respecto al Block Compression (BC). Esta es una compresión de texturas estándar para GPUs. El algoritmo de NVIDIA representa las texturas como tensores (tres dimensiones), pero sin ninguna suposición como en la compresión por bloques (como el recuento de canales). Lo único que asume NTC es que cada textura tiene el mismo tamaño.

NVIDIA Random Access Neural Compression - comparativa texturas

Imagen

El acceso aleatorio y local es una característica importante de la compresión NTC. Para la compresión de texturas en la GPU, es de suma importancia que se pueda acceder a las texturas con un coste reducido y sin retardo, incluso cuando se aplican altas tasas de compresión. Esta investigación se centra en comprimir muchos canales y mipmaps (texturas de distintos tamaños) juntos y, al hacerlo, la calidad y el bitrate son mejores que los de los formatos JPEG XL o AVIF.

"Desbloqueamos dos niveles más de detalle, es decir, 16 ves más texels, utilizando una compresión de baja tasa de bits, con una calidad de imagen superior a la de técnicas avanzadas de compresión de imágenes, como AVIF y JPEG XL. Al mismo tiempo, nuestro método permite la descompresión bajo demanda y en tiempo real con un acceso aleatorio similar al de la compresión de texturas por bloques en las GPU. De este modo, las ventajas de la compresión se extienden del almacenamiento en disco a la memoria.

Resto de la información

NVIDIA Random Access Neural Compression a 4K con RTX 4090

Imagen

Para terminar, se pone como ejemplo una comparativa a una resolución nativa 4K / 2160p. En esta podemos ver la notable diferencia entre las texturas neuronales y las BC. En concreto, aplicar texturas con 16 texels más apenas aumenta la memoria utilizada en 0,3 MB. Esto se traduce en aspirar a texturas mucho más realistas sin que el requisito de memoria se dispare. De esta forma, GPUs con poca VRAM podrán aspirar a texturas 4K.

"La idea clave de nuestro método es comprimir varias texturas de materiales y sus cadenas de mipmaps a la vez. Una vez comprimidas, utilizar una pequeña red neuronal, optimizada para cada material, para descomprimirlas. Por último, utilizamos una implementación de entrenamiento personalizada para alcanzar velocidades de compresión prácticas. Su rendimiento supera en un orden de magnitud al de frameworks generales, como PyTorch".

Según el artículo, las texturas neuronales pueden renderizarse en tiempo real con hasta 16 veces más texel que el enfoque BC. El coste del renderizado 4K en una NVIDIA GeForce RTX 4090 fue de 1,15 ms, superior a los 0,49 ms del BC. Nada mal para la notable diferencia de rendimiento que se aplica con ese margen de media milisegundo.

https://elchapuzasinformatico.com/2023/ ... ssion-ntc/

Lo que veo es que comprime mucho las texturas, a cambio de un posible enborronamiento de la imagen. En algunos casos se notará poco y en otros más. Ya depende del juego y la exigencia de la vram.

Queda por ver si esto se implementa directamente a nivel de driver o lo harán los juegos. Porque si es lo segundo, creo que nace muerto.

Eso sí, todo cosas de software, para no hacer lo evidente. Darte la memoria necesaria para dicha gráfica. No que pueda con los juegos de hoy y los de mañana la tengas que cambiar o jugar a baja calidad.
@Duendeverde interesante articulo

esta claro que es nvidia quien pone los avances y la innovacion, si fuese por AMD y las consolitas, aun estariamos con graficos de PS4.
Ojo!

Sin negar q que es un avance, y más, si por lo q he entendido el ratio de compresion es 16:1 respecto al método actual.

En la siguiente afirmación, yo veo una trampa ''intencionalmente disimulada":

'El coste del renderizado 4K en una NVIDIA GeForce RTX 4090 fue de 1,15 ms, superior a los 0,49 ms del BC. Nada mal para la notable diferencia de rendimiento que se aplica con ese margen de media milisegundo.'

Es decir, mas del doble de tiempo, frente a los 0.49ms!!!!

Y con una 4090!!! Que es triple de potente q una 4070 y con el doble de VRAM!!!

Si, q medio milisigundo no es nada. Pero en este caso quiere decir 'como poco' el doble de tiempo de renderizado, en la grafica mas potente del mercado.

En resumen, q no lo veo como solución a los 'escasos' 8 y/o 12 GB de VRAM de las gamas bajas / medias de Nvidia.

Si no mas bien, como una estrategia comercial mas, para distanciarse de la competencia (como en su momento fue Ray Tracing).

Un avance, por supuesto q si.
Q marca diferencias, evidente q si.
Pero solo utilizable en la gama entusiasta 5090/5080, al alcance de unos pocos. Pero vendido comercialmente como algo q la series 5070/5060/5050 'soportaran', pero q ni en broma dará el rendimiento 'prometido' hasta 2 otres generaciones posteriores (como el milagro del RT q 3 generaciones despues solo es viable en las xx90 y xx80)
Lo de Nvidia es el clásico acción-reacción-solución. Te crean un problema y ellos te dan su solución. Luego pasará que en ciertos juegos verás las texturas algo borrosas o sube el input lag, tiempos de carga más altos o genera stuttering.

Pero así seguirán vendiendo gráficas de 8gb para gaming. Habrá mucha gente que lo justificará y dirán que ya no importa la vram, porque las Nvidia comprimen y no se nota. [toctoc]

Lo que ocurre ahora mismo, es que para cierto sector tampoco interesa las radeon y las intel siguen verdes en drivers. La serie rx 5000 en adelante tuvo ciertos problemas con drivers mirando en foros oficiales. Rinden peor en raytracing y AMD tiene por costumbre tirar el soporte de drivers antes que Nvidia.

Pasará lo de siempre. Mucha gente seguirá comprando tarjetas de 8gb de vram, aunque la competencia ofrezca 16 al mismo precio. Otros verán esto y dirán: ¡Pues a mí Nvidia no me jode, ahora me gasto 1000€ en una de 16gb!. Y el que gana es otra vez la marca que te fomenta a eso.

De todas formas los desarrolladores pondrán sistemas en el futuro para evitar algo estos modelos. Carga de texturas de peor calidad, etc... De lo contrario no creo que vendan mucho en PC a este paso.
Pues ahora me acabo de enterar que nvidia es la que hace posible los avances, me gustaría saber cuáles. Los que yo conozco son gracias a Microsoft que ha ido implementando tecnologías con DirectX y las consolas con otras como OpenGL y Vulkan o sus reescalados de los que todos se reían y ahora resulta que llegan otros dicen es por IA y ya está, maravilla pura.
Kavezacomeback escribió:Pues ahora me acabo de enterar que nvidia es la que hace posible los avances, me gustaría saber cuáles. Los que yo conozco son gracias a Microsoft que ha ido implementando tecnologías con DirectX y las consolas con otras como OpenGL y Vulkan o sus reescalados de los que todos se reían y ahora resulta que llegan otros dicen es por IA y ya está, maravilla pura.


Pues algo de razón, si no es toda, tienes.
Con la generación de PS4 y Xbox One el tema del reescalado a 1080p, y a 4K en las versiones Pro, era casi un tema de burla, pq eran 'trampas' para encubrir las carencias de estas.

Pero ahora, con la competencia DLSS vs FSR vs XSSe, casi q es un tema por el q sacar pecho.

No deja de ser la misma 'trampa'. Mejorada y/o muy mejorada, pero siguen siendo pixeles (y/o frames) inventados, para tapar bajones de rendimiento. [+risas]
Nvidia ha colaborado en muchas cosas eso es innegable, pero ellos solos poca chicha, incluso con Microsoft tiene algunos pero hombre el gran mérito aquí es de Microsoft sin duda alguna.

Ya ahora podéis buscar historias sobre DirectX, HLSL, Nvidia gs, OpenGL, GNMX, Vulkan, etc.. que hay info como para que te explote la cabeza.
Por nombrar algo que usamos mucho, DX 12 y Vulkan tienen mucho de Mantle, la Api de AMD, el Re-Bar por ejemplo no hace mucho, la diferencia es que de eso nos beneficiamos todos, cuando es Nvidia eso no suele pasar.....
Esa noticia del chapuzas no tiene mucho sentido cuando los juegos ya usan todos texturas dds comprimidas y las graficas las leen sin problemas. Ningun juego que se precie usa texturas de 4096x4096 que no vengan comprimidas como ahi afirman.
VíctorXD está baneado por "clon de usuario baneado"
@Nomada_Firefox

Justamente lo que esta diciendo Nvidia es que su nuevo método de comprimir es de bastante mejor calidad de imagen que los métodos actual BC y DXT , con ratio de compresión igual.

El problema de esto es que nunca llega a nada en cuanto a implementacion ,al menos que si implemente como un estándar en DX11 o DX12 ,con una nueva versión del DXT/BC ,para que se implemente en todos los juegos.

Otro gran avance será el reescalado de texturas por IA, una textura de 1024*1024 que se pueda reescalar al vuelo a 16834 *16834(16k) por IA..

PD: dds solo es un contenedor de texturas, osea puede almacenar textura comprimida con técnicas de DXT o BC , o texturas sin comprimir. Es como decir ogg, ogg es un contenedor de audio, pere el códecs con que se comprime el audio puede ser Vorbis o Opus.
VíctorXD escribió:El problema de esto es que nunca llega a nada en cuanto a implementacion ,al menos que si implemente como un estándar en DX11 o DX12 ,con una nueva versión del DXT/BC ,para que se implemente en todos los juegos.

Me pregunto si esto llegará realmente a poder usarse con los últimos juegos y con todas las RTX ya q todas tienen tensor cores y puede programarse una red neuronal a demanda, o nvidia lo va a dejar para la siguiente generación de RTX pero ya va solando la noticia para no quedar muy mal con la polémica de la cantidad de VRAM de sus gpus.

VíctorXD escribió:PD: dds solo es un contenedor de texturas, osea puede almacenar textura comprimida con técnicas de DXT o BC , o texturas sin comprimir. Es como decir ogg, ogg es un contenedor de audio, pere el códecs con que se comprime el audio puede ser Vorbis o Opus.

Cuidado con decir q DDS es un contenedor y no un formato en sí mismo porque @Nomada_Firefox es un tío q ya tiene sus ojos acostumbrados a ver esa información comprimida, de forma nativa y totalmente transparente, ya te puede distinguir si el moho de la textura en piedra ha recibido el rocío de la mañana en los 3 últimos días o no, o si la sangre desperdigada por una pared metálica es de sangre humana o de vacuno, y si es de vacuno si ha sido criado al aire libre en total libertad o encerrado y alimentado a base de piensos y hiervas poco nutritivas. XD [beer]
Vaya tomadura de pelo, menosmal que me he bajado del carro hace años, llevo con una vega 64 desde el 2017 y pienso exprimirla como minimo hasta 2026, si para entonces no han bajado del burro y aún me quedan ganas de jugar me planteare seriamente pillarme una consola.
apalizadorx escribió:Vaya tomadura de pelo, menosmal que me he bajado del carro hace años, llevo con una vega 64 desde el 2017 y pienso exprimirla como minimo hasta 2026, si para entonces no han bajado del burro y aún me quedan ganas de jugar me planteare seriamente pillarme una consola.


Tampoco en consola te vas a librar, pagas la consola, pagas Internet, pagas el juego, y ahora les pagas para que te permitan jugar online con el internet que pagas en la consola que les compraste con el juego que te cobraron.......

En la vida util de la consola, sale mas caro si eres de los que juegas a muchos titulos, con las limitaciones visuales ademas de que solo sirven para jugar y poco mas.
El tema de mantener una gráfica vieja, es que pensemos que no se va a romper nunca. [+risas]
Cuando lo haga y lo que haya esté por las nubes, qué hacemos. ¿Comprar algo viejo que pueda durar también poco tiempo?

Esto pasó a gente en plena minería y acabaron con la integrada o comprando una gt 1030 a más de 100€, que era peor que lo que tenían.
@Duendeverde puede q el hueco de las gráficas antiguas los cubran las APUs, se espera q los próximos lanzamientos de Intel y AMD tengan una potencia situada entre las gtx 1650 y 1660, ya con eso se puede jugar a algo...
Pueden decir misa. Si no optimizan los juegos estaran obsoletas hoy las tarjetas que salgan dentro de 5 años.

No compréis los juegos, que se los metan por el culo. Ya empieza a cansar la cantinela de sacar ports ruinosos.
Miguemi escribió:No compréis los juegos, que se los metan por el culo. Ya empieza a cansar la cantinela de sacar ports ruinosos.

Una buena táctica es jugar a juegos de hace varios años, todavía se ven increíbles, DOOM (2016) por ejemplo es una pasada. Es la garantía de poder jugar a tope a los títulos con una GPU decente de hoy.
BladeRunner escribió:
Miguemi escribió:No compréis los juegos, que se los metan por el culo. Ya empieza a cansar la cantinela de sacar ports ruinosos.

Una buena táctica es jugar a juegos de hace varios años, todavía se ven increíbles, DOOM (2016) por ejemplo es una pasada. Es la garantía de poder jugar a tope a los títulos con una GPU decente de hoy.


Es lo que estoy haciendo yo hace año y medio o más. Ya no porque no tenga pc, mi pc esta bastante bien (ryzen 5600 con una 3060ti) . Pero es que paso de pagar precios AAA por ports que se caen a trozos y que encima me digan en la cara que es que bueno, que es que mi hw que se mea en una ps5 está "obsoleto"
Hoy día coges un juego como Quantum Break le añades raytracing y destrozas a 4K la mayoría de las gráficas y esto es lo que yo pienso hacen la mayoría de los nuevos títulos exigentes.
Se dice/se comenta que Nvidia sacaría una 4060 Ti de 16GB, después de la de 8GB, el Julio.

https://elchapuzasinformatico.com/2023/ ... -gb-fecha/

https://www.geeknetic.es/Noticia/28474/ ... -8-GB.html

Desconozco que fiabilidad tiene ese insider. Que cada cual le de la credibilidad que quiera.
Las AMD Radeon RX 7600 ya se dejan ver por China: 8GB de VRAM

AMD ni tan siquiera la ha anunciado oficialmente, pero ya en China se pueden encontrar numerosas gráficas Sapphire Radeon RX 7600 PULSE en al menos una tienda. En concreto, este modelo ofrece un diseño personalizado por el fabricante. Lo que es más importante de todo, se confirma que esta GPU llegará con "únicamente" 8 GB de memoria VRAM.

Por otro lado, la fotografía tampoco implica que esté ya a la venta. Puede ser que simplemente hayan recibido el stock de esta GPU, la cual se espera se anuncie oficialmente el próximo 25 de mayo, apenas unos días antes de que NVIDIA anuncie su GeForce RTX 4060 Ti. Presumiblemente, en la Computex de Taiwán.

Tal y como indicábamos, quizás lo más decepcionante de todo es que se confirma que esta GPU también ofrecerá 8 GB de VRAM. Esto ya implica un serio problema para los juegos de generanción, donde el nuevo salto gráfico, y la falta de optimización, ya se demandan al menos 12 GB de VRAM para que la gráfica no sufra el paso del tiempo.
Esto es lo que podemos esperar de la AMD Radeon RX 7600 con 8GB de VRAM

AMD Sapphire Radeon RX 7600 PULSE

Imagen

Si no hay sorpresas de por medio, esta gráfica hará uso del chip gráfico Navi 33. Este ofrecerá una configuración de 2.048 Stream Processors bajo la arquitectura RDNA3 a un proceso de fabricación de 5nm de TSMC. El chip gráfico podría alcanzar una frecuencia Turbo en torno a los 2,60 GHz. Vamos a lo que será el mayor de sus problemas: la memoria. Se espera que esta GPU cuenta con 8 GB de memoria GDDR6 junto a una interfaz de 128 bits. Como respaldo, integraría 32 MB de Infinity Cache.

Dependiendo de la memoria utilizada, podría rondar un ancho de banda de 256 GB/s (si usa chips a 16 Gbps). Como referencia, la AMD Radeon RX 7600S para equipos portátiles, ya cuenta con ese mismo ancho de banda. Esto implicaría un pequeño salto respecto a su predecesora con memoria a 14 Gbps (224 GB/s).
¿Veremos una AMD RX 7600 XT con 16GB de VRAM?

Imagen
AMD GPU RDNA 3 16 GB


Según las últimas hipótesis, AMD podría verse forzada a ofrecer una GPU de gama media con más de 8 GB de VRAM. Bien es sabido que AMD se ha metido en muchas disputas publicitarias con NVIDIA alardeando de ofrecer más memoria VRAM. Los últimos rumores indican que NVIDIA habría preparado una GeForce RTX 4060 Ti con 16 GB GDDR6 para contrarrestar la negativa del mercado de comprar una GPU de nueva generación con 8 GB de VRAM, los cuales se sienten ya el límite entre los juegos últimos juegos de anterior generación, y los primeros de la próxima.

De esta forma, no sería de extrañar que en el futuro podamos ver una Radeon RX 7600 XT con 16 GB de VRAM. Eso sí, por ahora el anuncio original, se limita a un modelo con 8 GB de VRAM. El Plan B de NVIDIA llegaría en julio, y el éxito de esta GPU determinará el futuro de una industria donde una GPU de gama media podría estandarizarse con 16 GB de VRAM. Sin ir más lejos, una GPU muy básica como la Intel Arc A770 puede alardear de ser la GPU más barata del mercado con 16 GB de VRAM, y todo ello con el mérito de ser una gráfica moderna. En concreto, no, la VRAM no encarece el precio de la GPU como nos quieren hacer creer.

https://elchapuzasinformatico.com/2023/ ... ram-china/

Seguramente hagan lo mismo de siempre. Lanzarte el modelo bajo y luego meterte el de doble de vram más caro. Pero luego se venderá más el modelo básico por el precio y al poco se cumplirá lo de epic games.
@Duendeverde
Las AMD Radeon RX 7600 ya se dejan ver por China: 8GB de VRAM

Todo depende del precio. Si son caras, seran tan malas como las 4060 con 8GB que de seguro seran más caras que esas.
@Mapache Power algo habrá, no sé si la Ti pero las 60 suelen ser las que mas variedad de modelos lanzan.


El precio lo es todo la verdad, estás gpus son de entrada por eso yo no he esperado a lanzamiento alguno, hay que comprar cuando uno cree lo necesita y a base de buscar encontré una RX 6600 por 150€ que para 1080P voy sobrado. Aquí los 300-320€ nos los van a encasquetar seguro y no creo rinda mucho más que la 6600.
Kavezacomeback escribió:algo habrá, no sé si la Ti pero las 60 suelen ser las que mas variedad de modelos lanzan.

Sí, es cierto, la reina es Gigabyte, acostumbra a sacar mil razas de esas gamas.

. Aquí los 300-320€ nos los van a encasquetar seguro y no creo rinda mucho más que la 6600.

Lo del rendimiento.........si una RTX 3060 aplicando cosas como el DLSS rinde más, supongo que esa sera la base de la 4060. El problema seria que la 4060 fuera una 4050 renombrada, cosa que podria ser con ese bus que lleva y su rendimiento fuera el de una GTX 1080 o algo asi. Eso si que me daria la risa.

Por cierto, creo que es evidente que la noticia del NVIDIA Neural Texture Compression no tendria el efecto deseado porque ya se apuran en sacar modelos de 16GB...........el ultimo rumor habla de una 4070 algo descafeinada pero pero con más memoria.

Cosa a parte si la idea fuera mejorar la velocidad de lo que hay, pues vale. Pero la idea es meter más texturas y cada más con más detalle, por lo que al final es lo de siempre, buscando los limites de todo. Ademas dudo mucho que toda la industria del software salte al formato de Nvidia por gusto, van a seguir usando el DDS como han venido haciendo porque es compatible con todas las graficas del mercado. No van a usar algo que igual requiere Cuda u otra cosa exclusiva de Nvidia.
628 respuestas