Empiezo a sentir que 1080p es "poco".

Pues eso, tengo una 1070 y tengo un monitor básico que llevará seis o siete años portándose como un campeón. La cosa es que, por ejemplo en Battlefield 1 la calidad de imagen conseguida es muy buena, pero también a costa de unos AA bastante agresivos que penalizan la nitidez. En otros juegos como LawBreakers sencillamente noto que el juego no tiene un AA efectivo o que la pantalla está tan sobrecargada de texturas, shaders y efectos de humo en suspensión y mierdas que la IQ me resulta de puta pena, y dudo que sea culpa del Unreal Engine 4. El FXAA es muy insuficiente y el TAA emborrona la imagen tela.

Así que no sé si dar el salto. Desafortunadamente una Nvidia significa GSync y GSync significa más caro, pero veo monitores básicos de 144Hz/1440p por alrededor de 400€ y me tienta. Lo que pasa es que estoy con el "y si". Y si luego me arrepiento de no tener HDR. Y si tenía que haber saltado al 4K. Y si me dejo la pasta y luego estoy todo el día mosqueado con fugas de luz y mierdas... Además de que la tarjeta (una MSI Armor) tampoco esté muy fresca, capo los juegos a 60FPS, todo Ultra y con filtros y aunque el uso en Battlefield 1, que es lo más potente que encuentro, no llega al 60%, ya se me pone sobre los 70ºC y dándolo todo para 144Hz/1440p no sé si dará la talla o será un puto horno (es un equipo Mini ITX).

¿Cómo estáis enfocando vosotros este tema?
A mí la resolución de la pantalla no me importa, con una tele de 40" 1080p tengo que acercarme mucho para ver los pixeles y puedo vivir sin HDR.

PERO, ¡¡odio los dientes de sierra!! El día que jubile mi 960 que a este paso va para largo lo que quiero es poner la nativa a 4K, desactivar AA y hacer downsampling. Con el Forza Horizon lo probé, a 4K siendo la misma tele 1080p parecía que tenía una tele nueva xDD la pobre 960 no daba más de unos pocos fps pero el experimento era únicamente sobre la resolución.

Ah, y también tengo un ITX, hace poco cambié la caja por una Suppressor F1 para hacer hueco para una gráfica más potente pero según está el mercado estoy esperando. Hay gente que le ha metido una EVGA 1080Ti SC y, en efecto, es un horno. Con la 1070 no deberías tener mucho problema porque consume bastante menos.
mocelet escribió:A mí la resolución de la pantalla no me importa, con una tele de 40" 1080p tengo que acercarme mucho para ver los pixeles y puedo vivir sin HDR.

PERO, ¡¡odio los dientes de sierra!! El día que jubile mi 960 que a este paso va para largo lo que quiero es poner la nativa a 4K, desactivar AA y hacer downsampling. Con el Forza Horizon lo probé, a 4K siendo la misma tele 1080p parecía que tenía una tele nueva xDD la pobre 960 no daba más de unos pocos fps pero el experimento era únicamente sobre la resolución.

Ah, y también tengo un ITX, hace poco cambié la caja por una Suppressor F1 para hacer hueco para una gráfica más potente pero según está el mercado estoy esperando. Hay gente que le ha metido una EVGA 1080Ti SC y, en efecto, es un horno. Con la 1070 no deberías tener mucho problema porque consume bastante menos.


La verdad es que para el 4K solvente aún nos faltan unos años... Años suficientes como para asegurar la supervivencia de esa 960 durante años. De hecho siempre he pensado que es mejor comprar gamas medias e ir renovando cuando plazca (960, 1060...), pero con el tema del desarrollo de transistores parece que la cosa está algo ralentizada y apuntan para los 7nm para 2020, pero parece que después la cosa no está clara... Quizá sea entonces un buen momento para pillar una gama alta y que demos todos el salto al 4K XD
ramulator escribió:Pues eso, tengo una 1070 y tengo un monitor básico que llevará seis o siete años portándose como un campeón. La cosa es que, por ejemplo en Battlefield 1 la calidad de imagen conseguida es muy buena, pero también a costa de unos AA bastante agresivos que penalizan la nitidez. En otros juegos como LawBreakers sencillamente noto que el juego no tiene un AA efectivo o que la pantalla está tan sobrecargada de texturas, shaders y efectos de humo en suspensión y mierdas que la IQ me resulta de puta pena, y dudo que sea culpa del Unreal Engine 4. El FXAA es muy insuficiente y el TAA emborrona la imagen tela.

Así que no sé si dar el salto. Desafortunadamente una Nvidia significa GSync y GSync significa más caro, pero veo monitores básicos de 144Hz/1440p por alrededor de 400€ y me tienta. Lo que pasa es que estoy con el "y si". Y si luego me arrepiento de no tener HDR. Y si tenía que haber saltado al 4K. Y si me dejo la pasta y luego estoy todo el día mosqueado con fugas de luz y mierdas... Además de que la tarjeta (una MSI Armor) tampoco esté muy fresca, capo los juegos a 60FPS, todo Ultra y con filtros y aunque el uso en Battlefield 1, que es lo más potente que encuentro, no llega al 60%, ya se me pone sobre los 70ºC y dándolo todo para 144Hz/1440p no sé si dará la talla o será un puto horno (es un equipo Mini ITX).

¿Cómo estáis enfocando vosotros este tema?

Yo estaba parecido.
Me salió un buen negocio para cambiar una RX480 y dar el salto a la GTX1070.
cuando tuve esta, los 1080p se me antojaban cortos, desperdiciaba la tarjeta.
Tuve muchas dudas y me tiré a un Monitor QHD 1440p de 25" ,60HZ sin GSYNC .
El cambio NO es grande, pero Sí me merece la pena.Se ve de escándalo.Lo volvería a hacer.

Ahora, no sé si hubiese sido mejor más HZ o no.Con 60FPS desde luego que va más que bien.

En cuanto al 4K, con tu GTX 1070 es chorrada. Yo tengo ahora la GTX 1080 y tampoco me lo planteo.Para mí es caro de mantener y no es el momento.Con 1440p lo veo suficiente.
Tu GTX 1070 va a ir bastante bien a 1440p.No sabrada en todos los casos. Pero en 4K se come los mocos.Saltar al 4K te va a suponer un gasto gordo de dinero ya que te tendrás que pillar el monitor y la GTX 1080TI, y ni aún así te garantizas los 60FPS estables en todos los juegos.
Yo me compré un monitor GSYNC 2k y 144Hz en Enero.

Mi razonamiento fue el siguiente:

- Tengo el monitor a unos 50 cm, por lo que algo mayor de 27" ya me molestaría.
- Tema 4k. Hay gráficas que muevan ya el 4k desahogadas ? No. Es recomendable 4k en un panel de 27" ? No. Por lo tanto, tiro a 2k.
- Framerate. Tengo una gráfica capaz de mantener los FPS ampliamente por encima de 60 a 2k ? Sí (una 1080). Pillo 144Hz. Y aún así también me servirá para la siguiente gráfica. Ahora me pongo un juego capado a 60 FPS y me da la misma sensación de mareo que cuando tú ves uno a 30 FPS después de acostumbrarte a los 60.
- IPS o TN. Por internet se leen todo tipo de opiniones a favor y en contra de uno y otro. Así que tuve las dos versiones del monitor que iba a comprar, el ASUS PG278QR (TN) y el ASUS PG279Q (IPS), uno al lado del otro después de haberlos calibrado correctamente. Después de probarlos y de no ver ni rastro de ghosting ni de input lag en el IPS (los pros de los TN), me quedé de calle con los colores del IPS, a pesar del glow de estos paneles; el TN daba penita verlo al lado del IPS.
- GSYNC. Me parece uno de los mayores avances de los últimos años, para mi era indiscutible, sí. Para una cosa que voy a cambiar dentro de X años me da igual 200€ más o menos.
-HDR. Cuando yo estuve mirando modelos sólo estaba en TVs grandes, y algún que otro monitor que no cumplía mis requisitos de resolución/framerate/gsync. A finales de este año parece que van a salir modelos más acordes a lo que yo buscaba, de todas formas me parece algo relativamente nuevo y a lo que le queda mucha evolución.

Después de todo esto sólo decirte una cosa: no existe el monitor perfecto, va a tener los fallos de la tecnología del panel que elijas (a no ser que tires la casa por la ventana y te pilles un OLED de los buenos) así que quedate con los que menos te molesten.
ramulator escribió:La verdad es que para el 4K solvente aún nos faltan unos años... Años suficientes como para asegurar la supervivencia de esa 960 durante años.


Jeje, con una 1070/1080 ya podría renderizar el Forza a 4K/60fps que se ve de fábula en mi tele aunque sea 1080p, años luz respecto de renderizar a 1080p con filtros AA (solo el MSAAx8 se le acerca en calidad y probablemente incluso sea más costoso que aumentar la resolución). Igual hay que bajar alguna opción de configuración de esas que exige mucho a la tarjeta pero apenas se nota visualmente.

Comentaba el tema del downsampling porque según tu post no es tanto problema de la resolución del monitor (dices que con AA mejora aunque pierde nitidez) sino de, precisamente, el detalle conseguido. Y el detalle haciendo downsampling no lo pierdes porque cada pixel es mucho más fiel a la realidad.

Esta misma estrategia es de hecho la de Xbox One X, en teoría incluso en pantallas 1080p va a verse mucho mejor porque prescindirá de AA y hará downsampling desde 4K o alguna resolución dinámica alta.

Es una cuestión de explotar el monitor o no. Evidentemente si buscas otras cosas como gsync, más refresco, etc. sí merece la pena cambiarlo, pero solo por la resolución no creo porque el detalle viene de la mano de la resolución a la que renderizas, no tanto del dispositivo salvo que puedas ver los pixeles por estar muy cerca.
mocelet escribió:
ramulator escribió:La verdad es que para el 4K solvente aún nos faltan unos años... Años suficientes como para asegurar la supervivencia de esa 960 durante años.


Jeje, con una 1070/1080 ya podría renderizar el Forza a 4K/60fps que se ve de fábula en mi tele aunque sea 1080p, años luz respecto de renderizar a 1080p con filtros AA (solo el MSAAx8 se le acerca en calidad y probablemente incluso sea más costoso que aumentar la resolución). Igual hay que bajar alguna opción de configuración de esas que exige mucho a la tarjeta pero apenas se nota visualmente.

Comentaba el tema del downsampling porque según tu post no es tanto problema de la resolución del monitor (dices que con AA mejora aunque pierde nitidez) sino de, precisamente, el detalle conseguido. Y el detalle haciendo downsampling no lo pierdes porque cada pixel es mucho más fiel a la realidad.

Esta misma estrategia es de hecho la de Xbox One X, en teoría incluso en pantallas 1080p va a verse mucho mejor porque prescindirá de AA y hará downsampling desde 4K o alguna resolución dinámica alta.

Es una cuestión de explotar el monitor o no. Evidentemente si buscas otras cosas como gsync, más refresco, etc. sí merece la pena cambiarlo, pero solo por la resolución no creo porque el detalle viene de la mano de la resolución a la que renderizas, no tanto del dispositivo salvo que puedas ver los pixeles por estar muy cerca.


Estoy completa y absolutamente de acuerdo contigo. Yo principalmente quiero saltar por el tema del Freesync o GSync, ya que a parte de darme por culo el tearing, soy muy maniático con el framerate, lo tengo capado a 60fps y es un puto suplicio que en Battlefield 1 tenga pequeñas caídas a 58fps, y Forza Horizon 3, y Rise of the Tomb Raider... Y se nota tela, pero eso el GSync me lo quitaría de encima.

Pero en lo que coincido contigo es en el tema de que la resolución de renderizado es mucho más importante que la del panel. Hay mucha gente que me dice que en una pantalla 1080 no van a notar los juegos 4K, y siempre les expongo lo mismo: Llevas toda la vida tragándote bullshots de juegos que lucen acojonantes, y la mayor virtud que tienen para ser tan nítidos es estar renderizados a resoluciones superiores a la que juegas, partiendo del 4K. Les digo que se imaginen jugar con esa calidad de imagen en movimiento, creo que es la forma más sencilla de explicarles el cambio.
Yo cambié mi 280X por una 1070 hace pocos meses y sentía que la estaba siendo infiel... Los 1080, por mucho filtro que metiera, se me quedaban cortos y ver la gráfica llegar a más de 120fps en un monitor de 60hz me dolía en el alma. Siempre he sido defensor de los fps frente a la resolución, así que descarté por completo un monitor de 4K. Me apreté el cinturón y me pillé el Asus pg279q (IPS,2K,144hz,4ms, Freesync). Dudé mucho entre este modelo y el mismo pero con Gsync, pero personalmente no me merecía la pena aflojar casi 200 pavos más.

Dicho esto, no me arrepiento en absoluto de la compra. Todo lo contrario, ojalá lo hubiera hecho cuando compré la gráfica. Los 4K pueden esperar. Para mí no hay resolución que iguale la nitidez, claridad y suavidad que transmite cualquier juego moviéndose a 120/144Fps. Verdaderamente los juegos parecen otros. Responden mucho más rápido, las rotaciones y giros de cámara parecen otra cosa, tienes mucha más constancia de todo lo que se mueve en pantalla, la vista sufre mucho menos...

Por cierto, también soy un pejigueras con el tearing, y te puedo asegurar que en la mayoría de juegos que he probado, capándolos a 120 ó 144 y sin vsync, el tearing es testimonial en contados momentos, por no decir ninguno. Por ejemplo, en Rocket League a 144 ó en GOW4 y Doom a 120 no hay en ningún momento.
Aborerto escribió:Yo cambié mi 280X por una 1070 hace pocos meses y sentía que la estaba siendo infiel... Los 1080, por mucho filtro que metiera, se me quedaban cortos y ver la gráfica llegar a más de 120fps en un monitor de 60hz me dolía en el alma. Siempre he sido defensor de los fps frente a la resolución, así que descarté por completo un monitor de 4K. Me apreté el cinturón y me pillé el Asus pg279q (IPS,2K,144hz,4ms, Freesync). Dudé mucho entre este modelo y el mismo pero con Gsync, pero personalmente no me merecía la pena aflojar casi 200 pavos más.

Dicho esto, no me arrepiento en absoluto de la compra. Todo lo contrario, ojalá lo hubiera hecho cuando compré la gráfica. Los 4K pueden esperar. Para mí no hay resolución que iguale la nitidez, claridad y suavidad que transmite cualquier juego moviéndose a 120/144Fps. Verdaderamente los juegos parecen otros. Responden mucho más rápido, las rotaciones y giros de cámara parecen otra cosa, tienes mucha más constancia de todo lo que se mueve en pantalla, la vista sufre mucho menos...

Por cierto, también soy un pejigueras con el tearing, y te puedo asegurar que en la mayoría de juegos que he probado, capándolos a 120 ó 144 y sin vsync, el tearing es testimonial en contados momentos, por no decir ninguno. Por ejemplo, en Rocket League a 144 ó en GOW4 y Doom a 120 no hay en ningún momento.


Pues es interesante saberlo, sí he notado que cuando juego sin límite de FPS el tearing es menor, a fin de cuentas se produce por la desincronización entre los fotogramas del monitor y los que le van llegando así que un tráfico mayor de fotogramas debe aliviar el problema aunque se trate de 60Hz.

De todos modos creo que me tiraré en el GSync, y me duele en el alma porque me parece asqueroso por parte de Nvidia que no soporten (y capen) el FreeSync y a cambio nosotros les tenemos que pagar esos 200 pavos más de media por la dichosa tecnología. Casi que va contra mis principios pero claro... Qué hago, ¿cambio la 1070 por una Vega? ¿Sigo esperando y rezando con que Navi al fin sea capaz de igualar las gamas altas de Nvidia?...
Me parece un auténtico robo tener que pagar 200 euros por algo que otras compañías han conseguido hacer sin ese sobrecoste. Y ojo que he leído que el Gsync mete algo de input lag... Y por ahí si que no paso. Como te decía, prefiero ajustar los niveles de detalle del juego para que tenga una tasa de frames estable, capar fps, desactivar vsync y a correr. Y soy de los que no aguanto ni lo más mínimo el tearing. Supongo que a esos niveles de refresco, teniendo más cantidad de frames, es mucho más difícil que se produzca. No puedo decirte exactamente porqué, pero te aseguro que mientras el framerate es estable, yo no aprecio nada de tearing.
Yo tengo este modelo de monitor con una gtx 1080 Ti https://www.pccomponentes.com/aoc-agon- ... quad-hd-tn y la verdad que estoy contento, al tener 24" la densidad de pixeles es mayor y se ve todo muy bien definido a pesar de ser tn tiene mucho colorido y las sombras son muy buenas, yo juego con vsync y sync rápido bloqueado con rivatuner a 120 fps, el gsync no lo he probado por lo que no puedo comparar, pero por calidad precio el monitor si se lo merece, he probado también el asus mg 279q ips y el que tengo tiene más definición al ser más pequeño.
saludos.
Yo ahora tengo una 1080 Ti y a veces prefiero jugar a 1080P en la TV, que no a mayor resolución en el monitor. Me encanta jugar al Witcher 3, GTA V, y varios otros juegos llenándolos de mods hasta las cejas, a 1080P a 60 FPS aguanta, pero a más resolución no hay tarjeta que lo mueva. Otro tema es que hay juegos que se ven mejor en la TV si ya de por sí los gráficos no están muy definidos, sobretodo los 2D. En general no me gusta jugar a 4K en un monitor de cerca, se notan demasiado los defectos, los juegos hoy en día no tienen suficiente detalle, se notan mucho más falsas las texturas, todo queda con una especie de efecto carton piedra, esto también me ocurre con Netflix a 4K, por ejemplo se nota mucho más cuando un fondo está pintado y no es real. Hasta que los juegos no tengan la calidad de las pelis de Pixar, prefiero vivir "engañado" por los píxeles separados del 1080P, que el detalle extremo del 4K.
Aborerto escribió:Me parece un auténtico robo tener que pagar 200 euros por algo que otras compañías han conseguido hacer sin ese sobrecoste. Y ojo que he leído que el Gsync mete algo de input lag... Y por ahí si que no paso. Como te decía, prefiero ajustar los niveles de detalle del juego para que tenga una tasa de frames estable, capar fps, desactivar vsync y a correr. Y soy de los que no aguanto ni lo más mínimo el tearing. Supongo que a esos niveles de refresco, teniendo más cantidad de frames, es mucho más difícil que se produzca. No puedo decirte exactamente porqué, pero te aseguro que mientras el framerate es estable, yo no aprecio nada de tearing.


https://www.youtube.com/watch?v=MzHxhjcE0eQ

Si cuela cuela y si no me la pela xD
@ramulator pues yo diría de esta forma.. tienes una 1070... estas aburrido de los 1080p... lo piensas la comprar un monitor de mayor resolucion pero sigues indeciso......usa DSR (NVIDIA)

https://www.youtube.com/watch?v=e1sMhh4xWEM

si en 1060 se nota (aparte de la caída de FPS que una 1070 no tendría) sin gastar en aun en monitor

pues me parece una opción interesante (y quitas los filtros)
Metalhead escribió:
Aborerto escribió:Me parece un auténtico robo tener que pagar 200 euros por algo que otras compañías han conseguido hacer sin ese sobrecoste. Y ojo que he leído que el Gsync mete algo de input lag... Y por ahí si que no paso. Como te decía, prefiero ajustar los niveles de detalle del juego para que tenga una tasa de frames estable, capar fps, desactivar vsync y a correr. Y soy de los que no aguanto ni lo más mínimo el tearing. Supongo que a esos niveles de refresco, teniendo más cantidad de frames, es mucho más difícil que se produzca. No puedo decirte exactamente porqué, pero te aseguro que mientras el framerate es estable, yo no aprecio nada de tearing.


https://www.youtube.com/watch?v=MzHxhjcE0eQ

Si cuela cuela y si no me la pela xD


No, no me la pela. No lo contrasté porque sigue sin merecerme la pena. Disculpe usted. De todas formas no he dicho nada falso, el gsync añade en torno a 2/4 ms. Inapreciables, sí. Pero ahí están. XD
Aborerto escribió:
Metalhead escribió:
Aborerto escribió:Me parece un auténtico robo tener que pagar 200 euros por algo que otras compañías han conseguido hacer sin ese sobrecoste. Y ojo que he leído que el Gsync mete algo de input lag... Y por ahí si que no paso. Como te decía, prefiero ajustar los niveles de detalle del juego para que tenga una tasa de frames estable, capar fps, desactivar vsync y a correr. Y soy de los que no aguanto ni lo más mínimo el tearing. Supongo que a esos niveles de refresco, teniendo más cantidad de frames, es mucho más difícil que se produzca. No puedo decirte exactamente porqué, pero te aseguro que mientras el framerate es estable, yo no aprecio nada de tearing.


https://www.youtube.com/watch?v=MzHxhjcE0eQ

Si cuela cuela y si no me la pela xD


No, no me la pela. No lo contrasté porque sigue sin merecerme la pena. Disculpe usted. De todas formas no he dicho nada falso, el gsync añade en torno a 2/4 ms. Inapreciables, sí. Pero ahí están. XD


Como cualquier método de sincronismo nuevo o viejo. Tienes que elegir entre eso o el tearing.
Yo después de una década también se me hacen cortos ya, a ver si cuando salga la serie 2000 de Nvidia puedo agenciarme una 1089ti por unos 600 y ya tengo GPU para 5 años más XD
ramulator escribió:
mocelet escribió:
ramulator escribió:La verdad es que para el 4K solvente aún nos faltan unos años... Años suficientes como para asegurar la supervivencia de esa 960 durante años.


Jeje, con una 1070/1080 ya podría renderizar el Forza a 4K/60fps que se ve de fábula en mi tele aunque sea 1080p, años luz respecto de renderizar a 1080p con filtros AA (solo el MSAAx8 se le acerca en calidad y probablemente incluso sea más costoso que aumentar la resolución). Igual hay que bajar alguna opción de configuración de esas que exige mucho a la tarjeta pero apenas se nota visualmente.

Comentaba el tema del downsampling porque según tu post no es tanto problema de la resolución del monitor (dices que con AA mejora aunque pierde nitidez) sino de, precisamente, el detalle conseguido. Y el detalle haciendo downsampling no lo pierdes porque cada pixel es mucho más fiel a la realidad.

Esta misma estrategia es de hecho la de Xbox One X, en teoría incluso en pantallas 1080p va a verse mucho mejor porque prescindirá de AA y hará downsampling desde 4K o alguna resolución dinámica alta.

Es una cuestión de explotar el monitor o no. Evidentemente si buscas otras cosas como gsync, más refresco, etc. sí merece la pena cambiarlo, pero solo por la resolución no creo porque el detalle viene de la mano de la resolución a la que renderizas, no tanto del dispositivo salvo que puedas ver los pixeles por estar muy cerca.


Estoy completa y absolutamente de acuerdo contigo. Yo principalmente quiero saltar por el tema del Freesync o GSync, ya que a parte de darme por culo el tearing, soy muy maniático con el framerate, lo tengo capado a 60fps y es un puto suplicio que en Battlefield 1 tenga pequeñas caídas a 58fps, y Forza Horizon 3, y Rise of the Tomb Raider... Y se nota tela, pero eso el GSync me lo quitaría de encima.

Pero en lo que coincido contigo es en el tema de que la resolución de renderizado es mucho más importante que la del panel. Hay mucha gente que me dice que en una pantalla 1080 no van a notar los juegos 4K, y siempre les expongo lo mismo: Llevas toda la vida tragándote bullshots de juegos que lucen acojonantes, y la mayor virtud que tienen para ser tan nítidos es estar renderizados a resoluciones superiores a la que juegas, partiendo del 4K. Les digo que se imaginen jugar con esa calidad de imagen en movimiento, creo que es la forma más sencilla de explicarles el cambio.

yo voy sin Gsync y ya ves tú. De verdad que lo veo todo genial.
Que seguro que mejora con ello, pero vamos, no creo que sea algo tan tan importante a mi parecer.
Yo en mi parecer, hasta hace poco jugaba con un 'tipico monitor' 22" FullHD Led de 60hz , y era el tio mas feliz del planeta. Ahora estoy con un Acer Predator 24" FullHD 144hz, y sinceramente, con que vaya fluido sin rascadas ni tirones, me doy con un canto en los dientes, porque en la mayoria de los juegos que yo uso (Titanfall2, NFS, WoW Legion) a veces no me da tiempo ni a mirar los efectos ni paisajes mas allá de lo que esté enfocado, lo demas si que , queda bonito, pero me la suda porque no me da tiempo a fijarme el 90% del tiempo xD

Con esto quiero decir, que el detalle esta muy bien en las situaciones que te permiten deleitarte del entorno y detalle grafico del juego, pero que tanto detalle sin la fluidez de que define al PC(MasterRace xD), simplemente te quedarias con una bonita consola xD La tipica PS4PRO y XBOX-X , que 'pueden mover' juegos a 4k.......

Asi que, o tiramos de SLI con lo mas potente que haya en el mercado en el momento, o hay que elegir entre detalle o fluidez. Y yo, para ver 'cuadros bonitos', me voy a Google o a un museo [qmparto]
18 respuestas