Battlefield V revela sus requisitos, incluyendo los necesarios para DirectX Raytracing

Electronic Arts y DICE siguen quemando etapas de cara al lanzamiento de Battlefield V previsto para el 20 de noviembre. En esta ocasión la compañía ha publicado en Reddit los requisitos de hardware que deberán cumplir los jugadores de Windows PC, con el atractivo añadido de revelar el equipo necesario para activar DirectX Raytracing (DXR) o trazado de rayos, tecnología que abandera Nvidia con las nuevas GeForce RTX.

Requisitos mínimos
  • SO: Windows 7, Windows 8.1 o Windows 10 (64-bit)
  • Procesador: AMD FX-8350 o Intel Core i5 6600K
  • Memoria: 8 GB RAM
  • Tarjeta gráfica: Nvidia GeForce GTX 1050 / 660 2GB o AMD Radeon RX 560 / 7850 2GB
  • Almacenamiento: 50 GB de espacio disponible
Requisitos recomendados
  • SO: Windows 10 (64-bit)
  • Procesador: AMD Ryzen 3 1300X o Intel Core i7 4790
  • Memoria: 12 GB RAM
  • Tarjeta gráfica: Nvidia GeForce GTX 1060 6GB o AMD Radeon RX 580 8GB
  • Almacenamiento: 50 GB de espacio disponible
Requisitos para DirectX Raytracing (DXR)
  • SO: Windows 10 October 2018 Update (64-bit)
  • Procesador: AMD Ryzen 7 2700 o Intel Core i7 8700
  • Memoria: 16 GB RAM
  • Tarjeta gráfica: Nvidia GeForce RTX 2070
  • Almacenamiento: 50 GB de espacio disponible
Los jugadores de Windows PC que sean suscriptores de Origin Access Premier podrán acceder a la versión completa de Battlefield V a partir del 9 de noviembre, mientras que los de Origin Access Basic y EA Access (Xbox One) tendrán a su disposición una prueba de 10 horas a partir de esta misma fecha. En caso de reservar la Battlefield V Deluxe Edition en cualquier plataforma se podrá empezar a jugar el 15 de noviembre. El 20 de noviembre, fecha de lanzamiento oficial, se abrirá el juego para todos los que hayan adquirido la edición estándar.

La hoja de ruta de Battlefield V indica que el título empezará a recibir contenido poslanzamiento a partir de diciembre. El principal añadido que recibirá el juego desarrollado por DICE en sus primeros meses será el modo battle royale Firestorm (Tormenta de fuego) previsto para marzo.
Es curioso, con RTX piden más ram y MUUUCHA más CPU.
A mas de uno le va a explotar la patata cuando vea su i7 al lado de un ryzen 3 xD
Lo siento chicos pero no dejan de ser un 4 cores.

Augias escribió:Es curioso, con RTX piden más ram y MUUUCHA más CPU.


La verdad es que todo el tema del RTX es muy incierto aun porque aun no se han puesto de acuerdo para decidir que a que.
Seguramente durante el primer o dos primeros años veamos requisitos muy dispares y al igual que este te pide una 2070 y mucho micro otros te pedirán mínimo la 2080ti y poco micro.
Augias escribió:Es curioso, con RTX piden más ram y MUUUCHA más CPU.


Aquí es donde entra en juego el "moaaar cores". Frostbite es un motor que escala muy bien con más núcleos.

Lo realmente raro es que suban de un 4/4 AMD y 4/8 Intel en recomendados a 8/16 AMD y 6/12 Intel recomendados DXR.

De todas lo gracioso del tema es que te pidan una GPU de más de 500€ para probablemente no poder jugar con soltura a 1080p.
Tiene pinta de que están usando cores extras para ayudar al Ray tracing y asi no pedir una 2080 Ti. Camuflar el tema de que van justas en rayos.
Orestes escribió:
Augias escribió:Es curioso, con RTX piden más ram y MUUUCHA más CPU.


Aquí es donde entra en juego el "moaaar cores". Frostbite es un motor que escala muy bien con más núcleos.

Lo realmente raro es que suban de un 4/4 AMD y 4/8 Intel en recomendados a 8/16 AMD y 6/12 Intel recomendados DXR.

De todas lo gracioso del tema es que te pidan una GPU de más de 500€ para probablemente no poder jugar con soltura a 1080p.

Que cpu vale 500 euros? Porque el 8700 está ahora mismo a 390 euros en amazon y el 2700 299.
Ojo que el i7 está super subido de precio pero 500 no es verdad ni si quiera para el 8700k y no es el que pide.
@adriano_99 En ningun momento ha dicho CPU sino GPU.

Saludos
Augias escribió:Tiene pinta de que están usando cores extras para ayudar al Ray tracing y asi no pedir una 2080 Ti. Camuflar el tema de que van justas en rayos.


Los motivos que hagan que necesite mas CPU no lo se, pero si crees que parte del trabajo de Raytracing se lo estan dejando a la CPU no conoces muy bien el tema.

Ni un threadripper se acercaria en terminos de potencia a lo que un solo RT core puede hacer.

Si le hacen offload a la cpu el juego ira a 1 fps, piensa que incluso cualquier juego de hace 10 años incluso si quisiera ser renderizarado en una CPU moderna iria de risa, imaginate si dejamos que una CPU haga RT.
AlbertX escribió:
Augias escribió:Tiene pinta de que están usando cores extras para ayudar al Ray tracing y asi no pedir una 2080 Ti. Camuflar el tema de que van justas en rayos.


Los motivos que hagan que necesite mas CPU no lo se, pero si crees que parte del trabajo de Raytracing se lo estan dejando a la CPU no conoces muy bien el tema.

Ni un threadripper se acercaria en terminos de potencia a lo que un solo RT core puede hacer.

Si le hacen offload a la cpu el juego ira a 1 fps, piensa que incluso cualquier juego de hace 10 años incluso si quisiera ser renderizarado en una CPU moderna iria de risa, imaginate si dejamos que una CPU haga RT.


Pues eso Nvidia se lo tenía callado, pero las llamadas a la gpu son mas intensas, habrá que ver los minimos a rtx. Algunos somos muy viejos y ya hemos visto aceleradoras de physx y la gente se llevaba las manos a la cabeza porque valian 200 euros xD. AMD podria en un futuro meter tradado de rayos en sus gpus y cpus..que para eso esta dx 12 y rt de MS. No se creo por lo visto, que les va a costar sacarle partido, sobre todo min 600 euros de gpu para unos reflejos... le veo mas utilidad para renders no en tiempo real y sector profesional.
Y recordad la posible ventaja que pueda tener ejecutar el juego con RT y ver a tu enemigo por el reflejo de algún charco, cristal, o superficie antes de doblar la esquina.
nanduelo escribió:Y recordad la posible ventaja que pueda tener ejecutar el juego con RT y ver a tu enemigo por el reflejo de algún charco, cristal, o superficie antes de doblar la esquina.

y todo eso a 25 fps xd
Si porque los reflejos normales se los cargaron. Yo en el forza veo todo ei mapa reflejado en el coche en un hardware de 100 euros .. La demo del BF rtx on off daba vergüenza ajena ..
sanamarcar escribió:Si porque los reflejos normales se los cargaron. Yo en el forza veo todo ei mapa reflejado en el coche en un hardware de 100 euros .. La demo del BF rtx on off daba vergüenza ajena ..


Y tienes toda la razón, con lo eficiente que es el código "moderno" en juegos la verdad... todo a punta a que los tiempos sean mas justos y por esos los desarrolladores quieran tener herramientas faciles para tener reflejos.

Es bien facil verlo hoy en día, un juego en calidad minima le qutan varios efectos de iluminacion y sombras, te quedas con lo que es la textura tal cual, pero pues antes los juegos buscaban la manera de verse bien sin todos esos efectos y hasta en minimo se tenía una experiencia decente.
AlbertX escribió:
Augias escribió:Tiene pinta de que están usando cores extras para ayudar al Ray tracing y asi no pedir una 2080 Ti. Camuflar el tema de que van justas en rayos.
Ni un threadripper se acercaria en terminos de potencia a lo que un solo RT core puede hacer.


Ehhh, no. No nos pasemos.
AlbertX escribió:
Augias escribió:Tiene pinta de que están usando cores extras para ayudar al Ray tracing y asi no pedir una 2080 Ti. Camuflar el tema de que van justas en rayos.


Los motivos que hagan que necesite mas CPU no lo se, pero si crees que parte del trabajo de Raytracing se lo estan dejando a la CPU no conoces muy bien el tema.

Ni un threadripper se acercaria en terminos de potencia a lo que un solo RT core puede hacer.

Si le hacen offload a la cpu el juego ira a 1 fps, piensa que incluso cualquier juego de hace 10 años incluso si quisiera ser renderizarado en una CPU moderna iria de risa, imaginate si dejamos que una CPU haga RT.


Puede que raytracing necesite muchas mas call draws, y de ello necesiten mas CPU. Que los cálculos del RayTracing los haga la GPU, no quiere decir, que sea totalmente CPU free.
AlbertX escribió:
Ni un threadripper se acercaria en terminos de potencia a lo que un solo RT core puede hacer.



Que buen marketing el de nvidia verdad? al lado o puesto, yo te diría que ningun rt core puede hacer lo que un core de threadripper fuera de raytracing.

y otra cosa:

https://stackoverflow.com/questions/38029698/why-do-we-use-cpus-for-ray-tracing-instead-of-gpus


Don't believe the hype, ray tracing with GPUs is not an obvious win over CPU. GPUs are great at highly coherent work (doing the same things to lots of data at once). Ray tracing is very incoherent (each ray can go a different direction, intersect different objects, shade different materials, access different textures), and so this access pattern degrades GPU performance very severely. It's only very recently that GPU ray tracing could match the best CPU-based ray tracing code, and even though it has surpassed it, it's not by much, not enough to throw out all the old code and start fresh with buggy fragile code for GPUs. And the biggest, most expensive scenes are the ones where GPUs are only marginally faster. Being lots faster on the easy scenes is not really important to us.
sanamarcar escribió:Si porque los reflejos normales se los cargaron. Yo en el forza veo todo ei mapa reflejado en el coche en un hardware de 100 euros .. La demo del BF rtx on off daba vergüenza ajena ..


Es la diferencia entre iluminación en tiempo real e iluminación precocinada. Forza está optimizado para que corra decentemente en una mierda de hardware como la Xbox One base. Además, comparar juegos que no tienen absolutamente nada que ver en nada no tiene sentido. BFV no da vergüenza ajena sin RTX, para nada. Al revés. Lo que pasa es que con RTX se ve jodidamente espectacular, esa es la diferencia.

Al RTX en tiempo real aún le queda camino y ver dónde los devs optimizan y usan el hardware así como más de una generación de GPUs al respecto. De todas formas, las consolas seguirán llevando un gran peso en la industria. Las sucesoras de las actuales no van a soportar RTX ni de coña así que por unos cuántos años va a seguir siendo "un lujo" para los que se lo puedan permitir y algo que no todos los devs en sus desarrollos meterán. Seguramente en los que Nvidia meta la nariz y ponga algo de dinero.
Raugo escribió:@adriano_99 En ningun momento ha dicho CPU sino GPU.

Saludos

Cierto, he leído mal.
Mea culpa.


Derp escribió:
sanamarcar escribió:Si porque los reflejos normales se los cargaron. Yo en el forza veo todo ei mapa reflejado en el coche en un hardware de 100 euros .. La demo del BF rtx on off daba vergüenza ajena ..


Es la diferencia entre iluminación en tiempo real e iluminación precocinada. Forza está optimizado para que corra decentemente en una mierda de hardware como la Xbox One base. Además, comparar juegos que no tienen absolutamente nada que ver en nada no tiene sentido. BFV no da vergüenza ajena sin RTX, para nada. Al revés. Lo que pasa es que con RTX se ve jodidamente espectacular, esa es la diferencia.

Al RTX en tiempo real aún le queda camino y ver dónde los devs optimizan y usan el hardware así como más de una generación de GPUs al respecto. De todas formas, las consolas seguirán llevando un gran peso en la industria. Las sucesoras de las actuales no van a soportar RTX ni de coña así que por unos cuántos años va a seguir siendo "un lujo" para los que se lo puedan permitir y algo que no todos los devs en sus desarrollos meterán. Seguramente en los que Nvidia meta la nariz y ponga algo de dinero.

Yo creo que el Ray tracing lo veremos en consola con la ps5 pro y lo que saque MS, ahí se empezará a ver más.
Y para la ps6 será casi un estándar al menos en triples A.
indigo_rs está baneado por "saltarse el ban con un clon"
Ray Tracing para mi por favor.
Derp escribió:
sanamarcar escribió:Si porque los reflejos normales se los cargaron. Yo en el forza veo todo ei mapa reflejado en el coche en un hardware de 100 euros .. La demo del BF rtx on off daba vergüenza ajena ..


Es la diferencia entre iluminación en tiempo real e iluminación precocinada. Forza está optimizado para que corra decentemente en una mierda de hardware como la Xbox One base. Además, comparar juegos que no tienen absolutamente nada que ver en nada no tiene sentido. BFV no da vergüenza ajena sin RTX, para nada. Al revés. Lo que pasa es que con RTX se ve jodidamente espectacular, esa es la diferencia.

Al RTX en tiempo real aún le queda camino y ver dónde los devs optimizan y usan el hardware así como más de una generación de GPUs al respecto. De todas formas, las consolas seguirán llevando un gran peso en la industria. Las sucesoras de las actuales no van a soportar RTX ni de coña así que por unos cuántos años va a seguir siendo "un lujo" para los que se lo puedan permitir y algo que no todos los devs en sus desarrollos meterán. Seguramente en los que Nvidia meta la nariz y ponga algo de dinero.


El fuego con rtx daba vergüenza ajena y sin rtx ya no habia nada xD. Y casi todas las demos, por lo que he leido en muchos foros entendidos ha dejado muy frio al personal. Estamos hablando de graficas de 600 euros, a falta de confirmar con pruebas ya que Windows esta verde y los juegos por salir, de 1080 a 30, pero pongamoles el doble 60 fps. Es mucho esfuerzo para tan poca recompensa.

Yo fui el que jugue a Batman con dos graficas una AMD como GPU y una nvidia como PhysX y bueno estuvo gracioso, pero no cundia ni de coña tanto esfuerzo.. para añadidos estéticos. Ademas el trazado de rayos no se puede traducir a jugabilidad,cuando casi nadie puede activarlo. Estas GPUs creo que fueron pensadas para 7 nm y lo veo muy metido a calzador. Y en el caso hipotetico que en Call of Duty 10 se viese bien, sinceramente la saga deberia estar ya quemada... De todas formas hasta que salga, no podremos valorarlo en su medida.

PD: El hardware la ONE no es una M, para lo que cuesta en la actualidad diría que es el mejor calidad precio con mucha diferencia. Otra cosa que donde este una rx 570 con una cpu cutre puedes con todo en full hd calidad muy alta.. El Forza luego de bastante benchmark y probado en 5 graficas y 3 procesadores, puedo decir que es un juego muy muy bien hecho. Algunos problemas de estabiliad con drivers, pero que escala exquisito con GPU y CPU. Desde 900p y 40 Hz con un i3 y r7 260 hasta Full HD a 100 Hz en alto con ryzen con RX 470...
otra vez poniendo requisitos fake para que compren graficas y tarjetas ram.. jaja
@Arceles ??? Por supuesto que un Threadripper puede hacer mucho mas que una GPU, son chips con capacidades diferentes cada una.

Por alguna mi 1050ti es capaz de minar criptomonedas mas rapido que mi ryzen 1700 mi 6700 y mi g4560 juntos.

No veo a donde quieres llegar.

Sobretodo con un articulo que habla de Calculo de Ray Tracing con GPU no con los RT core, ese articulo tiene 2 años y medio de haber salido, aqui se habla de un hardware ESPECIAL para RT, por algo no se habia implementado antes Raytracing en los juegos, era sumamente lento fuera con CPU o GPU.

Mira la respuesta de cuando es: answered Jun 26 '16 at 0:25

Luego la explicacion es mas compleja, pero lo unico que hace es apoyar mi teoria, descargar trabajo del juego en tiempo real a una CPU para raytrace solo haria que el rendering fuera de 1fps o menos por segundo, CPU es muy lento, no tiene sentido o ya lo estarian haciendo.

@Juan_Garcia Eso tiene mucho mas sentido y podria ser el motivo, teniendo que hacer las draw calls de elementos que ni siquiera estan en pantalla podria ser el motivo de la mayor necesidad de CPU, pues le tocaria calcular la posicion de esos elementos que aunque no se renderizan directamente pues el Raytracing debe calcular.

@Orestes Lo que Hardware especializado para ciertas tareas puede hacer comparado a una CPU es brutalmente superior, algo tan simple como minar por ejemplo, una 1050TI destruye en muchos algoritmos a mis 3 cpu juntos. un Ryzen 1700 un i76700 y un g4560
@sanamarcar comparar el raytracing con la puta mierda de physx no tiene sentido. Y sí, la One basica en su día fue una mierda, ahora es peor y lastra a One X.

Raytracing se puede usar de ventaja jugable como el que usa un ratón bueno, una resolución mayor o un refresco de pantalla mayor que otro usuario. Los que tengan una pantalla de 144hz y la aprovechen ya están en ventaja frente a los que jueguen a 60. De hecho está sucediendo en consolas, los usuarios de One en juegos competitivos muchas veces están en inferioridad frente a los usuarios de X por el tema de la resolución.

De todas formas, no entiendo las quejas. En algún momento hay que introducir las mejoras mirando al futuro. Los early adopters siempre han pagado más y las cosas se van puliendo y abriendo al resto. Insisto que al raytracing en tiempo real le queda camino. Pero están en ello.
@Derp Lo mas curioso es que los que menos nos quejamos del tema somos justamente los early adopter, siempre se quejan mas los que no pretenden ni comprar el producto
@AlbertX Lo sé. Soy aficionado al diseño 3D y conozco el rendimiento de cada dispositivo a la hora de renderizar. Por eso digo que un solo núcleo RT en la vida le gana a un TR 2950X por ejemplo.

La RTX 2080 Ti tiene 68 de estos núcleos y te garantizo que no es ni de lejos 68 veces más potente que un TR 1950X. Ni 34, ni 17 tampoco.

EDIT: Por ponerlo en perspectiva una GTX 1080 Ti es un pelín más lenta en general que un TR 1950X en Blender Cycles y pese a las mejoras de Turing lo que publicita Nvidia en cuanto a rendimiento es sólo en el mejor escenario.

Si tuviese que hacer alguna predicción diría que en cuanto a rendimiento una RTX 2080 Ti será entre dos y cuatro veces más rápida que un TR 2950X en general y unas diez en escenas extremadamente sencillas. Luego está el tema de que por mucho NVLink que publiciten el renderizado por GPU va a estar siempre limitado por la VRAM de las tarjetas.
Lo del 8700 como requerimiento mínimo para el Ray tracing no es una rallada? Es decir que no sólo has de poseer una RTX sino también la última generación de procesadores...
Llevo en el mundo del 3D desde finales de los 80 ... y puedo asegurar hoy dia que el RT esta pensado sencillamente para justificar el coste de una grafica de 1250 euros en adelante ... dando como resultado un aspecto "molon" pero que nada tiene que ver con un RT de verdad.

Realmente esto es una justificacion de potencia, no una necesidad real. Y lo mismo que realiza el RT se puede hacer perfectamente sin RT, solo que es algo que querian introducir lo antes posible para que dentro de unos años, se vea claraamente la necesidad de plantear sistemas SLI sin que los costes por tarjeta tuvieran que reducirse (justo lo que ha pasado).
Yo tengo un i5 2500k y jugué a la beta perfectamente..

al poner minimo un 6600 quiere decir que no me arrancará el juego?
Estos de Ea pidiendo el Windows 10 October Update, y los de microsoft sin tener lista esa actualización por sus deslices de instalación............microsoft debería dejarse de estupideces de actualizaciones semestrales.
Edy escribió:Llevo en el mundo del 3D desde finales de los 80 ... y puedo asegurar hoy dia que el RT esta pensado sencillamente para justificar el coste de una grafica de 1250 euros en adelante ... dando como resultado un aspecto "molon" pero que nada tiene que ver con un RT de verdad.

Realmente esto es una justificacion de potencia, no una necesidad real. Y lo mismo que realiza el RT se puede hacer perfectamente sin RT, solo que es algo que querian introducir lo antes posible para que dentro de unos años, se vea claraamente la necesidad de plantear sistemas SLI sin que los costes por tarjeta tuvieran que reducirse (justo lo que ha pasado).

Para llevar tantos años en el 3D no tienes ni puta idea porque hay ciertos tipos de reflejos que no se pueden hacer con la rasterizacion por su dependencia de la cámara.
Ah y nvidia nunca ha necesitado para para justificar graficas de 1250 euros, ahí estan las titan desde hace años.

Baldur escribió:Yo tengo un i5 2500k y jugué a la beta perfectamente..

al poner minimo un 6600 quiere decir que no me arrancará el juego?

Quiere decir que vas a tener cuello de botella con pràcticament la gráfica que le pongas.
Lo cual es totalmente normal con un quad core sin hypertrhearing de hace tantos años.
@adriano_99

Me puedes explicar tu que sabes tanto, como se realiza el proceso de reflexion anterior a la utilizacion del RT campeon? O es que resulta que antes del RT no existian las reflexiones? manda cojones ....

Y las TITAN son graficas vitaminadas que vienen directamente de modelos de referencia de las gamas altas de las QUADRO ... destinadas a los chavales que se pueden permitir pagar por graficas innecesarias.

Continuamos diciendo polleces?
Pintaza, pero ahora con el RDR2 voy a tener para meses..... jaja, cuando baje de precio caerá, la historia del 1 me encantó, y sus gráficos.
No se si me lo pillare para la PS4 o pc, pero a pc llego casi a ras....
Edy escribió:@adriano_99

Me puedes explicar tu que sabes tanto, como se realiza el proceso de reflexion anterior a la utilizacion del RT campeon? O es que resulta que antes del RT no existian las reflexiones? manda cojones ....

Y las TITAN son graficas vitaminadas que vienen directamente de modelos de referencia de las gamas altas de las QUADRO ... destinadas a los chavales que se pueden permitir pagar por graficas innecesarias.

Continuamos diciendo polleces?

Antes de la rasterización se utilizaba "Per-pixel lighting" donde se decidía si recibía o no cada pixel de la pantalla. Los reflejos estaban creados de la forma ams bruta posible y era creando una copia girada del entorno a reflejar.
Lo cual sería obviamente una puta locura de usar en juegos de hoy en dia dada la complejidad de escenarios y personajes.
Luego tenemos los reflejos pro texturas dinámicas respecto a una cámara posicionada que coge fotos de lo que ve y las incrusta en tiempo real.
Esto no sólo genera reflejos menos definidos ( porque tiene que hacer una captura y cambiar la textura con ella lo suficientemente rápido) sino que entra con conflicto con los métodos modernos para ahorrar costes en que lo que nuestra cámara no está bien pierde casi todo el detalle o incluso no se carga. Ademas tampoco funciona en superficies con cierta curvatura.

Así que no, no puedes simplemente venir, decir que llevas muchos años en el mundillo y en base a eso justificar una soberana mentira que has dicho.
y puedo asegurar hoy dia que el RT esta pensado sencillamente para justificar el coste de una gráfica de 1250 euros en adelante

Es que ni si quiera el ray tracing es una invención de envidia lo único que han hecho es permitir usarlo en tiempo real pero lleva existiendo décadas y decir que no es mejor tanto en fidelidad de imagen como en lograr cualquier reflejo en cualquier superficie es o mentir deliberadamente o no tener ni idea de lo que se habla.
Por cierto, sólo la primera titan era una quadro capada, el resto salvo la titan v sólo tenían núcleos enfocados al gaming.
@Edy Pues lo dicho por
adriano_99 escribió:
Edy escribió:@adriano_99

Me puedes explicar tu que sabes tanto, como se realiza el proceso de reflexion anterior a la utilizacion del RT campeon? O es que resulta que antes del RT no existian las reflexiones? manda cojones ....

Y las TITAN son graficas vitaminadas que vienen directamente de modelos de referencia de las gamas altas de las QUADRO ... destinadas a los chavales que se pueden permitir pagar por graficas innecesarias.

Continuamos diciendo polleces?

Antes de la rasterización se utilizaba "Per-pixel lighting" donde se decidía si recibía o no cada pixel de la pantalla. Los reflejos estaban creados de la forma ams bruta posible y era creando una copia girada del entorno a reflejar.
Lo cual sería obviamente una puta locura de usar en juegos de hoy en dia dada la complejidad de escenarios y personajes.
Luego tenemos los reflejos pro texturas dinámicas respecto a una cámara posicionada que coge fotos de lo que ve y las incrusta en tiempo real.
Esto no sólo genera reflejos menos definidos ( porque tiene que hacer una captura y cambiar la textura con ella lo suficientemente rápido) sino que entra con conflicto con los métodos modernos para ahorrar costes en que lo que nuestra cámara no está bien pierde casi todo el detalle o incluso no se carga. Ademas tampoco funciona en superficies con cierta curvatura.

Así que no, no puedes simplemente venir, decir que llevas muchos años en el mundillo y en base a eso justificar una soberana mentira que has dicho.
y puedo asegurar hoy dia que el RT esta pensado sencillamente para justificar el coste de una gráfica de 1250 euros en adelante

Es que ni si quiera el ray tracing es una invención de envidia lo único que han hecho es permitir usarlo en tiempo real pero lleva existiendo décadas y decir que no es mejor tanto en fidelidad de imagen como en lograr cualquier reflejo en cualquier superficie es o mentir deliberadamente o no tener ni idea de lo que se habla.
Por cierto, sólo la primera titan era una quadro capada, el resto salvo la titan v sólo tenían núcleos enfocados al gaming.


Vamos que el que parece que no ha leido lo suficiente en RTX eres tu @Edy y eso que trabajas en ello... que obviamente tampoco tiene nada que ver... pq hay mucha gentente trabajando en ciertos puestos y no quiere decir que lo sepan todo o siquiera que sean buenos en su trabajo... vease tu ejemplo... [toctoc] [fumando]
¿Estas especificaciones técnicas y requisitos bajarán más aun las pre-reservas del juego?
Que le den al RTX, esto es el cuento de la lechera.
Siempre son mínimos recomendados o máximos recomendados y no hay que darle mas vueltas. Si es verdad que de aqui a un años o dos , algun procesador quitaran de la lista para que arranque algun juego
Lo más gracioso de todo es que sólo unos cuantos objetos van a usar rt y para ver reflejitos piteros a los cuales ni vas a prestar atención a la hora de jugar, es un chiste el costo ridículo de las rtx.
y que pasa que teniendo un i7 6700k y una rtx 2080ti no me correria bien el juego a 60 o 70 fps a 2k con la configuración al maximo?
Orestes escribió:
Augias escribió:Es curioso, con RTX piden más ram y MUUUCHA más CPU.


Aquí es donde entra en juego el "moaaar cores". Frostbite es un motor que escala muy bien con más núcleos.

Lo realmente raro es que suban de un 4/4 AMD y 4/8 Intel en recomendados a 8/16 AMD y 6/12 Intel recomendados DXR.

De todas lo gracioso del tema es que te pidan una GPU de más de 500€ para probablemente no poder jugar con soltura a 1080p.

A qué gpu re refieres?
AAAAEEEE escribió:
Orestes escribió:
Augias escribió:Es curioso, con RTX piden más ram y MUUUCHA más CPU.


Aquí es donde entra en juego el "moaaar cores". Frostbite es un motor que escala muy bien con más núcleos.

Lo realmente raro es que suban de un 4/4 AMD y 4/8 Intel en recomendados a 8/16 AMD y 6/12 Intel recomendados DXR.

De todas lo gracioso del tema es que te pidan una GPU de más de 500€ para probablemente no poder jugar con soltura a 1080p.

A qué gpu re refieres?


A una RTX 2070 obviamente.
Orestes escribió:
AAAAEEEE escribió:
Orestes escribió:
Aquí es donde entra en juego el "moaaar cores". Frostbite es un motor que escala muy bien con más núcleos.

Lo realmente raro es que suban de un 4/4 AMD y 4/8 Intel en recomendados a 8/16 AMD y 6/12 Intel recomendados DXR.

De todas lo gracioso del tema es que te pidan una GPU de más de 500€ para probablemente no poder jugar con soltura a 1080p.

A qué gpu re refieres?


A una RTX 2070 obviamente.

Pues entonces revisa tus fuentes. No hace falta esa gráfica para jugar a 1080.
AAAAEEEE escribió:
Orestes escribió:
AAAAEEEE escribió:A qué gpu re refieres?


A una RTX 2070 obviamente.

Pues entonces revisa tus fuentes. No hace falta esa gráfica para jugar a 1080.


Con DXR sí.
43 respuestas