Rendimiento DirectX 12 y API PS4

darksch escribió:Si piensas eso es que no lo has entendido. Porque no concuerda ni una sola.

Lo bueno de un foro es que la gente que entiende como funciona algo le explique a la que está equivocada por qué está equivocada y por qué lo que ellos dicen es lo correcto. Al menos es como yo lo veo.

Según este artículo:

http://www.zdnet.com/article/amd-aims-to-simplify-gpgpu-programming-with-hsa-and-huma/

Cuando haces gpgpu, la cpu y la gpu tienen diferrentes espacios de la memoria asignados y eso hace que tengas que andar pasando datos de un espacio a otro según quieras tratarlos con la gpu o con la cpu.

El HSA lo que hace es quitar esa división de manera que tanto cpu como gpu pueden acceder a todos los datos y así facilitar el reparto de procesos.
HSA es la FUSION de CPU y GPU, lo q lleva buscando AMD desde q desarrolló la primera APU (advanced processor unit).

No hay GPU y CPU como tal (físicamente sí, pero para el desarrollador no). La APU gestiona cuando usa la GPU y la CPU, dependiendo de la tarea a realizar.

Por eso AMD habla de 12 compute cores en kavery. 4 cores de CPU + 8 cores de GPU.

El software llegará, el HSA es el siguiente paso evolutivo en CPUs.
Szasz escribió:HSA es la FUSION de CPU y GPU, lo q lleva buscando AMD desde q desarrolló la primera APU (advanced processor unit).

No hay GPU y CPU como tal (físicamente sí, pero para el desarrollador no). La APU gestiona cuando usa la GPU y la CPU, dependiendo de la tarea a realizar.

Por eso AMD habla de 12 compute cores en kavery. 4 cores de CPU + 8 cores de GPU.

El software llegará, el HSA es el siguiente paso evolutivo en CPUs.

¿Y hay alguna gráfica que muestre como varía el rendimiento entre gpgpu normal y HSA?
Porque las palabras, y los acrónimos, se los lleva el viento.
Yo veo también las APUs como el futuro de las CPUs, pero precisamente por eso veo que una GPU dedicada nunca va a poder sustituirse por una APU, y más bien la GPU de la APU podrá encargarse de parte del GPGPU dejando a la GPU dedicada más espacio para gráficos.

De hecho las diapositivas esas de AMD es precisamente lo que plantean, y por eso no tiene sentido HSA en consolas, ya que se podría decir que todo el GPGPU que se hace en consolas ya cuenta con las ventajas de HSA.

De todas formas el HSA en PC no creo que despegue hasta que Intel le de soporte, ya que copan 2/3 del mercado de CPUs de escritorio. Y hasta entonces su uso se limitará a lo anecdótico.
@David Ricardo de momento creo que solo esto:

Imagen
http://www.tomshardware.com/reviews/amd-a10-7800-kaveri-apu-efficiency,3899-5.html

Szasz escribió:No hay GPU y CPU como tal (físicamente sí, pero para el desarrollador no).

Y como es de cara al programador ? Tienes algún codigo fuente de ejemplo ?

josemurcia escribió:Yo veo también las APUs como el futuro de las CPUs, pero precisamente por eso veo que una GPU dedicada nunca va a poder sustituirse por una APU, y más bien la GPU de la APU podrá encargarse de parte del GPGPU dejando a la GPU dedicada más espacio para gráficos.

+1

Para sistemas de gama baja/media podría valer con la APU, pero para sistemas de gama alta, le metes una pedazo de GPU discreta ...

josemurcia escribió:Volvemos a lo de siempre, HSA no parece ser de ninguna utilidad en consolas, donde ya se supone que cada parte hace lo que mejor sabe hacer y la memoria es compartida.

Las físicas ya las hacen con GPGPU ? Sony en el SDK 2.0 saco un API de fisicas para la PS4, pero no he leido nada de que alguien lo haya usado ...

Mulzani escribió:Luego, resulta que el principal software que puede aprovecharse actualmente de HSA pertenece a tu competencia, es decir, dos de los motores de físicas con más licencias pertenecen a Nvidia, con PhysX, y a Intel, con Havok.

En eso tienes razón. Lo ideal sería que nadie usase HSA directamente, sino OpenCL 2.1 (OpenCL -> SPIR-V -> HSAIL), y en un futuro si Intel saca algo parecido a HSA, una vez que Intel o el Chronos group saque un compilador de SPIR-V para eso, los motores de fisicas y demas aplicaciones GPGPU funcionarian sobre la nueva plataforma.

Lo que no se es si DX12 tiene algo parecido para usar GPGPU.
No, no tengo info del desarrollo en HSA, es un poco especulación por lo q he ido leyendo sobre el HSA, q el objetivo es facilitar el trabajo al desarrollador.

Y con el tema de las GPUs dedicadas, no es incompatible, para eso estará el multiadapter de Dx12, para q la igp ayude en algunas tareas y no tenerla desactivada como ahora.
Creo que todos los últimos post lo explican bastante bien. Ya he repetido muchas veces que va todo junto y que deja de existir esa separación, es que ya no sé como ponerlo de más formas distintas.

Aparte de no tener que copiar, añade que no están aislados, y lo que significa. Tanto que lo que ve uno lo ve el otro, como no necesitar (y muchas veces no es posible, de ahí el fracaso actual del GPGPU entre otras) hacer una versión 100%-paralela de los algoritmos. Los procesos en paralelo perjudican enormemente a la CPU, los en serie a la GPU, si tengo un proceso parte en serie parte en paralelo pues cada parte a donde mejor le vaya, del mismo proceso.

El GPGPU actual es, o lo ejecuta todo la CPU, o todo la GPU. No hay punto medio.
Szasz escribió:No, no tengo info del desarrollo en HSA, es un poco especulación por lo q he ido leyendo sobre el HSA, q el objetivo es facilitar el trabajo al desarrollador.

Yo es que en ese sentido si que creo que AMD nos esta vendiendo la moto, y que de momento va a ser complicadillo de usar ... dentro de 10 años igual es transparente, pero yo creo que le falta mucho.

Ademas, que la paralezicación automatica no da demasiados buenos resultados. Por ejemplo, una multiplicacion muy tocha de matrices en Matlab, matlab es muy listo y la paraleliza en todos los COREs disponibles de la CPU, pero si resulta que cada CORE tiene su propia cache, la operación tarda mas en 4 COREs que en 1 solo. Esto lo he visto yo con mis ojos, y no creo que haya nada mas facil de paralelizar en el mundo que las operaciones sobre matrices.

No vale con paralelizar las cosas, hay que hacer que sea mas eficiente.
darksch escribió:...

Dices que HSA no es GPGPU, luego coges, pones los quotes con los extractos que te da la gana... y mira, lo primero que pone en la diapositiva:
Imagen

No digas que no es GPGPU cuando ellos mismos hablan que es una evolución y hace uso de la misma. Nace a partir de aquí y de querer usar la GPU como coprocesador SIMD, otra cosa es que no funcione como actualmente funciona la programación sobre GPGPU, ya que consiste en que no se haga la distinción de la CPU de la GPU a la hora de programar y que uno ayude al otro de manera transparente sin tener que hacer colas.

Luego, Intel sí es el mayor vendendor de APUs, otra cosa es que no permitan el uso de HSA ni tengan sus características, pero todos (o casi todos) los procesadores de socket 115x son APUs, y sí, está desarrollando una tecnología similar, al menos en el hecho de compartir la memoria entre la GPU y la CPU de sus APUs y usarlas como SIMD:
http://wccftech.com/article/exploring-a ... d-part-ii/

Y bueno, ya lo último sólo era un ejemplo sobre cómo poder mostrar los beneficios de HSA, si a ti no te parece un buen ejemplo usar un motor de físicas, no sé que hacen ellos indicándolo en sus propias diapositivas como el perfecto ejemplo actual de GPGPU donde HSA podría suponer una gran ventaja, y no me refiero a sólo rendimiento, si no a efectos e interacción, debido a las posibilidades que presenta.

Tienen que hacer algo como cuando se presentó PhysX y las diferencias que existen entre tenerlo activado y usarlo por CPU o usarlo por GPU con los elementos que añadía. Pues coges y creas un motor de físicas que use el tradicional sistema CPU+GPU con aceleración por CPU, otro por GPU, y el mismo usando HSA en una APU compatible o una APU+GPU y muestras las ventajas que supone, pues se supone que permite aumentar el número de elementos, la interacción con éstos al no tener que trabajar entre diferentes espacios y hacerlo de manera uniforme. Y lo vendes. Mientras tanto, HSA se queda en una mera anécdota que sólo sirve para pasar benchmarks.

Por cierto, respecto a los núcleos y no hacer distinciones entre núcleos x86 y CUs, parece que AMD ya no va a ir por ahí y vuelve a indicarlos de manera diferenciada, cosas del márketing.
eloskuro está baneado del subforo por "flames"
A ver... El ha dicho todo el rato que es una evolucióna mejor de GPGPU y que tiene mas posibilidades. Por lo tanto es lo mismo que el anda diciendo. A veces cansa discutir sobre semantica la verdad...
Phil Spencer estará en la conferencia del PC en el e3, seguramente tengamos demostración de DX12 por todo lo alto.
eloskuro está baneado del subforo por "flames"
josemurcia escribió:Phil Spencer estará en la conferencia del PC en el e3, seguramente tengamos demostración de DX12 por todo lo alto.

Yo creo que explicarán lo del cross buy entre xbo y pc
Yo lo que entiendo de HSA es que es al evolución del GPGPU donde pasamos de poner a trabajar a la GPU y CPU por separado pero trabajando en común acuerdo a tenerlo todo como si fuera una sola unidad por llamarlo de alguna manera, mejor dicho quitando lo de usted es una GPU aunque va a hacer esto y usted es una CPU aunque puede hacer esto , para pasar a un ustedes dos pueden hacer esto...

Si, me pase de simple , lo se XD
eloskuro escribió:
josemurcia escribió:Phil Spencer estará en la conferencia del PC en el e3, seguramente tengamos demostración de DX12 por todo lo alto.

Yo creo que explicarán lo del cross buy entre xbo y pc


Mas bien cross party, si hay cross buy (en juegos de xbox ) sacrifico un becerro en su nombre :P
@eloskuro

El problema es cuando te responden diciendo "no tienes ni puta idea" y se queda tan pancho. Al menos quería exponer lo que estaba diciendo y desarrollarlo un poco, quizá así entendiera mis palabras.
Mulzani escribió:@eloskuro

El problema es cuando te responden diciendo "no tienes ni puta idea" y se queda tan pancho. Al menos quería exponer lo que estaba diciendo y desarrollarlo un poco, quizá así entendiera mis palabras.

Cuando alguien dice que no entiendes nada y te pone un enlace a una presentación técnica en inglés sin explicarte nada a mí me saltan todas las alarmas de bullshit.
@Mulzani se entiende que no es GPGPU tradicional. No empecemos con la semántica.

Y en esa diapositiva se explica todo perfectamente, no se para que voy a repetir exactamente lo que pone, porque mejor no sabría explicarlo la verdad. Así que menos bullshits y un poco de lectura antes de criticar.
darksch escribió:@Mulzani se entiende que no es GPGPU tradicional. No empecemos con la semántica.

Y en esa diapositiva se explica todo perfectamente, no se para que voy a repetir exactamente lo que pone, porque mejor no sabría explicarlo la verdad. Así que menos bullshits y un poco de lectura antes de criticar.

No se trata de semántica.

Se trata que cojas unas frases aleatorias, porque no dices el por qué coges esas frases, del texto que expuse y no digas absolutamente nada más allá de "no entiendes nada" y un enlace a unas diapositivas, se supone que un foro es para debatir y tu no tratas, para nada, de rebatir lo que he dicho. Porque vale, OK, el tema de la relación HSA y GPGPU está resuelto, es un tema de semántica y como lo diga cada persona, pero es que del resto que has citado no has indicado nada y en ningún caso se puede explicar mediante ese enlace a diapositivas que has puesto.
darksch escribió:@Mulzani se entiende que no es GPGPU tradicional. No empecemos con la semántica.

Y en esa diapositiva se explica todo perfectamente, no se para que voy a repetir exactamente lo que pone, porque mejor no sabría explicarlo la verdad. Así que menos bullshits y un poco de lectura antes de criticar.

Como dije antes, cuando alguien entiende bien un tema, suele explicar claramente a los que están equivocados por qué están equivocados, y qué es lo correcto. Si dices a alguien que no tiene ni idea y tu única explicación es poner un enlace a una presentación en inglés de 30 diapositivas, mala señal.
Mulzani escribió:Luego, Intel sí es el mayor vendendor de APUs, otra cosa es que no permitan el uso de HSA ni tengan sus características, pero todos (o casi todos) los procesadores de socket 115x son APUs, y sí, está desarrollando una tecnología similar, al menos en el hecho de compartir la memoria entre la GPU y la CPU de sus APUs y usarlas como SIMD:
http://wccftech.com/article/exploring-a ... d-part-ii/

Que es SIMD ?

Sacado de ese enlace, no se sabe aun que tiene Intel entre manos:

"It’s not quite clear yet if Intel’s approach is going to completely mitigate the need for explicit data copies between the CPU and the GPU to maintain coherency."
cercata escribió:
Mulzani escribió:Luego, Intel sí es el mayor vendendor de APUs, otra cosa es que no permitan el uso de HSA ni tengan sus características, pero todos (o casi todos) los procesadores de socket 115x son APUs, y sí, está desarrollando una tecnología similar, al menos en el hecho de compartir la memoria entre la GPU y la CPU de sus APUs y usarlas como SIMD:
http://wccftech.com/article/exploring-a ... d-part-ii/

Que es SIMD ?

Sacado de ese enlace, no se sabe aun que tiene Intel entre manos:

"It’s not quite clear yet if Intel’s approach is going to completely mitigate the need for explicit data copies between the CPU and the GPU to maintain coherency."


Single Instruction Multiple Data.

http://en.wikipedia.org/wiki/SIMD

Una operacion se realiza sobre muchos datos.

Un saludo!
@Mulzani no están elegidos al azar, precisamente están elegidos respecto a la documentación. A ver si algunas respuestas sintetizadas al máximo te sirven, la alternativa es un tochado explicando los conceptos desde la base que no voy a escribir.

dejan claro que HSA es GPGPU y algo más

El documento explica claramente las diferencias, y con ejemplos prácticos aplicados a videojuegos casos que no podrías hacer en el GPGPU tradicional. Si eso es "algo más".
se llama Intel y ya está desarrollando algo similar a HSA, pero a nivel de instrucciones con AVX 3.2

AVX es una mejora de las SIMD, ampliar los registros a 256 bit y añade instrucciones para usarlos. Entre una mejora del SIMD y computación por GPGPU de procesos en paralelo hay una diferencia como del día a la noche. No se pueden comparar unos pocos registros de 256 bit con cientos de unidades (shader units) de ejecución. La diferencia cada vez será mayor, puesto que las GPU añadirán unidades más rápidamente que ampliaciones del SIMD.
luego muestra como funciona con un FX+GPU

Un motor hecho para HSA no puede ejecutarse en CPU+GPU, en el documento explica claramente el porque.

La documentación ofrecida está meticulosamente seleccionada, aunque a algunos le parezcan bullshits. Es lo que pasa cuando ni se lee.
El 1º explica claramente las diferencias y novedades específicamente con ejemplos en relación a videojuegos. El 2º (las páginas indicadas además) es una proyección de como está, que se usa, y eso mismo en la línea temporal futura. Añadiendo una página donde dice claramente el concepto de forma muy sencilla (unificación) en un solo cuadro.
Es la 1ª vez que veo quejarse a alguien de que documentación esté en inglés 2 veces seguidas en pocos mensajes. Si alguien se espera que documentación tecnológica venga en español, ya puede esperar sentado [carcajad]

Conozco a alguien que atenderá gustosamente a quien tenga problemas con el inglés.
argam escribió:Single Instruction Multiple Data.

http://en.wikipedia.org/wiki/SIMD

Una operacion se realiza sobre muchos datos.

Ok, gracias. Ya veo, del estilo SSE ...

No creo que el manejo de GPGPU se pueda llegar a simplificar tanto ... y de poderse, tardará mucho ...
AMD confirma que las gpus gcn, incluyendo la que lleva xbox one, soportarán las features 12.0 de directx12. No soportarán sin embargo las features 12.1, las cuales quedan reservadas para las últimas tarjetas de Nvidia. Os dejo quote del hilo de Neogaf:

AMD's global head of technical marketing Robert Hallock [url="http://www.computerbase.de/2015-06/directx-12-amd-radeon-feature-level-12-0-gcn/"]confirmed to Computerbase[/url] GCN-based graphics cards will support DX12 and at least some will also support DX12 feature level 12_0. Computerbase mentions Tonga, Hawaii and the Xbox One GPU will surely support 12_0, however question marks remain for older chipsets like Bonaire, Tahiti and Pitcairn.

Meanwhile, Nvidia confirmed earlier their chipsets GM200, GM204 and GM206 will already support DX12 feature level 12_1. At GDC this year, MS gave an overview of feature level 12_0 and 12_1:


Hallock said it shouldn't be an issue that AMD cards only support feature level 12_0 since all the features relevant for games are included in 11_1 and 12_0. Also, most games will stick closely to what the consoles use and will therefore mostly use 12_0. Keep in mind, though, he's the global head of technical marketing, so his words shouldn't just be taken as gospel. Computerbase also pointed out Nvidia said the same thing when their Kepler cards didn't support feature level 11_1.

tl;dr: If you want a fully compatible DX12 card you should look into getting a Nvidia GTX 960, 970, 980, 980 Ti or Titan X. Or wait until more information regarding AMD's upcoming Fiji card(s) are released.


http://m.neogaf.com/showthread.php?t=1056976

Imagen con las diferencias entre feature set 12.0 y 12.1
http://postimg.org/image/fd4kuk85v/full/
Lo lógico, por mucho que hubiera gente empeñada en decir que la GPU de ONE era 100% DX12.

De todas formas esto va mejor en su hilo.
David Ricardo escribió:AMD confirma que las gpus gcn, incluyendo la que lleva xbox one, soportarán las features 12.0 de directx12. No soportarán sin embargo las features 12.1, las cuales quedan reservadas para las últimas tarjetas de Nvidia. Os dejo quote del hilo de Neogaf:

AMD's global head of technical marketing Robert Hallock [url="http://www.computerbase.de/2015-06/directx-12-amd-radeon-feature-level-12-0-gcn/"]confirmed to Computerbase[/url] GCN-based graphics cards will support DX12 and at least some will also support DX12 feature level 12_0. Computerbase mentions Tonga, Hawaii and the Xbox One GPU will surely support 12_0, however question marks remain for older chipsets like Bonaire, Tahiti and Pitcairn.

Meanwhile, Nvidia confirmed earlier their chipsets GM200, GM204 and GM206 will already support DX12 feature level 12_1. At GDC this year, MS gave an overview of feature level 12_0 and 12_1:


Hallock said it shouldn't be an issue that AMD cards only support feature level 12_0 since all the features relevant for games are included in 11_1 and 12_0. Also, most games will stick closely to what the consoles use and will therefore mostly use 12_0. Keep in mind, though, he's the global head of technical marketing, so his words shouldn't just be taken as gospel. Computerbase also pointed out Nvidia said the same thing when their Kepler cards didn't support feature level 11_1.

tl;dr: If you want a fully compatible DX12 card you should look into getting a Nvidia GTX 960, 970, 980, 980 Ti or Titan X. Or wait until more information regarding AMD's upcoming Fiji card(s) are released.


http://m.neogaf.com/showthread.php?t=1056976

Imagen con las diferencias entre feature set 12.0 y 12.1
http://postimg.org/image/fd4kuk85v/full/

Pues parece que no sabían lo que estaban haciendo cuando creaban la Xbox One.
J_Ark escribió:Pues parece que no sabían lo que estaban haciendo cuando creaban la Xbox One.

Tendrían una idea general de lo que querían hacer pero siempre hay cambios de última hora.
josemurcia escribió:Lo lógico, por mucho que hubiera gente empeñada en decir que la GPU de ONE era 100% DX12.

De todas formas esto va mejor en su hilo.

Si alguien quiere/puede postearlo ahí...

Yo lo posteé aquí porque habla de la api y de las features que podemos esperar que soporten las consolas.
David Ricardo escribió:Hallock said it shouldn't be an issue that AMD cards only support feature level 12_0 since all the features relevant for games are included in 11_1 and 12_0. Also, most games will stick closely to what the consoles use and will therefore mostly use 12_0.

¿ Y que features son las que trae 12_1 para que digan eso ?
cercata escribió:
David Ricardo escribió:Hallock said it shouldn't be an issue that AMD cards only support feature level 12_0 since all the features relevant for games are included in 11_1 and 12_0. Also, most games will stick closely to what the consoles use and will therefore mostly use 12_0.

¿ Y que features son las que trae 12_1 para que digan eso ?

Tiene debajo del texto que citas un enlace a la imagen con las features.

En teoria las features exclusivas de 12.1 serían:
Conservative rasterization tier 1.
ROVs.

Ni idea de lo que son.
cercata escribió:
David Ricardo escribió:Hallock said it shouldn't be an issue that AMD cards only support feature level 12_0 since all the features relevant for games are included in 11_1 and 12_0. Also, most games will stick closely to what the consoles use and will therefore mostly use 12_0.

¿ Y que features son las que trae 12_1 para que digan eso ?

Imagen

Según NVIDIA, el uso de estas características puede hacer las técnicas de voxelización hasta 3 veces más rápidas. Por ejemplo en su VXGI.

Imagen

Imagen


Con lo cual estamos hablando de una mejora importante respecto al FL12.0.
Son las features q presentaron con un juego de Xbox One, Fable legends.
El artículo habla de un amigo, de un amigo me ha dicho....
No creo q hablarán de Xbox One, sino de las arquitectura GCN y ya sabemos q de las actúales, ninguna es 12_1.

Me parece una interpretación del redactor. El cual puede estar en lo cierto o no. Confirmación no veo ninguna.
Szasz escribió:Son las features q presentaron con un juego de Xbox One, Fable legends.
El artículo habla de un amigo, de un amigo me ha dicho....
No creo q hablarán de Xbox One, sino de las arquitectura GCN y ya sabemos q de las actúales, ninguna es 12_1.

Me parece una interpretación del redactor. El cual puede estar en lo cierto o no. Confirmación no veo ninguna.

Demostraron Fable Legends corriendo sobre la nueva serie de NVIDIA, pero no dijeron que Fable Legends usara ninguna característica del feature level 12_1, hasta ahora eso solo lo ha hecho NVIDIA con VXGI.

El artículo original(en alemán) es sobre la entrevista al de AMD en la Computex Taipei que se está celebrando esta semana.
Morepawer está baneado por "hater, flames y clones"
josemurcia escribió:
cercata escribió:
David Ricardo escribió:Hallock said it shouldn't be an issue that AMD cards only support feature level 12_0 since all the features relevant for games are included in 11_1 and 12_0. Also, most games will stick closely to what the consoles use and will therefore mostly use 12_0.

¿ Y que features son las que trae 12_1 para que digan eso ?

Imagen

Según NVIDIA, el uso de estas características puede hacer las técnicas de voxelización hasta 3 veces más rápidas. Por ejemplo en su VXGI.

Imagen

Imagen


Con lo cual estamos hablando de una mejora importante respecto al FL12.0.


Justamente ahora si es una mejora importante!!! [fumando]
Esas diapositivas son de septiembre, por lo tanto ha sido una mejora importante desde que se presentó.

Al final lo de que tiene el mismo soporte DX12 que Bonaire resulta ser cierto.
Morepawer está baneado por "hater, flames y clones"
Una vez que DX12 nativo es un hecho en X1, lo que toca ahora es especular si dentro de esa compatibilidad DX12, soporta el feature level base o tendremos la suerte de que soporta 1.0.!!!

Tanto una cosa como la otra lo unico que ya no se puede especular es que las ventajas que soporta X1 con Dx12, lo hace de forma nativa, por hardware y no emulando con sucedáneos extraños.
Entonces soporta dx12.0 pero no dx12.1?

Asi que la gente que dijo que soportaba dx12.0 al 100% tendría razon, no?
Nuhar escribió:Entonces soporta dx12.0 pero no dx12.1?

Asi que la gente que dijo que soportaba dx12.0 al 100% tendría razon, no?


Lo soporta exactamente igual que las gráficas AMD que salieron ese mismo trimestre, lo que llevamos muchos diciendo desde el principio.

Nuhar escribió:Entonces soporta dx12.0 pero no dx12.1?

Asi que la gente que dijo que soportaba dx12.0 al 100% tendría razon, no?

No hay DX12.1, hay DX12.0 con 4 niveles de compatibilidad por hardware: 11.0, 11.1, 12.0 y 12.1.

Soportar DX12 al 100% es ser feature level 12.1, cosa que solo soporta Maxwell ahora mismo.
Creo que se refieren a por hardware, soportar lo hacen todas por software.

De todos modos yo siempre he pensado que es algo a caballo, al final 2 años de adelanto es mucho tiempo y siempre hay algun cambio que no has podido contemplar. Ya lo veremos más adelante a ver si se queda en una simple gpu o tiene algo mas dentro que la hace un poquito mejor de lo normal (a la hora de hacer ciertos procesos).
Si mejor podrá ser, pero no porque soporte de forma nativa DX12 mejor de lo que lo hace una R7 260.
Morepawer está baneado por "hater, flames y clones"
josemurcia escribió:
Nuhar escribió:Entonces soporta dx12.0 pero no dx12.1?

Asi que la gente que dijo que soportaba dx12.0 al 100% tendría razon, no?


Lo soporta exactamente igual que las gráficas AMD que salieron ese mismo trimestre, lo que llevamos muchos diciendo desde el principio.

Nuhar escribió:Entonces soporta dx12.0 pero no dx12.1?

Asi que la gente que dijo que soportaba dx12.0 al 100% tendría razon, no?

No hay DX12.1, hay DX12.0 con 4 niveles de compatibilidad por hardware: 11.0, 11.1, 12.0 y 12.1.

Soportar DX12 al 100% es ser feature level 12.1, cosa que solo soporta Maxwell ahora mismo.


Coño, por ahora las perpectivas en X1 son cojonudas. Dx12.0 y por ahora compatibilidad por hardware 12.0. Hemos saltado de Bonaire o lo ya sabemos 100% seguro asi que me siento satisfecho. Si se confirma mas adelante que tendra 12.1 al menos por software estaremos de enhorabuena. Al caballo regalado no le mires los dientes.
Morepawer escribió:Coño, por ahora las perpectivas en X1 son cojonudas. Dx12.0 y por ahora compatibilidad por hardware 12.0. Hemos saltado de Bonaire o lo ya sabemos 100% seguro asi que me siento satisfecho. Si se confirma mas adelante que tendra 12.1 al menos por software estaremos de enhorabuena. Al caballo regalado no le mires los dientes.

Bonaire también es nivel 12.0.
Morepawer está baneado por "hater, flames y clones"
josemurcia escribió:
Morepawer escribió:Coño, por ahora las perpectivas en X1 son cojonudas. Dx12.0 y por ahora compatibilidad por hardware 12.0. Hemos saltado de Bonaire o lo ya sabemos 100% seguro asi que me siento satisfecho. Si se confirma mas adelante que tendra 12.1 al menos por software estaremos de enhorabuena. Al caballo regalado no le mires los dientes.

Bonaire también es nivel 12.0.


Lo mejor es que Amd no ha dicho nada al respecto y ya damos por valida la suposición de un alemán. Huelo mucho FUD justamente a 10 dias del e3.
[fumando]
El medio alemán ha estado en la Computex Taipei y ha hablado con el director de global marketing técnico de AMD. ¿Por qué dices que el alemán miente al decir que se lo ha dicho Robert Hallock y son suposiciones suyas?

Que Bonaire es 12.0 es un hecho, eso no lo ha dicho el alemán, eso lo dice el propio driver beta de AMD para W10.
eloskuro está baneado del subforo por "flames"
josemurcia escribió:El medio alemán ha estado en la Computex Taipei y ha hablado con el director de global marketing técnico de AMD. ¿Por qué dices que el alemán miente al decir que se lo ha dicho Robert Hallock y son suposiciones suyas?

Que Bonaire es 12.0 es un hecho, eso no lo ha dicho el alemán, eso lo dice el propio driver beta de AMD para W10.


Da igual el aleman a dicho "surely" . Si AMD le ha dicho surely es que no le han dicho nada y es suposición de el. No crees?

Imagen
Morepawer está baneado por "hater, flames y clones"
josemurcia escribió:El medio alemán ha estado en la Computex Taipei y ha hablado con el director de global marketing técnico de AMD. ¿Por qué dices que el alemán miente al decir que se lo ha dicho Robert Hallock y son suposiciones suyas?

Que Bonaire es 12.0 es un hecho, eso no lo ha dicho el alemán, eso lo dice el propio driver beta de AMD para W10.


Donde he dicho yo que mienta?.

Entonces seguimos con las mismas de siempre. X1 monta bonaire, no?
eloskuro escribió:
josemurcia escribió:El medio alemán ha estado en la Computex Taipei y ha hablado con el director de global marketing técnico de AMD. ¿Por qué dices que el alemán miente al decir que se lo ha dicho Robert Hallock y son suposiciones suyas?

Que Bonaire es 12.0 es un hecho, eso no lo ha dicho el alemán, eso lo dice el propio driver beta de AMD para W10.


Da igual el aleman a dicho "surely" . Si AMD le ha dicho surely es que no le han dicho nada y es suposición de el. No crees?

¿Dónde dice el alemán surely? Porque para empezar está el artículo escrito en alemán y no en inglés.

Según Google Translate dice que Tonga, Carrizo y la GPU de ONE seguro, y que por lo tanto Hawai es probable que también.

Morepawer escribió:
josemurcia escribió:El medio alemán ha estado en la Computex Taipei y ha hablado con el director de global marketing técnico de AMD. ¿Por qué dices que el alemán miente al decir que se lo ha dicho Robert Hallock y son suposiciones suyas?

Que Bonaire es 12.0 es un hecho, eso no lo ha dicho el alemán, eso lo dice el propio driver beta de AMD para W10.


Donde he dicho yo que mienta?.

Entonces seguimos con las mismas de siempre. X1 monta bonaire, no?

No he dicho que monte Bonaire, he dicho que tiene el mismo nivel de compatibilidad por hardware con DX12 que Bonaire.
Morepawer está baneado por "hater, flames y clones"
josemurcia escribió:
eloskuro escribió:
josemurcia escribió:El medio alemán ha estado en la Computex Taipei y ha hablado con el director de global marketing técnico de AMD. ¿Por qué dices que el alemán miente al decir que se lo ha dicho Robert Hallock y son suposiciones suyas?

Que Bonaire es 12.0 es un hecho, eso no lo ha dicho el alemán, eso lo dice el propio driver beta de AMD para W10.


Da igual el aleman a dicho "surely" . Si AMD le ha dicho surely es que no le han dicho nada y es suposición de el. No crees?

¿Dónde dice el alemán surely? Porque para empezar está el artículo escrito en alemán y no en inglés.

Según Google Translate dice que Tonga, Carrizo y la GPU de ONE seguro, y que por lo tanto Hawai es probable que también.

Morepawer escribió:
josemurcia escribió:El medio alemán ha estado en la Computex Taipcei y ha hablado con el director de global marketing técnico de AMD. ¿Por qué dices que el alemán miente al decir que se lo ha dicho Robert Hallock y son suposiciones suyas?

Que Bonaire es 12.0 es un hecho, eso no lo ha dicho el alemán, eso lo dice el propio driver beta de AMD para W10.


Donde he dicho yo que mienta?.

Entonces seguimos con las mismas de siempre. X1 monta bonaire, no?

No he dicho que monte Bonaire, he dicho que tiene el mismo nivel de compatibilidad por hardware con DX12 que Bonaire.


Si tuvieses que mojarte, que crees que montan?
GCN 1.1

Pero este hilo es para hablar de DX12.
eloskuro está baneado del subforo por "flames"
Tonga y así también el nuevo Carrizo-APU puede hacer esto en cualquier caso, ya que la GPU de la Xbox Uno y por lo tanto probablemente el Hawaii-GPU. La cuestión es, sin embargo, en Bonaire, pero especialmente en el chip más antigua, Tahití, Pitcairn y Cabo Verde. H intenta en este sentido aún para más información.


Tienes razón, lo de problablemente es por lo del HAwai. Lo que pasa es que el no dice que AMD le haya dicho que la GPU es bonaire. El lo dá por hecho. "Ya que la GPU De XBO (es bonaire)" Eso lo dá el Aleman por sentado.
El ha ido a hablar con AMD en ese evento sobre GCN y DX12 . Amd no le ha hablado de XBO.
Precisamente justo en la siguiente frase dice que la cuestión es si Bonaire y chips más antiguos son FL12.0, porque AMD no se lo confirma, y obviamente no está al tanto de la información sacada del SDK preview de DX12 y los últimos drivers beta de AMD.

Pero que ONE es 12.0 no lo pone en duda, esa traducción al español simplemente no tiene sentido como tú mismo has podido comprobar.

Tonga und so auch die neue Carrizo-APU können dies auf jeden Fall, ebenso die GPU der Xbox One und damit wahrscheinlich auch die Hawaii-GPU.


"ebenso die GPU der Xbox One" se traduce como "así como la GPU de Xbox One".
1577 respuestas