NVIDIA "Turing" Nueva Generacion GTX 16x0/Ti -|- RTX 20x0/Ti -|- SUPER

supermuto escribió:
Cullen escribió:Bueno. Cada dia mas encantado con la compra de mi founders.


¿Qué tal tira?. ¿Mejora de rendimiento con respecto a la 1080Ti?.


La fecha oficial de envío de estas gráficas desde la web de nvidia es el 20 de septiembre, por lo tanto hasta finales de septiembre no sabremos nada, a mediados de septiembre se levantará el embargo de información y reviews, benchmarks etc y ahí es cuando comenzará a salir todo lo que esperamos para ver si estas gráficas son realmente tan buenas respecto a las anteriores. Salu2
Saoren escribió:Segun he leido mas atras en el post de otro compañero, el DLSS es una tecnica de Nvidia que analiza en sus servidores los juegos y luego 'traslada' al usuario los ajustes para que las graficas funcionen 'tan bien'.


Sí, he leído eso esta mañana y me ha dejado algo frío. Parece que la inteligencia artificial de las RTX no es tan inteligente si hay que precalcular datos por cada juego en un superordenador y actualizar el controlador para cada juego.

Eso para consolas está bien que el catálogo está controlado y los AAA de turno lo llevarán. Pero la gracia en PC sería poder mejorar todos los juegos existentes. Aunque siempre es mejor que nos puedan vender la remasterización con soporte de RTX :D
Lo que no entiendo es por qué las 2080ti founders supuestamente salen con más O.C de casa que las personalizadas de otros fabricantes, y NVidia no hace más que alardear de ello, cuando siempre han sido las personalizadas las que más O.C sacaban respecto a las de NVidia.... es algo que no entiendo....


Las personalizadas aun no se saben frecuencias. Ni evga ni msi ni asus ha piublicado nada de frecuencias. La msi y evga tienen pbcb custom con mas fases, etc, supongo que iran un poco mas subidas...digo yo..
@Titán_Salvaje_ La diferencia entre una generación y otra es el DLSS, usando los tensor cores duplica el rendimiento, es lo que te enseñan en esa demostración, el potencial de la 2080Ti está en su hardware dedicado.
Joder, que mierda, todas las 2080ti con 3 Dp y un solo HDMI. COn las oculus y una tele es un coñazo ir cambiando cables....
Ya entrando en materia.....la serie DUKE de msi es la mas basica, no?
Estoy entre la MIS duke o la EVGA..es mas corta, pero tambien mas gorda....ambas pintan muy bien..
mocelet escribió:
Saoren escribió:Segun he leido mas atras en el post de otro compañero, el DLSS es una tecnica de Nvidia que analiza en sus servidores los juegos y luego 'traslada' al usuario los ajustes para que las graficas funcionen 'tan bien'.


Sí, he leído eso esta mañana y me ha dejado algo frío. Parece que la inteligencia artificial de las RTX no es tan inteligente si hay que precalcular datos por cada juego en un superordenador y actualizar el controlador para cada juego.

Eso para consolas está bien que el catálogo está controlado y los AAA de turno lo llevarán. Pero la gracia en PC sería poder mejorar todos los juegos existentes. Aunque siempre es mejor que nos puedan vender la remasterización con soporte de RTX :D

esto me huele al humo de la nube de microsoft con su computer clouding, no se, me huele a marketing por parte de Nvidia y control damage despues de la presentacion tan pobre que han hecho
Athor escribió:@Titán_Salvaje_ La diferencia entre una generación y otra es el DLSS, usando los tensor cores duplica el rendimiento, es lo que te enseñan en esa demostración, el potencial de la 2080Ti está en su hardware dedicado.


pero eso es trampa , es decir no se si me entiendes , la comparación debe ser en las mismas condiciones , no me vale que utilizando el DLSS saque el doble de rendimiento , por que el DLSS no lo va tener todos los juegos , a mi que me saquen una comparativa real en fire strike por ejemplo , entocnes podre decir bueno si es un 30% mas o es un 20% mas
Dejemos que esta arquitectura ruede un poco y en el Black Friday si tal, hablamos.
buenas! que interesa mas... piyarse la 2080ti founders o esperar a una custom de asus x ej? que opinais
Visto lo visto, valen casi igual...pero aun no se saben frecuencias ni na de na...asi que de momento lo mejor es esperar un poquillo
hola buenas estoy pensando comprarme la rtx 2080 antes de navidades,tengo un i74790 sin la k y no se si se quedaria corta la cpu,no me apeteceria cambiar la cpu+placa+ram entonces se me iria el presupuesto,vosotros que pensais?
Ya se que llego tarde, pero... menudo descojone con los precios ;p
La 1080 de salida en españa fueron 799 eur, (consultado en internet) lo mismo que la 2080....el problema es la 2080ti que sale al mismo monento, y no un año despues ...
@mocelet
@kikomanco

Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
El hardware necesario para realizar la parte del aprendizaje es mucho pero mucho mas caro que cualquier gráfica en el mercado y necesita de alguien realizando el proceso que le suministre constantemente imágenes de prueba y le diga a la ia su el resultado es correcto o no.
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Faltan muchos años para que te puedan meter en un hardware de consumo algo que haga todo el proceso completo.
franc86 escribió:hola buenas estoy pensando comprarme la rtx 2080 antes de navidades,tengo un i74790 sin la k y no se si se quedaria corta la cpu,no me apeteceria cambiar la cpu+placa+ram entonces se me iria el presupuesto,vosotros que pensais?


Tú no tienes bola de cristal, pero aquí todos los presentes, tampoco. Cuando te puedas hacer pajuelas con las RTX en benchmarks y youtube, y la gente deje por aquí sus impresiones con diferentes CPU, vuelve a traer la pregunta. Hasta navidades tienes tiempo, pero ahora en Agosto, todos sabemos lo mismo que tú: nada.
cambiariais de una 1080ti a una 2080 (no TI)?

estoy con la duda de si vender mi 1080ti ahora que aun se medio venden bien de 2ª mano o pasar completamente hasta las 3xxx o 4xxx
Cullen escribió:
javielviciao escribió:
Cullen escribió:
yo es que vengo de una GTX 570... así que la variación para mi si que va a ser gorda. El que tenga una 1080ti entiendo que no quiera cambiar, yo tampoco lo haria.


Joder, sí que estiras tú las gráficas y las arquitecturas jajaja......


Si. Esta vez he tardado en actualizar la verdad. [carcajad]

Manda huevos que el otro dia le dijeras a un usuario de edte hilo que su 1080ti era tecnologia del pasado xD
ChrisRedfield escribió:La 1080 de salida en españa fueron 799 eur, (consultado en internet) lo mismo que la 2080....el problema es la 2080ti que sale al mismo monento, y no un año despues ...

Es que la gama actual ya fue un descojone, pero la 2080 founders son 849, no 799. Está por ver como quedarán las customs, viendo el camino que ha cogido NVidia con sus founders.

Tienes por ahí el enlace del precio de salida de las 1080 founders? En un Googleo rápido no he visto nada, lo que he encontrado es más barato.
wildchild_bcn escribió:cambiariais de una 1080ti a una 2080 (no TI)?


Con tu dinero, SÍ rotundo. Con el mío... NO rotundo.

@Mendrolo 779€ las 1080 FE más baratas de salida en España (ASUS).
adriano_99 escribió:@mocelet
@kikomanco

Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
...
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.


Todo viene porque Nvidia miente en su blog oficial, me alegra que me des la razón: https://blogs.nvidia.com/blog/2018/08/2 ... hdr-games/

En concreto donde pone que gracias a los Tensor Cores las GPU RTX permiten construir una red neuronal y aprender ellos mismos para mejorar la imagen. Y es mentira, todo lo que haya habido que aprender lo ha aprendido el superordenador renderizando el juego una y otra vez hasta dar con los parámetros ideales de renderizado.

Informar no es echar mierda, es un hecho que este supersampling inteligente solo se verá en un conjunto de juegos seleccionados porque la tarjeta sola no es capaz de hacerlo (aunque lo vendan así).
mocelet escribió:
adriano_99 escribió:@mocelet
@kikomanco

Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
...
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.


Todo viene porque Nvidia miente en su blog oficial, me alegra que me des la razón: https://blogs.nvidia.com/blog/2018/08/2 ... hdr-games/

En concreto donde pone que gracias a los Tensor Cores las GPU RTX permiten construir una red neuronal y aprender ellos mismos para mejorar la imagen. Y es mentira, todo lo que haya habido que aprender lo ha aprendido el superordenador renderizando el juego una y otra vez hasta dar con los parámetros ideales de renderizado.

Informar no es echar mierda, es un hecho que este supersampling inteligente solo se verá en un conjunto de juegos seleccionados porque la tarjeta sola no es capaz de hacerlo (aunque lo vendan así).

Igual no diria mentir pero desde luego no lo han explicado como se debería.
mocelet escribió:
adriano_99 escribió:@mocelet
@kikomanco

Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
...
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.


Todo viene porque Nvidia miente en su blog oficial, me alegra que me des la razón: https://blogs.nvidia.com/blog/2018/08/2 ... hdr-games/

En concreto donde pone que gracias a los Tensor Cores las GPU RTX permiten construir una red neuronal y aprender ellos mismos para mejorar la imagen. Y es mentira, todo lo que haya habido que aprender lo ha aprendido el superordenador renderizando el juego una y otra vez hasta dar con los parámetros ideales de renderizado.

Informar no es echar mierda, es un hecho que este supersampling inteligente solo se verá en un conjunto de juegos seleccionados porque la tarjeta sola no es capaz de hacerlo (aunque lo vendan así).


Ya, seguro... eso es porque estás posteando sin unas de éstas puestas:

Imagen

Tú pontelas, y luego nos cuentas [hallow]
mocelet escribió:
adriano_99 escribió:@mocelet
@kikomanco

Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
...
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.


Todo viene porque Nvidia miente en su blog oficial, me alegra que me des la razón: https://blogs.nvidia.com/blog/2018/08/2 ... hdr-games/

En concreto donde pone que gracias a los Tensor Cores las GPU RTX permiten construir una red neuronal y aprender ellos mismos para mejorar la imagen. Y es mentira, todo lo que haya habido que aprender lo ha aprendido el superordenador renderizando el juego una y otra vez hasta dar con los parámetros ideales de renderizado.

Informar no es echar mierda, es un hecho que este supersampling inteligente solo se verá en un conjunto de juegos seleccionados porque la tarjeta sola no es capaz de hacerlo (aunque lo vendan así).


Entonces no hay una IA dentro de la GPU?? [snif] Creí haber leido eso en este hilo.
Fleishmann escribió:Dejemos que esta arquitectura ruede un poco y en el Black Friday si tal, hablamos.


EN el Black Friday nunca se ponen las novedades en oferta, o al menos no en ninguna que sea interesante.

Prepara la cartera para la generación 10XX, pero de la 20XX no esperes rebajas pronto, a no ser que se la peguen en ventas.

saludos
@pupegbl
Si que la hay pero el proceso de generar el aprendizaje es mucho mas complejo que usarlo por lo que se necesita una ia mas potente.
La que llevan estas gráfica "aprende" con los datos recibidos del super ordenador que tiene nvidia.
Pues viendo los precios de los que parten, las versiones custom serán más caras todavía, por lo tanto, me he decantado por una 1070ti de segunda mano (diciembre 2017 y con poco uso) y pa' lante. Vengo de una HD 7950, así que la mejoría la voy a notar con total seguridad.

En lo que respecta al RT, me da a mi que esta generación va a durar muy poquito, y de aquí a menos de un año, nuevas gráficas con alguna ontería RTX 2090¿? xD
Mi consejo para todos los indecisos es que espereis hasta mediados o finales de septiembre que se levante el embargo de información de Nvidia y se den a conocer todos los detalles, pruebas, benchmarks y podamos ver hasta qué punto es de potente esta nueva arquitectura, mientras tanto aguantad y guardad vuestro dinero, que es mucha pasta y esperad a ver más información, es mi consejo, ya cada cual que haga lo que quiera, pero yo antes de gastar ese dineral quiero estar seguro de que realmente merece la pena cada euro invertido antes de soltarlo, salu2
supermuto escribió:
Imagen

Tú pontelas, y luego nos cuentas [hallow]


Yo las tengo y son un pasote, dependiendo del juego que sea eh? Y lo estoy diciendo en serio. En los NFS son una flipada, en los Shooters son incomodas (por lo de apuntar a distancia, porque no es un 'ojo humano real'), y en el WoW es un PASOTE pero marean que te cagas xD Y no lo he probado en mas juegos hasta ahora.....
adriano_99 escribió:Igual no diria mentir pero desde luego no lo han explicado como se debería.


Fíjate que se lo podrían haber currado y hacer un supersampling inteligente de verdad que intentara mejorar todos los juegos detectando qué tipo de juego es y qué elementos son más importantes (eso es lo que han dado a entender).

Al fin y al cabo muchos juegos comparten motor gráfico o tienen la misma estructura (FPSs, conducción...), una solución genérica sería posible aunque no fuera óptima.
@Titán_Salvaje_ DLSS Seguramente irá implementado mediante parche o de forma nativa en casi todos los títulos, es una mejora demasiado importante para los desarrolladores, para comparar tienes el cuadro que está más atrás del hilo que según NVidia la mejora ronda entre 40-50% en su homóloga 1080 vs 2080, la 2080TI no va a rendir menos que la 1080ti cuando la 2080 le saca ya a la 1080 sin DLSS de por si según NVidia ese porcentaje del 40-50%., con DLSS se va al doble...otro dato es que la 1080Ti rinde 1,2 Gigarays..Por los 6-8-10-20 de las 20xx/Quadro.
Salu2!!
Saoren escribió:
supermuto escribió:
Imagen

Tú pontelas, y luego nos cuentas [hallow]


Yo las tengo y son un pasote, dependiendo del juego que sea eh? Y lo estoy diciendo en serio. En los NFS son una flipada, en los Shooters son incomodas (por lo de apuntar a distancia, porque no es un 'ojo humano real'), y en el WoW es un PASOTE pero marean que te cagas xD Y no lo he probado en mas juegos hasta ahora.....

Pues cuando pruebes el tomb raider o rise of tomb raider me cuentas. Son una pasada.
Athor escribió:@Titán_Salvaje_ DLSS Seguramente irá implementado mediante parche o de forma nativa en casi todos los títulos, es una mejora demasiado importante para los desarrolladores, para comparar tienes el cuadro que está más atrás del hilo que según NVidia la mejora ronda entre 40-50% en su homóloga 1080 vs 2080, la 2080TI no va a rendir menos que la 1080ti cuando la 2080 le saca ya a la 1080 sin DLSS de por si según NVidia ese porcentaje del 40-50%.
Salu2!!


que la 2080 Ti va a rendir mas que la 1080 Ti eso es algo obvio , al igual que la 3080 Ti rendira mas que la 2080 Ti y la 4080 Ti mas que la 3080 Ti y así sucesivamente , pero la pregunta es cuanto rinde de mas sin DLSS?? un 20% un 30% un 40%.... esa es la pregunta y hasta que no saquen reviews y benchmarks no se sabe absolutamente nada
comance escribió:
Cullen escribió:Si. Esta vez he tardado en actualizar la verdad. [carcajad]

Manda huevos que el otro dia le dijeras a un usuario de edte hilo que su 1080ti era tecnologia del pasado xD


Está claro que la mia era del paleolítico. [carcajad]
@Titán_Salvaje Es que si se sabe, rondará un 40-50% según NVidia, si no te fias de NVidia es otra cosa. Yo pienso que es así ya que ellos mismos en la tabla publicada ayer ya marcan con DLSS el doble de rendimiento y viendo el vídeo de una GTX vs RTX DLSS que saca el doble con DLSS como dicen en su tabla ...pues por qué van a mentir?. Yo por mi parte creo es así, ya sé que una 3080 será mejor que una 2080...ese no es el debate. Ahí está la tabla de NVidia. Por cierto la 1080Ti rinde unos 1,2 Gigarays..
1080Ti Vs 2080Ti datos.
Salu2!!!
La nueva tecnología Ansel RTX, para que le echeis un ojo.....

Nvidia introduces Ansel RTX screenshot technology

salu2
Athor escribió:@Titán_Salvaje Es que si se sabe, rondará un 40-50% según NVidia, si no te fias de NVidia es otra cosa. Yo pienso que es así ya que ellos mismos en la tabla publicada ayer ya marcan con DLSS el doble de rendimiento y viendo el vídeo de una GTX vs RTX DLSS que saca el doble con DLSS como dicen en su tabla ...pues por qué van a mentir?. Yo por mi parte creo es así, ya sé que una 3080 será mejor que una 2080...ese no es el debate. Ahí está la tabla de NVidia. Por cierto la 1080Ti rinde unos 1,2 Gigarays..
1080Ti Vs 2080Ti datos.
Salu2!!!


Si te crees lo que dice una compañía en una presentación es que no tienes mucha idea... Te han vendido humo, de momento. Luego con los benchmark se verá la verdad. Xbox también iba a ser el doble de potente que PS4 con la nube... Pues así, mil...
Si miramos el tema de cuida cores, la 1080 tiene 2560 y la 2080 2955, se llevan 400, y le saca un 40%.
Si es es cierto, la 1080ti tiene 2584 y la 2080ti tiene 4352, le saca 900, con lo que la diferencia deberia se mayor o al menos igual....¿no?
@albertoooooooooo Pues como han dicho en su tabla no han mentido según la demo de infiltrator, el doble con DLSS, si mienten después y no es un 40-50% sin DLSS pues ellos mismos..
Yo tengo mucha idea de lo que hablo no te quepa duda, si fastidia que la 2080 sea cara no la compreis, si queréis rendimiento compraros la 1080ti que está muy guay.. Yo apuesto por tecnología nueva y como yo hay muchos.
He pasado del zx81 hasta esto y se que se miente mucho en la industria. Pero lo que es del César es del César, está tecnología es como fue en su día el T&L una diferencia tan importante que luego todas las tarjetas la incorporaban por hardware.
Lo de Microsoft no viene al caso, no hablo de Microsoft., también han hecho cosas buenas, y malas, como Sony..como muchas.
Si no siempre podréis jugar al Manic Miner a 200fps.
Igual no lo conocéis..
Por mi parte abandonó el hilo.
No sé para que sirve aportar nada al hilo si el final es echar mierda sobre tecnología, compañías, juegos.., muchos habéis nacido con los Call of Dutty y no valorais ni lo más mínimo un avance de está magnitud que acercará la realidad a los videojuegos, Hala!! A jugar a 700fps!! A ver quien la tiene más grande!!. Eso sí que "mola"!!!.
Dicen que muchos juegos van a mas de 60fps a 4K...nada... mentira...Oye igual lo mismo es así!! Digo yo..
Sin acritud..!!!
Lo dicho, :-| bye, me bajo del carro.
Athor escribió:@albertoooooooooo Pues como han dicho en su tabla no han mentido según la demo de infiltrator, el doble con DLSS, si mienten después y no es un 40-50% sin DLSS pues ellos mismos..
Yo tengo mucha idea de lo que hablo no te quepa duda, si fastidia que la 2080 sea cara no la compreis, si queréis rendimiento compraros la 1080ti que está muy guay.. Yo apuesto por tecnología nueva y como yo hay muchos.
He pasado del zx81 hasta esto y se que se miente mucho en la industria. Pero lo que es del César es del César, está tecnología es como fue en su día el T&L una diferencia tan importante que luego todas las tarjetas la incorporaban por hardware.
Lo de Microsoft no viene al caso, no hablo de Microsoft., también han hecho cosas buenas, y malas, como Sony..como muchas.
Si no siempre podréis jugar al Manic Miner a 200fps.
Igual no lo conocéis..
Por mi parte abandonó el hilo.
No sé para que sirve aportar nada al hilo si el final es echar mierda sobre tecnología, compañías, juegos.., muchos habéis nacido con los Call of Dutty y no valorais ni lo más mínimo un avance de está magnitud que acercará la realidad a los videojuegos, Hala!! A jugar a 700fps!! A ver quien la tiene más grande!!. Eso sí que "mola"!!!.
Sin acritud..!!!
Lo dicho, :-| bye, me bajo del carro.


Nadie ha echado mierda sobre nada, al menos en mi caso. Ni he dicho que no sea una innovación importante, ni que vayan a tener mal rendimiento, ni que Nvidia sea el diablo. He comentado de que lo que dicen en las conferencias a lo que sale luego, dista mucho de la realidad. Claro que puede tener el doble de rendimiento, pero... ¿Que calidad han usado? ¿Todo ultra? Han usado overclock? Comparan una gráfica founder contra una custom? Rtx activado?Desactivado?

Puedes defender lo que quieras, pero Nvidia no hace gráficas para que tu te vayas feliz a la cama, lo hace para llenarse los bolsillos. Y se han dado casos en que lo que han dicho y luego era, han sido totalmente opuestos. Aun recuerdo gráficas con menos memoria de la que ponía en la caja. O rendimiento que nunca llegó. Sinceramente, si tuvieran tan buen rendimiento, se habrían sacado el rabo en la conferencia y hubieran puesto una gráfica tamaño La Sagrada Familia anunciando las diferencias contra la competencia/generación anterior. Pero eso no ha sucedido, de momento lo único que se ha visto son juegos a resolución de hace 8 años a 45 fps(si, con rayTracing, pero si tengo que jugar a esa tasa, prefiero que no lo tenga. Como si me ponen graficos hiperrealistas y tengo que jugar a 10fps...) Y como lo único que se ha visto, es eso, hablo de eso. El día en que salgan a la calle, salgan benchmark, veremos que luego en juegos 4k va a 50 fps o veremos que va a 200 fps. Veremos si con o sin rayTracing. Pero hasta entonces, solo hay humo y una transparencia de powerPoint hecha en una noche ante la oleada de críticas.

PD: habla uno que tenia la pasta ahorrada para cambiar la AMD HD 7970. No hablo por quejarme o llorar. Simplemente mis euros no los van a ver hasta que justifiquen ese precio. Si mañana sacan una demo a 4k@200 fps del TombRaider o Battlefield seré el primero en pasar por caja. Pero para lo que se ha visto, el precio, DE MOMENTO, es un despropósito, sobretodo contra generaciones anteriores.
@albertoooooooooo Lo dicho, no voy a entrar en mas discusiones, para nada de acuerdo contigo.
Salu2!!!.
Dejo el hilo.
adriano_99 escribió:@mocelet
@kikomanco

Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
El hardware necesario para realizar la parte del aprendizaje es mucho pero mucho mas caro que cualquier gráfica en el mercado y necesita de alguien realizando el proceso que le suministre constantemente imágenes de prueba y le diga a la ia su el resultado es correcto o no.
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Faltan muchos años para que te puedan meter en un hardware de consumo algo que haga todo el proceso completo.

esto ya me lo conozco, no hace falta que me convenzas a mi ni a nadie, lo mismo se decia con la nube de microsoft y que los 1.3 Tflops de xbox one con la nuve y el chip gordo que llevaba dentro la iban a hacer rendir como una grafica de 5 Tflops, y como les dijeras que no a los fanboys se te tiraban al cuello y te reportaban y todo por troll y flamer, 5 años despues aun estamos esperando a ver la computacion en la nube con los servidores dedicados de Azure [qmparto]
kikomanco escribió:
adriano_99 escribió:@mocelet
@kikomanco

Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
El hardware necesario para realizar la parte del aprendizaje es mucho pero mucho mas caro que cualquier gráfica en el mercado y necesita de alguien realizando el proceso que le suministre constantemente imágenes de prueba y le diga a la ia su el resultado es correcto o no.
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Faltan muchos años para que te puedan meter en un hardware de consumo algo que haga todo el proceso completo.

esto ya me lo conozco, no hace falta que me convenzas a mi ni a nadie, lo mismo se decia con la nube de microsoft y que los 1.3 Tflops de xbox one con la nuve y el chip gordo que llevaba dentro la iban a hacer rendir como una grafica de 5 Tflops, y como les dijeras que no a los fanboys se te tiraban al cuello y te reportaban y todo por troll y flamer, 5 años despues aun estamos esperando a ver la computacion en la nube con los servidores dedicados de Azure [qmparto]

No te preocupes se feliz despotricando desde la ignorancia.
Apa, a ignorados :)
[facepalm]
adriano_99 escribió:
kikomanco escribió:
adriano_99 escribió:@mocelet
@kikomanco

Por que no os informáis un poquito de como funciona el deep learning antes de soltar mierda gratuitamente?
El hardware necesario para realizar la parte del aprendizaje es mucho pero mucho mas caro que cualquier gráfica en el mercado y necesita de alguien realizando el proceso que le suministre constantemente imágenes de prueba y le diga a la ia su el resultado es correcto o no.
Lo que nvidia ha metido es la parte necesaria para hacer la segunda parte del proceso que es aplicar lo aprendido.
Faltan muchos años para que te puedan meter en un hardware de consumo algo que haga todo el proceso completo.

esto ya me lo conozco, no hace falta que me convenzas a mi ni a nadie, lo mismo se decia con la nube de microsoft y que los 1.3 Tflops de xbox one con la nuve y el chip gordo que llevaba dentro la iban a hacer rendir como una grafica de 5 Tflops, y como les dijeras que no a los fanboys se te tiraban al cuello y te reportaban y todo por troll y flamer, 5 años despues aun estamos esperando a ver la computacion en la nube con los servidores dedicados de Azure [qmparto]

No te preocupes se feliz despotricando desde la ignorancia.
Apa, a ignorados :)

venga se feliz, como tu he visto en el hilo de xbox muchos fanboys tragarse sus palabras y su firma de "1080/60fps only xbox one" [bye]
No merece la pena discutir con fanboys.

Hay gente que te defenderá a capa y espada la nueva tecnología de NVIDIA sin haber visto análisis de terceros, pero bueno. La ignorancia es atrevida.

Se ve que el señor Adriano, él mismo decía que las gráficas de minado se usan a máxima potencia 24/7, se cree que por leer algunas notas de prensa de NVIDIA es un entendido el de tema.
jitarrista escribió:No merece la pena discutir con fanboys.

Hay gente que te defenderá a capa y espada la nueva tecnología de NVIDIA sin haber visto análisis de terceros, pero bueno. La ignorancia es atrevida.

Se ve que el señor Adriano, él mismo decía que las gráficas de minado se usan a máxima potencia 24/7, se cree que por leer algunas notas de prensa de NVIDIA es un entendido el de tema.

No, si hablo como si supise del tema es porque he trabajado y he usado tanto el ray tracing como otros métodos de iluminación y he usado maquinas de deep learning y sé como funcionan y que son capaces de hacer ambas.
He tratado varias veces de explicarme y he tratado varias veces de que se entiendan segun que cosas, pero ya paso.
Preferís seguir quejándoos desde la ignorancia y poner nombrecitos ridículos a tecnologías potentisimas para sentiros mas felices con vosotros mismos? ADELANTE
Por mi parte vais todos a ignorados y fin del problema.
Tengo mejores cosas que hacer que explicar a quien no quiere entender y solo sabe llamar fanboy.
kikomanco escribió:[facepalm]
adriano_99 escribió:
kikomanco escribió:esto ya me lo conozco, no hace falta que me convenzas a mi ni a nadie, lo mismo se decia con la nube de microsoft y que los 1.3 Tflops de xbox one con la nuve y el chip gordo que llevaba dentro la iban a hacer rendir como una grafica de 5 Tflops, y como les dijeras que no a los fanboys se te tiraban al cuello y te reportaban y todo por troll y flamer, 5 años despues aun estamos esperando a ver la computacion en la nube con los servidores dedicados de Azure [qmparto]

No te preocupes se feliz despotricando desde la ignorancia.
Apa, a ignorados :)

venga se feliz, como tu he visto en el hilo de xbox muchos fanboys tragarse sus palabras y su firma de "1080/60fps only xbox one" [bye]


El poder de la nube XD pero bueno, no se trata de ser fanboy, hasta que no haya pruebas, cada uno que se convenza de lo que quiera...

adriano_99 escribió:
jitarrista escribió:No merece la pena discutir con fanboys.

Hay gente que te defenderá a capa y espada la nueva tecnología de NVIDIA sin haber visto análisis de terceros, pero bueno. La ignorancia es atrevida.

Se ve que el señor Adriano, él mismo decía que las gráficas de minado se usan a máxima potencia 24/7, se cree que por leer algunas notas de prensa de NVIDIA es un entendido el de tema.

No, si hablo como si supise del tema es porque he trabajado y he usado tanto el ray tracing como otros métodos de iluminación y he usado maquinas de deep learning y sé como funcionan y que son capaces de hacer ambas.
He tratado varias veces de explicarme y he tratado varias veces de que se entiendan segun que cosas, pero ya paso.
Preferís seguir quejándoos desde la ignorancia y poner nombrecitos ridículos a tecnologías potentisimas para sentiros mas felices con vosotros mismos? ADELANTE
Por mi parte vais todos a ignorados y fin del problema.
Tengo mejores cosas que hacer que explicar a quien no quiere entender y solo sabe llamar fanboy.


Yo tengo un Master en inteligencia artificial, reconocimiento de formas e imagen digital y también lo llamo rayitos. He trabajado en el sector, y se que es una tecnología potentísima, pero no por ello defiendo a capa y espada a una compañia que intenta venderte una tecnología (que no tiene nada de nueva, solo que se empieza a aplicar ahora a videojuegos) a precio de oro. Igual que ya mismo se podría tener fotorrealismo en los videojuegos, pero no habría gráfica en el mundo capaz de mover eso a un rendmiento mínimamente aceptable, que es lo que sucede con el RayTracing ahora mismo. Es bonito para fotos? Si. Se puede usar para jugar? Por lo que se a visto de momento,no. Porque no me veo a alguien usando RTX en BattlefieldV online a 40 fps. O eso o te pones a 720p, total puestos a jugar a resoluciones del paleolítico...
Es que si fuera por algunos seguiríamos en 8bits 1000 fps potencia bruta y rendimiento.
El RTX y todo lo que lo rodea yo pienso que es un avance pero ahora bien, el tema del precio es otra cosa, Nvidia a visto la oportunidad perfecta para quitarse a stock de la serie 1000 con este lanzamiento y además está sola en el inflado mercado...
adriano_99 escribió:
jitarrista escribió:No merece la pena discutir con fanboys.

Hay gente que te defenderá a capa y espada la nueva tecnología de NVIDIA sin haber visto análisis de terceros, pero bueno. La ignorancia es atrevida.

Se ve que el señor Adriano, él mismo decía que las gráficas de minado se usan a máxima potencia 24/7, se cree que por leer algunas notas de prensa de NVIDIA es un entendido el de tema.

No, si hablo como si supise del tema es porque he trabajado y he usado tanto el ray tracing como otros métodos de iluminación y he usado maquinas de deep learning y sé como funcionan y que son capaces de hacer ambas.
He tratado varias veces de explicarme y he tratado varias veces de que se entiendan segun que cosas, pero ya paso.
Preferís seguir quejándoos desde la ignorancia y poner nombrecitos ridículos a tecnologías potentisimas para sentiros mas felices con vosotros mismos? ADELANTE
Por mi parte vais todos a ignorados y fin del problema.
Tengo mejores cosas que hacer que explicar a quien no quiere entender y solo sabe llamar fanboy.


Deja de hacer el ridículo anda, viendo tus posts lo único que se saca en claro es que no sabes por donde te da el aire.

No tienes ni la experiencia necesaria ni los conocimientos necesarios para hablar del tema como si un experto fueras. Defiendes una tecnología que esta en pañales, de las cuales no han salido análisis de tercero como si te fuera la vida en ello ¿hiciste lo mismo cuando anunciaron Physix o HairWorks? de verdad, deja tu fanatismo a un lado y que hable gente que si tiene idea del tema.
albertoooooooooo escribió:El poder de la nube XD pero bueno, no se trata de ser fanboy, hasta que no haya pruebas, cada uno que se convenza de lo que quiera...

adriano_99 escribió:No, si hablo como si supise del tema es porque he trabajado y he usado tanto el ray tracing como otros métodos de iluminación y he usado maquinas de deep learning y sé como funcionan y que son capaces de hacer ambas.
He tratado varias veces de explicarme y he tratado varias veces de que se entiendan segun que cosas, pero ya paso.
Preferís seguir quejándoos desde la ignorancia y poner nombrecitos ridículos a tecnologías potentisimas para sentiros mas felices con vosotros mismos? ADELANTE
Por mi parte vais todos a ignorados y fin del problema.
Tengo mejores cosas que hacer que explicar a quien no quiere entender y solo sabe llamar fanboy.


Yo tengo un Master en inteligencia artificial, reconocimiento de formas e imagen digital y también lo llamo rayitos. He trabajado en el sector, y se que es una tecnología potentísima, pero no por ello defiendo a capa y espada a una compañia que intenta venderte una tecnología (que no tiene nada de nueva, solo que se empieza a aplicar ahora a videojuegos) a precio de oro. Igual que ya mismo se podría tener fotorrealismo en los videojuegos, pero no habría gráfica en el mundo capaz de mover eso a un rendmiento mínimamente aceptable, que es lo que sucede con el RayTracing ahora mismo. Es bonito para fotos? Si. Se puede usar para jugar? Por lo que se a visto de momento,no. Porque no me veo a alguien usando RTX en BattlefieldV online a 40 fps. O eso o te pones a 720p, total puestos a jugar a resoluciones del paleolítico...

Pero es que el problema está en el momento en que metes el precio a la hora de valorar la tecnologia.
Muchos en este foro ademas es que se toman una gráfica de precio alto como algo personal y no hacen mas que decir que es una tontería o ponerle nombrecitos ridículos.
Lo vuelvo a decir: estas graficas son carisimas? SI.
Hace eso que el ray tracing sean "rayitos y sombritas"? NO.
Ah, y varios desarrolladores han dicho que el rendimiento visto hasta ahora no sirve de indicativo porque falta pulir el juego y los drivers.
Ni tomb raider ni BTV lo van a traer de salida precisamente por eso.
Pero es que aunque fuese así ya lo dije eso es una decisión personal.
Yo prefiero jugar a 40-50 fps pero saber que de verdad hay avance en lo que tengo delante.
Obviamente no juego a nada competitivo y ahí la cosa cambia pero es que claro igual que me dices tu que necesitas si o si los 60fps vendrá un profesional de CSGO y te dirá que el juega a resolución 4:3 y a 300fps o mas.
No hay nada universal.
11796 respuestas