[Hilo Oficial] NVIDIA Ampere RTX 3000 Series (NO HABLAR DE Mineria, NI DE DISPONIBILIDAD)

hh1 escribió:AMD superó a Intel porque Intel no hizo nada por mejorar.Sooo sacaba refritos y más refritos.
No tenía motivos para mejorar.

Ahora le ha pillado AMD " en bragas" y ya verás cómo se ponen las pilas.


AMD invierte mucho menos en i+d que intel.
No se yo, si se puede decir que "no tenía motivos para mejorar". Unos 10.000 millones de motivos tenía de más. (7x) ¬_¬
Antoniopua está baneado por "saltarse el ban con un clon"
Estoy de acuerdo con la mayoría de vosotros. Pero también hay que cambiar el chip con las nuevas series 6000 pues no están dando los problemas que hubo en la series 5000 a nivel de software. La mayoría de gente habla de oídas o les atribuye problemas de la serie 5000 a las nuevas series 6000, básicamente lo hacen por prejuicios ya que ni las tienen. Mis pruebas son de primera mano, he pasado de una EVGA RTX 2070 Super a una AMD 6800xt, y todo igual de bien que con la Nvidia ( el rendimiento increíblemente superior, como es normal). Me encantan los juegos de CM ( Codemaster) y con esta AMD van de fábula. En general los 23 juegos que tengo actualmente van muy bien. Respecto a los prosadores Ryzen, le pese a quien le pese Ryzen 5000 ha sido un golazo por toda la escuadra por parte de AMD. Si dejamos las fanatizaciones de lado (aunque es difícil, y a la mínima los que más piden respeto o llaman troll a los demás son los que más incurren en el tipo de prácticas ), y analizamos de manera objetiva, veremos que todo esto es bueno para nosotros, los consumidores. Esta gen de AMD parece el principio de lo que fueron los Ryzen 1000 en el mercado... y mirad ahora con los Ryzen 5000 lo patente que ha quedado el tema en sus capacidades ;) .




Saludos!!!
Ivy lake está baneado por "troll"
...
@Ivy lake
Mola esa indignación cuando lo has leído al revés y tienes encima los enlaces ahí y todo... [qmparto] [facepalm] . Abre los enlaces.
hh1 escribió:AMD superó a Intel porque Intel no hizo nada por mejorar.Sooo sacaba refritos y más refritos.
No tenía motivos para mejorar.

Ahora le ha pillado AMD " en bragas" y ya verás cómo se ponen las pilas.


Claro... porque AMD no ha hecho un espectacular trabajo de I+D sacando unos productos excelentes y superándose a ellos mismos en cada iteración así como machacando a Intel... en fin... tu mensaje da a entender que no hay mérito alguno en AMD por los enormes pasos que ha dado a nivel de microprocesadores, pero la realidad es que tienen una estrategia y un I+D que se come con patatas a Intel... y sí, Intel se ha relajado y ha sufrido las consecuencias... pero el principal factor no es la relajación de Intel, es la excelente estrategia de diseño de AMD...

Lo mismo podría verse en las gráficas y creo sinceramente que, si bien Nvidia está aun por delante, AMD seguirá estando ahí, cada vez más cerca, ofreciendo buenas alternativas y cercando cada vez más al gigante verde... y mejor para nosotros que así sea...

Herionz escribió:
hh1 escribió:AMD superó a Intel porque Intel no hizo nada por mejorar.Sooo sacaba refritos y más refritos.
No tenía motivos para mejorar.

Ahora le ha pillado AMD " en bragas" y ya verás cómo se ponen las pilas.


AMD invierte mucho menos en i+d que intel.
No se yo, si se puede decir que "no tenía motivos para mejorar". Unos 10.000 millones de motivos tenía de más. (7x) ¬_¬


No se trata de quien invierte más en I+D, sino de lo efectiva que resulta esa inversión, de los resultados que aporta y del time to market que cada fabricante es capaz de conseguir, y en eso, a día de hoy, AMD no creo que tenga rival...
@RaulKO
Es un tema distinto ese. Que alguien invirtiendo menos haga más innovación elogio sin duda. Pero de aquí a decir que no ha habido motivación por parte de intel...
Y como puedes medir la motivación de una empresa si no es a través de sus presupuestos? Gastos e inversiones.
No se porque teneis que venir a un tema de Nvidia a discutir de AMD o Intel........... [fiu]
Ivy lake escribió:
Herionz escribió:
hh1 escribió:AMD superó a Intel porque Intel no hizo nada por mejorar.Sooo sacaba refritos y más refritos.
No tenía motivos para mejorar.

Ahora le ha pillado AMD " en bragas" y ya verás cómo se ponen las pilas.


AMD invierte mucho menos en i+d que intel.
No se yo, si se puede decir que "no tenía motivos para mejorar". Unos 10.000 millones de motivos tenía de más. (7x) ¬_¬


No se puede tener tan poca memoria.

Intel lleva sacando los mismos procesadores renombrados desde Sandy Bridge en 2010 y eso siendo laxos, si nos ponemos estrictos desde nehalem, 2008, son los mismos renombrados con mejoras mínimas en IPC e instrucciones. Y solo a partir del 2019 se dignaron a, por lo menos, añadir más núcleos a los refritos gracias a la incursión de los ryzen de AMD.

No puedes hablar en serio con eso de que Intel invierte más en i+d que AMD, los hechos te lo tiran por tierra en un momento.

Y los alder lake tienen una pinta terrible.

Si Intel no habría tenido los problemas que ha tenido en el nodo de 10nm AMD no estaría ni de lejos en la situación que está ahora
Antoniopua está baneado por "saltarse el ban con un clon"
Y si mi primo no hubiera usado mucha gomina no sería calvo ahora... [sonrisa]



@Nomada_Firefox "Cada acción tiene una reacción" ;) . Por mi parte todo está claro cristalino top gun [oki] .





Saludos!!!
RaulKO escribió:
hh1 escribió:AMD superó a Intel porque Intel no hizo nada por mejorar.Sooo sacaba refritos y más refritos.
No tenía motivos para mejorar.

Ahora le ha pillado AMD " en bragas" y ya verás cómo se ponen las pilas.


Claro... porque AMD no ha hecho un espectacular trabajo de I+D sacando unos productos excelentes y superándose a ellos mismos en cada iteración así como machacando a Intel... en fin... tu mensaje da a entender que no hay mérito alguno en AMD por los enormes pasos que ha dado a nivel de microprocesadores, pero la realidad es que tienen una estrategia y un I+D que se come con patatas a Intel... y sí, Intel se ha relajado y ha sufrido las consecuencias... pero el principal factor no es la relajación de Intel, es la excelente estrategia de diseño de AMD...

Lo mismo podría verse en las gráficas y creo sinceramente que, si bien Nvidia está aun por delante, AMD seguirá estando ahí, cada vez más cerca, ofreciendo buenas alternativas y cercando cada vez más al gigante verde... y mejor para nosotros que así sea...

Herionz escribió:
hh1 escribió:AMD superó a Intel porque Intel no hizo nada por mejorar.Sooo sacaba refritos y más refritos.
No tenía motivos para mejorar.

Ahora le ha pillado AMD " en bragas" y ya verás cómo se ponen las pilas.


AMD invierte mucho menos en i+d que intel.
No se yo, si se puede decir que "no tenía motivos para mejorar". Unos 10.000 millones de motivos tenía de más. (7x) ¬_¬


No se trata de quien invierte más en I+D, sino de lo efectiva que resulta esa inversión, de los resultados que aporta y del time to market que cada fabricante es capaz de conseguir, y en eso, a día de hoy, AMD no creo que tenga rival...

Pero alguien dice lo contrario?
Os ponéis a la mínima a la defensiva.
AMD tiene mérito,obvio.
Pero que Intel se ha tocado 10 años los huevos a 2 manos es un hecho.
Si no se los toca,lo mismo AMD no le come la tostada.
@ariakan25

Tambien amd estuvo en la mierda con los bulldozers porque aposto por externalizar la fabricacion de los chips, teniamos cpus de amd con 32nm y intel con 14nm.

Claro los bulldozers eran malos pero tambien estaban en un nodo mucho peor.

Amd se hipoteco con esa decision y ahora esta sacando beneficios, intel se ha atascado y amd puede mandar sus chips a tsmc o cualquier otro fabricante.
Antoniopua está baneado por "saltarse el ban con un clon"
hh1 escribió:
RaulKO escribió:
hh1 escribió:AMD superó a Intel porque Intel no hizo nada por mejorar.Sooo sacaba refritos y más refritos.
No tenía motivos para mejorar.

Ahora le ha pillado AMD " en bragas" y ya verás cómo se ponen las pilas.


Claro... porque AMD no ha hecho un espectacular trabajo de I+D sacando unos productos excelentes y superándose a ellos mismos en cada iteración así como machacando a Intel... en fin... tu mensaje da a entender que no hay mérito alguno en AMD por los enormes pasos que ha dado a nivel de microprocesadores, pero la realidad es que tienen una estrategia y un I+D que se come con patatas a Intel... y sí, Intel se ha relajado y ha sufrido las consecuencias... pero el principal factor no es la relajación de Intel, es la excelente estrategia de diseño de AMD...

Lo mismo podría verse en las gráficas y creo sinceramente que, si bien Nvidia está aun por delante, AMD seguirá estando ahí, cada vez más cerca, ofreciendo buenas alternativas y cercando cada vez más al gigante verde... y mejor para nosotros que así sea...

Herionz escribió:
AMD invierte mucho menos en i+d que intel.
No se yo, si se puede decir que "no tenía motivos para mejorar". Unos 10.000 millones de motivos tenía de más. (7x) ¬_¬


No se trata de quien invierte más en I+D, sino de lo efectiva que resulta esa inversión, de los resultados que aporta y del time to market que cada fabricante es capaz de conseguir, y en eso, a día de hoy, AMD no creo que tenga rival...

Pero alguien dice lo contrario?
Os ponéis a la mínima a la defensiva.
AMD tiene mérito,obvio.
Pero que Intel se ha tocado 10 años los huevos a 2 manos es un hecho.
Si no se los toca,lo mismo AMD no le come la tostada.

Eso da igual. La cuestión es que le comieron la tostada. Y si lo hicieron, sea por la causa que fuere, significa que Intel no pudo competir. Y no es de ahora precisamente... desde los Ryzen 2000 ya empezó la cosa a ponerse interesante. Tiempo están teniendo para contraatacar. ¿Será que no pueden de momento superar a AMD? Ahora bien eso no significa que alguien que tenga un Intel deba sentirse inferior o molesto -eso sería un error como el que se pone un blin blin en el cuello y por eso se cree mejor. Siguen teniendo un rendimiento excelente en juegos (que es lo que me interesa a mi). En serio.. a mi no me molesta que alguien me diga "ese 5800X es una m...". Si la siguiente gen Intel me convence, y supera a AMD... montaré Intel. Eso lo tengo claro. Ahora mismo no me llama... Fin del offtopic por mi parte [angelito]




Saludos!!!
Ivy lake está baneado por "troll"
...
@Ivy lake la gracia de bajar los nm es que te caben más transistores por superficie y consumen menos.

El problema que hay hoy en día, a parte de efectos cuánticos, es de puntos calientes.

Al tener muchos transistores juntos tienes esos puntos calientes, que antes al ocupar más espacio era más fácil de disipar el calor.

Pero vamos. Se gana por todos lados al bajar los nm, lo que pasa que hay que reducir el proceso cada vez que se pone más complicado y hay que refinar durante más tiempo.

No hay más que ver los 14nm de Intel lo bien que están ahora, y no es sólo por arquitectura, el proceso de fabricación es mucho más óptimo.
eR_pOty está baneado por "GAME OVER"
Se a debido de romper el titulo del hilo porque aqui antes de hablaba de la serie 3000 ...

https://www.youtube.com/watch?v=pZLbZMVPfT8

Parece que la 3060 se acerca mucho mas a una 2070 super en terminos de gaming que a una 2060 como se decia... :-| [buenazo]
Editado por metalgear. Razón: flame
ManuBitch está baneado por "clon de usuario baneado"
eR_pOty escribió:Se a debido de romper el titulo del hilo porque aqui antes de hablaba de la serie 3000 y ...

https://www.youtube.com/watch?v=pZLbZMVPfT8

Al menos al analizar dichos mensajes se puede sacar algo en claro....... lo tuyo directamente es flame. Podrias haber dicho lo mismo sin clasificar a nadie de nada......Pero claro, así no consigues tu cometido de polemizar y de llamar la atencion sin argumento alguno..........
Editado por metalgear. Razón: editar quote
Es el hilo de nvidia, dejemos temas de gráficas de competencia aparte, es logico que se comparen, que se hable en algún momento concreto, pero si nos ceñimos a hablar solo de amd hay hilos concretos para tal fin [oki]
hh1 escribió:Pero alguien dice lo contrario?
Os ponéis a la mínima a la defensiva.
AMD tiene mérito,obvio.
Pero que Intel se ha tocado 10 años los huevos a 2 manos es un hecho.
Si no se los toca,lo mismo AMD no le come la tostada.


No sé porqué lo dices.

Si ha cambiado de plataforma muchas veces, mira, dos versiones de LGA 1151, una de LGA 1200, y siempre sacando cpus totalmente nuevas, mira, mira:

Gama 6000.
Gama 7000.
---------------
Gama 8000.
Gama 9000.
---------------
Gama 10000.

Y siempre, siempre sacando cpus NUEVAS en cada iteración, ¿verdad, verdad? [+risas]

PD: Algo habrá que decir de intel, si se lleva tirando más de un lustro tirando del mismo puto diseño de cpu y de nodo de fabricación, variando sólo el número de cores disponibles según gama y frecuencias.

Que sí, que desde luego es mejor la gama 10000 que la gama 6000, dónde va a comparar un quad core con SMT contra un decacore con SMT como top, pero... a la hora de la verdad, cuando no se usan más que uno o dos cores, lo único que le saca un 10900K al 6700K en rendimiento es gracias a la caché unificada L3 más grande y circunstancial al meter tantos cores (más L3 slices), y sobre todo a las mayores frecuencias y algún parcheo menor.

AMD tiene mérito, pero intel tiene una dosis de demérito tremendo.


PPD:

Profundizando en los deméritos de intel. Desde Sandy hasta Comet lake nos ha hecho creer que era muy difícil meter mejoras de IPC realmente grandes, como si se hubiera tocado el techo del summun en procesadores, reforzado por la mala imagen que daba AMD en ese momento (faildozer) y la abismal diferencia con otras cpus populares (sobre todo ARM).

Pero.

Después de años de goteo de mejoras bien recibidas, pero no abismales, que se pueden resumir en:

Sandy a Haswell, y de Haswell a Skylake como saltos reales, siendo pequeñas mejoras y refinamientos tanto el salto a Ivy desde sandy como el de broadwell desde haswell.

Y un porrón de años que se pueden contar como generaciones completas de roedores, tiempos de muchas vidas vendiéndonos el refrito del refrito del refrito de Skylake con más cores.

Después de todos esos años sin ser capaz de pasar de 14 nm, ni de traer arquitecturas de las nuevas a sobremesa (algún flirteo en ultraportátiles y cosas así), llega AMD y se pone a la par rápido, y casi más rápido le supera.

Llega Apple y le hace un "meck-meck" corrrecaminil tremendo con su M1.

Y de pronto intel se espabila y empieza a prometer ganancias fuertes de IPC, ni siquiera vistas en el salto a haswell desde ivy bridge, con un Rocket Lake.

Y más IPC y más grande el salto con las auténticas cpus nuevas que vendrán a finales de año y en el "novedoso proceso de 10 nm", con Alder Lake.

Pues.... vamos. Que quedan como la mierda. Y eso a pesar de la enorme ironía del buen producto como tal que representa ese canto de cisne que es Comet Lake y la serie 10000 ahora mismo, con precios imbatibles y rendimientos bastante buenos, sólo superados por Zen 3, que por supuesto es a costa de consumos altos y todo lo demás.

Pero es que coño, que te venden un decacore por 350€, o un octocore por 250€ y ya los hexacore empezando por 130, y todos con SMT activado. Quién lo diría de la intel que con los Skylake originales andaba racaneando totalmente con el SMT como "lujo" (de hecho, que hizo la mayor racanería al sacar la serie 9000 ofreciendo más cores pero con muchos productos de gamas medias-altas con SMT desactivado).

Y quién diría que AMD posicionaría tan alto en precios sus nuevos 5x00, siendo como es que le cuestan casi lo mismo fabricarlos que la serie 3x00, siendo como es que ya está un tanto subida de precios esta última (es más cara cpu a cpu que lo que ofrece intel en cada segmento, por no mucho pero lo es, y eso en una cpu que es peor para juegos, aunque mejor para productividad, un balance muy justo para pedir eso).

El mundo al revés.

PPPD: Como el mundo se va a la mierda, me voy a comprar un Macintosh con un M1 o su descendiente más potenciado y a tirar millas. Total, si me van a exprimir ahí me distraiga, que lo hagan a conciencia.
Nadie o casi nadie, ignoro si alguien de momento por aqui XD pero https://elchapuzasinformatico.com/2021/ ... yzen-3000/ parece que por fin van a añadir el bar en Zen2. Ahora solo falta que lo usen más juegos y tener stock de graficas a un precio razonable. :-|
¿El hilo de Nvidia muto a AMD vs Intel?
Nomada_Firefox escribió:No se porque teneis que venir a un tema de Nvidia a discutir de AMD o Intel........... [fiu]


Nomada_Firefox escribió:Nadie o casi nadie, ignoro si alguien de momento por aqui XD pero https://elchapuzasinformatico.com/2021/ ... yzen-3000/ parece que por fin van a añadir el bar en Zen2. Ahora solo falta que lo usen más juegos y tener stock de graficas a un precio razonable. :-|

[facepalm]

Habrá tenido suerte o sera prima lejana de las vega? Sigue sin salirme a cuenta, pero no está mal ver que tienen margen de OC. Si el resto afinan así... pues ni tan mal.
Gnoblis escribió:¿El hilo de Nvidia muto a AMD vs Intel?

Es un avance, antes iba de criptos
Por cierto qué bien el barca ayer
A ver si sois capaces de seguir en el tema pq esta discusión se lleva en otros hilos y no vamos a dejar más duplicados
Herionz escribió:Habrá tenido suerte o sera prima lejana de las vega? Sigue sin salirme a cuenta, pero no está mal ver que tienen margen de OC. Si el resto afinan así... pues ni tan mal.

La cuestión puede ser hasta que punto es buena y estable para ser usada muchas horas. Al menos para mi. Hay gente que hace OCs muy gordos pero es que luego no usan el PC mucho realmente.

Sino fuera por el precio y la diferencia grande con la Ti, lo menos un 20%, no seria mala tarjeta de gama media. Seguramente eso sea lo peor. Esta grafica tenia que ser como una 2070 Super y la mayoria de reviews la ponen como una 2070 a secas.

No obstante yo creo que ese margen de diferencia se debe a que la 3060Ti no va a volver al mercado y que habra un modelo superior no tardando. Porque el gran problema, es que la 3060Ti estaba más cerca de la 3070 que de la 3060 12GB.
Nomada_Firefox escribió:
Herionz escribió:Habrá tenido suerte o sera prima lejana de las vega? Sigue sin salirme a cuenta, pero no está mal ver que tienen margen de OC. Si el resto afinan así... pues ni tan mal.

La cuestión puede ser hasta que punto es buena y estable para ser usada muchas horas. Al menos para mi. Hay gente que hace OCs muy gordos pero es que luego no usan el PC mucho realmente.

Sino fuera por el precio y la diferencia grande con la Ti, lo menos un 20%, no seria mala tarjeta de gama media. Seguramente eso sea lo peor. Esta grafica tenia que ser como una 2070 Super y la mayoria de reviews la ponen como una 2070 a secas.

No obstante yo creo que ese margen de diferencia se debe a que la 3060Ti no va a volver al mercado y que habra un modelo superior no tardando. Porque el gran problema, es que la 3060Ti estaba más cerca de la 3070 que de la 3060 12GB.

Independientemente de lo que rinda la 3060Ti,yo veo mucha diferencia entre lo que rinde la 3060 y la 3070.
Hablamos de más de un 30% en casi todos los juegos.
Me parece una burrada.
Por ejemplo ,en RE 3 Remake,la 3069 a 1440p saca 104 fps,pero es que la 3070 va a 168 fps de media.
Mucha tela la diferencia.
Si vamos. Juegos en los que escupen menos dos,es que no baja de 20-25fps la diferencia
Hasta una 1080Ti es más potente según juego que una 3060.
En los juegos que gana la 3060 a la 1080Ti,la diferencia es corta o mínima,pero cuando ocurre al contrario,es bastante notable a favor de la 1080Ti.
Todo esto,según vídeos y comparativas.
eR_pOty escribió:Se a debido de romper el titulo del hilo porque aqui antes de hablaba de la serie 3000 ...

https://www.youtube.com/watch?v=pZLbZMVPfT8

Parece que la 3060 se acerca mucho mas a una 2070 super en terminos de gaming que a una 2060 como se decia... :-| [buenazo]


la 3060 mejora la 2060 en 1440 que es como está hecho ese benchmark, en 1080 las diferencias son las que son
hh1 escribió:Independientemente de lo que rinda la 3060Ti,yo veo mucha diferencia entre lo que rinde la 3060 y la 3070.
.

Estamos en lo mismo y si ignoras lo que salio por en medio, es peor aún. Y no obstante, es que la 3070 rinde como la 2080Ti.

Pero es que ademas una cosa cuesta 339€ y la otra 519€ en precios de salida, más o menos siempre habra 200€ de diferencia que parecen una pasta. Y no me digais que no cuando llevo leyendo durante un monton de tiempo quejas acerca de como la gama media tenia que costar entorno a los 200€.

Pero a lo que yo iba, era que la 2060 ya rendia como una 1080 en muchos juegos, asi que realmente la 3060 les ha quedado floja.

Y no me cabe duda de que la 3070 es la guinda del pastel. Hace unos dias, cuando salio la 3060, dije que me sabia a poco y se me tiraron al cuello. Es cierto que he dicho que si costase 339 o menos, estaria bien. Pero como no es el caso, es una tarjeta tongo.

Tambien hubo gente que decia que rendia como una 2070 Super, no se de donde sacaron dichos datos. Me quedo con test como este

Imagen
Diferencias de 20 a 40 fps en 1080p, la resolución para la que se deberia comprar esta grafica. Ridiculo.
eR_pOty está baneado por "GAME OVER"
elsita escribió:
eR_pOty escribió:Se a debido de romper el titulo del hilo porque aqui antes de hablaba de la serie 3000 ...

https://www.youtube.com/watch?v=pZLbZMVPfT8

Parece que la 3060 se acerca mucho mas a una 2070 super en terminos de gaming que a una 2060 como se decia... :-| [buenazo]


la 3060 mejora la 2060 en 1440 que es como está hecho ese benchmark, en 1080 las diferencias son las que son

No entiendo que me quieres decir, si es superior en 1440p lo es en 1080p (misma cpu en ambos y sin bottleneck obviamente) una tarjeta no es mas compente que otra en segun que resolucion
eR_pOty escribió:
elsita escribió:
eR_pOty escribió:Se a debido de romper el titulo del hilo porque aqui antes de hablaba de la serie 3000 ...

https://www.youtube.com/watch?v=pZLbZMVPfT8

Parece que la 3060 se acerca mucho mas a una 2070 super en terminos de gaming que a una 2060 como se decia... :-| [buenazo]


la 3060 mejora la 2060 en 1440 que es como está hecho ese benchmark, en 1080 las diferencias son las que son

No entiendo que me quieres decir, si es superior en 1440p lo es en 1080p (misma cpu en ambos y sin bottleneck obviamente) una tarjeta no es mas compente que otra en segun que resolucion


en 1080 la diferencia entre la 2060 y la 3060 es de alrededor de un 20% nada más, conforme subes resolución y necesitas más máquina las diferencias aumentan, esto es así siempre

de la 1060 a la 2060 el rendimiento en 1080 se duplica, el salto en el caso de la serie 20 y la 30 no es ni parecido
eR_pOty está baneado por "GAME OVER"
elsita escribió:
eR_pOty escribió:
elsita escribió:
la 3060 mejora la 2060 en 1440 que es como está hecho ese benchmark, en 1080 las diferencias son las que son

No entiendo que me quieres decir, si es superior en 1440p lo es en 1080p (misma cpu en ambos y sin bottleneck obviamente) una tarjeta no es mas compente que otra en segun que resolucion


en 1080 la diferencia entre la 2060 y la 3060 es de alrededor de un 20% nada más, conforme subes resolución y necesitas más máquina las diferencias aumentan, esto es así siempre

de la 1060 a la 2060 el rendimiento en 1080 se duplica, el salto en el caso de la serie 20 y la 30 no es ni parecido

Si eso es cierto si la comparas con la serie 1000 el cambio a la 2000 fue abismal , o la 1060 era una tarjeta floja o la 2060 era muy buena... ya no se si en por potencia bruta o por la inclusion del DLSS en la serie 2000.

Pero de ahi a decir que la 3060 rinde como una 2060 como se dijo hay un buen trecho..
se comparaba con la 2060 super que esta muy cerca de la 2070 normal.

Asi que es verdad que la 3060 es un poco decepcionante.
Yo creo que lo peor de la 3060 es que cueste 500€. A 300€ seguro que mejora mi opinión.
Espero que AMD saque pronto su DLSS, así Nvidia tendrá que mover ficha y a lo mejor sacan el DLSS 3.0, que seguro que ya lo tienen, pero guardado porque ahora mismo no tienen necesidad de sacarlo.
Gnoblis escribió:Yo creo que lo peor de la 3060 es que cueste 500€. A 300€ seguro que mejora mi opinión.


O 700 como esta mañana en coolmod con un modelo. Y la 3070 la han tenido a 1080 pavos. Precios locos y muy mal a los de coolmod por jugar con la especulación de precios.
elsita escribió:
eR_pOty escribió:
elsita escribió:
la 3060 mejora la 2060 en 1440 que es como está hecho ese benchmark, en 1080 las diferencias son las que son

No entiendo que me quieres decir, si es superior en 1440p lo es en 1080p (misma cpu en ambos y sin bottleneck obviamente) una tarjeta no es mas compente que otra en segun que resolucion


en 1080 la diferencia entre la 2060 y la 3060 es de alrededor de un 20% nada más, conforme subes resolución y necesitas más máquina las diferencias aumentan, esto es así siempre

de la 1060 a la 2060 el rendimiento en 1080 se duplica, el salto en el caso de la serie 20 y la 30 no es ni parecido

No me parece que sea tan asi porque rinde algo más que una 2060 Super pero la gracia esta en el bar, en el raytracting y en el DLSS. Lo primero no lo hace la 2060 y lo siguiente si pero peor.

Luego de la 1060 a la 2060 no hay tanto, la 2060 apenas rinde en algunos juegos como la 1080. Eso no es duplicarse, más si llega es un 40% más. Y la 1060 rendia como una 980.

Las diferencias habitualmente entre modelos de una misma gama, rara vez pasan del 20%, muchas veces no tanto.
Ivy lake está baneado por "troll"
....
Nomada_Firefox escribió:
elsita escribió:
eR_pOty escribió:No entiendo que me quieres decir, si es superior en 1440p lo es en 1080p (misma cpu en ambos y sin bottleneck obviamente) una tarjeta no es mas compente que otra en segun que resolucion


en 1080 la diferencia entre la 2060 y la 3060 es de alrededor de un 20% nada más, conforme subes resolución y necesitas más máquina las diferencias aumentan, esto es así siempre

de la 1060 a la 2060 el rendimiento en 1080 se duplica, el salto en el caso de la serie 20 y la 30 no es ni parecido

No me parece que sea tan asi porque rinde algo más que una 2060 Super pero la gracia esta en el bar, en el raytracting y en el DLSS. Lo primero no lo hace la 2060 y lo siguiente si pero peor.

Luego de la 1060 a la 2060 no hay tanto, la 2060 apenas rinde en algunos juegos como la 1080. Eso no es duplicarse, más si llega es un 40% más. Y la 1060 rendia como una 980.

Las diferencias habitualmente entre modelos de una misma gama, rara vez pasan del 20%, muchas veces no tanto.


vaya, esto lo he hecho esta misma tarde en el mismo pc con el mismo windows sólo cambiando las tarjetas

Imagen

Imagen

es cierto que 89 no es el doble de 48, es sólo un 85% más de fps ... 1080 p, modo más alto en gráficos, exactamente igual para ambas

vaya, se me ha metido el widget de gamebox justo donde las especificaciones, la primera es una 1060 de 3 gigas, la segunda una 2060 normal de 6 gigas, ambas de gigabyte
tengo en casa una voodoo 2 de creative de 8mb son buenas para minar? En cuanto la podría vender 500 o por ahí?
Me a llegado reparada la Aorus Master 3080 y parece que funciona bien por el momento, pero jugando a Apex veo que se planta a 78 grados, cuando antes no pasaba de 65....... ¬_¬ [mamaaaaa]

Se pierde la garantía con Aorus por cambiar la pasta térmica???
eR_pOty está baneado por "GAME OVER"
@elsita pero no puedes hacer pruebas simplemente cambiando la grafica. lo suyo es que limpies drivers y uses drivers concretos de cada serie.

Los drivers son compatibles en la misma serie entre modelos, pero de distinta serie son distintos hasta donde yo se...
eR_pOty escribió:@elsita pero no puedes hacer pruebas simplemente cambiando la grafica. lo suyo es que limpies drivers y uses drivers concretos de cada serie.

Los drivers son compatibles en la misma serie entre modelos, pero de distinta serie son distintos hasta donde yo se...


tenía el pc con la 1060 con drivers actualizados, he puesto la 2060, actualizado drivers, reiniciado y hecho el benchmark de tomb raider
vtec16 escribió:tengo en casa una voodoo 2 de creative de 8mb son buenas para minar? En cuanto la podría vender 500 o por ahí?


Pues algun coleccionista te daria eso y algo mas.

Wallapop es tu amigo [qmparto]
elsita escribió:
Nomada_Firefox escribió:
elsita escribió:
en 1080 la diferencia entre la 2060 y la 3060 es de alrededor de un 20% nada más, conforme subes resolución y necesitas más máquina las diferencias aumentan, esto es así siempre

de la 1060 a la 2060 el rendimiento en 1080 se duplica, el salto en el caso de la serie 20 y la 30 no es ni parecido

No me parece que sea tan asi porque rinde algo más que una 2060 Super pero la gracia esta en el bar, en el raytracting y en el DLSS. Lo primero no lo hace la 2060 y lo siguiente si pero peor.

Luego de la 1060 a la 2060 no hay tanto, la 2060 apenas rinde en algunos juegos como la 1080. Eso no es duplicarse, más si llega es un 40% más. Y la 1060 rendia como una 980.

Las diferencias habitualmente entre modelos de una misma gama, rara vez pasan del 20%, muchas veces no tanto.


vaya, esto lo he hecho esta misma tarde en el mismo pc con el mismo windows sólo cambiando las tarjetas

Imagen

Imagen

es cierto que 89 no es el doble de 48, es sólo un 85% más de fps ... 1080 p, modo más alto en gráficos, exactamente igual para ambas

vaya, se me ha metido el widget de gamebox justo donde las especificaciones, la primera es una 1060 de 3 gigas, la segunda una 2060 normal de 6 gigas, ambas de gigabyte

No se de donde sacas que eso es un 85% más. Eso para mi es un 40 y algo más, más o menos lo que dije y dependiendo de cada juego ¿no? si fuera como tu dices, las ganancias entre cpus y gpus serian terrorificas. Puede ser que yo este mal o que tengamos diferentes maneras de medir. Posiblemente no estamos ni uno bien, teoricamente le daban un 47% de diferencia y en algunas pruebas como time spy 65%. Yo en todas las pruebas que he visto, la diferencia es muy variable entre un juego y otro.

Y ya dije que para alguien como yo con una GTX 1060. la 3060 seria buena, si fuera barata. Pero en cuanto te pones por encima de 350 pavos para cualquier modelo con algo de OC y piensas lo que rendia la 3060Ti o la 3070, se queda uno desilusionado totalmente. La GTX 3060 sera una gran tarjeta si baja de los 339. Y creo recordar que por ahi andaba la 2060 Super de KFA2, ironicamente el unico motivo por el que no compre una fue por el BAR, y el Raytracing ademas del DLSS mucho mejor. Pero para mi ha sido un poco desilusionante que el BAR sea algo que solo funcione con unos juegos preparados, creo que le faltan tranquilamente 2 o 4 años para que sea algo destacable.
Nomada_Firefox escribió:
hh1 escribió:Independientemente de lo que rinda la 3060Ti,yo veo mucha diferencia entre lo que rinde la 3060 y la 3070.
.

Estamos en lo mismo y si ignoras lo que salio por en medio, es peor aún. Y no obstante, es que la 3070 rinde como la 2080Ti.

Pero es que ademas una cosa cuesta 339€ y la otra 519€ en precios de salida, más o menos siempre habra 200€ de diferencia que parecen una pasta. Y no me digais que no cuando llevo leyendo durante un monton de tiempo quejas acerca de como la gama media tenia que costar entorno a los 200€.

Pero a lo que yo iba, era que la 2060 ya rendia como una 1080 en muchos juegos, asi que realmente la 3060 les ha quedado floja.

Y no me cabe duda de que la 3070 es la guinda del pastel. Hace unos dias, cuando salio la 3060, dije que me sabia a poco y se me tiraron al cuello. Es cierto que he dicho que si costase 339 o menos, estaria bien. Pero como no es el caso, es una tarjeta tongo.

Tambien hubo gente que decia que rendia como una 2070 Super, no se de donde sacaron dichos datos. Me quedo con test como este

Imagen
Diferencias de 20 a 40 fps en 1080p, la resolución para la que se deberia comprar esta grafica. Ridiculo.

Es que es eso.Yo la veo un poco por debajo de lo que debió ser.
Más de un 30% con respecto a una 3070 sobre un 20% con respecto a la 3060Tii,me parece bastante diferencia

Y a parte ,si vamos a precios oficiales , es que se lleva solo 180€ con la 3070,la cual te abre la puertas del 1440p holgadamente,mientras la 3060 ya de salida va justita en varios juegos a esa resolución.
Del 4K ni hablamos,claro
Y llevarse solo 80€ de diferencia con la 3060Ti tiene delito ya.Es que no hay color.
Quizás con un precio oficial de 275€ hubiesen estado más acertados y acordé a lo que rinde.
hh1 escribió:
Nomada_Firefox escribió:
hh1 escribió:Independientemente de lo que rinda la 3060Ti,yo veo mucha diferencia entre lo que rinde la 3060 y la 3070.
.

Estamos en lo mismo y si ignoras lo que salio por en medio, es peor aún. Y no obstante, es que la 3070 rinde como la 2080Ti.

Pero es que ademas una cosa cuesta 339€ y la otra 519€ en precios de salida, más o menos siempre habra 200€ de diferencia que parecen una pasta. Y no me digais que no cuando llevo leyendo durante un monton de tiempo quejas acerca de como la gama media tenia que costar entorno a los 200€.

Pero a lo que yo iba, era que la 2060 ya rendia como una 1080 en muchos juegos, asi que realmente la 3060 les ha quedado floja.

Y no me cabe duda de que la 3070 es la guinda del pastel. Hace unos dias, cuando salio la 3060, dije que me sabia a poco y se me tiraron al cuello. Es cierto que he dicho que si costase 339 o menos, estaria bien. Pero como no es el caso, es una tarjeta tongo.

Tambien hubo gente que decia que rendia como una 2070 Super, no se de donde sacaron dichos datos. Me quedo con test como este

Imagen
Diferencias de 20 a 40 fps en 1080p, la resolución para la que se deberia comprar esta grafica. Ridiculo.

Es que es eso.Yo la veo un poco por debajo de lo que debió ser.
Más de un 30% con respecto a una 3070 sobre un 20% con respecto a la 3060Tii,me parece bastante diferencia

Y a parte ,si vamos a precios oficiales , es que se lleva solo 180€ con la 3070,la cual te abre la puertas del 1440p holgadamente,mientras la 3060 ya de salida va justita en varios juegos a esa resolución.
Del 4K ni hablamos,claro
Y llevarse solo 80€ de diferencia con la 3060Ti tiene delito ya.Es que no hay color.
Quizás con un precio oficial de 275€ hubiesen estado más acertados y acordé a lo que rinde.

Solo nos queda esperar quizas al verano, a que Nvidia saque un modelo Super o algo asi que recorte las diferencias o que acabe bajando de precio si algun dia aumenta el stock. Es todo cuestión tambien de vender menos.

Pero sí, a mi la 3070 por muy criticada que fuera por los 8GB de VRAM, me parecia excelente porque en 1080p duraria muchisimo y puedes aspirar a cambiar a un monitor mayor. Siempre me fijo que cuando preguntaban por esa grafica por ejemplo y le preguntan al usuario si es para 1080p, la respuesta de es un desaprovechamiento es algo que no comparto, sobretodo si piensas tenerla mucho tiempo y por estar abierto a nuevas opciones visuales.
Nomada_Firefox escribió:
elsita escribió:
Nomada_Firefox escribió:No me parece que sea tan asi porque rinde algo más que una 2060 Super pero la gracia esta en el bar, en el raytracting y en el DLSS. Lo primero no lo hace la 2060 y lo siguiente si pero peor.

Luego de la 1060 a la 2060 no hay tanto, la 2060 apenas rinde en algunos juegos como la 1080. Eso no es duplicarse, más si llega es un 40% más. Y la 1060 rendia como una 980.

Las diferencias habitualmente entre modelos de una misma gama, rara vez pasan del 20%, muchas veces no tanto.


vaya, esto lo he hecho esta misma tarde en el mismo pc con el mismo windows sólo cambiando las tarjetas

Imagen

Imagen

es cierto que 89 no es el doble de 48, es sólo un 85% más de fps ... 1080 p, modo más alto en gráficos, exactamente igual para ambas

vaya, se me ha metido el widget de gamebox justo donde las especificaciones, la primera es una 1060 de 3 gigas, la segunda una 2060 normal de 6 gigas, ambas de gigabyte

No se de donde sacas que eso es un 85% más. Eso para mi es un 40 y algo más, más o menos lo que dije y dependiendo de cada juego ¿no? si fuera como tu dices, las ganancias entre cpus y gpus serian terrorificas. Puede ser que yo este mal o que tengamos diferentes maneras de medir. Posiblemente no estamos ni uno bien, teoricamente le daban un 47% de diferencia y en algunas pruebas como time spy 65%. Yo en todas las pruebas que he visto, la diferencia es muy variable entre un juego y otro.

Y ya dije que para alguien como yo con una GTX 1060. la 3060 seria buena, si fuera barata. Pero en cuanto te pones por encima de 350 pavos para cualquier modelo con algo de OC y piensas lo que rendia la 3060Ti o la 3070, se queda uno desilusionado totalmente. La GTX 3060 sera una gran tarjeta si baja de los 339. Y creo recordar que por ahi andaba la 2060 Super de KFA2, ironicamente el unico motivo por el que no compre una fue por el BAR, y el Raytracing ademas del DLSS mucho mejor. Pero para mi ha sido un poco desilusionante que el BAR sea algo que solo funcione con unos juegos preparados, creo que le faltan tranquilamente 2 o 4 años para que sea algo destacable.


pues debe ser que te enseñaron mal a sacar porcentajes, si divides los 89 frames de la 2060 por los 48 de la 1060 te da 1,85 eso es exactamente un 85% más que 48

el 85% de 48 es 40,8, si sumas ambos te da 88,8 ....

es decir, la 2060 te da en 1080p casi el doble de frames que la 1060, debiste atender más en clase cuando estudiaste las reglas de tres y los porcentajes ...

y haciendo las mismas cuentas repito que la 3060 da de promedio en diferentes juegos un 20-22 % más de frames que la 2060

la diferencia es abismal
Nomada_Firefox escribió:
hh1 escribió:
Nomada_Firefox escribió:Estamos en lo mismo y si ignoras lo que salio por en medio, es peor aún. Y no obstante, es que la 3070 rinde como la 2080Ti.

Pero es que ademas una cosa cuesta 339€ y la otra 519€ en precios de salida, más o menos siempre habra 200€ de diferencia que parecen una pasta. Y no me digais que no cuando llevo leyendo durante un monton de tiempo quejas acerca de como la gama media tenia que costar entorno a los 200€.

Pero a lo que yo iba, era que la 2060 ya rendia como una 1080 en muchos juegos, asi que realmente la 3060 les ha quedado floja.

Y no me cabe duda de que la 3070 es la guinda del pastel. Hace unos dias, cuando salio la 3060, dije que me sabia a poco y se me tiraron al cuello. Es cierto que he dicho que si costase 339 o menos, estaria bien. Pero como no es el caso, es una tarjeta tongo.

Tambien hubo gente que decia que rendia como una 2070 Super, no se de donde sacaron dichos datos. Me quedo con test como este

Imagen
Diferencias de 20 a 40 fps en 1080p, la resolución para la que se deberia comprar esta grafica. Ridiculo.

Es que es eso.Yo la veo un poco por debajo de lo que debió ser.
Más de un 30% con respecto a una 3070 sobre un 20% con respecto a la 3060Tii,me parece bastante diferencia

Y a parte ,si vamos a precios oficiales , es que se lleva solo 180€ con la 3070,la cual te abre la puertas del 1440p holgadamente,mientras la 3060 ya de salida va justita en varios juegos a esa resolución.
Del 4K ni hablamos,claro
Y llevarse solo 80€ de diferencia con la 3060Ti tiene delito ya.Es que no hay color.
Quizás con un precio oficial de 275€ hubiesen estado más acertados y acordé a lo que rinde.

Solo nos queda esperar quizas al verano, a que Nvidia saque un modelo Super o algo asi que recorte las diferencias o que acabe bajando de precio si algun dia aumenta el stock. Es todo cuestión tambien de vender menos.

Pero sí, a mi la 3070 por muy criticada que fuera por los 8GB de VRAM, me parecia excelente porque en 1080p duraria muchisimo y puedes aspirar a cambiar a un monitor mayor. Siempre me fijo que cuando preguntaban por esa grafica por ejemplo y le preguntan al usuario si es para 1080p, la respuesta de es un desaprovechamiento es algo que no comparto, sobretodo si piensas tenerla mucho tiempo y por estar abierto a nuevas opciones visuales.

A mí una 3070 por debajo de 580€ me parecía una compra maestra.No digamos a 519€.

Igual que calidad precio,la 3060Ti a 419€ es la compra.Pero si no te importa pagar ese "pequeño" plus por 100€ más,la 3070 estaba genial de precio y te permite ir un poco más holgado.
A mí me parece la ideal para 1440p +60fps.
Que la 3069Ti por supuesto que también es cojonuda para eso.
Y la 3080 incluso a 719€ me parecía también buena compra.Para 1440p te vale su Vram y va a aguantar más tiempo dando el callo .
Lo que me echó para atrás para su compra, es que al tenerla me iba a ir seguramente al 4K ,y ahí +700€ por una Vram que lo mismo se queda corta,ya no me molaba el tema.

Y al final,para tirar a 1440p +60fps,me parecen mejor compra por su precio la 3060Ti o la 3070.

Es mi forma de verlo.

Las tres al final están bien por su precio inicial,pero lo de la 3060...No cuela Nvidia.
hh1 escribió:A mí una 3070 por debajo de 580€ me parecía una compra maestra.No digamos a 519€.
.

Solo hay un problema bien grande, ahora mismo eso no va más lejos de ser una ilusión. Ya se, no es tu caso. Pero en el de todos los demas si. Aunque yo no hubiera comprado nunca un modelo de Zotac.

Tampoco es que podamos decir que los precios son "esos" en ningun modelo.

Que no te parezca mal hh1, pero parece que buscas compasión. XD La tienes, disfrutala, no necesitas que nadie te diga "que bien lo has hecho" o ¿estas en esa tesitura de necesitar aprovación divina? XD Hay mucho de eso por aqui. Pero bueno yo te la doy. Fue la mejor compra y quizas lo sea en el futuro. Yo soy un poco pobre para poder dejarme 500 leuros en algo. No tengo donde caerme muerto. XD

@elsita Leer lo que dije tampoco estaba de más. [fiu]
Nomada_Firefox escribió:
@elsita Leer lo que dije tampoco estaba de más. [fiu]


qué es lo que quieres que lea? esto es matemática básica, te digo que 89 es un 85% más que 48 y tú me dices que es un 40% ...
Ivy lake está baneado por "troll"
1060 100w
2060 160w
3060 180w

Con eso está todo dicho.
31123 respuestas