1080p : Bienvenidos al cambio PS3

1, 2, 3, 4
afortunado tú =P (lucky bastard!!!! xDDD), pero no puedes negar que el 90% (como poco) de los hogares españoles no gozan de dicha resolución en sus televisores..

y del killzone 2, se ha confirmado que ese video no es ingame así que..

lo dicho, creo que en SONY se han sobrado diciendo lo de 2 veces más potente que X360 así a la ligera.. creo que PS3 será más potente en CPU, pero la máquina no es sólo la CPU, y como se ha dicho con anterioridad cada máquina tiene sus virtudes y defectos.. yo creo que no veremos juegos 2 veces mejor en PS3 ni de coña.. va a estar muy disputada esta gen, ya lo veréis.. ahora lo de MS y Square-Enix me ha dejado a cuadros.. jur.. aunque es offtopic xD

un saludo
Jur...

XBOX 360 tiene como formato standar los 720p, es decir, alta resolución.

A nadie (ni a Nintendo), se le pasa por la cabeza sacar una consola que no tenga una calidad de imagen como mínimo de esa resolución.

Aunque no tengas una pantalla que acepte esas resoluciones, la calidad de imagen mejora en cualquier pantalla con respecto a las resoluciones de las consolas anteriores.

Aún así, esta nueva generación está totalmente enfocada a las pantallas LCD, Plasmas y retroproyectores compatibles.

Un saludo.
Ferdopa escribió:Jur...

Me cito a mi mismo :)

"XBOX 360 no puede hacerlo (por los datos técnicos aportados por Microsoft)"

No me preguntes a mí, preguntaselo a Microsoft. Xbox 360 no soporta esa resolución (a no ser que oculten información).

Vuelvo a repetir, con los datos en la mano, la primera y única fuente digital a día de hoy capaz de dar 1920*1080 a 60 frames es PS3.

Puede que Microsoft cambie sus especificaciones, pero su resolución máxima en este momento es de 1280*720, o 1080i.

Un saludo.



mmm... la resolucion solo la limitan dos cosas, la memoria (con 512MB te sobra para 1080p) y el DAC en caso de haberlo. La Edram en x360 esta para ofrecer 720p con cierto nivel de MSAA (otro tipo de FSAA) "by the face", pero no hace que no puedas usar un juego a 1080p. Joer, si en pc tienes pantallas de 2000 y pico por 2000 y pico de resolucion. X360 tiene para 1080p la misma limitacion que en la generación actual, ningúna.
Jur...

Se me olvidaba :Ð

Hay que pensar que esta hornada de máquinas están pensadas para el año que viene (aunque Xbox salga antes), y para durar unos 5 años.

En la actualidad ya hay pantallas LCD de 32" con una resolución de 1280*720 y entrada DVI por unos 1.200 €.

Dentro de dos o tres años, los precios bajarán y las resoluciones subirán. Por eso, aunque ahora las resoluciones parezcan algo exagerado, es un presente que está a la vuelta de la esquina.

Sobre las limitaciones de XBOX, no he hablado de ellas, ni sé si las tiene. Sólo sé que a día de hoy sus especificaciones para juegos están como máximo en las 720p o las 1080i.

Como he dicho antes, habría que preguntarle a Microsoft sus razones.

Un saludo.
no, MS EXIGE de MINIMO 720p y 1080i (1080i es más facil de renderizar para la maquna q 720p), que no maximos... :P
Jur...

Lo de mínimo es correcto, pero nunca han mencionadao nada de los 1080p (que es lo que estoy diciendo, que a día de hoy no hay noticias de que los juegos soporten más ¡Qué se lo pregunten a Microsoft porque no lo hacen!) XD

Un saludo.
por que necesitas 2,25 veces más fillrate para llenar cada frame en pantalla, o sea, 2,25 veces el ancho de banda, 2,25 veces la potencia de calculo de shaders varios...

no es tan util como parece a primera vista soportar 1080p. Pero que Microsoft no lo nombre, es por que simplemente han nombrado las resoluciones estandar, el resto no las dicen. Yo no le veo mayor problema.
Y pensar que yo llevo jugando a 1920x1200 desde que salió el UT2k3... :-|
Enhorabuena, Apple ROX y MS Sux. :-|

Y un juego basado en DirectX 7 es la repanocha gráfica, especialmente tiene unos requerimientos del cagarse, oiga usté :-|
Chester escribió:
[...]


Yo te digo XD . Yo he visto los 2 videos y el Gears of Wars es el principal motivo por el que me compraré la 360. Y soy de los que dan por hecho que el video del KillZone 2 NO es ingame.

Pero si hablamos estríctamente de videos prerender el de Killzone2 es superior.

Un saludo


Lo único tangible que nos permite comparar entre ambas consolas es el Unrel Engine, y en gamespot, que los han visto bastante mejor que nosotros en ambas plataformas, dicen que luce igual de bien en ambas, sin diferencias visibles. Así que dejando de lado la bonita película de KillZone y las demos técnicas (Ms no sé como no ha sacado alguna, que siempre gustan en este tipo de eventos XD), las consolas parecen muy igualadas, otra cosa es que luego se aproveche mejor una que otra.

Y sobre las resoluciones, con el filtrado y tal, creeis que vamos a notar la diferencia de 1080p a 720p en pantallas de menos de 50"? Y no olvideis que el que se compre hoy en día una pantalla plana, o ya se la haya comprado, la va a querer usar al menos 5 años ...
Enhorabuena, Apple ROX y MS Sux. ??Y un juego basado en DirectX 7 es la repanocha gráfica, especialmente tiene unos requerimientos del cagarse, oiga usté


¿Y eso a qué viene? estamos hablando del HD, me hacía ilusión decirlo :D
En cuanto a la resoluciones en los juegos, los limites yo siempre he entendido que se basan en la memoria de la tarjeta grafica y nada mas pero bueno.


P.D: Soul Calibour 2 en Xbox soporta hasta los 1080i y va igual de fluido que a 480p y 720p X-D X-D X-D.

Saludos
La memoria RAMBUS que tiene no me acuerdo donde lo lei pero tenia un ancho de banda descomunal, y por los datos que hay ahi me parece que ni hacen efecto cuello de botella. Y las texturas madre mia, casi em da algo al ver el video del motorstorm.
no hace falta romperse tanto la cabeza, os acabaréis comprando las 2 XD y la mayoria de gente jugaremos con ellas con teles convencionales de toda la vida, no hay que alarmarse por si 720, 1080 o 20000000000.
Que nos enseñen juegos y no tantos numeritos.
Jeje, no os desespereis.. prf siempre con la eterna competencia entre dos marcas lideres... pues mirad yo pienso ahorrar para ambas consolas que seguro q sacan juegos fenomenales y pienso seguir jugando en mi televisor Ansonic de 15" que tengo enfrente la cama de la habitacion.. donde se ve todo fenomenal. Si esos juegos se ven realistas en una pantalla de 50" en la mia de 15" pareceran peliculas xDD

Saludos!!
yo presonalmente creo que la gpu de xbox es superior a la de ps3 y de hay les guste o no a la gente sale casi todo el grafico del juego y sino es bien facil intentar poner el far cry en un p4 3,2 con una 5200 y ponerlo en un xp 2800 con una ati 9800 a ver que pasa?
shadow land escribió:ps3 me ha dejado con el "meh, Sony sigue jugando a yo soy el lider y te tienes que mojar tu".


Yo no lo he visto como soy el líder y te tienes que mojar tú, lo he visto como yo saco mi consola en un año, tú en 6 meses, qué vas a hacer? Normal que Sony no se moje demasiado, tienen tiempo de copiar todo lo que quieran de MS. Cosas de ser el segundo en salir.

Y varios pajaritos han dicho que solo nos podemos fiar de las demos técnicas y de UT 2007.

No me extraña por otra parte, era mu bonito para haber estado a la luz solo 2 meses los kits de PS3... je.


Muy bonito por? NO sé, ya sabes que no entiendo mucho, pero el hecho de que hayan portado el engine Unreal3 en dos meses creo que debería ser motivo de alegría para todos.
Por cierto, vaya un golito que les ha metido Sony a MS: el juego más bruto de X360 petardea y en PS3 va fluído como la seda (ya sé, kits en distinta etapa de desarrollo, pero MS tenía que haber salido a darlo todo, y casi parece que se han guardado cosas, teniendo que salir a la luz en 6 meses.

Otra cosa: 1080p malo? Por? Pq nadie lo tiene? JAJAJAJAAJAJ. Cuántas personas conoceís ahora mismo que puedan aprovecharse de las posibilidades del juego progresivo en una tele? No creo que muchas. Sí, ya sé, está cambiando, la gente compra LCDs, plasmas y demás. Hay que recordar que Sony piensa en el futuro, así que no veo que puede tener eso de malo.. si sólo lo aprovecho dentro de 5 años, me da = (siempre y cuando que no me lo cobren, claro- espero que sea parte de esas cosas en las que las compañías pierden dinero, je).

Ah, Shadow, tú has debido de ver un GT4 distinto al que yo he visto, pq más de 20 coches, centenares de personas pululando, con los cacharros del pit y demás.. :)

PD: Ref 1080p.. veo que Ferdopa se me adelantó, je.
Sip, lo que más me ha llamado la atención del gt4 vision ese ha sido la cantidad de coches subiendo por una colina.

Pero también hay que reconocer megateto que los gráficos son los del 4 sin más.
lherre escribió:Pero también hay que reconocer megateto que los gráficos son los del 4 sin más.


Yo que creía ver diferencias de iluminación y demás.. pero bueno, se ve que pido poco, je.
Hagiwara escribió:La memoria RAMBUS que tiene no me acuerdo donde lo lei pero tenia un ancho de banda descomunal, y por los datos que hay ahi me parece que ni hacen efecto cuello de botella. Y las texturas madre mia, casi em da algo al ver el video del motorstorm.


motorsport es CGI, ni juego ni na. Es un video de concepto. nada más.




"GT5" es GT4 con lo que le gustaría a polyphoni que fuese. Es lo mismo, pero con cuatro cosas más en pantalla, ni cambios en la iluminación ni na, siguen teniendo los mismos cutre reflejos, las mismas cutresombras y la misma cutre iluminación.



1080p, no es inutil, pero como ya he dicho, necesita 2,25 veces más de proceso (tanto de memoria, como de calculo), las 2,25 veces más de area que la misma imagen a 720p, y las cosas como son, entre 720p y 1080p las diferencias de imagen son negligibles salvo en una pantalla MUY grande. Por eso digo que no es necesario, no que sea inutil. Si fuese desarrollador me centraria en ofrecer lo maximo a 720p, no a 1080p, ganaria espacio para texturas, tiempo de proceso para efectos y más cosas que perdería a 1080p
megateto escribió:
Yo no lo he visto como soy el líder y te tienes que mojar tú, lo he visto como yo saco mi consola en un año, tú en 6 meses, qué vas a hacer? Normal que Sony no se moje demasiado, tienen tiempo de copiar todo lo que quieran de MS. Cosas de ser el segundo en salir.



Muy bonito por? NO sé, ya sabes que no entiendo mucho, pero el hecho de que hayan portado el engine Unreal3 en dos meses creo que debería ser motivo de alegría para todos.
Por cierto, vaya un golito que les ha metido Sony a MS: el juego más bruto de X360 petardea y en PS3 va fluído como la seda (ya sé, kits en distinta etapa de desarrollo, pero MS tenía que haber salido a darlo todo, y casi parece que se han guardado cosas, teniendo que salir a la luz en 6 meses.

Otra cosa: 1080p malo? Por? Pq nadie lo tiene? JAJAJAJAAJAJ. Cuántas personas conoceís ahora mismo que puedan aprovecharse de las posibilidades del juego progresivo en una tele? No creo que muchas. Sí, ya sé, está cambiando, la gente compra LCDs, plasmas y demás. Hay que recordar que Sony piensa en el futuro, así que no veo que puede tener eso de malo.. si sólo lo aprovecho dentro de 5 años, me da = (siempre y cuando que no me lo cobren, claro- espero que sea parte de esas cosas en las que las compañías pierden dinero, je).

Ah, Shadow, tú has debido de ver un GT4 distinto al que yo he visto, pq más de 20 coches, centenares de personas pululando, con los cacharros del pit y demás.. :)

PD: Ref 1080p.. veo que Ferdopa se me adelantó, je.


Podría ser pejudicial porque a 720p se podrían añadir más cosas y tener un detalle más alto con la misma máquina, y exigir que todos los juegos lleven 1080p cuando realmente lo van a aprovechar los dueños de proyectores y poco más, porque las diferencias de resolución en una pantalla de menos de 40" no creo que sean muchas, a mí me parece una tontería (el echo que sea obligatorio, no que dé la posibilidad de usar la resolución) ...

Editado: Se me adelantó shadow :)
Vamos a ver las 3 maquinas estan bien yo personalmente me inclino mas por la PS3 pero ¡ojo! que la XBOX 360 esta muy bien tambien lo que no me llego a creer de la XBOX 360 es lop de 48 f-p s pipelines tampoco la de la PS3
la xbox 2 solo tiene 8 pipelines reales, lo que tiene luego son 48 unidades de calculo vectorial dedicados a shaders (que harían las veces de "48 pipelines en juegos con shaders a piñon fijo") y capaz de 64 hilos internos.

Si haces un juego sin shaders, solo tendras 8 pipelines.
entonces van a tener mas rendimiento graficos con shaders que sin ellos??? joe suena raro.
no suena raro, cuantos juegos ha dia de hoy no usan shaders en xbox?

Y los juegos que no usan shaders... no creo q requieran más de 8 pipes para mostrar las texturas en pantalla
no me pienso comprar una tele de 6000€ por mucho que lo digais[reojillo]
una 32" 720p LCD de aquí a 3 años no debería costar más de 600 a 900€, sobretodo si prentenden eliminar del mercado de aquí al 2008 todas las televisiones de tubo. Así que tranquilidad. Estas maquinas van a estar 5 años minimo en el mercado, no 2.

Plantearlo de la siguiente manera, la proxima Tv que compreis apartir de dentro de 2 años (o quizas antes) tendra HDTv por huevos y por ley para ser 100% compatible con la TDT.


Me he visto hace un rato la presentación completa de Sony, y no veo por ningún lado por que la gente se ha impresionado tanto. Las demos de juegos se ven que son y CGI a la legua (salvo Heavenly Sword, q si no fuese por que uno de los programadores se pasea por Beyond3D y ha confirmado que el juevo va relativamente bien a 1080p, dudaría). Las demos técnicas no son nada dle otro jueves.
Interesante la del eye toy, pero con perreria curiosa en medio para la física de fluidos, dividimos el agua en macrogotas redondas e inamovibles y ya tenemos fluido cuando se mueve sin un recinto alrededor, je.

Lo de las ojas o el terreno no es nada que no pueda hacer x360.

Lo de los 12 streams de HDVideo... no se, pero Toshiba hizo no hace mucho 48 streams con un cell.
Y los mil tubnails iban como mucho a 5fps cada uno, así que tampoco es tanta cosa teniendo en cuenta que hay 200 putos gigaflops debajo de una caja de plastico.


No se, salvo UT 2k7 o Figth nigth de EA el resto me ha dejado totalmente MEH. Igual que la presentación de MS, MEH.
No, si te entiendo, lo que pasa es que suena raro que pueda ejecutar mas rapido graficos "mas complejos" que "menos complejos", vamos que en el diseño han predominado el optimizar la tarjeta para tareas complejas que en general.
no, la cosa es que parece que con 8 pipelines a 500MHz se sobran para llenar una pantalla a 720p sin problemas cuando no se usan shaders (o una carga minima).

De todas formas, es una arquitectura nueva, por un lado van los shaders, y por el otro los pipelines de dibujado.
shadow land escribió:no, la cosa es que parece que con 8 pipelines a 500MHz se sobran para llenar una pantalla a 720p sin problemas cuando no se usan shaders (o una carga minima).

De todas formas, es una arquitectura nueva, por un lado van los shaders, y por el otro los pipelines de dibujado.


Interesante las opiniones mantenidas entre shadow land y molonator me lo puedes explicar por favor el razonamiento.

Saludos [oki]
la cosa es que la R500 que monta Xbox no sigue la arquitectura "base" de PC ni la de la nVIDIA en PS3.

Normalmente, un pipeline equivale a dia de hoy a un motor pixel shader. Ahora bien, en x360, los vertex y pixels shaders se unifican en un solo tipo de shaders capaces de hacer ambos tipos de operaciones (sobre vertices y pixeles) y que será la base para DirectX 10, o proximamente conocido como Windows Graphics Foundation 2.0. Entonces que ocurre? hay 8 motores/pipes de dibujado, es decir, solopuedes plantar en pantalla un maximo de 8 pixeles por cada ciclo de reloj, pero pro contra, tienes 48 unidades trabajando a la vez, para calcular dichos pixeles o vertices, unidades, que a su vez, pueden trabajar con hasta 64 procesos diferentes.

Por eos, si un juego no tiene mucha carga de shaders, o es graficamente "pobre" en el apartado técnico, gráficamente la potencia equivaldra a las tarjetas 3D de hace unos años con solo 8 pipelines, pero a mucha más velocidad, obviamente. Sin embargo, si un juego lo cargas de shaders (contra más largos y complejos mejor), la tarjeta funcionará como si de 48 pipelines se tratasen, ya que tienes 48 unidades trabajando, mientras que en una arquitectura estandar con 8 pipelines, solo tendrias 8 unidades.
hombre, por lo que dices, parece ser que esta optimizada para ejecutar graficos con shaders (¿pixel y vertex?) y hasta hace poco creo que era lo mas complejo de generar no??.
Por otro lado si hay tarjetas actualmente con 12 pipes (yo entiendo por pipes a los motores de render de toda la vida pero no estoy seguro), así asimple vista parece ser que para graficos 3d sin shaders se tienen que apañar con 8 pipes a 500 Mhz (ya quisieran los PC´s llevar el micro de la Xbox360 [sonrisa] ). Pero en graficos 3d complejos y realistas (digo yo que ese aspecto se lo da entre otras cosas los shader) pues la tarjeta ira como un cañon no???.

Ojo que el parrafo anterior es una pregunta, no una afirmación. [oki]

Saludos

Editado: Ostias, creo que ya me has respondido :p :p
Si lo entiendo contra mas complejos sea el juego y mas carga aprovecha las 48 unidades y procesando al maximo mejor lo que tienes son 48 unidades trabajando con 8 pipes.
entonces se superpone en la ejecución en diferentes trozos de la operación sobre los elementos del vector, con una ejecución más eficaz de la operación aritmética en la que se esta realizando ¿ no?

Saludos
RS6000.IBM escribió:entonces se superpone en la ejecución en diferentes trozos de la operación sobre los elementos del vector, con una ejecución más eficaz de la operación aritmética en la que se esta realizando ¿ no?

Saludos



no entiendo nada
shadow land escribió:

no entiendo nada


muy facil, yo te explico.

vas a google.

entras en la web de cesga.

copias algo sobre pipelines que no entiendes y lo pegas aqui para hacerte el "machote"

[qmparto] [qmparto] [qmparto] [qmparto]

con poner una parte del texto en google te sale esto:
Estas pipelines superponen la ejecución de las diferentes partes de una operación aritmética sobre los elementos del vector, produciendo una ejecución más eficiente de la operación aritmética que se está realizando.
http://www.cesga.es/ca/defaultC.html?CalcIntensivo/Vectoriais.html&2


ains rs6000 no escarmientas, te hemos pillado otra vez :p
Jur...

Lo que quiere decir shadow (a ver si lo he entendido) es que con la arquitectura de Xbox si un juego sin shaders tiene un rendimiento 100 (por ejemplo), el mismo juego con shaders, efectos y la de Dios sigue teniendo un rendimiento (como mínimo)100 en Xbox 360.

En cambio, en un PC con una gráfica actual, si un juego sin shaders ni efectos tiene un rendimiento 100, con shaders y efectos tiene un rendimiento 50.

Es decir, que los efectos que se le añadan al gráfico no cargan el rendimiento del equipo.

¿ Me equivoco? ;)

Un saludo.
Ferdopa tu lo has dicho como yo pero mejor.

Saludos
oslando escribió:
muy facil, yo te explico.

vas a google.

entras en la web de cesga.

copias algo sobre pipelines que no entiendes y lo pegas aqui para hacerte el "machote"

[qmparto] [qmparto] [qmparto] [qmparto]

con poner una parte del texto en google te sale esto:
Estas pipelines superponen la ejecución de las diferentes partes de una operación aritmética sobre los elementos del vector, produciendo una ejecución más eficiente de la operación aritmética que se está realizando.
http://www.cesga.es/ca/defaultC.html?CalcIntensivo/Vectoriais.html&2


ains rs6000 no escarmientas, te hemos pillado otra vez :p



[qmparto]

Ferdopa. No es exactamente eso.


Pongamos que un juego de PC corre sobre una gra´fica con 16 pipelines (epoca DirectX 7, pongamos, Quake 3) va a 100 de rendimiento. Si la gráfica de Xbox2 tuviese la misma frecuencia de reloj que esa gráfica de hace 5 años, en xbox 2, rendiria a 50 (suponiendo que todo fuese igual internamente, sin mejor alguna).

100->16
x---->8

x-->50

Ahora bien, cojemos un juego complejo en shaders como FarCry en una gráfica con 16 pipelines daría un rendimiento pongamos de 100. A igual velocidad de reloj, en xbox 2, solo hay 8 pipelines para poner en pantalla, pero sin embargo, tenemos 48 unidades de shaders, frente a solo 16 en el PC, lo que haría un rendimiento de calculo de:

100-->16
x---->48

dando x a un rendimiento del 300% con un chip de mismas caracteristicas y rendimientos, pero cambiando los 16 pipelines de PC, poniendo 48 ALUs de Xbox 2, y dejando al PC con 16pipelines de dibujado, pero dejando con 8 pipelines a Xbox 2.

Posiblemente, Xbox 2 no podría aumentar tanto su resolución, pero si a una resolución "base" igual para ambos, sería capaz como mínimo, de ejecutar 3 veces más cantidad de codigo para efectos (shaders).


Todo esto es teoria en plan esquema de manzanitas.



Luego lo de si un juego en PC acutal sin shaders rinde 100 y con shaders 50, eso sería solo y unicamente en el caso de que e ljuego tuviese tal brutal carga de texturas, que los pipelines se viesen saturados solo para poder calcular eso en pantalla (se sobrapasa el fillrate), pero para eso estan las tecnicas de culling, ocultacion y tropocientas cosas. Teóricamente, no debería disminuir el rendimiento, pero en la realidad disminuye, pero eso son cosas que no vienen a cuento, pero no de semejante forma. Pero la analogia, a falta de saber como funcoina internamente el R500 de xobx2, podríamos decir, q es correcta, si :)
RS6000.IBM te han pillao pero de lleno tio, hace tiempo que te llevo leyendo en algunas disputas con shadow land y la verdad es que la forma que tienes de redactar los post me hace pensar que no sabes ni lo que escribes

Mi consejo es que te dediques a otra cosa porque cuanto mas escribes menos sabe de lo que hablas y mas se te ve el plumero.
sobre el tema de 1080p solo comentare que me parece desproporcionado

es innecesario, ni siquiera los HDTVs actuales lo soportan, y en cambio, darle soporte a esa resolucion para todos los juegos si que supone una importante carga para el hardware de la consola.

yo creo que es otro ejercicio de "numeros". osea, mas numeros = mejor. sean utiles o no. Tecnica de mercadotecnia de la electronica y la informatica de sobras conocida y de conocidos resultados.

saludos cordiales.
RS6000 eres patetico, pero me has hecho reirme mucho, aun me duele la mandibula [+risas]

shadow land, tengo un enlace que me gustaria que vieras y si puede ser que me comentaras si estas deacuerdo con la opinion del mismo:

comparativa ps3 x360

resumiendo dice que la gpu de x360 va a dar peor rendimiento debido a su unificacion de shaders, frente a la especializacion de ps3
a medio dia lo leo, pero te adelanto que el rendimiento de la r500 es una incognita real, pero ATI lleva trabajando en esa arquitectura más de 5 años internamente (desde que compraron ArtX).
maesebit escribió:Tiene 256MB de RAM (a 3,2Ghz) :-O y 256 de VRAM.


No todos los monitores soportan 1920x1080, y ademas, prefiero mil veces jugar en una TV de +32" a 720p antes que en un monitor de 17-19" a 1080p

Acabo de ver la demostracion de Unreal en PS3 y todavia no he conseguido cerrar la boca. XD


Información, Carrefour en Francia, oferta de nuevo hiper, 899€ un lcd-tv de 32" ¿a que resolución?..... pues si 1980x1080, asi que esperar en 6 meses 1 año ya estan en España...

No creo que haya que esperar a la PS4 para sacarle probecho.

Nota: Es sin marca conocida, y estuve apunto de pillarlo, pero creo que es.... demasiada resolución.

ademas que alli no me van a dejar probar el portatil pa ver como se ve en diferentes resoluciones...

Por si los dudais:
Me pillo la Xbox360 el 1º dia si sale <= 300€ y la pS3 tambien caerá, aunque tenga que pagar un plus mas de 150€.

Nota, si Microsoft cae en la trampa de Sony y saca la XBox360 a 450€, que se vaya despidiendo de mi, y de quedarse con una parte gorda del pastel.

Si Microsoft no especula y la mete por 300-350€ pienso que tiene muchas ooportunidades de ser una maquina para la que desarrollaran, todas las compañias, por implantación en el mercado.
Efectivamente shadow land se dice que ati timo a microsoft para usar su x360 de experimento he introducir su shaders-pixels unificado.

Supuestamente los juegos que se programen para ese chip no pondran tener la misma potencia grafica que si se programan para el R520 (que creo que nintendo usara esta gpu) con shaders y pixels separados, y eso corresponde a un problema para los programadores de juegos...sencillamente se programara como rige el standard de las pc actuales. Esa es la ventaja de sony, y creo que la de nintendo tambien.....sencillamente como he oido , no es tiempo para esa gpu con unificacion de shaders- pixels. Me imagino que estaran pensando a cuando salga el directx 10 , pero no se creo microsoft la cago , se dejo llevar del invento de ati.

Saludos.
Lo mismo Ati ya no sabe hacer tarjetas graficas [666] [666] [666] [666].

Ya en serio.

Yo creo que mejor entender y ver en que consiste esta esta tecnologia y dejarnos de decirle a ATI que esta bien o que esta mal. Porque queda muy bonito hacer un monologo mas o menos bien escrito y san sacabo.
Lo mismo ATI ha creado una tarjeta que ni han probado. o testeado. Puestos a pensar asi, lo mismo los tres PowerPC de 64 bits con 2 hilos de ejecucion por hardware cada uno tambien es una tonteria porque no creo que se haya utilizado mucho anteriormente en las consolas no??.
En mi opinion ATI ha dado una vuelta mas de tuerca en el procesado de graficos y ha optimizado la computacion de vertex de una manera en la que los costes hardware no se disparen de manera exagerada.





Saludos
chicobaby escribió:Supuestamente los juegos que se programen para ese chip no pondran tener la misma potencia grafica que si se programan para el R520 (que creo que nintendo usara esta gpu) con shaders y pixels separados, y eso corresponde a un problema para los programadores de juegos...sencillamente se programara como rige el standard de las pc actuales. Esa es la ventaja de sony, y creo que la de nintendo tambien.....sencillamente como he oido , no es tiempo para esa gpu con unificacion de shaders- pixels. Me imagino que estaran pensando a cuando salga el directx 10 , pero no se creo microsoft la cago , se dejo llevar del invento de ati.

Hombre, me imagino que los kits de desarrollo para Xbox360 estaran ya no te digo optimizados, sino preparados para la Xbox360 y no para la PS3 o revolution no???? :P
y lo mismo los ingenieros de ati y de microsoft son gilipollas :) lo que hay que leer...
si, va a ser que los ingenieros de ATi (3dFx, ATi, ArtX, Silicon Graphics, S3, Matrox, etc, etc, etc... gente de todas esas empresas estan en ATi ahora mismo) son gilipollas y por eso llevan 5 años desarrollando la tecnología en cuestión. Amen que MS apunta con DirectX 10 a esa unificación desde hace unos 3 o 4 años.

El chaval no ha hecho un mal analisis, pero tampoco es que sea especialmente bueno. No sabe que la RSX puede acceder también a las 256MB pertenecientes al CELL, o que la cpu de x360 puede mandar polígonos por el FSB a piñon fijo para que la gráfica los lea en plan streaming (una de las "golosinas" de x360, es que el programador puede bloquear un cacho de la cache L2 de la cpu, y poner uno o más procesadores a calcular polígonos a saco, mandadolos por paquetes completos a esa cache, mientras la tarjeta gráfica, sin encomendarse a dios ni al diablo, iria leyendolos al vuelo sin ningún problema, cosa que ni cell ni otra arquitectura a dia de hoy puede hacer en teoría sin saltarse la pantete de IBM y MS).

Yo lo unico que se es que no podemos decir que ATi a timado a MS, por que ATi lleva ahí 5 años currando, y MS lleva pidiendo eso mucho tiempo, y por que simplemente a nVIDIA no le parezca la solución más adecuada, no tiene pro ser un timo.

Por lo demás, es pronto para decir realmente quien es más potente y quien no por que no se tienen numeros reales de ningúna de las dos gpu, eso si, si una de las dos es humo en numeros, esa es la de nVIDIA.
es que el analisis no ha sido muy objetivo... ha sido desde la opinion de un pcero mas bien. que me intente convencer de que ati ha timado a ms por haberla usado de banco de pruebas para una nueva tecnologia y por no haber utilizado estandares de tarjetas graficas de pc... vamos que me trae al fresco lo que diga.

el otro analisis que hizo solo hablando de la gpu de la 360 me parecio mas objetivo.

un saludo.
Una pregunta de neófito en arquitectura consolera, el sistema accede a la gráfica mediante drivers en una consola? En caso de ser que sí, esos drivers quién se los curra, ATI o Ms? Porque los drivers de los canadienses, comparados con los de Nvidia, son la peste.
154 respuestas
1, 2, 3, 4