Como vencer a la obsolencia programara..., truco... (articulo y analisis de hardware)

Unerico está baneado por "troll"
Les dejo este articulo que trata de un analisis de historico del avance del hardware y como la obsolencia programada, si bien afecta a todos los componentes, cual es concretamente el mas afectado de todos y como puede ganarse tiempo contra ese problema. Tanto en PC como en otros dispositvos

Fuente

Resumido, dice que si bien todo se afecta con el paso del tiempo, la capacidad de computo no es el problema general, sino la ram misma en la que se apoya esa capacidad de computo para efectuarse.

Que una vez que la ram "se agota" entonces pasamos a la memoria virtual usando almacenamiento, y ahi, la capacidad de computo, que en general es mucho y no se afecta tan rapido por la obsolencia programada, comienza a usarse constantemente para "mover" datos de la ram a la memoria virtual y en sentido inverso, y ahi, tambien la obsolencia programada empieza a hacer desastre en la capacidad de computo pero no porque nos falte tal capacidad sino porque le estamos echando el problema que tenia que resolver la ram que ya no nos alcanza

Que el truco para vencerla, en PC, es "doble o nada" como minimo, osea ver cual es el estandar de memoria de la epoca en que armamos el PC y "poner el doble" (yo subiria la apuesta a "poner el doble de lo que es tope de gama" y no solo el doble de "lo normal", si hoy el minimo es 4, 6 es ceptable, y 8 es normal; aplicando la regla de ellos seria 16 lo recomendado con "doble o nada"; pero yo diria que si tope de gama es 16, lo ideal hoy son 32)

Que con ese sistema se puede hacer que un PC pueda durar sin problemas aproximadamente 10 años manejandose en forma aceptable, cuando si vamos al minimo son 2 años justos o poco mas.

Fuera de eso, tambien dice que esto es vigente en moviles, pero que ahi hay que tener en cuenta otros factores como ser la vida de la bateria. Que por mas que dupliquemos la ram o vayamos al equipo mas caro por tener mas ram, igual la vida de la bateria es la que te dice cuando muere el equipo (sobre todo si no es intercambiable, y hoy los equipos modernos de alta gama ya no traen casi esta opcion). Yo aca sumaria mas factores, que son el almacenamiento y calidad de componentes... en un movil el almacenamiento es tanto o mas importante que la ram o la bateria, porque las APPs en moviles, son "come espacio" en todo sentido con constantes actualizaciones (ademas del uso normal que nosotros damos que hace que constantemente estemos metiendole cosas al telefono). Sumado a que los moviles son equipos de funcionamiento 24x7, con lo cual la calidad de componentes en el uso constante hace que, por mas espacio que tengamos, ram de sobra, y podamos cambiar la bateria..., cuando empiezan los problemas electricos y de pronto pasan cosas "magicas" como "se reinicia de golpe sin razon" o "la bateria se agoto de golpe sola, prendi de vuelta y estaba llena, volvi a prender y se agoto de golpe de vuelta" son indicadores de que el movil esta para la jubilacion
El problema no es la batería en sí, puede ser el desgaste de componentes (obsolescencia programada) para que aún con una sustitución de batería acabe igualmente sustituido el aparato; pero vamos, que aún siendo integrada se puede sustituir mejor que dejarlo en el olvido de un cajón, y siempre se podrá sustituir la batería, aunque implique perder la guarrantía y abrir el dispositivo.
Nota la tendencia, desde hace años, en pseudoportátiles de memorias EMMC difícilmente ampliables ¿Qué es lo que ocurre en un teléfono con una EEPROM (ROM)? Y no vale el lo amplío con una microSD. La EEPROM, física, puede ser re-escrita miles de veces ¿Cuánto dirías que puede cambiarse la ROM en un teléfono? Pocas veces verdad.
Nota también la tendencia a sobrecargarlos de programas inútiles y que no se pueden eliminar, bueno teóricamente, y de actualizaciones más y más pesadas para acabar con el almacenamiento de una forma u otro, ¿Has pensado en porqué se diferencia entre interna y externa?

Claro que todo está en la mente pero no en la del dispositivo si no en la de la persona a la que le van inculcando de forma temprana la forma de pensar, o en la forma por la que cambie de forma de pensar para que se adapte a sus intereses.
[facepalm]
Yo aún tengo funcionando un equipo del 2004, por no mencionar que mi Amstrad CPC-464 aún está ahí para cuando me apetece darle una viciada sin tirar de emulación.

Lo de reducirlo a la cantidad de RAM, sencillamente lo veo ridículo. [enfa]

No, yo no compro lo de la obsolescencia programada en equipos informáticos ni voy a confundirla con falta de repuestos, rendimiento y/o desgaste.

¿Hay electrodomésticos y periféricos que la incorporan? Claro que sí, y si un peritaje lo demuestra es denunciable, pero meter todo en el mismo saco es, en mi parecer, más efectista que realista.
Cuando se escriben cosas sin tener ni puñetera idea. Este artículo lo ha patrocinado un fabricante de memorias, seguro.

Recomendación: en lugar de hacer de correa de transmisión de lo que se dice, se agradecería cierto pensamiento crítico.

Saludos.
Como curiosidad, en mi pc principal, un i5 4th gen, pasé de 8gb 2400mhz a 16gb 1866mhz y se nota que va peor en general.
No estoy nada de acuerdo en echarle toda la culpa a la ram.

alextgd escribió:Como curiosidad, en mi pc principal, un i5 4th gen, pasé de 8gb 2400mhz a 16gb 1866mhz y se nota que va peor en general.


Y porque no ampliaste a 16/2400?
@emiliojrc porque piden el oro y el moro por las pastillas ddr3 de 8gb a 2400Hz (solo tengo 2 slots). Saludos
alextgd escribió:@emiliojrc porque piden el oro y el moro por las pastillas ddr3 de 8gb a 2400Hz (solo tengo 2 slots). Saludos


Entonces no es una comparativa justa.
emiliojrc escribió:
alextgd escribió:@emiliojrc porque piden el oro y el moro por las pastillas ddr3 de 8gb a 2400Hz (solo tengo 2 slots). Saludos


Entonces no es una comparativa justa.

Ya, y por eso lo del "doble o nada" no tiene sentido y menos sin hablar de frecuencias.
Saludos
Hay multitud de videos demostrando que la diferencia entre 1866 y 2400 (y otras) es despreciable. La ganancia en duplicar la RAM (si se usa) no tiene nada que ver.

Saludos.
Yo "sufrí" tras tener problemas con la placa base, pasar de 4GB a 2GB (Con W7 en un Core 2 Duo)

Pues fue un hachazo a todo,
mas lento todo, juegos injugables (algunos me iban mejor en la xbox 360)
Fl studio se colgaba tras poner dos o tres sintetizadores
Cinema 4D se moría con la vista previa incluso.

En mi caso daba igual la velocidad de la ram, no notaba diferencia, era el enorme cuello de botella de los 2GB.

En mi caso fue así.
gadesx escribió:Yo "sufrí" tras tener problemas con la placa base, pasar de 4GB a 2GB (Con W7 en un Core 2 Duo)

Pues fue un hachazo a todo,
mas lento todo, juegos injugables (algunos me iban mejor en la xbox 360)
Fl studio se colgaba tras poner dos o tres sintetizadores
Cinema 4D se moría con la vista previa incluso.

En mi caso daba igual la velocidad de la ram, no notaba diferencia, era el enorme cuello de botella de los 2GB.

En mi caso fue así.


Creo que en tu caso, el pasar de 4 a 2 supone una pérdida considerable, ya que windows 7 si no recuerdo mal ya necesitaba 1 gb mínimo para funcionar bien, por lo que te quedaría solamente otro gb disponible para el resto de operaciones, es comprensible que se agote en seguida y tires de memoria virtual.

Pero lo que dice el artículo peca de demasiado simplista. Está claro que la memoria influye, pero deja fuera muchísimos factores que son igual o más importantes: Instrucciones del procesador, capacidad de ampliación de la placa del dispositivo, tipo de memoria usada, tipo y velocidad del almacenamiento y del sistema operativo, actualizaciones de software presentes y futuras disponibles... por nombrar unas pocas.

Por poner unos ejemplos: Hoy en día puedes tener el i9 más rápido con 64 gb de ram que sin un ssd te va a ir como el culo... O tener una cantidad obscena de ram y el mejor ssd actual, pero un micro que no soporte TPM.... Ejemplos de que más ram no significa mejor rendimiento ni mayor longevidad.

Además según de qué dispositivos hablemos justo la ram es el componente más fácilmente ampliable.

Un saludo.
En eso estoy de acuerdo, es lo que pasa cuando se ve descompensado por un lado.

No es una obsolescencia programada (que yo sepa) de que se rompen los componentes porque deciden usar piezas con poca durabilidad. Cosa que me pasa bastante con Asus la verdad.
Menuda chorrada, obsolescencia programada es que se estropeen de forma intencionada ciertos componentes, no que te quedes corto de RAM.
Tú sabes perfectamente lo que compras y puedes averiguar la cantidad de ram que podrás ampliar, eso no es obsolescencia programada.

Incluso la guarrada de NVDIA con los 3.5 GB cuando la vendía por 4 tampoco lo es, pero si es una estafa.

Imagen
https://elchapuzasinformatico.com/2016/ ... e-gtx-970/
De hecho en estados unidos les devolvían 30 euros a los usuarios, aquí como no hay abogados para eso pues nos estafaron.


Obsolescencia programada podría ser PS4 y el lector bluray casado con la posibilidad de actualizar el firmware, o lo que sucedió con las luces rojas de 360 por un mal diseño. Obsolescencia programada es samsung poniendo una CPU de 2.4 Ghz encima de la memoria del sistema y que esta termine petando a los dos años.

Además, yo voy con 8 GB's de ram DDR3 y mi ordenador vuela para hacer de todo, el otro usuario que dice que con 16 le va peor que me de ocho de sus módulos xd
Yo diría más, la obsolescencia programada de los pcs no es del hardware en sí sino de los creadores de software que aprovechando las nuevas potencias afinan menos sus programas.

Soy aficionado a la fotografía, edito bastantes fotos y en mi pc de 10 años que he ido actualizando (se supone que a mejor) fotografías de la misma cámara, con más RAM y mismo programa pero en versiones más nuevas va peor. Si conoceis lightroom o capture One, cuando mueves los delizables, hace 5 años los cambios eran en tiempo real, ahora tarda casí un segundo entero en calcular el cambio, con 3 veces más RAM. Así que no, el problema no es la RAM y menos cuando de todo el Hardware es de las cosas más fáciles de ampliar.
@jfdeza

Imagen

De hecho, con intención, o no, estás haciendo referencia a la "Ley de Wirth (Wikipedia)" (mejor leer en inglés).


Y yo "no puedo hablar" porque uso sistemas operativos considerados obsoletos, y es compresible, hasta cierto punto, el no poner como objetivo la retrocompatibilidad, pero de la misma manera no es comprensible que haya programas que pidan toda la librería .NET (bajo Windows), o el último sistema operativo, para hacer chorradas cuando con una programación básica sobraría. No soy programador, pero me atrevo a decirlo.

Incluso con este tema yo voy más allá. La web misma, que no deja de ser software, provoca ese mismo efecto a través de adopción del living standard, de la absurda pesadez actual de los navegadores y de las exigencias generales sobre el sistema base y, por ende, de hardware. Cuando se podría hacer más simple si se adoptase la estrategia de la "mejora progresiva".

En fin, no escribí esto antes porque uno parece un loco, pero en mi opinión la carrera por "siempre a lo último" y "always up-to-date" algún día, o revienta, o dejará al que no pueda seguirlo por el camino. Una especie de pobreza tecnológica.
De nuevo confundimos churras con merinas.

Obsolescencia programada sería que un ordenador X con el entorno de software con el que trabajaba el primer par de años dejase de rendir igual al cabo de un determinado periodo de tiempo, contando con que el hardware no esté dañado ni el SO degradado.

A tu ordenador le metes el mismo SO y la misma versión del programa que cuando lo compraste, y rendirá igual que cuando lo usaste por primera vez; lo demás es como quejarse de que un video VHS no lea Blu-Rays.
Tienes razón en que no es programada, pero es forzada. Algunos lo llaman avance, otros lo llaman mala optimización y otros...

Vaya por delante que no hablo del hilo en sí, que el que inició el tema no hay por dónde cogerlo.

El ejemplo de VHS-Blu-ray, no es comparable, salvo con x86-x64, suponiendo que hubiera procesadores exclusivamente x64 y no compatibles x86 (que los hay, pero ya se me entiende, ¿o no?).

Ñomo escribió:Obsolescencia programada sería que un ordenador X con el entorno de software con el que trabajaba el primer par de años dejase de rendir igual al cabo de un determinado periodo de tiempo, contando con que el hardware no esté dañado ni el SO degradado.


Dejase de rendir no, dejase de funcionar.

La obsolescencia no estaría en el rendimiento, sino en el fin intencionado de su funcionalidad.

Yo puedo coger ese mismo equipo viejo del que hablas y correr un software más actual. Bajo de rendimiento, por lógica, pero funcionaría.

En cambio que un sistema deje fuera hardware anterior sin razón (no miro a nadie, si al final se confirma), eso sí sería obsolescencia. Programada, forzada o intencionada, que cada uno la llame como quiera.

Yo no me quejo, o tal vez sí, de que rinda peor, sino que pida algo que fuerza a usar lo último.

Yo no digo que tenga que ser todo como algunos sistemas nix, y que tenga que correr hasta en una tostadora, pero vaya... si se quiere, se puede. Luego estaría ya en cada cual si compensa mejorar hardware para que vaya mejor.

Ya ves el parque actual de equipos que ha salido, con más de una década a sus espaldas, pero funcional, con el temita de Windows. A eso, ¿cómo lo llamamos? ¿Obsolescencia de hardware?, ¿de software?, ¿programada?, ¿intencionada?, ¿forzada?
(mensaje borrado)
JohnH escribió:@jfdeza

Imagen

De hecho, con intención, o no, estás haciendo referencia a la "Ley de Wirth (Wikipedia)" (mejor leer en inglés).


Y yo "no puedo hablar" porque uso sistemas operativos considerados obsoletos, y es compresible, hasta cierto punto, el no poner como objetivo la retrocompatibilidad, pero de la misma manera no es comprensible que haya programas que pidan toda la librería .NET (bajo Windows), o el último sistema operativo, para hacer chorradas cuando con una programación básica sobraría. No soy programador, pero me atrevo a decirlo.

Incluso con este tema yo voy más allá. La web misma, que no deja de ser software, provoca ese mismo efecto a través de adopción del living standard, de la absurda pesadez actual de los navegadores y de las exigencias generales sobre el sistema base y, por ende, de hardware. Cuando se podría hacer más simple si se adoptase la estrategia de la "mejora progresiva".

En fin, no escribí esto antes porque uno parece un loco, pero en mi opinión la carrera por "siempre a lo último" y "always up-to-date" algún día, o revienta, o dejará al que no pueda seguirlo por el camino. Una especie de pobreza tecnológica.


Pues primera vez que la leo jaja, pensé que era un pensamiento propio, veo que llego 25 años tarde jajaja.

Reventar no creo que reviente porque de hecho cada vez está más asimilado. Seremos pocos los que resignemos a ello, seremos los nuevos frikis...
21 respuestas