Buenas, después de darle vueltas al coco (existen multitud de posts cuya solución ha sido volverse a bajar un archivo), y documentarme un poko también (la verdad por que me ha obligado a ello el examen de redes de la semana que viene ;-) ), os pido vuestra opinión sobre este lindo tema (corrección de errores en Tcp/Ip ).
Bien, primero presento el escenario:
1º Uso por la mayoría de usuarios del protocolo Tcp/Ip para la comunicación por internet.
2º Uso de redes ethernet / wifi / y adsl mayoritario, por no decir único.
3º La estructura de la trama ethernet , de 46/ a 1500 bytes con 4 bytes de Crc ->Detección de errores en la cabecera de la trama ,aunque el uso de redes Lan ethernet se tiene bastante calidad, también se producen errores (el dato de probabilidad estaría entorno a 10^-6 o por ahí, ), y hay que tener en cuenta que la circulación de los paquetes no siempre será a través de lan , por lo que este valor se puede ver incrementado.
4ºEl nivel Ip , no proporciona ninguna correción de errores en los datos (sólo detección de errores en la cabecera)
5º Tcp de la misma forma , considera que la principal componente de errores en la comunicación será debida a congestiones puntuales en la red , por lo que tiene control de flujo y control de errores mediante asentimientos (para perdidas y demás casos particulares ,consecuencia de apoyarse en Ip). Pero carece control de errores de los datos (al igual que Ip, sólo de la cabecera)
6º Como conclusión , no existe control real sobre los errores en una comunicación mediante internet sobre los datos, ya que se suponen bastante infrecuentes (y lo son) y si existe la necesidad de estas características , deberán realizar en las aplicaciones.
7ºDaño de los errores: Escaso , más que nada será dependiente de lo que se envía , me explico , a nadie le importa que en una película o cualquier documento multimedia cada 10 megas bajados haya un pixel que veo su color modificado, por lo que este tipo de transmisiones no se ven afectados por los errores ( las posibilidades de error vendrían en que callera en datos específicos de cabeceras en el comienzo del archivo , francamente improbable).
Entonces , ¿ qué datos son los más sensibles a los errores ? Sí , lo sabes

, quien no se ha bajado un programa y no lo ha conseguido hacer funcionar/instalar y demás y se ha solucionado volviendoselo a bajar? , en la secuencia de un programa , un error sí que tiene más posibilidades de hacer daño, cayendo en espacio del programa por ejemplo ( y quien dice un programa dice una distro entera )
Soluciones Actuales Al problema: Pues en mi finito conocimiento, sólo conozco las firmas md5, que proporcionan una protección muy ligera de los datos (si la firma es tann pequeñita con respecto a los datos y tarda tan poquito tiempo en computar es que necesariamente no cubre mucho x'D)
Opinión: Creeis que existe la necesidad de mejorar la tranferencia de este tipo de archivos ,o , por el contrario pensais que con md5 vamos más que chutamos en ése campo??
De pensar afirmatívamente, qué le pediríais al nuevo programa? , mayor detección de errores? , posibilidad de detección y correción de errores? .Pensais que debería primar un redundancia en el código ínfima (como hace md5) y un proceso de cálculo ligero? (En mi opinión debería ser un programa al estilo md5 en cuanto a funcionamiento, pero si acaso con nuevas características ).
Buff , menudo ladrillo me ha salido
![burla2 [burla2]](/images/smilies/nuevos/burla_ani1.gif)
,claro está no lo considero offtopic por que , aunque al principio no hable de soft libre directamente , quién sabe si algún día sí.
Pd: Habiendo abierto el hilo, mi opinión está clara: hay que pensarlo x'D
Salu2