Copilot de Microsoft se ejecutará de forma local en PCs en lugar de la nube

Benzo
0 0 48
Noticias » Tecnología
Microsoft dice que 2024 será el “año de los ordenadores con inteligencia artificial”, y el primer paso en esta dirección fue anunciar que los nuevos portátiles con Windows 11 tendrán una tecla especial para Copilot, su asistente de IA. El segundo será mucho más importante y consistirá en ejecutar Copilot de forma local. Eso significa que los ordenadores necesitarán una Unidad de Procesamiento Neuronal (NPU, por sus siglas en inglés), un tipo de procesador específico para cargas de trabajo de IA que aún no se encuentra con frecuencia en los equipos Windows.

En un evento dedicado a la IA celebrado en Taipei, Intel ha confirmado que se encuentra trabajando junto a Microsoft en una nueva iniciativa que alentará a los desarrolladores de software a usar el hardware local para incorporar funciones de IA en sus aplicaciones. Incluso para las solicitudes más pequeñas, Copilot depende totalmente de los servidores de Microsoft, lo que provoca un retraso en la comunicación y un consumo de recursos considerable. Si el usuario pide mucha información la espera es tolerable, pero cuando la consulta es sencilla y requiere de una respuesta básica esta tiene que ser rápida (y lo más económica posible).

Además de la velocidad, la ejecución local de Copilot podría mejorar la privacidad del usuario debido a que no hace falta enviar automáticamente datos a un servidor externo. También se elimina el requisito de una conexión a Internet.


Actualmente Windows apenas usa las NPU debido a que se trata de un procesador que no está muy extendido. Sin embargo, la previsión es que esto cambie pronto. Intel y Microsoft quieren que los llamados “PC con IA” tengan una CPU, una GPU, una NPU y la tecla de Copilot. Y no vale con cualquier NPU. Para ganarse el sello de “PC con IA de próxima generación” Microsoft requerirá una NPU que alcance velocidades de 40 TOPS. Esta es la métrica que usan Intel, AMD y Qualcomm entre otros para comparar el rendimiento de sus NPU.

Los chips Meteor Lake de Intel para portátiles pueden ejecutar 10 TOPS, mientras que los AMD Ryzen 7040 y 8040 alcanzan los 10 TOPS y 16 TOPS, respectivamente. A día de hoy la única compañía que tiene un procesador con una NPU a la altura de un “PC con IA” es Qualcomm, cuyo chip Snapdragon X Elite suma 45 TOPS. Su lanzamiento está previsto para mediados de 2024. Sin embargo, Intel dice tener una hoja de ruta que incluye procesadores de próxima generación que abordarán todos los segmentos del mercado de la IA. En otras palabras, prepararlos para ver NPUs en todos lados y la guerra de los TOPS.

¿Por qué usar una NPU en lugar de la GPU? La NPU está concebida para cargas de trabajo de IA sostenida con bajo consumo energético. Intel asegura que asignar las cargas de trabajo a un compañero de IA como Copilot a la GPU tendría “un gran impacto en la duración de la batería”. Además, Microsoft quiere que la CPU y la GPU estén libres para hacer el resto del trabajo. Intel planea vender 100 millones de PC con inteligencia artificial para 2025.
48 comentarios
  1. Entonces va a obligar a Intel y AMD a meter NPUs. De todas formas no compraré nada que tenga menos de 100 TOPS.
  2. Espero que tengan una alternativa tradicional.
  3. Entre el TPM y ahora los NPU... miedo me da el impacto ecológico al no poder reutilizar muchos equipos de manera oficial.
  4. Benzo escribió:¿Por qué usar una NPU en lugar de la GPU? La NPU está concebida para cargas de trabajo de IA sostenida con bajo consumo energético. Intel asegura que asignar las cargas de trabajo a un compañero de IA como Copilot a la GPU tendría “un gran impacto en la duración de la batería”. Además, Microsoft quiere que la CPU y la GPU estén libres para hacer el resto del trabajo. Intel planea vender 100 millones de PC con inteligencia artificial para 2025.

    Fuente: tomshardware

    Es decir, Nvidia se está llevando todo el pastel y los demás también quieren una parte.
    Como no van a convencer a nadie de que les compre algo si dejan que funcione en sus RTX3060, en las que actualmente pueden entrenar y ejecutar modelos de IA con tensor cores, y directamente en modelos más antiguos tirando de CUDA ya entrenaban modelos sin que les dijeran nada, pues ahora lo que van a hacer es "vaya, te voy a bloquear esto porque no tienes un core de IA en la CPU que te ha vendido Intel o AMD, deja que tu RTX4090 esté ahí bien ventilada sin hacer nada mientras estamos navegando por internet, que no se vaya a cansar"
  5. La cosa es que para ejecutar copilot en local necesitas una NPU y no una cualquiera sino una potente, así que podemos deducir que no van a vender ni una fuera del mercado entusiasta (explícale a un usuario medio que necesita pagar 200€ de más a la hora de comprar su PC para poder usar una especie de chatgpt cuando está desconectado de internet); y el mercado entusiasta suele estar compuesto por gente muy informada de los peligros para la privacidad que tiene una IA como copilot, entonces, ¿Por que querría esa gente ejecutar copilot en local cuando sabe perfectamente que le va a mandar todos los datos a microsoft? Se me ocurren pocos casos como programadores que trabajen con IAs y poco más. ¿De donde salen esos 100 millones de clientes para comprar las NPUs que quiere vender MS para el año que viene?
  6. Meter con calzador tus ideas es un plan genial, Microsoft.

    Me parece bastante terrible que, si quieres W11 a partir de ahora, tu PC tenga que tener todo lo que piden, que barato ya me imagino que no va a ser.
  7. MessMessi escribió:La cosa es que para ejecutar copilot en local necesitas una NPU y no una cualquiera sino una potente, así que podemos deducir que no van a vender ni una fuera del mercado entusiasta (explícale a un usuario medio que necesita pagar 200€ de más a la hora de comprar su PC para poder usar una especie de chatgpt cuando está desconectado de internet); y el mercado entusiasta suele estar compuesto por gente muy informada de los peligros para la privacidad que tiene una IA como copilot, entonces, ¿Por que querría esa gente ejecutar copilot en local cuando sabe perfectamente que le va a mandar todos los datos a microsoft? Se me ocurren pocos casos como programadores que trabajen con IAs y poco más. ¿De donde salen esos 100 millones de clientes para comprar las NPUs que quiere vender MS para el año que viene?


    Por que dices que va a mandar los datos a Microsoft? Si se va a ejecutar en local va a tener una opción de que no se mande ningún dato, si no, claro que tu argumento tendría sentido, pero pongo la mano en el fuego porque estará esa opción.
  8. Balrog14 escribió:
    MessMessi escribió:La cosa es que para ejecutar copilot en local necesitas una NPU y no una cualquiera sino una potente, así que podemos deducir que no van a vender ni una fuera del mercado entusiasta (explícale a un usuario medio que necesita pagar 200€ de más a la hora de comprar su PC para poder usar una especie de chatgpt cuando está desconectado de internet); y el mercado entusiasta suele estar compuesto por gente muy informada de los peligros para la privacidad que tiene una IA como copilot, entonces, ¿Por que querría esa gente ejecutar copilot en local cuando sabe perfectamente que le va a mandar todos los datos a microsoft? Se me ocurren pocos casos como programadores que trabajen con IAs y poco más. ¿De donde salen esos 100 millones de clientes para comprar las NPUs que quiere vender MS para el año que viene?


    Por que dices que va a mandar los datos a Microsoft? Si se va a ejecutar en local va a tener una opción de que no se mande ningún dato, si no, claro que tu argumento tendría sentido, pero pongo la mano en el fuego porque estará esa opción.

    Si me preguntas si va a tener esa opción yo también pongo la mano en el fuego en que SI que la tendrá, pero te garantizo que te llevarán de la mano para que no la uses (igual que te llevan de la mano para que uses el edge, para que uses una cuenta microsoft y para que actives la telemetría); y en el caso de que la uses ¿Te crees que será real?. Al fin y al cabo hablamos de aparatos que están conectados 24 horas al día a internet, mandando y recibiendo datos (una buena parte de ellos encriptados) para actualizaciones de software, mensajería, telemetría, tráfico web, etc, Seguro que si la activas seguirá mandando datos, solo que de tapadillo, encriptado y mezclado con el tráfico habitual que hay contra los servidores de MS.
  9. Balrog14 escribió:
    MessMessi escribió:La cosa es que para ejecutar copilot en local necesitas una NPU y no una cualquiera sino una potente, así que podemos deducir que no van a vender ni una fuera del mercado entusiasta (explícale a un usuario medio que necesita pagar 200€ de más a la hora de comprar su PC para poder usar una especie de chatgpt cuando está desconectado de internet); y el mercado entusiasta suele estar compuesto por gente muy informada de los peligros para la privacidad que tiene una IA como copilot, entonces, ¿Por que querría esa gente ejecutar copilot en local cuando sabe perfectamente que le va a mandar todos los datos a microsoft? Se me ocurren pocos casos como programadores que trabajen con IAs y poco más. ¿De donde salen esos 100 millones de clientes para comprar las NPUs que quiere vender MS para el año que viene?


    Por que dices que va a mandar los datos a Microsoft? Si se va a ejecutar en local va a tener una opción de que no se mande ningún dato, si no, claro que tu argumento tendría sentido, pero pongo la mano en el fuego porque estará esa opción.


    Tomando en cuenta que aún cuando le indicas a M$ que no envíe datos lo sigue haciendo en su sistema operativo... está uno para fiarse.

    Para mí no hay instalación de windows sin pasar el script de Chris Titus + Port Master.
  10. y mas mierdas en segundo plano....

    se quedan cortos los scripts de eliminar moralla después de una instalación de windows para eliminar métricas y servicios
Ver más comentarios »