“Chat con RTX es una aplicación de demostración que te permite personalizar un modelo de lenguaje de gran tamaño (LLM) GPT conectado a tu propio contenido: documentos, notas, vídeos u otros datos”, explica Nvidia. “Al aprovechar la generación aumentada por recuperación (RAG), TensorRT-LLM y la aceleración RTX, puedes consultar un chatbot personalizado para obtener respuestas contextualmente relevantes con rapidez. Como todo se ejecuta localmente en tu PC o estación de trabajo Windows RTX, obtendrás resultados rápidos y seguros”.
Si la literatura oficial no os ha aclarado bien qué es Chat con RTX, nada mejor que un vídeo. En el que tenéis a continuación el usuario selecciona uno de los dos modelos de IA disponibles (Mistral y Llama), añade la ruta de los datos y después escribe al chatbot una pregunta cuya respuesta se encuentra en la documentación indicada. La IA responde y además lista los archivos exactos donde se encuentra la información. Al chatbot también se le pueden indicar direcciones de YouTube para que se descargue el vídeo y preguntarle sobre su contenido.
Chat con RTX trabaja de forma local haciendo uso de los núcleos Tensor de las tarjetas gráficas RTX para acelerar su trabajo, así que los datos nunca abandonan el ordenador y los resultados se muestran muy rápido. Esta herramienta es especialmente útil a la hora de buscar información o resumir el contenido de una gran cantidad de documentos (incluyendo PDF). Sin embargo, hay que tener en cuenta que se trata de una demostración que puede dar problemas o resultados erróneos y cuya interfaz es muy básica. Por ahora Chat con RTX parece más una herramienta destinada a los entusiastas y no tanto al público general.
En cualquier caso, Chat con RTX de Nvidia es una opción que los usuarios de GeForce deben tener en cuenta si quieren tener un chatbot de IA en su PC sin tener que pagar una suscripción.