[HILO] Inteligencias artificiales generativas IMAGEN - AUDIO - VÍDEO - 3D

INTELIGENCIAS ARTIFICIALES GENERATIVAS

IMAGEN - AUDIO - VÍDEO - 3D


La función de este hilo es recopilar los diferentes modelos de este tipo de inteligencias artificiales generativas, así como ser un lugar de encuentro para preguntar por la existencia de determinados modelos, este hilo no pretende ser un hilo en concreto de uno de los modelos ni nada de eso, aunque enlazaré el link de los hilos de los modelos que tengan hilos oficiales en el foro, en caso de que estas tengan ya uno, para que los usuarios puedan preguntar sus dudas en el hilo oficial del modelo concretamente.

A lo largo de los años irán apareciendo de la nada nuevas empresas con nuevos modelos mucho más sofisticados que los que ahora conocemos, por lo que puede que las IAs de la cabecera de este hilo queden totalmente desfasadas en cuestión de días, meses o años, así que la función de este hilo es mantenernos actualizados con los modelos más punteros y sofisticados, así como saber si son de pago, públicos, conocer funciones básicas, las limitaciones y las posibilidades, etc...

Algunos conceptos:
-IA PROPIETARIA: generalmente su acceso es limitado, mediante navegador web, por ejemplo, y puede ser de pago. Lo bueno es que seguramente no vamos a necesitar hardware propio.
-IA DE CÓDIGO ABIERTO: suele ser gratuita y se puede ejecutar de forma local desde nuestro ordenador sin necesidad de pasar por los servidores de otra compañía.
-GOOGLE COLAB: Lo veréis mucho con modelos de IA, esta interfaz web de google en forma de cuaderno nos permite programar IAs de código abierto usando hardware de NVIDIA de forma gratuita de los servidores de google, vamos, por poner un ejemplo, podremos entrenar un modelo de stable diffusion de nosotros mismos en menos de una hora usando una GPU de las más potentes de nvidia gratis, simplemente con tener una cuenta GMAIL.
-Prompt: son los carácteres que tendremos que dar al modelo de IA para que nos cree lo que queramos, generalmente se usa texto "dibújame una manzana de color verde, 4K, ultra HD, HDR".


Imagen



IMAGEN

STABLE DIFFUSION ( IA de código abierto y gratuita )
Stable Diffusion es un modelo de aprendizaje automático desarrollado por Runway y LMU Munich​para generar imágenes digitales de alta calidad a partir de descripciones en lenguaje natural o estímulos.
https://stability.ai/

Hilo: hilo_ho-stable-diffusion-el-principio-del-fin-de-los-disenadores_2463295
Imagen

MIDJOURNEY (IA propietaria y de pago)
Midjourney es un laboratorio independiente de investigación y el nombre de un programa de inteligencia artificial con el cual sus usuarios pueden crear imágenes a partir de descripciones textuales, similar a Dall-e de OpenAI y al Stable Diffusion. Actualmente su uso solo es posible a través de su discord oficial, y además es de pago, aunque a veces ofrecen un tiempo de prueba gratuito.
https://www.midjourney.com/home/?callbackUrl=%2Fapp%2F
Imagen

DALL-E (IA propietaria)
DALL-E es un programa de inteligencia artificial que crea imágenes a partir de descripciones textuales o estímulos, reveladas por OpenAI el 5 de enero de 2021.​
https://openai.com/product/dall-e-2
Imagen

GIGAPIXEL AI / TOPAZ PHOTO AI (propietaria de pago mediante software)
Es una IA GAN de reescalado de imagen y retexturizado para la restauración de imágenes y que pertenece a la empresa TOPAZ. La única forma de acceder a ella es comprar gigapixel, que es el programa que ejecuta sus modelos de forma local, podemos usarlo de forma offline, pues las imágenes será procesadas por nuestra GPU.
Imagen
https://www.topazlabs.com/gigapixel-ai

https://www.topazlabs.com/topaz-photo-ai

VÍDEO

RUNAWAY Gen-1 ( IA propietaria de uso público)
Es lo más actual en generación de vídeo por inteligencia artificial, de texto a vídeo, de vídeo a vídeo, además la empresa ofrece muchas más herramientas de vídeo por IA para la edición de este.
https://research.runwayml.com/gen1
https://twitter.com/runwayml


AUDIO

UBERDUCK AI ( IA propietaria de uso público)
Es una plataforma que ofrece clonación de voz, podemos clonar cualquier voz, y además de eso ofrece una amplia librería de voces de personas famosas que se articulan de forma totalmente natural, entre ellas hay voces de artistas musicales con los que podremos crear canciones con simplemente escribirle un texto.
https://uberduck.ai/


DESCRIPT AI overdub (IA propietaria de uso público pero con limitaciones)
Es una herramienta que trascribe de texto a voz y de voz a texto con una síntesis de voz completamente natural, pero además de eso tiene uno de los modelos más avanzados en clonación de voz, si, podemos clonar nuestra propia voz; la calidad del modelo dependerá del tiempo de entrenamiento que dediquemos entrenándolo con nuestra voz, el entrenamiento suele hacerse leyendo un texto.
https://www.descript.com/
@katatsumuri muchas gracias compañero por la iniciativa ;)

Hace poco un amigo me empezó a comentar el tema, pero para mi todo esto es arameo XD XD

Me estuvo preguntando sobre que equipo montar...sobre todo a nivel de gpu...pero ni papa del tema, así que no pude aconsejarle nada

Me quedare por aquí a ver si aprendo algo
EBSYNTH (gratuita)
Esta IA la quería poner pero no en el post principal ya que creo que esta IA será abducida rápido por IAs de la misma compañía que generan imágenes, pero en la actualidad esta IA básicamente permite animar imágenes a partir de vídeos, puedes animar imágenes creadas con stable diffusion, por poner un ejemplo.

https://ebsynth.com/

STABLE ANIMATION ( abierta )
Como dije, ahí ya están los creadores de stable diffusion con su respuesta a EBSYNTH con su IA capaz de animar.
https://stability.ai/blog/stable-animation-sdk

Stability AI, la empresa líder mundial en inteligencia artificial de código abierto, lanza hoy Stable Animation SDK, una herramienta diseñada para que artistas y desarrolladores implementen los modelos más avanzados de Stable Diffusion para generar animaciones asombrosas

Los usuarios pueden crear animaciones de varias formas: mediante instrucciones (sin imágenes), una imagen de origen o un vídeo de origen.

Con el punto final de animación de Stability AI, los artistas tienen la posibilidad de utilizar todos los modelos de Stable Diffusion, incluidos Stable Diffusion 2.0 y Stable Diffusion XL, para generar animaciones.

Ofrecemos tres formas de crear animaciones:

-Texto a animación: Los usuarios introducen un texto (como con Stable Diffusion) y ajustan varios parámetros para producir una animación.

-Texto + imagen inicial: Los usuarios proporcionan una imagen inicial que actúa como punto de partida de su animación. Se utiliza un texto junto con la imagen para producir la animación final.

-Entrada de vídeo + entrada de texto: Los usuarios proporcionan un vídeo inicial en el que basar su animación. Modificando varios parámetros, se obtiene una animación final guiada por un texto.





DEEPFACELAB
Es una inteligencia artificial que hace face swap para crear deepfakes, no apta para cualquier GPU.


https://github.com/iperov/DeepFaceLab
https://mega.nz/folder/Po0nGQrA#dbbttiNWojCt8jzD4xYaPw


@dinamita4922 muchas al ser privadas todo es procesado por los servidores de la plataforma, no necesitas una GPU potente de nvidia, otras puedes entrenar los modelos por google colab, con una GPU de NVIDIA potente y gratis, ya si es algo abierto que ejecutas en el ordenador si necesitarás algo más potente, pero dependerá de que tipo de modelo de IA, por ejemplo, Deepfacelive consume mucho, digamos que una 3070ti no mueve bien el vídeo ni a 1080 7fps, necesitas una 3090 para tener fluidez de imagen, pero por ejemplo, para usar gigapixel, un reescalador gan de imágenes, puedes hacerlo perfectamente con los núcleos CUDA de una GTX 970
@katatsumuri

Muchas gracias por la aclaración compi

El quiere hacerlo pero con su equipo propio, y estaba buscando una gpu NVIDIA RTX y ne hacia mucho hincapié en la cantidad de VRAM...por lo que entendí, necesitaba mas de 8 gigas
@dinamita4922 supongo que quiere entrenar modelos, entonces seguramente si necesitará una GPU bastante potente y con más VRAM, la mayoría de las IAs que yo he puesto son modelos ya entrenados, son IAs que puede usar casi cualquiera, incluso sin hardware potente, ya que como dije, en muchos casos te conectas a una web y tu gpu no procesa nada, pero entrenar modelos ya es otra película.

DRAG YOUR GAN
Con esta IA generativa de imagen podremos manipular imágenes, animarlas, corregir posiciones, gestos, expresiones faciales, etc...
https://huggingface.co/papers/2305.10973




GEN-2 (texto a vídeo)
Es la nueva versión de GEN-1 y muestra una evolución bastante grande respecto al anterior modelo. Con esta IA podremos generar vídeos a partir de texto, sin duda el futuro del cine procedural.




@katatsumuri si, quiere entrenar modelos, he hablado con el y me ha dicho que se esta planteando comprar una rtx3060/3080...

Me imagino que la GPU mientras mas potente mejor no?? O interesa que tenga mas VRAM?? Lo digo por la rtx 3060 de 12 gigas

Las AMD valdrían?? O quedan descartada en este contexto??

Y la CPU?? Es recomendable una CPU potente?? O el trabajo recae sobre la GPU??
Tiene un i5 8400




dinamita4922 escribió:@katatsumuri si, quiere entrenar modelos, he hablado con el y me ha dicho que se esta planteando comprar una rtx3060/3080...

Me imagino que la GPU mientras mas potente mejor no?? O interesa que tenga mas VRAM?? Lo digo por la rtx 3060 de 12 gigas

Las AMD valdrían?? O quedan descartada en este contexto??

Y la CPU?? Es recomendable una CPU potente?? O el trabajo recae sobre la GPU??
Tiene un i5 8400

No tengo mucho entendimiento sobre entrenar IAs, pero en general se necesita una buena GPU, lo que supongo que importa es tanto memoria, cuanto más grande sea el modelo más memoria supongo que es necesaria, se necesitan bastantes GB para entrenar modelos decentes, 24 es lo más recomendable, y luego está el tema de los tensor cores supongo, cuantos más tensor cores tenga la GPU pues más rápida será entrenando.

Si se van a entrenar IAs yo no iría a comprar una 3060 porque tendrá pocos tensor cores supongo, poco poder de cómputo, ni idea de cuantos tiene, hay que buscar un equilibrio entre VRAM y poder de cómputo.

Se pueden entrenar IAs con GPUs de AMD? Pues supongo, pero no serán tan eficientes debido a que no tienen tensor cores, se puede hasta con un procesador ( CPU ).

Es importante la CPU, pues si, es importante, supongo que gestionará algunas parte del código, así que si.

De todas formas ya te digo que no soy entendido del tema, nunca he entenado una IA, lo intenté con la 3070ti pero lo di por perdido por el tema de poca memoria, casi es mejor irte a google colab o pagar por Cloud TPU de google, acelerarás bastante el trabajo teniendo acceso a hardware dedicado más potente que lo que podrías gastar en comprar una 3060
ADOBE IMPLEMENTA EN PHOTOSHOP SU IA ADOBE FIREFLY
Podremos encontrar esta implementación en forma de beta en el apartado de Generative Fill.



Photoshop, uno de los programas de edición más populares de la suite de Adobe, se ha actualizado con la integración de Adobe Firefly, el potente modelo de IA de la compañía que permite crear imágenes a partir de una breve descripción de texto, y que promete ahorrar horas de trabajo.

La compañía ha incluido su modelo de IA en una característica disponible en Photoshop llamada Generative Fill, y funciona de forma similar a DALL-E u otras plataformas impulsadas con inteligencia artificial que permiten crear diseños mediante una descripción de texto. En el caso de Adobe, la característica también es capaz de eliminar o añadir elementos en una fotografía mediante IA, así como ampliar la imagen en caso de que sea necesario; función también disponible en DALL-E.

A diferencia de los modelos de OpenAI o Midjourney, que simplemente crean la imagen sin posibilidad de editarla a posteriores, Generative Fill realiza los diseños en una nueva “capa generativa” para que los usuarios puedan continuar trabajando en la edición de sus fotografías de una forma más intuitiva. Esta función, además, se integrará en todas las herramientas de selección de Photoshop. Por el momento, eso sí, Generative Fill solo está disponible en la aplicación de Photoshop para escritorio, y se encuentra en fase Beta.

Aquí un ejemplo de los resultados que puede generar la nueva función de IA de Photoshop; incluyendo la expansión de la imagen y la creación de elementos en la fotografía.


Photoshop recibe otras funciones impulsadas por IA
En paralelo, Adobe ha anunciado diferentes funciones para mejorar la experiencia de edición en Photoshop, como un nuevo modo de ajustes preestablecidos. Esta función permite ver y aplicar filtros a una imagen de una forma mucho más intuitiva, sin necesidad de que sea el usuario quien ajusta las tonalidades, etc. Por el momento, Photoshop integra 32 ajustes preestablecidos que se pueden aplicar y deshacer fácilmente, así como editar en caso de que sea necesario.

Otra característica impulsada mediante IA que integra Photoshop es la herramienta Remove. Esta permite eliminar elementos de una imagen simplemente pasando el pincel por encima. Funciona, sobre todo, en objetos grandes.

Relacionado con la inteligencia artificial y el aprendizaje automático, Adobe ha incluido en Photoshop una nueva barra de tareas contextual. Esta aparece durante el proceso de edición de una imagen y muestra accesos directos a los siguientes pasos y opciones que el usuario podría realizar. Por ejemplo, si un usuario selecciona un objeto, la barra de tareas contextual mostrará accesos para seleccionar, enmascarar, crear una capa, etc.

Adobe, por último, ha actualizado la función de degradados. Ahora es más sencillo crear un degradado y se integran, además, nuevos controles de lienzo para hacerlo más personalizable. Esta y el resto de funciones se irán implementando de forma progresiva en la app.

https://hipertextual.com/2023/05/el-fut ... va-firefly
katatsumuri escribió:




dinamita4922 escribió:@katatsumuri si, quiere entrenar modelos, he hablado con el y me ha dicho que se esta planteando comprar una rtx3060/3080...

Me imagino que la GPU mientras mas potente mejor no?? O interesa que tenga mas VRAM?? Lo digo por la rtx 3060 de 12 gigas

Las AMD valdrían?? O quedan descartada en este contexto??

Y la CPU?? Es recomendable una CPU potente?? O el trabajo recae sobre la GPU??
Tiene un i5 8400

No tengo mucho entendimiento sobre entrenar IAs, pero en general se necesita una buena GPU, lo que supongo que importa es tanto memoria, cuanto más grande sea el modelo más memoria supongo que es necesaria, se necesitan bastantes GB para entrenar modelos decentes, 24 es lo más recomendable, y luego está el tema de los tensor cores supongo, cuantos más tensor cores tenga la GPU pues más rápida será entrenando.

Si se van a entrenar IAs yo no iría a comprar una 3060 porque tendrá pocos tensor cores supongo, poco poder de cómputo, ni idea de cuantos tiene, hay que buscar un equilibrio entre VRAM y poder de cómputo.

Se pueden entrenar IAs con GPUs de AMD? Pues supongo, pero no serán tan eficientes debido a que no tienen tensor cores, se puede hasta con un procesador ( CPU ).

Es importante la CPU, pues si, es importante, supongo que gestionará algunas parte del código, así que si.

De todas formas ya te digo que no soy entendido del tema, nunca he entenado una IA, lo intenté con la 3070ti pero lo di por perdido por el tema de poca memoria, casi es mejor irte a google colab o pagar por Cloud TPU de google, acelerarás bastante el trabajo teniendo acceso a hardware dedicado más potente que lo que podrías gastar en comprar una 3060


Muchas gracias por la aclaración compañero. Estuve hablando con mi amigo y ne indica que entonces se esta planteando de pillar una rtx 3080 mínimo.....el i5 8400 lo probara, y si no le convence pues pillarla alguno mas actual ;)
PLUGIN STABLE DIFFUSION PARA PHOTOSHOP
https://exchange.adobe.com/apps/cc/1141 ... -diffusion

PLUGIN STABLE DIFFUSION PARA BLENDER
https://blendermarket.com/products/stab ... or-blender

Los dos plugins son totalmente gratuitos.
dinamita4922 escribió:@katatsumuri si, quiere entrenar modelos, he hablado con el y me ha dicho que se esta planteando comprar una rtx3060/3080...

Me imagino que la GPU mientras mas potente mejor no?? O interesa que tenga mas VRAM?? Lo digo por la rtx 3060 de 12 gigas

Las AMD valdrían?? O quedan descartada en este contexto??

Y la CPU?? Es recomendable una CPU potente?? O el trabajo recae sobre la GPU??
Tiene un i5 8400


Busca toms hardware IA y hay un artículo buenísimo que te pone un ranking de las mejores gráficas.

En amd está más verde la cosa y necesitas usar Linux normalmente

Imagen


@katatsumuri Lo de adobe es una locura lo que han hecho te recomiendo probarlo. Yo hice un hilo de imágenes pero no tuvo éxito a ver si este lo tiene. Aunque en este foro el tema IA solo se llenan los hilos de alarmisml :D
@bacogod gracias por la info compañero, le voy a echar un vistazo ;)

edito...sera este no??

https://www.tomshardware.com/news/stabl ... benchmarks
dinamita4922 escribió:@bacogod gracias por la info compañero, le voy a echar un vistazo ;)

edito...sera este no??

https://www.tomshardware.com/news/stabl ... benchmarks


Yes, es cierto que claro ya con tanta gráfica esta desactualizado no se si lo actualizaran faltan la 4060 la ti y la 4070 a secas pero vamos que viendo el articulo mas o menos sabes que puntuacion sacaran
Por cierto, esa 7900 en cabeza es extraño no? Supongo que le han metido núcleos de IA o algo no? Porque las demás parecen estar en la cola, pero esa está exactamente en la cúspide casi.

De todas formas creo que para stable diffusion no se utilizan los tensor cores, se utilizan los núcleos cuda, aunque creo que hay formas de usar los tensor cores para acelerar el proceso generativo, que alguien me corrija, porque si fuese así ese gráfico creo que no sería muy fiable a la hora quizás de entrenar modelos, mejor sería uno donde se han entrenado modelos.

Al parecer la 7900 xt si llevaría unos AI acelerators, y si servirían para entrenar.
Highrider está baneado por "troll"
Tengo mid ojurney version pro por trabajo, está muy bien, pero busco una IA que escribas párrafos y por cada uno te cree una imagen de calidad relacionada.
¿CÓMO USAR LA IA GENERATIVA PARA CREAR EL ARTE DE UN VIDEOJUEGO?

En este blog se explica de forma detallada como se generó el arte del juego Echoes of Somewhere: Series 1 usando IA (stable diffusion y midjourney)
https://echoesofsomewhere.com/2023/01/0 ... -graphics/

Imagen



https://echoesofsomewhere.com/2023/01/0 ... -graphics/

Como un pequeño y divertido prototipo, quería ver cuánto trabajo sería usar IA para crear la mayor cantidad de arte posible para un juego de estilo de apuntar y hacer clic en 2.5D.

Supuse que los fondos serían un hecho, ya que el juego sería prácticamente en 2D, pero los personajes eran más complicados. Necesitaría tener una canalización ultrarrápida, una canalización que me permita usar datos de captura de movimiento para que la creación de animaciones no sea un cuello de botella. Necesitaba una forma de traducir el arte generado por IA en una forma que pudiera aceptar la captura de movimiento.

La mejor manera parecía ser generar conceptos de personajes con IA y modelarlos en 3D.

He estado trabajando en la industria de los juegos durante más de 20 años, modelando personajes y fondos en gran parte. Por lo tanto, sería interesante ver cómo la IA me permitiría trabajar más rápido. ¿Y por cuánto?

Planeé usar los personajes solo en tomas amplias, por lo que la posible baja calidad o los detalles desordenados no importarían tanto, pero la tecnología de IA ha recorrido un largo camino desde entonces y la coherencia del arte es mucho mejor de lo que solía ser. Hace apenas unos meses.

Construir rápido rápido
Empecé ordenando a la IA (Midjourney en este proto, pero uso más stable diffusion) para hacerme una hoja modelo con imágenes rotativas de un personaje. Similar al que tendrías en un estudio de animación. Ese sería un buen punto de partida para algo como esto.


NVIDIA NEURALANGELO / GENERA RÉPLICAS 3D CON VÍDEO
NVIDIA presenta un nuevo modelo de IA que convierte videos 2D en estructuras 3D, Neuralangelo genera réplicas virtuales realistas de edificios, esculturas y otros objetos del mundo real.


NVIDIA Research presentó Neuralangelo, un nuevo modelo de IA que transforma videos 2D en estructuras 3D detalladas, "generando réplicas virtuales realistas de edificios, esculturas y otros objetos del mundo real".

Los artistas pueden importar los activos resultantes en aplicaciones de diseño y editarlos para usarlos en arte, desarrollo de videojuegos, robótica y gemelos digitales industriales.

"Las capacidades de reconstrucción 3D que ofrece Neuralangelo serán un gran beneficio para los creadores, ayudándolos a recrear el mundo real en el mundo digital", dijo Ming-Yu Liu, director sénior de investigación y coautor del artículo de investigación . "Esta herramienta eventualmente permitirá a los desarrolladores importar objetos detallados, ya sean pequeñas estatuas o edificios masivos, en entornos virtuales para videojuegos o gemelos digitales industriales".

Puede ver cómo funciona en la demostración anterior, donde NVIDIA mostró cómo el modelo puede recrear el David de Miguel Ángel y reconstruir los interiores y exteriores de los edificios.

Neuralangelo funciona en base a primitivas de gráficos neuronales instantáneos, la tecnología detrás de Instant NeRF de NVIDIA , que convierte imágenes 2D en modelos 3D.

Usando un video 2D de un objeto o escena filmado desde varios ángulos, el modelo selecciona varios cuadros. Una vez que se determina la posición de la cámara de cada cuadro, Neuralangelo crea una representación 3D aproximada de la escena y luego optimiza el renderizado para afinar los detalles. El resultado es un objeto 3D o una escena a gran escala que se puede utilizar en otro software.

Neuralangelo es uno de los muchos proyectos de NVIDIA Research que se presentarán en la Conferencia sobre visión artificial y reconocimiento de patrones (CVPR) del 18 al 22 de junio. Sus artículos abarcan temas que incluyen la estimación de poses, la reconstrucción 3D y la generación de videos.
TrueSync AI de la empresa FLAWLESS AI es una IA para doblar cine a cualquier idioma

EL FUTURO DEL CINE

GEN-2, una IA que genera vídeo, generando vídeos a partir de imágenes de midjourney





Se que puse vídeos de gen-2 con imágenes de midjourney, pero es que estoy anonadado, estamos a nada de poder producir cine hollywoodiense desde casa.




FOOOCUS MRE (Stable Diffusion XL en local, generador de imágenes gratuito)
Es un software que nos permitirá editar imágenes y generarlas de forma local, solo hay que descargar y ejecutar.
Imagen
Para quien quiera probarlo: https://github.com/MoonRide303/Fooocus-MRE

Descarga: https://github.com/MoonRide303/Fooocus- ... /v2.0.78.5

Para guardar los promps tenemos que MISC y activar "save metadata in image", también puede hacerse en un json, ahora en load prompt le damos a cargar imagen y debería cargarnos el prompt de la imagen que generamos.
Imagen

Algunas muestras:
Imagen
Imagen
Imagen
Imagen
Imagen


TUTORIAL PARA CREAR COVERS CON IA EN LOCAL Y GRATUITO
Primero de todo tenemos que separar la voz de la instrumental de la canción, el motivo es que vamos a procesar solo la voz.

SOFTWARE PARA SEPARAR VOZ Y Instrumental (también separa instrumentos) CON v5.5 - UVR GUI
Es un software con varios modelos de IA que nos permiten extraer canciones por pistas, en este caso nos interesa solo la voz y la instrumental, pero podemos extraer un track en forma de multitrack, interesante para mezclar y producir música, o extraer acapellas.

Diría que es hasta posible separar las vocales por segmentos y todo para potenciar mejor por capas.
Descarga: https://github.com/Anjok07/ultimatevoca ... i/releases
Bajaremos el archivo UVR_v5.5.0_setup.exe

Esta es la configuración he usado
Imagen

CREAR LA COVER CON RVC-GUI AI
Este software es el que sintetizará las voces artificiales basadas en el modelo de la persona que queramos, incluso podemos grabar nuestra propia voz y sintetizar por encima la voz que queramos.

Para correr este software solo tenemos que descomprimirlo y ejecutar el archivo .bat

En input tenemos que poner la voz de la canción, la acapella, si ponemos la voz con la instrumental el personaje tarareará y hará ruidos raros, por eso la hemos separado, para solo procesar la voz.

En modelos seleccionamos el modelo deseado y le damos a procesar, si queremos otros modelos tendremos que descargarlos y ponerlos en la carpeta de modelos de dentro del programa.

Descarga: https://github.com/Tiger14n/RVC-GUI/rel ... indows-pkg

Imagen


BAJAR MODELOS:
Podéis ir a este discord https://discord.gg/9Aeep9sJrt
O bajarlos de huggingface https://huggingface.co/models?other=rvc
https://huggingface.co/QuickWick/Music- ... /tree/main

JUNTAR VOZ E INSTRUMENTAL - MEZCLAR ELEMENTOS
Para juntar la voz con la instrumental podéis bajar software gratuito como audacity o reaper
https://www.audacityteam.org/
https://www.reaper.fm/

GOOGLE COLAB: https://huggingface.co/spaces/zomehwh/rvc-models


STABLE VIDEO SDV (Stable Diffusion Image To Video)
Con una imagen cualquiera puedes generar un vídeo, puedes probarlo gratis desde este google colab:
https://colab.research.google.com/githu ... 2vid.ipynb




Imagen
Imagen
PIKA 1.0
Otra IA de texto a vídeo


MAGNIFIC AI
Una ia que restaura imágenes rehaciendo/reimaginando cada pixel.




AnimateDiff + IPAdapter





LEONARDO AI
STABLE AUDIO
Es un generador de audio, por si quieres crear canciones libres de derechos de autor para un vídeo o lo que sea.
Para proyectos profesionales debes pagar.


SDXL TURBO
Es un generador de imágenes en tiempo real, al momento, basado en stable diffusion XL
SORA de OPENAI / IA GENERADORA DE TEXTO A VÍDEO
Pues bastante alucinante el resultado respecto a anteriores IAs que generaban vídeo, esto ya va tomando forma a otro nivel, aunque aún queda mucho recorrido por delante, cada día más cerca de poder producir cine al nivel de hollywood desde casa.








STABILITY AI PRESENTA STABLE DIFFUSION 3
De momento solo disponible a través del discord.


Hola qué tal.

Sabéis de alguna app que pueda generar imágenes estilo DALL-E 3 pero que ponga bien los textos? O eso es algo general que siempre sale mal?

Le dices por ejemplo que ponga MAPEADO y a lo mejor te pone en la imagen: MAPPIADO o algo similar. Vamos, que nunca saca bien el texto.

Un saludo.
Androm3da escribió:Hola qué tal.

Sabéis de alguna app que pueda generar imágenes estilo DALL-E 3 pero que ponga bien los textos? O eso es algo general que siempre sale mal?

Le dices por ejemplo que ponga MAPEADO y a lo mejor te pone en la imagen: MAPPIADO o algo similar. Vamos, que nunca saca bien el texto.

Un saludo.

No he probado midjourney, pero creo que el tema de los textos aún es jodido, igual que los dedos.


En stablediffusion es jodido diría.

Aunque puedes crearlos por separado y luego implementarlos

katatsumuri escribió:
Androm3da escribió:Hola qué tal.

Sabéis de alguna app que pueda generar imágenes estilo DALL-E 3 pero que ponga bien los textos? O eso es algo general que siempre sale mal?

Le dices por ejemplo que ponga MAPEADO y a lo mejor te pone en la imagen: MAPPIADO o algo similar. Vamos, que nunca saca bien el texto.

Un saludo.

No he probado midjourney, pero creo que el tema de los textos aún es jodido, igual que los dedos.


En stablediffusion es jodido diría.


Ya suponía :(

Bueno, tocará esperar. Gracias.

Un saludo.
@Androm3da Por ejemplo, creas una imagen ¿Ok? Pues luego agarras esa imagen y le colocas un texto encima, con el paint o el photoshop mismo, igual desde el mismo software de IA se puede hacer, entonces solo seleccionas la región del texto y le pides que reimagine esa región y aplicas lo que te he pasado en los vídeos de arriba.

En Fooocus-MRE creo que lo puedes hacer de poner una imagen y solo pedirle que imagine la región que hayas delimitado dentro de la imagen.



Creo que todo es workflow, el objetivo se puede lograr sin problema.
katatsumuri escribió:@Androm3da Por ejemplo, creas una imagen ¿Ok? Pues luego agarras esa imagen y le colocas un texto encima, con el paint o el photoshop mismo, igual desde el mismo software de IA se puede hacer, entonces solo seleccionas la región del texto y le pides que reimagine esa región y aplicas lo que te he pasado en los vídeos de arriba.

En Fooocus-MRE creo que lo puedes hacer de poner una imagen y solo pedirle que imagine la región que hayas delimitado dentro de la imagen.



Creo que todo es workflow, el objetivo se puede lograr sin problema.


Gracias, le echaré un vistazo :)

Un saludo.
29 respuestas