Microsoft desvela VALL-E, una IA capaz de recrear la voz de cualquier persona a partir de un cort...

Esto tiene un potencial memeable de proporciones bíblicas xD.
NaN escribió:La realidad:
La gente usara la IA para que diga frases guarras con voz de famosas mientras se estrujan la nutria

Justo en eso andaba pensando. [qmparto]
Con tanta IA, deep fakes y mandangas similares, tenemos Perseguido (The Running Man) a la vuelta de la esquina XD.
Tengo ganas de una IA que recree a una tía en pelotas a partir de una foto o en tiempo real ya sería la ostia.
Si, conozco los fakes de videos de famosas en escenas porno pero aparte de no ser copiar pegar, el resultado es mediocre
¿Recordáis esos casos de secuestros falsos donde presos de cárceles latinas llamaban a números al azar diciendo "hemos secuestrado a tu hijo, o nos das tanto a tal cuenta o lo matamos" y se escuchaba a alguien de fondo llorando y suplicando y muchos pagaron porque con la tensión del momento creían escuchar la voz de sus hijos aunque no se pareciera? Bueno, pues ahora sí puede ser tu hijo el que suplique por su vida.

Con algo así, la suplantación de identidad se convierte en un juego de niños, más la acusación de delitos a otra persona o el robo de información. Se me ocurren miles de usos fraudulentos y cuestionables para esto, no ya solo de delincuentes, sino de personas conocidas que busquen hacerte daño. Yo tampoco entiendo por qué cojones se ponen a crear algo así, le veo pocos usos buenos y para hacer el mal son todo posibilidades.
Sangreyfuego escribió:Tengo ganas de una IA que recree a una tía en pelotas a partir de una foto o en tiempo real ya sería la ostia.
Si, conozco los fakes de videos de famosas en escenas porno pero aparte de no ser copiar pegar, el resultado es mediocre


Pues a este paso que van.. poco le falta
¿Esta en español? Me gustaría poder recrear mis familiares fallecidos para mí familia, suele ser muy reconfortante escuchar su voz
Sangreyfuego escribió:Tengo ganas de una IA que recree a una tía en pelotas a partir de una foto o en tiempo real ya sería la ostia.
Si, conozco los fakes de videos de famosas en escenas porno pero aparte de no ser copiar pegar, el resultado es mediocre


Hay resultados que dan miedo créeme, evidentemente debe haber consonancia con el cuerpo escogido pero es muy loco si ya le suman la voz con 3 segundos...
pacopolo escribió:¿Recordáis esos casos de secuestros falsos donde presos de cárceles latinas llamaban a números al azar diciendo "hemos secuestrado a tu hijo, o nos das tanto a tal cuenta o lo matamos" y se escuchaba a alguien de fondo llorando y suplicando y muchos pagaron porque con la tensión del momento creían escuchar la voz de sus hijos aunque no se pareciera? Bueno, pues ahora sí puede ser tu hijo el que suplique por su vida.

Con algo así, la suplantación de identidad se convierte en un juego de niños, más la acusación de delitos a otra persona o el robo de información. Se me ocurren miles de usos fraudulentos y cuestionables para esto, no ya solo de delincuentes, sino de personas conocidas que busquen hacerte daño. Yo tampoco entiendo por qué cojones se ponen a crear algo así, le veo pocos usos buenos y para hacer el mal son todo posibilidades.

Creo que lo que pasará es que los audios ya no podrán ser usados como pruebas en un juicio.

Lo de las llamadas, te la pueden colar bien si el sistema es bueno. Tú escuchas a tu compañero de trabajo pidiéndote la clave para el software de la empresa y se la das porque confías que es él al 100%.

Con esto se podrán hacer cosas buenas pero también cosas horribles. El futuro pinta extraño con esto de las IA,s. Siento miedo la verdad, pero por otro lado siento mucha curiosidad y tengo ganas de ver hasta dónde pueden llegar... Lo mismo estamos en un punto de no retorno.
Pues entre esto y los videos Deep fakes, como para fiarse de la veracidad de cualquier video en un futuro cercano..
largeroliker escribió:La verdad es que esto tiene mucho, mucho peligro. La dinamita del siglo XXI [+risas]


Y que no lo tiene? Acabo de escuchar por la radio que hay programas que ya hacen los trabajos de los universitarios, también hay robots que pueden hacer operaciones, y las noticias pronto las podrá dar también un ordenador automáticamente... Al final, el lampista, electricista o mecánico será el puto amo.
neofonta escribió:
emiliojrc escribió:Me pilló una para ponersela a mi mujer en bucle!!!!! [fiu]

Con la frase:

Sí cariño

[carcajad]
DavET está baneado por "Saltarse el ban con un clon"
Básicamente otra herramienta de control y manipulación.
Y eso que sólo estamos al principio de las IA's, hasta ahora toda tecnología tenia detrás un/os componentes humanos que sabían llevar a cabo dicha tecnología, ¿llegara el punto que las IA's generen tecnología que no pueda ser entendida por ninguna persona?

y si llega ese punto, el día que tomen conciencia, nos tomaran por retrasados?

[sonrisa]
Crápula escribió:Respecto del doblaje a muerto... Acaso la ia podrá expresar también los infinitos matices emocionales de la interpretación actoral? Que una cosa es que suene igual y otra que pueda comportarse igual.


Ya tenemos al de letras quejándose. Primero aprende a escribir, que es tu campo.

Es bromita, a mi me pasa constantemente XD
docobo escribió:
largeroliker escribió:La verdad es que esto tiene mucho, mucho peligro. La dinamita del siglo XXI [+risas]


Y que no lo tiene? Acabo de escuchar por la radio que hay programas que ya hacen los trabajos de los universitarios, también hay robots que pueden hacer operaciones, y las noticias pronto las podrá dar también un ordenador automáticamente... Al final, el lampista, electricista o mecánico será el puto amo.

Pero nada de eso es peligroso. Lo peligroso de esto es que se lo pone muy fácil a estafadores, porque no necesitan nada para impersonar a alguien hasta con su propia voz.
Lo primero que he pensado es que deben estar frotándose las manos en aquellas franquiciias de animación que se basan en los mismos personajes desde hace decadas cuyos dobladores ya tienen una cierta edad. Los Simpsons mayormente. Ya han tenido que retirar voces debido a la muerta de actores de doblaje y ahí dudas sobre si la serie pudiera seguir si uno de los dobladores de la familia Simpson muriera. Con esta tecnología le pueden comprar los derechos de la voz a la familia una vez muerto el actor o incluso comprárselo prematuramente en vida y seguir haciendo la serie por el resto de la eternidad. También ocurre en Japón con la dobladora de Goku, creo que se acerca a los 80 años.

paco_man escribió:Creo que lo que pasará es que los audios ya no podrán ser usados como pruebas en un juicio.

Eso pasaba pasaba en la serie Anime Ghost in the Shell Complex. En esa serie las IA son tan potentes que grabaciones, imágenes o videos no son admisibles como pruebas en juicios al no poder demostrar si son reales o artificiales.
pacopolo escribió:¿Recordáis esos casos de secuestros falsos donde presos de cárceles latinas llamaban a números al azar diciendo "hemos secuestrado a tu hijo, o nos das tanto a tal cuenta o lo matamos" y se escuchaba a alguien de fondo llorando y suplicando y muchos pagaron porque con la tensión del momento creían escuchar la voz de sus hijos aunque no se pareciera? Bueno, pues ahora sí puede ser tu hijo el que suplique por su vida.

Con algo así, la suplantación de identidad se convierte en un juego de niños, más la acusación de delitos a otra persona o el robo de información. Se me ocurren miles de usos fraudulentos y cuestionables para esto, no ya solo de delincuentes, sino de personas conocidas que busquen hacerte daño. Yo tampoco entiendo por qué cojones se ponen a crear algo así, le veo pocos usos buenos y para hacer el mal son todo posibilidades.

Esos timos se hacen en masa por que pica 1 de cada 1000. Si quisieran atacar alguien concreto lo podrían hacer ya igualmente manipulando cosas publicadas, o directamente haciendo un secuestro real.

xaos_ichigo escribió:¿Esta en español? Me gustaría poder recrear mis familiares fallecidos para mí familia, suele ser muy reconfortante escuchar su voz

Joder que malrollero, es muy de peli de Antena3 el querer forzar "que siga aquí alguien" como sea por irreal que fuese...
Si esto está al alcance del publico, entiendo que replanteará el sistema de grabaciones con el que se contratan ciertos servicios por telefono.
SUGUSAPPLE escribió:
neofonta escribió:Predigo que el oficio de actor de doblaje va a ir a menos.

Me consuela saber que podremos oír de nuevo la voz del difunto Constantino Romero [tadoramo]


Siempre podrás,Luke... Analiza tus sentimientos. [+risas]


En realidad esto ya se ha hecho ya. No con Constantino, cierto xD

https://twitter.com/javilop/status/1612 ... UgG3A&s=19
Si hay hasta canciones de famosos hechas con IA




Lo curioso es que puedas replicar una voz con simplemente un muestreo de tres segundos, pero por lo demás ya hay varias IAs que permiten que puedas clonar voces, es algo que guste o no estará al alcance de cualquiera.

Con las fotos pasa lo mismo, hoy en día puedes crear un modelo de alguien con cuatro fotos que tengas de esa persona y crear montajes falsos, y ya seguramente en nada tendremos vídeos, que si eres un poco curioso puedes hacer deep fakes, pero me refiero a que puedas crear cualquier tipo de vídeo de cero, con una descripción por texto o reimaginando un vídeo, no simplemente haciendo un swap de los rostros con otro vídeo.
exitfor escribió:Esos timos se hacen en masa por que pica 1 de cada 1000. Si quisieran atacar alguien concreto lo podrían hacer ya igualmente manipulando cosas publicadas, o directamente haciendo un secuestro real.

El ejemplo es algo que se me ha venido a la cabeza, pero con una herramienta así sí podrían hacer secuestros fingidos de una forma tremendamente fácil y con un ratio de efectividad muchísimo mayor. Y claro que pueden hacer un secuestro real, pero supone muchísimo más riesgo, muchísima más exposición y muchísimo más esfuerzo, mientras que algo así les sería muy fácil y convincente.

paco_man escribió:Lo de las llamadas, te la pueden colar bien si el sistema es bueno. Tú escuchas a tu compañero de trabajo pidiéndote la clave para el software de la empresa y se la das porque confías que es él al 100%.

Y ya no es sólo a nivel de estafas y robos de criminales profesionales, que solo ahí ya da para asustarse, imagínate en acciones individuales de personas normales que busquen hacer daño o sacarle información a alguien. Hay muchísimas personas tremendamente manipuladoras que la podrían usarlo para dejarte mal, o incluso para conseguir que te acusen de algún delito. Aunque luego en el juicio no llegara a nada (que habría que ver, la justicia no es perfecta tampoco) sí que podría servir para que, independientemente de salir absuelto, todas las personas de tu entorno te repudien y te crean culpable.

La existencia de una herramienta así ya va a crear problemas, como que personas culpables se libren de ser condenadas porque no se puedan utilizar audios que les incriminan o demuestran su culpabilidad. Estoy de acuerdo en que una parte de mí también se emociona por estos avances tecnológicos: cualquiera que esté en este foro le tiene cierto amor a la tecnología. Pero creo que hay un momento en el que tenemos que decidir si deberíamos hacer algo únicamente "por que podemos". En este caso en concreto, le veo poquísimos usos beneficiosos: lo cierto es que, ahora mismo, no caigo en ninguno. Y fraudulentos, a millones.
Ha sido leer la noticia, e imaginarme las ultimas películas de Clint Eastwood con la voz de Constantino Romero.
Bozo escribió:
Crápula escribió:Respecto del doblaje a muerto... Acaso la ia podrá expresar también los infinitos matices emocionales de la interpretación actoral? Que una cosa es que suene igual y otra que pueda comportarse igual.


Ya tenemos al de letras quejándose. Primero aprende a escribir, que es tu campo.

Es bromita, a mi me pasa constantemente XD


Ya tuvo que venir el injeniero
Skynet está cada vez más cerca:

Imagen
DiGiL escribió:Si fuera actor de doblaje estaria ahora mismo bajandome los testiculos a su lugar correspondiente.


Desde luego, pero me temo que no solo ellos/as corren peligro [mad]
se viene chicos
pensaba que no lo llegaría a ver

pero mira, si
esto se pone muy muy interesante
Billie_Joe escribió:Como muchos comentan, este WALL-E combinado con otra IA de video deepfake debería acelerar la modificación de algunas legislaciones para adaptarlas al ̶f̶u̶t̶u̶r̶o̶ presente.


harryhaller escribió:
danyelastra escribió:Carlos Latre al paro.


Si es así, este proyecto habrá merecido cada céntimo que hayan invertido en él.
[beer]


Se viene una gorda de 2024 en adelante. No nos vamos a poder fiar de nada audiovisual
100% de juegos doblados ?
ChatGPT + Wall-E + Dall-E y ya eres todo un "creadores de contenido" en menos de media hora XD
La verdad es que esto abre un nuevo abanico de posibilidades si lo siguen mejorando, por lo pronto se me ocurreasí de forma rápida:

- Doblaje de videojuegos de bajo presupuesto: por ejemplo el High On Life que tienen tanta importancia los diálogos y el guión que tiene y se echa en falta un doblaje al español, pues metiéndole las horas de grabación original en inglés, podríamos tener el doblaje en español

Crápula escribió:Respecto del doblaje a muerto... Acaso la ia podrá expresar también los infinitos matices emocionales de la interpretación actoral? Que una cosa es que suene igual y otra que pueda comportarse igual.

Te cojo un extracto y te lo marco en negrita para responder a esa pregunta.

Alejo I escribió:Con estos datos, la IA puede pronunciar los textos introducidos con sorprendente fidelidad. Según indica ArsTechnica, algunas frases pueden sonar algo enlatadas, pero otras pueden confundirse fácilmente con el habla de una persona real, manteniendo un tono emocional verosímil.


De todos modos llevas razón en que es complicado darle los matices y aunque lo consiguieran habría otro escollo que es el de la sincronización labial/gestual, pero para videojuegos o películas de animación si que puede ser una alternativa muy interesante.
Para el doblaje o traducción en tiempo real puede ser una revolución pero...
¿No son los riesgos demasiado altos?

Vamos a pasar de la era de la información a la era de la desinformación o la indiferencia porque ya no se podrá creer en nadie.
neofonta escribió:Predigo que el oficio de actor de doblaje va a ir a menos.

Me consuela saber que podremos oír de nuevo la voz del difunto Constantino Romero [tadoramo]


Justo pensé en eso [tadoramo]
In-trascendente está baneado por "troll"
El aburrimiento que nos espera...el mundo convertido en audio y vídeo. Ahora sólo falta una ía que te haga reir, [jaja] . Lo otro ya está inventado, pero deberían DARLO los gobiernos, máquinas para caminar/correr en casa, que son caras, más a cuanto más gordos/as nos pongamos XD, porque espero que no sean una tupa de pastillas e inyecciones como nos pongan
(digan que lo hacen, y a quien lo niegue...piñazo..., a día de hoy cortes A LÁSER - [ironía]¡el futuro, oiga![/ironía] - de unos nervios a sendos lados del lóbulo frontal. Cosa irreversible a día de hoy por su parte [mad] . Moraleja: no ''hagas'' sin saber deshacer..., que por cierto: menuda ley)
contentos/as, pero no me extrañaría, porque van fracaso tras fracaso (para el paciente, para la familia no, sólo cuando el paciente se suicida o ''lo suicidan'', pero para entonces ya les han comido bien tarro..., ya les han cebado bien el ego..., y hasta ahora a funcionado...así que ¡boom!).
Pues con esto y un bizcocho, al paro todos los actores y actrices de doblaje.
Menudo boom de IA hay ahora.

CrowX escribió:Pues con esto y un bizcocho, al paro todos los actores y actrices de doblaje.


La entonación no será igual y siempre será necesario a un revisor al menos. Mira que paso con el renoseque del GTA3 por usar IA.
Este tipo de tecnologias lo que podrian significar es por ejemplo el doblaje a nuestro idioma de todos los juegos, habra que ver como evoluciona, un saludo
Primero los deepfake, y ahora esto...

Juntos son la estafa perfecta, cualquiera podrá crear un video impersonando a cualquier persona (deepfake) sin necesidad de buscar a alguien que imite su voz (vall-e).

La verdad no sé que utilidad tiene esto aparte de la delictiva o turbia.
Algo parecido sale en las sagas de MISSION: IMPOSIBLE. Ta to wapo [oki]

Venga Skynet... que ya te queda menos para hacernos el favor [rtfm]
Con esto , se podría poner tu voz a tu personaje en los juegos ..Esto es el futuro :O
In-trascendente está baneado por "troll"
Como todos los inventos de la historia de la humanidad excepto ''2 ó 3'': para engañar (y si no lo ves, es que no sabes lo suficiente). Casi siempre hay un problema para motivar un producto, y cada producto motiva casi siempre un problema.

Sin novedades bajo el sol jajajaja.

Tiempo de procesamiento: 2 días y 8/200 [burla2] [cartman] (+1,0 x -4 `+1,0 x 0,-s).
La gente con noticias como esta habla de Skynet o Matrix pero nadie habla de Runnin Man o Perseguido de Arnold, esa pelicula, si que muestra un futuro aterrador y muy plausible sobre todo con noticias como esta, por que mas que una IA autonoma es IA para hacer lo que plantea el guion de esa peli, incriminar a cualquiera, mentir etc....

Imagen

bye
Otro por aqui al que le gustaria volver a escuchar la voz del grandioso Constantino Romero
Si las compañias telefonicas te cobran productos que no has contratado en la llamada imaginate lo que pueden hacer con esto
A ver si la liberan y alguien le pone la voz de Alfonso Vallés al MGS2/3/4 [carcajad]
96 respuestas
1, 2