Getty demanda a Stable Diffusion por usar sus fotos para educar su inteligencia artificial de gen...

La velocidad con la que están evolucionando las tecnologías de creación de contenidos, desde texto a imágenes, pasando por audio, impide en ocasiones apreciar que esos algoritmos deben ser alimentados con cantidades ingentes de material original para su perfeccionamiento. El uso de bancos de fotografías libres de derechos suele ser la norma, pero hay constancia de que algunas empresas han utilizado de forma indiscriminada las imágenes de plataformas como Flickr.

Ahora, Stable Diffusion se enfrenta en Estados Unidos a problemas potencialmente muy serios por su uso del material de Getty.

La agencia de fotografía de stock, que ya puso a Google contra las cuerdas y le obligó a modificar su búsqueda de imágenes, ha demandado a Stable Diffusion por infracción de derechos de copia "a una escala asombrosa". Concretamente, Getty asegura que el motor de creación de imágenes mediante IA copió más de 12 millones de fotos sin permiso ni compensación "como parte de sus esfuerzos para construir un negocio competidor", valiéndose para ello de las copias públicas (que no libres) que Getty ofrece en su vista previa.

Imagen
Las fotos generadas por Stable Diffusion llegan a contener un amago de facsímil de la marca de agua de Getty.

El problema fundamental de Stable Diffusion es que sus imágenes generadas suelen ser un collage muy bien organizado de las imágenes utilizadas para "educar" sus algoritmos, y en este caso, a golpe de copiar las fotos públicas de Getty llega incluso a reproducir su marca de agua. Así se puede apreciar en las imágenes de esta noticia, extraídas de la demanda.

La demanda interpuesta por Getty en Estados Unidos no es la única. El mes pasado la agencia anunció su intención de abrir un procedimiento legal en el Reino Unido por motivos similares, y también hay en marcha una demanda colectiva por el supuesto mal uso de imágenes creadas por artistas y alimentadas a los algoritmos, en este caso alegando que Stable Diffusion no crea contenido original, sino que lo plagia (algo muy interpretativo, pero fácil de argumentar considerando que Stable Diffusion llega a imitar la firma de los autores de las imágenes utilizadas como material de aprendizaje).

Según señala The Verge, posiblemente el caso llevará bastante tiempo por la acumulación de litigios en el tribunal donde se ha presentado la demanda. Sea como sea, varios expertos consultados indican que Getty tiene unos argumentos muy sólidos, en parte porque la empresa ya ha licenciado anteriormente sus imágenes a otras empresas de IA.
Mis dieses por la imagen que acompaña la noticia [tadoramo]
Hay que ser muy pero que muy tonto para meter en gran volumen imágenes con una marca de agua idéntica.

Eso lo que hace es enseñarle a la IA que TODO lo que reconoce en la imagen (deportistas, jugadores, lo que sea) deba llevar incluida la marca de agua por asociación.
Es tan estúpido que suena a más a "efecto colateral" de algun bot recogiendo imágenes arbitrariamente que una selección intencionada.

Es decir, que no solo dañas el aprendizaje de la IA sino que encima te pillan por tonto xD
Riwer escribió:Hay que ser muy pero que muy tonto para meter en gran volumen imágenes con una marca de agua idéntica.
...

Es decir, que no solo dañas el aprendizaje de la IA sino que encima te pillan por tonto xD


De tontos ni un pelo. Han pillado las imágenes como base, han entrenado su IA. Y todo a costo CERITO. Y por otro lado, ahora a ver como cuantifican lo aprendido y si llegan a hacer comprender al Juez lo que ello significa.

Entre tanto, los "sin un pelo de tontos" han demostrado A) Que tienen un algoritmo que funciona B) que tienen la capacidad de enseñar a una IA para hacer lo que quieren...

Es un win-win de toda la vida.
@sinfama No, porque como he dicho las imagenes con marca de agua intrusiva (como las de cualquier página tipo getty images) daña el entrenamiento, no lo ayuda.
Si hubieran tenido un buen detector de marcas de agua es cuando de verdad no serian tontos, porque tambien habrian entrenado la IA a coste cero, sin dañarla, y sin meterse en lios.
sinfama escribió:
Riwer escribió:Hay que ser muy pero que muy tonto para meter en gran volumen imágenes con una marca de agua idéntica.
...

Es decir, que no solo dañas el aprendizaje de la IA sino que encima te pillan por tonto xD


De tontos ni un pelo. Han pillado las imágenes como base, han entrenado su IA. Y todo a costo CERITO. Y por otro lado, ahora a ver como cuantifican lo aprendido y si llegan a hacer comprender al Juez lo que ello significa.

Entre tanto, los "sin un pelo de tontos" han demostrado A) Que tienen un algoritmo que funciona B) que tienen la capacidad de enseñar a una IA para hacer lo que quieren...

Es un win-win de toda la vida.

Dónde esta el win-win si esta más que demostrado que han ROBADO las imágenes? Tu, si robas, también te sale a coste cerito lo que hayas robado.
Stability UI antes de stable diffussion no valía un duro. Ahora está valorada en 1000 millones de dolares y le llueven los millones:
https://mpost.io/stability-ai-raises-10 ... 1-billion/

Si los abogados de la defensa ven viable el juicio llegarán a un acuerdo, pedirán disculpas, pagaran la multa, pagaran el uso de las imagenes y a vivir que son dos días.

Si hubieran tenido que pagar la licencia desde un principio, nunca habrían acabado SD y nunca hubieran creado su producto.
Ismsanmar escribió:
sinfama escribió:
Riwer escribió:Hay que ser muy pero que muy tonto para meter en gran volumen imágenes con una marca de agua idéntica.
...

Es decir, que no solo dañas el aprendizaje de la IA sino que encima te pillan por tonto xD


De tontos ni un pelo. Han pillado las imágenes como base, han entrenado su IA. Y todo a costo CERITO. Y por otro lado, ahora a ver como cuantifican lo aprendido y si llegan a hacer comprender al Juez lo que ello significa.

Entre tanto, los "sin un pelo de tontos" han demostrado A) Que tienen un algoritmo que funciona B) que tienen la capacidad de enseñar a una IA para hacer lo que quieren...

Es un win-win de toda la vida.

Dónde esta el win-win si esta más que demostrado que han ROBADO las imágenes? Tu, si robas, también te sale a coste cerito lo que hayas robado.


Puedes legalizar un "robo", al final solo quieren sentarse ha hablar de dinero, fijate con youtube como empezo, y la vendieron a una grande como Google y ya esta, a llegar a acuerdos y a monetizarlo para que salga rentable.

Las leyes tristemente no son para cumplirlas, son para ver hasta que punto lo que haces decide un juez que es ilegal o no y/o la multa que te ponen, que a lo mejor te sale rentable la multa y todo (hay lobbies que se encargan de que las multas no sean muy altas).

Yo no lo llamaria win-win, pero es un patadon adelante, y ya lidiaremos con las consecuencias. Y siendo pesos pesados como Microsoft o Google yo creo que llegaran a acuerdos y ya esta.

Que oye, que como demandante tambien tienes derecho a no meterte en muchos lios si te pagan mas o menos bien no? Luego esta lo de los precedentes que crea que en USA es importante (no tanto en nuestro pais).
Los bancos de imágenes están muertos con la llegada de la IA que genera imágenes. Yo ya ni me planteo comprar más imágenes cuando puedo generarlas.

Muy atrevidos los que decís que Getty solo quiere dinero y que SD luego pues a seguir con su trabajo. Igual lo que quiere Getty es que no le hundan la empresa aunque sea a costa de una pequeña indemnización pero joder a SD impidiéndoles seguir trabajando como hasta ahora, así como a todos los que vengan detrás.
Riwer escribió:@sinfama No, porque como he dicho las imagenes con marca de agua intrusiva (como las de cualquier página tipo getty images) daña el entrenamiento, no lo ayuda.
Si hubieran tenido un buen detector de marcas de agua es cuando de verdad no serian tontos, porque tambien habrian entrenado la IA a coste cero, sin dañarla, y sin meterse en lios.


Las imágenes sin categorizar no valen de nada. ¿De dónde pueden sacar millones de imágenes de alta calidad (no resolución) con sus respectivas tags bien categorizadas y archivadas por profesionales? Pues de los bancos de imágenes como Getty.
Maxtorete escribió:Las imágenes sin categorizar no valen de nada. ¿De dónde pueden sacar millones de imágenes de alta calidad (no resolución) con sus respectivas tags bien categorizadas y archivadas por profesionales? Pues de los bancos de imágenes como Getty.


Los sacan de empresas especializadas en ello, lo sé porque trabajo en una de ellas, y si hubiesen utilizado las de getty habrían pagado por ellas, que seguro que les sale más a cuenta.
Maxtorete escribió:
Riwer escribió:@sinfama No, porque como he dicho las imagenes con marca de agua intrusiva (como las de cualquier página tipo getty images) daña el entrenamiento, no lo ayuda.
Si hubieran tenido un buen detector de marcas de agua es cuando de verdad no serian tontos, porque tambien habrian entrenado la IA a coste cero, sin dañarla, y sin meterse en lios.


Las imágenes sin categorizar no valen de nada. ¿De dónde pueden sacar millones de imágenes de alta calidad (no resolución) con sus respectivas tags bien categorizadas y archivadas por profesionales? Pues de los bancos de imágenes como Getty.


Las previsualizaciones públicas de getty no las llamaría yo imágenes de calidad precisamente por tener marca de agua. (resolución obviamente tampoco y eso le dificulta a la IA entenderlo todo porque se basa en grupos de pixeles).

Además de que no necesitan que estén bien categorizadas (si lo están mejor) pero pueden categorizar perfectamente ellos despues de recolectar imágenes por internet de forma automática, cosa que segurísimo también están haciendo.
Lo normal hubiera sido que hubieran llegado a un acuerdo con getty el cual precisamente si tiene relaciones con las IA para tal fin.
No tiene ningun sentido que haya sido intencionado porque todas las partes son perjudicadas
joder que cutres, entrenan la IA con imagenes preview de baja calidad, y ni se molestan en quitarles la marca de agua ...

Me da que será la competencia de SD los que le coman la tostada a Getty, no ellos,
DavET está baneado por "Saltarse el ban con un clon"
Surrealista, absurdo y peligroso a partes iguales :)
Anda que... hay que ser muy tonto para no incluir un filtro para la marca de agua, o al menos un algoritmo para modificarlas.
mekkon escribió:
Maxtorete escribió:Las imágenes sin categorizar no valen de nada. ¿De dónde pueden sacar millones de imágenes de alta calidad (no resolución) con sus respectivas tags bien categorizadas y archivadas por profesionales? Pues de los bancos de imágenes como Getty.


Los sacan de empresas especializadas en ello, lo sé porque trabajo en una de ellas, y si hubiesen utilizado las de getty habrían pagado por ellas, que seguro que les sale más a cuenta.


Claro, se me olvidó añadir "sin pagar". Si hubiesen estado dispuestos a pagar, habrían contratado los servicios de una compañía como la tuya.
Primero - Los bancos de imágenes que usa Stable diffusion para generar imágenes por IA se llaman checkpoints ¿hasta aquí todo claro?

Segundo - Los checkpoints los arman usuarios, así que demandar "stable diffusion" por las imagenes que ponen los usuarios es como demandar a "Imgur" o "EOL" por las imagenes de getty que suben los usuarios

Tercero - Los checkpoints se consiguen en paginas y repositorios hechos por los usuarios, sin ninguna relacion a la gente de stable diffusion.
16 respuestas