La IA va a ser la palabra de moda del 2020

A mi me sonaba a cuento chino esto de la IA, hasta que salieron las fotos del programa que envejece a la gente, con resultados increible. Ahora es con el deepfake. El resultado es sorprendente y no se nota nada el truco. Va a revolucionar el mundo del cine y la television, aunque con mucha polémica, porque en muchos casos será falsear la película.

Dirty Harry Starring Arnold Schwarzenegger! (DeepFake)


La tecnología que hace que la MONA LISA cobre vida | DEEPFAKE

Con el tema del humor será muy divertido para los memes y esas cosas. Antes los montajes, con caras recortadas, no quedaba muy bien. Ahora es perfecto.

[DeepFake] El Equipo E, con E de España

Austin Pollers - Gold Single
IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.


¿Por qué burbuja? Si la IA ya nos muestra lo que se consigue con imágenes, en otros capos puede tener también resultados increíbles.
dinodini escribió:
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.


¿Por qué burbuja? Si la IA ya nos muestra lo que se consigue con imágenes, en otros capos puede tener también resultados increíbles.

Pues porque en la mayor parte de campos no ha conseguido mayor rendimiento que una regresión no paramétrica o incluso que la estadística convencional.

Sus principales problemas son: que la respuesta no sea una sola y clara, por eso con caras o procesamiento de imagen funciona tan bien, porque la cara es la que es, no hay más opciones, igual que algunos signos radiográficos difíciles de identificar, pero que cuando están presentes, son patognomónicos.

Su otro problema, de cuya ignorancia se aprovechan los charlatanes, es que para muchos campos no existe el big data necesario, por lo que no ya es que no funcione mejor que la estadística convencional. Es que funciona peor.
@dark_hunter Piensa que la IA y Machine Learning está en pañales ahora mismo... Si estando en una fase tan primitiva consigue lo que consigue en determinados campos, está claro que en un futuro a corto plazo va a marca la diferencia. No se si en 2020 (supongo que no), pero en esta década, está cantado...
Totalmente en pañales pero muy viva. La clave es esa, tener un volumen de datos realmente grande como para posibilitar su desarrollo. No es casualidad que exista este "repunte" de interés cuándo casi todo el mundo lleva un smartphone con bastante capacidad de procesamiento. Los teléfonos están nutriendo de datos sobre nuestros hábitos, conductas y gustos a las compañías tecnológicas y, mejor pensar así, esto posibilitará un avance bastante importante en la próxima década.

Del mismo modo que la década actual ha sido la de la nube y el streaming, la siguiente será la del desarrollo de la IA. Al menos como palabras más repetidas en el ámbito de la tecnología xD
Mrcolin escribió:@dark_hunter Piensa que la IA y Machine Learning está en pañales ahora mismo... Si estando en una fase tan primitiva consigue lo que consigue en determinados campos, está claro que en un futuro a corto plazo va a marca la diferencia. No se si en 2020 (supongo que no), pero en esta década, está cantado...

Sí y no, la IA ya tiene su solera, concretamente las redes neuronales tienen más años que yo.

Además, con avances como mucho podrán solucionar el primer punto.
dark_hunter escribió:
Mrcolin escribió:@dark_hunter Piensa que la IA y Machine Learning está en pañales ahora mismo... Si estando en una fase tan primitiva consigue lo que consigue en determinados campos, está claro que en un futuro a corto plazo va a marca la diferencia. No se si en 2020 (supongo que no), pero en esta década, está cantado...

Sí y no, la IA ya tiene su solera, concretamente las redes neuronales tienen más años que yo.

Además, con avances como mucho podrán solucionar el primer punto.


Si, tiene mucho tiempo, pero faltaba tecnología.

Ahira es cuando empezamos a tenerla... ahora todos llevamos un asistente en el bolsillo (mas o menos inteligente), ahora todos tenemos uno en casa (lo mismo, mejor o peor pero ahi esta) y es cuandl se esta encontrando una utilidad real.

Es opinion, claro esta, pero creo que ahora si estan las condiciones para poder explotar estas cosas.

Y como ha dicho el usuario de arriba, ahora todos tenemos un smartphone las 24h del dia encima para enseñar a estas IA
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.


Clasificación imágenes, reconocimiento de voz, traductores, software para entrenar en el poker, recomendaciones (video, música, libros etc...), conducción autónoma, texto predictivo, detección de transacciones fraudulentas, son algunos de los casos donde se viene usando ya, desde hace tiempo con resultados probados.
dnL7up escribió:
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.


Clasificación imágenes, reconocimiento de voz, traductores, software para entrenar en el poker, recomendaciones (video, música, libros etc...), conducción autónoma, texto predictivo, detección de transacciones fraudulentas, son algunos de los casos donde se viene usando ya, desde hace tiempo con resultados probados.

No digo que no se use, digo que no ha mostrado superioridad sobre los métodos convencionales. A cambio muchas veces necesita bastante más potencia de cálculo.
Las redes GAN para síntesis de datos (audio, imágenes, texto) también son la repera.

Y detección de anomalías.
dnL7up escribió:
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.


Clasificación imágenes, reconocimiento de voz, traductores, software para entrenar en el poker, recomendaciones (video, música, libros etc...), conducción autónoma, texto predictivo, detección de transacciones fraudulentas, son algunos de los casos donde se viene usando ya, desde hace tiempo con resultados probados.


Pues en los traductores no lo veo, y es una de las cosas que más me interesa. Las traducciones de Google translator m siguen siendo de pena.
dinodini escribió:
dnL7up escribió:
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.


Clasificación imágenes, reconocimiento de voz, traductores, software para entrenar en el poker, recomendaciones (video, música, libros etc...), conducción autónoma, texto predictivo, detección de transacciones fraudulentas, son algunos de los casos donde se viene usando ya, desde hace tiempo con resultados probados.


Pues en los traductores no lo veo, y es una de las cosas que más me interesa. Las traducciones de Google translator m siguen siendo de pena.

Tienes deepl. Pero aparte de que muchas veces no funciona mejor que Google, realmente no es machine learning puro, como no lo es en general ningún traductor, ya que lo que mejor funciona en esos casos es algo mixto.
habra que ver dentro de 4 o 5 años cuanto del tema de la IA resulta tener algo de contenido y cuanto resulta ser solo metralla comercial o productos enlatados.

ya ha pasado con otras muchas tecnologias antes. que el 90% no pasa del tipico articulillo de la muy interesante.
dnL7up escribió:
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.


Clasificación imágenes, reconocimiento de voz, traductores, software para entrenar en el poker, recomendaciones (video, música, libros etc...), conducción autónoma, texto predictivo, detección de transacciones fraudulentas, son algunos de los casos donde se viene usando ya, desde hace tiempo con resultados probados.


Desde mi punto de vista reconocer patrones no se puede considerar inteligente.

Ejemplo clásico: una Red neuronal entrenada para reconocer perros, pero cuando le pasas un gato lo máximo que te sabe decir es que no es un perro.
Aragornhr escribió:
dnL7up escribió:
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.


Clasificación imágenes, reconocimiento de voz, traductores, software para entrenar en el poker, recomendaciones (video, música, libros etc...), conducción autónoma, texto predictivo, detección de transacciones fraudulentas, son algunos de los casos donde se viene usando ya, desde hace tiempo con resultados probados.


Desde mi punto de vista reconocer patrones no se puede considerar inteligente.

Ejemplo clásico: una Red neuronal entrenada para reconocer perros, pero cuando le pasas un gato lo máximo que te sabe decir es que no es un perro.


La definición de inteligencia artificial ya es otro tema aparte. Ciertamente las redes neuronales solo cubre el area del aprendizaje, y el concepto de inteligencia ya puede cubrir muchas otras areas, pero el aprendizaje de una red neuronal artificial, es muy parecido al del cerebro humano.

Mientras la red neuronal artificial va acomodando los "pesos" de los nodos conectados durante su entrenamiento, las neuronas del cerebro van reforzando o debilitando las conexiones entre ellas durante el aprendizaje. Por decirlo mal y rápido, las neuronas no hacen mas que operaciones matemáticas super sencillas como sumar o dividir cargas eléctricas. La magia llega cuando conectas la 100 mil millones de ellas que componen al cerebro humano.

Si lo piensas un humano, tampoco va saber lo que es un gato si nadie se lo dice. Lo que pasa es que subestimamos mucho el largo proceso de aprendizaje de los humanos, nos toma prácticamente un año decir las primeras palabras, y 18 meses formular las primeras frases sencillas.

Vamos que literalmente puedes durar meses "entrenando" a un bebe a decir mamá.
Antes lo decía...

Ejemplo de cómo la IA puede empeorar las cosas incluso en los campos que se le dan bien (análisis de imagen), por los motivos que ya exponía arriba. Artículo de Nature, nada menos:

https://www.nature.com/articles/s41586-019-1799-6

Título, la IA mejora a los radiólogos en la observación de cánceres de mama confirmados mediante biopsia. Realidad: el exceso que está observando realmente son cánceres que no causarán problema alguno a la persona y que no le harán morir por su causa. Es decir, se estará operando innecesariamente a gente por algo que nunca les hubiera supuesto ningún problema, con el desgaste psicológico que ello también supone.

Mira que había campos para elegir y van a aquel en el que el problema no es de detección, sino de diagnóstico.

Podría añadir un problema más a los que describía en los mensajes de más arriba que podría ser que las pruebas complementarias son insuficientes para diagnosticar. Es como cuando se intenta diagnosticar la dificultad de una muela del juicio a través de la radiografía, de nada sirve meter toda la potencia de cálculo de IA si los factores principales que la determinan realmente no son radiológicos.
ia ia cthulhu fhtagn ph'nglui mglw'nafh cthulhu r'lyeh wgah'nagl fhtagn
Hasta dentro de un bueeeen tiempo y con ordenadores cuánticos en condiciones, para la mayoría de cosas son más pruebas de concepto que otra cosa, o cosas bastante simples (para lo que podría ser) como enemigos de videojuegos que se adaptan a tu forma de jugar para contrarestarte mejor y cosas por el estilo.
Uh Ah fue la palabra de moda de 1991. 30 años ya, mamma mía, qué recuerdos.
exitfor escribió:Hasta dentro de un bueeeen tiempo y con ordenadores cuánticos en condiciones, para la mayoría de cosas son más pruebas de concepto que otra cosa, o cosas bastante simples (para lo que podría ser) como enemigos de videojuegos que se adaptan a tu forma de jugar para contrarestarte mejor y cosas por el estilo.

En videojuegos no se usa IA. Se usan behavior trees. Alguna vez se ha usado alguna IA y no funciona. Alguna otra vez se ha entrenado a una IA y sr usa como un behavior tree, opaco, lo cual da más problemas.

Pero la IA hoy sf usa en multitud de cosas. En marketing está a la orden del día porque es un algoritmo sin igual para clasificar personas y comprender los mecanismos de publicidad qie mejor funcionan sin intervención humana.
Reakl escribió:
exitfor escribió:Hasta dentro de un bueeeen tiempo y con ordenadores cuánticos en condiciones, para la mayoría de cosas son más pruebas de concepto que otra cosa, o cosas bastante simples (para lo que podría ser) como enemigos de videojuegos que se adaptan a tu forma de jugar para contrarestarte mejor y cosas por el estilo.

En videojuegos no se usa IA. Se usan behavior trees. Alguna vez se ha usado alguna IA y no funciona. Alguna otra vez se ha entrenado a una IA y sr usa como un behavior tree, opaco, lo cual da más problemas.

Pero la IA hoy sf usa en multitud de cosas. En marketing está a la orden del día porque es un algoritmo sin igual para clasificar personas y comprender los mecanismos de publicidad qie mejor funcionan sin intervención humana.

Pues ya me dirás que es un behaviour tree dinámico donde a lo largo de tus gameplays el juego va añadiendo secuencias de patrones del jugador a él.

Tienes el input, almacenado, clasificación preferente en base a X respuestas, y modificas tu forma de operar acorde a ésto. Eso por básico que sea (que lo es), es una IA.
no es IA si los patrones de introduccion y de respuesta estan predefinidos.

por eso todavia no es IA ninguno de los reconocedores y asistentes de voz, por ejemplo. y tampoco nada de lo que se utiliza en videojuegos.

donde se esta empezando a meter algo que se acerca a considerarlo IA es en machine learning, algoritmos de big data y movidas de esas. y en los programas experimentales de que el ordenador dibuje cosas o haga musica y movidas asi. pero todavia el 99% es prefabricado.
exitfor escribió:
Reakl escribió:En videojuegos no se usa IA. Se usan behavior trees. Alguna vez se ha usado alguna IA y no funciona. Alguna otra vez se ha entrenado a una IA y sr usa como un behavior tree, opaco, lo cual da más problemas.

Pero la IA hoy sf usa en multitud de cosas. En marketing está a la orden del día porque es un algoritmo sin igual para clasificar personas y comprender los mecanismos de publicidad qie mejor funcionan sin intervención humana.

Pues ya me dirás que es un behaviour tree dinámico donde a lo largo de tus gameplays el juego va añadiendo secuencias de patrones del jugador a él.

Tienes el input, almacenado, clasificación preferente en base a X respuestas, y modificas tu forma de operar acorde a ésto. Eso por básico que sea (que lo es), es una IA.


Los behavior trees (o cualquier otra tecnologia de IA de videojuegos como HTN, GOAP o utility) no son mas que una manera de modelar comportamientos y poco tiene que ver con lo que consideramos IA tradicional. En los videojuegos hay un diseñador poniendo exactamente lo que el npc tiene que hacer en cada caso, mientras que en la IA el sistema "aprende".

De todos modos no entiendo muy bien a que te refieres con behavior tree dinamico en el que el juego añade "secuencias de patrones" en el. En los videojuegos lo que se busca es que el jugador pueda aprender y predecir como van a reaccionar los personajes ante sus acciones, por lo que meter la posibilidad de que el comportamiento "evolucione" demanera procedural no suele ser muy buena idea.
exitfor escribió:
Reakl escribió:
exitfor escribió:Hasta dentro de un bueeeen tiempo y con ordenadores cuánticos en condiciones, para la mayoría de cosas son más pruebas de concepto que otra cosa, o cosas bastante simples (para lo que podría ser) como enemigos de videojuegos que se adaptan a tu forma de jugar para contrarestarte mejor y cosas por el estilo.

En videojuegos no se usa IA. Se usan behavior trees. Alguna vez se ha usado alguna IA y no funciona. Alguna otra vez se ha entrenado a una IA y sr usa como un behavior tree, opaco, lo cual da más problemas.

Pero la IA hoy sf usa en multitud de cosas. En marketing está a la orden del día porque es un algoritmo sin igual para clasificar personas y comprender los mecanismos de publicidad qie mejor funcionan sin intervención humana.

Pues ya me dirás que es un behaviour tree dinámico donde a lo largo de tus gameplays el juego va añadiendo secuencias de patrones del jugador a él.

Tienes el input, almacenado, clasificación preferente en base a X respuestas, y modificas tu forma de operar acorde a ésto. Eso por básico que sea (que lo es), es una IA.

Modificar un comportamiento con respecto a parámetros es un behavior tree. Un behavior tree está diseñado.
Una IA es una red neuronal. Las redes neuronales no se diseñn sino que se entrenan. Y se tienen que entrenar antes de salir el juego, no después, pues pueden tardar millones de iteraciones para empezar a jugar bien. Las redes neuronales no se controlan, y en muchos casos provocan situaciones feas. Por eso no se usan. Un videojuego es una experiencia diseñada. Una IA no sabes por dónde te va a salir, y lo que es peor, es imposible de balancear. Todo ello conllevando un mayor procesador y millones de horas de entrenamiento.

Pocos juegos lo usan y los que lo han usado son experimentales (además de fracasos). Alguna vez se ha usado una IA durante el desarrollo pero nunca en release. Y siempre como opción default ante un behavior tree.

Siento decepcionarte, pero has sido una víctima del marketing. Lo que se usa son behavior trees, y estos se adaptan,por supuesto. Es la definición básica de un behavior tree. Y hay un diseñador detrás construyendo las condiciones.
Cuando decís que solo se usa behavior trees no es cierto. Muchos juegos utilizan otras tecnologías para la toma de decisiones, como planificadores HTN (Dark Souls, Horizon) o GOAP (Fear), utility functions (todos los Sims) o simplemente máquinas de estados (aunque esto no sea lo más recomendable para NPCs complejos) .
@Reakl apunte, la IA no se limita a redes neuronales, las redes bayesianas también son IA y hay más modalidades que ahora no recuerdo.

IA y machine learning tampoco son lo mismo.
ShadowCoatl está baneado por "Saltarse el ban con un clon"
GXY escribió:no es IA si los patrones de introduccion y de respuesta estan predefinidos.

por eso todavia no es IA ninguno de los reconocedores y asistentes de voz, por ejemplo. y tampoco nada de lo que se utiliza en videojuegos.


Es que es eso. Igual que en SC2 jugar contra "Difícil" no es lo mismo que jugar contra "Deep Mind". Lo primero es una serie de patrones y builds que Blizz ha hecho y son parecidas o variaciones de las mismas.

Deepmind (AlphaStar vaya) es una IA que ya es mejor que el 99,8% de todos los jugadores. (Que no debemos ser muchos pero bueno XD ) y no realiza búsquedas de patrones predefinidas, si no que se adapta y lleva años evolucionando jugando contra seres humanos y aprendiendo diferentes reacciones y estrategias. Además, está capada sólo para ver la parte del mapa que los humanos podrían ver y limitadas las acciones a las que podría un humano gestionar mierdas con ratón y teclado.

https://www.theverge.com/2019/10/30/209 ... ster-level

Por eso me descojono cuando veo a los colegas de mi pareja poniéndome vídeos de autómatas haciendo coreografías y pensando que dentro de nada vivimos Ghost in the Shell.
Un apunte, la IA muchas veces sí tiene patrones predefinidos, especialmente cuando tiene que cumplir unas reglas.
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.

Hay un sin fin de aplicaciones de Supervised Learning que está dando muchísimo dinero a muchas empresas desde hace ya varios años. No solo estoy hablando de redes con convoluciones. Conozco empresas que se dedican a Real State por ejemplo, cuyo único producto es una aplicación basada en deep learning que propone intercambios de inmuebles para ahorrar dinero a clientes, y da bastantes beneficios, lo mismo con financieras, lo mismo con reconocimiento de texto, de voz, etc.

Otra cosa es que me hables de Unsupervised o Reinforcement Learning, que ya son campos menos aplicables y más especulativos, sobre todo este último.
Elelegido escribió:
dark_hunter escribió:IA y Machine Learning, la nueva burbuja. Al menos tu has puesto los pocos campos en los que ha demostrado superioridad, el tratamiento de imágenes.

Hay un sin fin de aplicaciones de Supervised Learning está dando muchísimo dinero a muchas empresas desde hace ya varios años. No solo estoy hablando de redes con convoluciones. Conozco empresas que se dedican a Real State por ejemplo, cuyo único producto es una aplicación basada en deep learning y dan bastantes beneficios, lo mismo con financieras, lo mismo con reconocimiento de texto, de voz, etc.

Otra cosa es que me hables de Unsupervised o Reinforcement Learning, que ya son campos menos aplicables y más especulativos, sobre todo este último.

No he dicho que no sea un negocio, más bien lo contrario. Ni siquiera he dicho que no funcione. Sólo que en gran parte de campos no ha demostrado superioridad respecto a vetusta regresión no paramétrica, la estadística bayesiana o incluso la estadística frecuentista convencional de hace más de un siglo.

Miento, sí he dado dos parámetros en los cuales no funciona bien: tamaños de muestra pequeños y respuestas con umbrales muy difusos (como el screening del cáncer que puse antes). Todo modelo estadístico, incluida la IA y el machine learning, tiene unos parámetros de aplicación (incluso los llamados no paramétricos, estos simplemente son mucho más laxos). Si como se está haciendo, aplicas un test cuando no toca, obtendrás una respuesta, pero eso no quiere decir que sea correcta.

Por el marketing de los "data scientist", se están incumpliendo esos parámetros en muchos campos.
dark_hunter escribió:No he dicho que no sea un negocio, más bien lo contrario. Ni siquiera he dicho que no funcione. Sólo que en gran parte de campos no ha demostrado superioridad respecto a vetusta regresión no paramétrica, la estadística bayesiana o incluso la estadística frecuentista convencional de hace más de un siglo.


Es que realmente no hay una frontera dura, el auge del machine learning viene de las innovaciones tecnológicas que han permitido correr algoritmos que tienen una pila de años en una escala temporal más humana, y sobre todo, mucho más productiva económicamente. Y esto a su vez, ha permitido un refinamiento en dichos algoritmos y un auge en la investigación de algoritmos nuevos.
dark_hunter escribió:No he dicho que no sea un negocio, más bien lo contrario. Ni siquiera he dicho que no funcione. Sólo que en gran parte de campos no ha demostrado superioridad respecto a vetusta regresión no paramétrica, la estadística bayesiana o incluso la estadística frecuentista convencional de hace más de un siglo.

Miento, sí he dado dos parámetros en los cuales no funciona bien: tamaños de muestra pequeños y respuestas con umbrales muy difusos (como el screening del cáncer que puse antes). Todo modelo estadístico, incluida la IA y el machine learning, tiene unos parámetros de aplicación (incluso los llamados no paramétricos, estos simplemente son mucho más laxos). Si como se está haciendo, aplicas un test cuando no toca, obtendrás una respuesta, pero eso no quiere decir que sea correcta.

Por el marketing de los "data scientist", se están incumpliendo esos parámetros en muchos campos.


Absolutamente de acuerdo. Yo no lo calificaría como burbuja porque su implantación masiva viene de hace poco y aún no se puede juzgar el futuro de una tecnología extendida sin ninguna referencia temporal. Lo que sí es una burbuja es el revuelo generalizado que los medios de comunicación fomentan con respecto a IA y Machine Learning. Ni es infalible, ni tiene potencial para sustituir tecnologías críticas. Ni, por supuesto, es teoría nueva.

Sin ir más lejos, en mi campo (ingeniería de simulación) la IA tiene un alcance muy, muy limitado debido a la importancia del criterio humano para validar todo lo que se haga medianamente serio. Ahora la reostia resulta ser la aplicación en tiempo real de métodos como la optimización topológica mediante una IA, cuando la optimización topológica tiene 30 años y sin la interpretación humana sirve de más bien poco.

Habrá que ir viendo.
Como dato curioso, hace poco estaba viendo un video de un español que juega poker a alto nivel, que habla de cuando el Poker Online se profesionalizó, los grandes jugadores de poker profesionales que solíamos ver en TV como Daniel Negreanu y compañía, nunca lograron adaptarse, vamos que ellos no pueden si quiera intentar competir con los jugadores de alto nivel online, debido a que estos juegan muchísimas más manos al mes, y juegan en multiples mesas simultáneamente, vamos que la diferencia de experiencia que tienen los jugadores tradicionales de los online, es incomparable.

Pues bien, una de las cosas que menciona es sobre el software que usa para estudiar, que básicamente hay 2 principales, ambos los describe como software que aprendieron a jugar contra sí mismos e iban mejorando gradualmente. Vamos, describiendo el típico machine learning no supervisado.

El decía que el software aun es demasiado lento para usarlo en tiempo real, pero es realmente bueno para estudiar, y mencionaba que el notó que el mejor jugador de poker online en el mundo, lo utilizaba también porque se dio cuenta que su estilo de juego era el mismo que el de este software.

Ahora estoy en el trabajo por eso no me he puesto a checarlo para sacar los nombres del software y jugadores, pero pueden ver el video aquí.

Ojo que más allá del software que usa, el video es bastante abrumador, al ver todo lo que hace para mejorar y estudiar.
La IA/Machine/Deep Learning es un campo en auge por méritos propios. No es cierto que las redes neuronales sean las mismas que las de los años 80: los algoritmos han mejorado cualitativamente. Eso ha sido necesario porque ahora sí tenemos la potencia y los datos para poder exprimir más las redes neuronales. Por ejemplo el deep learning es posible porque se modifican las redes neuronales (añadiéndoles memoria a largo plazo por ej) para solucional el problema del vanishing gradient.

Ahora mismo la IA se utiliza para reemplazar trabajos que por otro lado serían arduos, aunque no exentos de cierta creatividad.

El mayor problema que le veo a los sistemas de IA actuales es que son bastante específicos para cada tipo de problema. La configuración de dichas redes neuronales todavía depende de los especialistas, de lo contrario es demasiado ineficiente generalmente. El día que la topografía de las redes neuronales se configure autónomamente quizás consigamos acercarnos a una IA más generalista.
Findeton escribió:La IA/Machine/Deep Learning es un campo en auge por méritos propios. No es cierto que las redes neuronales sean las mismas que las de los años 80: los algoritmos han mejorado cualitativamente. Eso ha sido necesario porque ahora sí tenemos la potencia y los datos para poder exprimir más las redes neuronales. Por ejemplo el deep learning es posible porque se modifican las redes neuronales (añadiéndoles memoria a largo plazo por ej) para solucional el problema del vanishing gradient.

Ahora mismo la IA se utiliza para reemplazar trabajos que por otro lado serían arduos, aunque no exentos de cierta creatividad.

El mayor problema que le veo a los sistemas de IA actuales es que son bastante específicos para cada tipo de problema. La configuración de dichas redes neuronales todavía depende de los especialistas, de lo contrario es demasiado ineficiente generalmente. El día que la topografía de las redes neuronales se configure autónomamente quizás consigamos acercarnos a una IA más generalista.

El problema no es tanto de técnica, pues como dije funciona, y al igual que salvo ciertos campos (normalmente análisis de imagen) no ha demostrado superioridad sobre los métodos convencionales, estos tampoco tienen superioridad sobre la IA.

Pero esto sólo cuando se aplica cuando toca, por ejemplo, en muestras pequeñas, donde no se debería de usar (pero se está haciendo) una estadística frecuentista o bayesiana te va a dar mejores resultados con muchísimos menos recursos.

Es como hacer bootstrap para sacar los intervalos de confianza de una regresión lineal, por el mero hecho de ser una técnica relativamente novedosa, que ha demostrado funcionar mucho mejor en ciertos casos concretos. Vas a invertir muchos recursos y tiempo, cuando habrías obtenido una respuesta exacta en vez de aproximada, en menos de una décima de segundo y con una patata de ordenador por la vía convencional.

El como se entrena la IA también es importante, aquí una IA que consiguió detectar fracturas de cadera en radiografías:

https://arxiv.org/pdf/1811.03695.pdf

... hasta que miraron qué estaba utilizando el algoritmo para sus conclusiones y las variables más precisas fueron: marca y modelo del escáner, es decir dos variables que no tienen nada que ver con la radiografía en sí. Un poco por detrás, el haber catalogado la radiografía como "urgente". Este al menos sí tiene sentido, pero creo que se entiende por donde voy. Es lo que comentaban más arriba de ojo con el unsupervised learning.

Otro ejemplo muy curioso de task failed succesfully:
https://www.youtube.com/watch?time_cont ... =emb_title

Un juego de carreras que tal y como lo han implementado, la IA consigue más puntos poniéndose a dar vueltas para coger los turbos nada más salgan, que completando la carrera. Ha cumplido perfectamente con su objetivo, de forma totalmente inútil.
@Findeton es cierto que ha habido una mejora sustancial, pero los fundamentos de lo que se usa hoy día no son tan nuevos. Gradiant Descent tiene 150 años, y se lleva usando para el backpropagation de ANN desde los 80. Y si bien, se han refinado mucho, (hoy en lugar de GD a pelo, tenemos Adam, o en vez de una ANN pelada, tenemos CNNs y RNNs con bastante más salsa), no ha habido un salto teórico revolucionario, al menos si nos centramos en las aplicaciones de Machine Learning que están siendo implantadas en la industria.

dark_hunter escribió:El como se entrena la IA también es importante, aquí una IA que consiguió detectar fracturas de cadera en radiografías:

https://arxiv.org/pdf/1811.03695.pdf


La verdad es que con solo leer el abstract, uno que haya estudiado un poquito el tema, empieza a temblar. Están haciendo un overfitting brutal en las muestras de aprendizaje. Eso se ve cuando en cross validation la predicción cae en picado al 67% y en test directamente hace de randomizer.

Es evidente, que no cualquiera puede hacer machine learning, por mucho framework for dummies que haya ahí suelto para python. Hay que tener las herramientas suficientes para detectar y tratar, tanto el over como el underfitting. En DL hay que tunear una barbaridad de parámetros (hyper parametros, en la jerga) para encontrar una arquitectura decente, que pueda generar modelos óptimos, por eso hacer babysitting de un único modelo no es algo serio hoy día. Es un trabajo bastante artesanal y costoso, por que la matriz de parámetros a retocar suele ser muy muy amplia, y entrenar muchos modelos al mismo tiempo cuesta una pasta.
Más que IA, la palabra del año va a se AI. Ay, ay, ay!

Mucho boom hay en esto, a mi me contrataron para hacer reinforcement learning distribuido habiendo hecho seis meses de segmentado de imágenes médicas, que no tendríamos ni cien megas de imágenes. Es decir, que de usar algo para clasificación y segmentado que no contaba con datos suficientes me llamaron para hacer unos autómatas que nunca había visto ni se han producido avances significativos últimamente. Pero bueno, sonaba guay y de moda, por lo que había pasta pa ello.

Al menos hay que reconocer que en reconocimiento de imagen se ha mejorado un montón, hace cuatro días no se sabía ni cómo coño atacar problemas relativamente simples.
Gurlukovich escribió:Más que IA, la palabra del año va a se AI. Ay, ay, ay!

Mucho boom hay en esto, a mi me contrataron para hacer reinforcement learning distribuido habiendo hecho seis meses de segmentado de imágenes médicas, que no tendríamos ni cien megas de imágenes. Es decir, que de usar algo para clasificación y segmentado que no contaba con datos suficientes me llamaron para hacer unos autómatas que nunca había visto ni se han producido avances significativos últimamente. Pero bueno, sonaba guay y de moda, por lo que había pasta pa ello.

Al menos hay que reconocer que en reconocimiento de imagen se ha mejorado un montón, hace cuatro días no se sabía ni cómo coño atacar problemas relativamente simples.


Y qué opinión te merece Numenta/HTM?
Ya sabéis cómo funciona esto de las tecnologías. Primero es el boom de las mismas (la IA ha llegado y está por todos lado), hay una sobreexposición por todos lados (hasta el retrete de tu casa tiene IA) y luego llega el bajón... Uno años después, es cuando la tencología se "recupera" y se "estabiliza" para lo que realmente es útil. El hype cicle:

Imagen
Primera vez que oigo hablar de ello.
FanDeNintendo escribió:Ya sabéis cómo funciona esto de las tecnologías. Primero es el boom de las mismas (la IA ha llegado y está por todos lado), hay una sobreexposición por todos lados (hasta el retrete de tu casa tiene IA) y luego llega el bajón... Uno años después, es cuando la tencología se "recupera" y se "estabiliza" para lo que realmente es útil. El hype cicle:

Imagen


esta grafica tiene tanto realismo como avengers endgame, mas o menos.

la mayoria de hitos de tiempo estan puestos por los loles, y las posiciones en la grafica tres cuartos de lo mismo xD

yo creo que al nivel de produccion general, dentro de 5-10 años habra... un 20, como mucho 30% de todo lo que se describe ahi.

y habra que ver cuanto se implementa con IA real y cuanto con "truquis miluquis"

y lo digo con un pelin de conocimiento de causa. que yo de implementar estas cosas ni puta idea, pero un colega mio si que lleva años trabajando en proyectos de estos para multinacionales gordas en alemania y segun me ha contado... ehem. si. hay mucha innovacion y mucha tecnologia chupiguay, pero para la mayoria de cosas se sigue haciendo "a la antigua", utilizando fuerza bruta, trucos que funcionan (pero que muchos de ellos son "exploiteables" o tienen puertas traseras, etc.

y hablo de cosas como por ejemplo los aparcamientos automatizados que hacen ahora algunos coches. o los algoritmos de IA para reconocimiento de cosas (imagenes, voz, etc).

por ejemplo para "voz" realmente no hay nada. todos trabajan por imagen usando espectrografia lo cual tiene muchas ventajas y esta muy bien para algunas implementaciones, pero hace que por ejemplo para distinguir entre dos personas, tengas que recurrir a otros metodos, porque por espectrografia no hay ningun sistema confiable para distinguir, por ejemplo, a una persona entre 1000 o para distinguir la grabacion de voz de una persona de la propia persona, sobre todo cuando se toma la voz de una fuente que no sea "en directo" (por telefono por ejemplo).
El campo más importante en donde la IA y el Machine Learning se va a implantar es el de la seguridad informática.

Las empresas de antivirus se están interesando en el tema porque así se podrían detectar amenazas en tiempo real y eliminarlas. Con los antivirus actuales se tiene una base de datos con las definiciones conocidas de virus y programas maliciosos. Pero cada día aparece malware nuevo, que hasta que se identifica y la empresa lo carga en sus bases de datos pueden pasar semanas o meses.

Los problemas que causa un código malicioso pueden tardar menos que segundos en aparecer, de modo que cuando el antivirus ya puede eliminarlo es demasiado tarde. Usando el Machine Learning en teoría se podría eliminar la amenaza antes de perder muchos datos sensibles del sistema atacado.
Iba a venir a decir eso, que se dice IA
muchas veces como ramas de condición - efecto.
Como los cálculos de un escenario para encontrar el camino más corto. Estilo ruta de gps.
Los pathfinder en juegos.

Lo de imágenes lo vi a código
en un pc por el del XBR,
contaba como en el filtro hay una especie de
previa de pequeñas imágenes (por valores supongo)
y en base a eso consigue mejor resultado con
x juego según lo actualiza.
Que empezó con Super mario world.
Es a pequeña escala y específico,
del estilo de esas IA de machine learning de imágenes.

Que se programe algo solo es.skynet xd
gadesx escribió:Iba a venir a decir eso, que se dice IA
muchas veces como ramas de condición - efecto.
Como los cálculos de un escenario para encontrar el camino más corto. Estilo ruta de gps.
Los pathfinder en juegos.

Lo de imágenes lo vi a código
en un pc por el del XBR,
contaba como en el filtro hay una especie de
previa de pequeñas imágenes (por valores supongo)
y en base a eso consigue mejor resultado con
x juego según lo actualiza.
Que empezó con Super mario world.
Es a pequeña escala y específico,
del estilo de esas IA de machine learning de imágenes.

Que se programe algo solo es.skynet xd


Le falta rima en algún verso, pero por lo demás, precioso poema el que has escrito.
@miguelhidalgo94

No sé si te cachondeas o no de mí, me da igual.

En EOL sobre juegos, en todo lo que se habla de "IA" para aumentar resolución.
Hay buenos resultados como Remako, mod para FF7, Gigapixel es otro programa que comentan.
https://www.elotrolado.net/hilo_esrgan-la-i-a-que-se-usa-para-reescalar-texturas-en-alta-definicion_2320702

Lo de los filtros de emuladores
xbr de hyllian. (Que es para pcs normales en tiempo real, para lo otro no XD)
http://filthypants.blogspot.com/2012/03/xbr-vs-hqx-interpolation-filter.html?m=1
A mi me flipa este tema. No es ia pero lo considero relacionado a lo que nos espera:

72 respuestas
1, 2