[HO] Inteligencia Artificial (IA)

14, 5, 6, 7, 8
@Reakl pues si, la IA está almacenada en hardware (CPU RAM discos duros etc) pero no, no son inteligentes por mucho que te empeñes. Tiene información almacenada y la expone tras entrenamiento, sin más. Entonces para ti una calculadora es inteligente?
Un traductor es inteligente?

La IA cuando llevas usandola un tiempo se nota bastante... Los textos parecen clonicos por desgracia. Para mi gusto bajará mucho la calidad de todo.

Y recalco que me encanta la IA y que la uso diariamente, que luego vienen haters.
bacogod escribió:@Reakl pues si, la IA está almacenada en hardware (CPU RAM discos duros etc) pero no, no son inteligentes por mucho que te empeñes. Tiene información almacenada y la expone tras entrenamiento, sin más. Entonces para ti una calculadora es inteligente?
Un traductor es inteligente?

La IA cuando llevas usandola un tiempo se nota bastante... Los textos parecen clonicos por desgracia. Para mi gusto bajará mucho la calidad de todo.

Y recalco que me encanta la IA y que la uso diariamente, que luego vienen haters.

Había un user en pruebas utilizándola para contestar y le pillé al tercer mensaje. Pillar de estar 100% seguro que estaba utilizando una IA, porque ya en el primer mensaje olía.
Es un debate interesante, parece que mucha gente está en desacuerdo con los gurús y expertos que alertan del riesgo. ¿Habéis leído lo que escriben?, os recomiendo que busquéis el artículo de Eliezer Yudkowsky. A estas alturas la desinformación masiva que circula por todas partes ya me ha hecho muy suspicaz, pero como mínimo creo que habría que estudiar los riesgos que señala. Por lo que supondría que tuviera razón, sobre todo.

Claro, quienes hablan de riesgos podrían estar defendiendo sus propios intereses o los de terceros, por muy entendidos que sean en la materia. Hoy uno sólo puede fiarse al 100% de experiencias sensoriales directas. Pero dado el calibre de la reputación que tienen los críticos, me extraña que los legos puedan despreciarlos alegremente usando argumentos propios.
Kastan escribió:Es un debate interesante, parece que mucha gente está en desacuerdo con los gurús y expertos que alertan del riesgo. ¿Habéis leído lo que escriben?, os recomiendo que busquéis el artículo de Eliezer Yudkowsky. A estas alturas la desinformación masiva que circula por todas partes ya me ha hecho muy suspicaz, pero como mínimo creo que habría que estudiar los riesgos que señala. Por lo que supondría que tuviera razón, sobre todo.

Claro, quienes hablan de riesgos podrían estar defendiendo sus propios intereses o los de terceros, por muy entendidos que sean en la materia. Hoy uno sólo puede fiarse al 100% de experiencias sensoriales directas. Pero dado el calibre de la reputación que tienen los críticos, me extraña que los legos puedan despreciarlas alegremente usando argumentos propios.


Bff yo lo siento pero a día de hoy gente que diga que una superinteligencia nos va a matar a todos..... Lo siento pero creo que es de estar chalao
@bacogod

Hombre, si me lo dice Ramón el del bar, al que ya le he oído decir que nuestros gobernantes han sido sustituidos por reptiles, no me lo tomo muy en serio. Si me lo dice un tipo cualquiera tampoco me preocupa mucho. Pero si me lo dice un tío reputado que lleva 20 años trabajando en estos desarrollos, como mínimo creo que hay que escucharlo.

No sabes la cantidad de gente que me dijo que el Coronavirus iba a ser un resfriado y que las autoridades sanitarias estaban tomándonos el pelo. En foros recuerdo ladrillos de veinte párrafos explicando porqué aquello no iba a suponer nada grave. Hoy en día se le da tanta credibilidad al idiota como al experto, pero yo ya tengo muchos años y cuando habla el que sabe me preocupo, al menos como para andar alerta y con pies de plomo. Aunque pueda equivocarse.
Reakl escribió:
xDarkPeTruSx escribió:Si tienes la capacidad de saber o entender que lo que estás diciendo, pueda estar obsoleto, eres inteligente.

¿Y qué quiere decir entender? ¿Cómo sabes que una persona ha entendido algo? Porque tampoco es que podamos hacer mucho. Lo que podemos hacer se hace en los colegios. Pero es que resulta que las IAs ya pueden pasar esas pruebas mejor y más rápido que los alumnos.


Exámenes que consisten precisamente en memorizar y escupir la información. Con la cantidad de datos que tiene la base de datos de un chat, es entendible que pueda superar un examen con un nivel bastante alto.

¿Como sé que una persona entiende algo? En realidad no es tan sencillo de explicar, porque las personas no somos tan simples, pero es "fácil" saber si una persona te ha entendido o no.

Si yo digo; tal familiar ha muerto. La respuesta de una persona sería "Lo siento, te acompaño en el sentimiento" y probablemente se acabaría la conversación, porque entiende lo que significa a nivel emocional.

Un chatbot sería en plan: "Oh, cuando lo siento. Recuerda que es importante permitirte tiempo para llorar y procesar tu dolor. No te sientas avergonzado por tus emociones, es completamente normal sentirse así después de perder a un ser querido. Hablar con amigos y familiares cercanos puede ayudarte a sobrellevar tu dolor y sentirte acompañado durante este difícil momento.

Si lo necesitas, busca ayuda profesional para superar tu dolor. Hay terapeutas especializados en ayudar a las personas que han perdido a alguien.

También puedes honrar su memoria de diferentes maneras, como crear un álbum de fotos, hacer una donación a una organización benéfica o plantar un árbol en su honor.

Recuerda que tu familiar siempre vivirá en tu corazón y en tus recuerdos. Espero que encuentres consuelo y paz en el amor y los recuerdos compartidos con tu familiar."

Si una persona me responde eso, esa persona, como yo, somos conscientes de que serán sus ultimas palabras, porque le meto un culatazo que lo dejo seco. ¿Me explico? Aquí el chatbot me va a dar información que me sobra, pero su propósito es dar una respuesta.

¿Que llegarán a superar a las personas y que en algunos puntos ya nos superan? Por supuesto, nadie dice lo contrario. Pero cuando la IA entienda que para algunas pregunta o algunos comentarios, lo mejor es callarse y no decir nada, entonces estarás seguro de que denota inteligencia.


Reakl escribió:Ahora, tú me puedes argumentar que las "IAs no entienden de todo". Claro, que Midjourney sabe mucho de teoría de color, pero luego no sabe de anatomía, arquitectura, o directamente formas tridimensionales. Claro. Ha sido entrenada en base a imágenes bidimensionales sin ningún tipo de información estructural. Evidentemente no lo hace bien. Tampoco lo haces bien tú cuando tienes que interpretar imágenes en 4 dimensiones, y para poder hacerlo necesitas entrenamiento.

Y es que precisamente una de las cosas que han demostrado las IA es que comprenden. Porque la única forma que yo tengo de saber que tú has entendido algo es mostrarte un problema desde una perspectiva diferente a la que te lo he enseñado. Y las IAs han demostrado que son capaces de dar respuesta a problemas que no forman parte de su set de entrenamiento.

Y eso es algo que la gente que dice que las IA son bases de datos no entienden. Las IAs no son bases de datos de su set de entrenamiento. Las IAs son matrices de conversión calibradas para reconocer patrones. Y amigo, eso es señal de inteligencia. Al menos un tipo de ellas.


Si. Realmente sabemos "poco" de lo que significa realmente inteligencia. Ahora bien, yo te comparo la inteligencia de un humano con la de una IA.

No te digo que la IA no sea inteligente "a su manera" en su mundo cerrado. Pero lo que está claro es que como bien dices, una IA especializada en Matemáticas, no sabe de arte. Habría que reprogramarla de forma externa. Si se da el caso de que tienen algoritmos capaces de aprender o reorganizarse para poder especializarse automáticamente en más cosas con influencia externa, ahí estamos pasando a otro nivel.

El ser humano puede ser electricista, estudiar y convertirse en carpintero. Una IA, sin la intervención de programadores y demás, de momento no es capaz.
Kastan escribió:@bacogod

Hombre, si me lo dice Ramón el del bar, al que ya le he oído decir que nuestros gobernantes han sido sustituidos por reptiles, no me lo tomo muy en serio. Si me lo dice un tipo cualquiera tampoco me preocupa mucho. Pero si me lo dice un tío reputado que lleva 20 años trabajando en estos desarrollos, como mínimo creo que hay que escucharlo.

No sabes la cantidad de gente que me dijo que el Coronavirus iba a ser un resfriado y que las autoridades sanitarias estaban tomándonos el pelo. En foros recuerdo ladrillos de veinte párrafos explicando porqué aquello no iba a suponer nada grave. Hoy en día se le da tanta credibilidad al idiota como al experto, pero yo ya tengo muchos años y cuando habla el que sabe me preocupo, al menos como para andar alerta y con pies de plomo. Aunque pueda equivocarse.


Yo lo siento, pero creo que es exagerar y de estar zumbado. En la industria tecnológica hay tantos locos.... Gente como Steve Jobs que se murió porque no siguió métodos tradicionales... Lo siento, pero dudo que veamos que una super ia nos mate.
Kastan escribió:@bacogod

Hombre, si me lo dice Ramón el del bar, al que ya le he oído decir que nuestros gobernantes han sido sustituidos por reptiles, no me lo tomo muy en serio. Si me lo dice un tipo cualquiera tampoco me preocupa mucho. Pero si me lo dice un tío reputado que lleva 20 años trabajando en estos desarrollos, como mínimo creo que hay que escucharlo.

No sabes la cantidad de gente que me dijo que el Coronavirus iba a ser un resfriado y que las autoridades sanitarias estaban tomándonos el pelo. En foros recuerdo ladrillos de veinte párrafos explicando porqué aquello no iba a suponer nada grave. Hoy en día se le da tanta credibilidad al idiota como al experto, pero yo ya tengo muchos años y cuando habla el que sabe me preocupo, al menos como para andar alerta y con pies de plomo. Aunque pueda equivocarse.


El tema del coronavirus hay que tocarlo bien o no tocarlo. No es blanco o negro.

El tema de Eliezer Yudkowsky es de aurora boreal, porque no dice "Ojo, cuidado con esto y entendamos bien lo que estamos haciendo. Investiguemos bien y tengamos un poco de cuidado. Hagamos pruebas de todo y aseguremos que les damos una moralidad positiva para que sus acciones no acaben por destruir a la humanidad"

En cambio dice: "Apagadlo, vais a destruir el mundo. Cerrad todo. Cerrad puertas y ventanas. Vendran a comerse a vuestros hijos"

Será un experto, una eminencia y quizás es un Einstein, pero absolutamente toda su credibilidad se va al carajo cuando lo ves con el gorro de papel de aluminio diciendo que "ellos" intentan leer su mente.

Tiene más credibilidad Elon Musk y su carta, pidiendo que se investigue bien.

Pero Eliezer Yudkowsky ha escrito una carta en plan: "Esto requiere precisión. Yo no la tengo y si yo no la tengo, es obvio que nadie la tiene, por lo que si yo no lo he conseguido y llevo años, nadie puede. Apagadla"

Aún seguiríamos con carros de caballos. Un experto podría haberle dicho a Karl Friedrich Benz que su invento del primer coche de combustión era una locura, que a ver si la gente se iba a poner a atropellar a todo cristo o cualquier burrada.

Paremos también las investigaciones del CERN, porque van a crear un agujero negro. Dejemos de usar internet porque una raza de seres extraterrestres nos puede controlar mediante internet.


Ni una cosa ni la otra. Ni hacer caso omiso de las advertencias de expertos, ni fabricarse un búnker para volver a la Edad Media.

La IA no es más que un ordenador potente por el momento. Si hay problemas que le den al interruptor, pero hay que seguir investigando.

En el caso de que se consiga crear en poco tiempo una IA super inteligente, con emociones y demás, la propia IA tomará consciencia de la importancia de la vida.

Lo que no tiene mucho sentido es que al parecer si somos capaces de crear una IA Hitler, pero no una IA Gandhi. Igual soy yo el único que ve esto o quizás es más complejo, pero si ChatGPT no te dice como puedes hackear el Pentágono, igual es que se ha desarrollado para hacer el bien ¿no?
xDarkPeTruSx escribió:
Kastan escribió:@bacogod

Hombre, si me lo dice Ramón el del bar, al que ya le he oído decir que nuestros gobernantes han sido sustituidos por reptiles, no me lo tomo muy en serio. Si me lo dice un tipo cualquiera tampoco me preocupa mucho. Pero si me lo dice un tío reputado que lleva 20 años trabajando en estos desarrollos, como mínimo creo que hay que escucharlo.

No sabes la cantidad de gente que me dijo que el Coronavirus iba a ser un resfriado y que las autoridades sanitarias estaban tomándonos el pelo. En foros recuerdo ladrillos de veinte párrafos explicando porqué aquello no iba a suponer nada grave. Hoy en día se le da tanta credibilidad al idiota como al experto, pero yo ya tengo muchos años y cuando habla el que sabe me preocupo, al menos como para andar alerta y con pies de plomo. Aunque pueda equivocarse.


El tema del coronavirus hay que tocarlo bien o no tocarlo. No es blanco o negro.

El tema de Eliezer Yudkowsky es de aurora boreal, porque no dice "Ojo, cuidado con esto y entendamos bien lo que estamos haciendo. Investiguemos bien y tengamos un poco de cuidado. Hagamos pruebas de todo y aseguremos que les damos una moralidad positiva para que sus acciones no acaben por destruir a la humanidad"

En cambio dice: "Apagadlo, vais a destruir el mundo. Cerrad todo. Cerrad puertas y ventanas. Vendran a comerse a vuestros hijos"

Será un experto, una eminencia y quizás es un Einstein, pero absolutamente toda su credibilidad se va al carajo cuando lo ves con el gorro de papel de aluminio diciendo que "ellos" intentan leer su mente.

Tiene más credibilidad Elon Musk y su carta, pidiendo que se investigue bien.

Pero Eliezer Yudkowsky ha escrito una carta en plan: "Esto requiere precisión. Yo no la tengo y si yo no la tengo, es obvio que nadie la tiene, por lo que si yo no lo he conseguido y llevo años, nadie puede. Apagadla"

Aún seguiríamos con carros de caballos. Un experto podría haberle dicho a Karl Friedrich Benz que su invento del primer coche de combustión era una locura, que a ver si la gente se iba a poner a atropellar a todo cristo o cualquier burrada.

Paremos también las investigaciones del CERN, porque van a crear un agujero negro. Dejemos de usar internet porque una raza de seres extraterrestres nos puede controlar mediante internet.


Ni una cosa ni la otra. Ni hacer caso omiso de las advertencias de expertos, ni fabricarse un búnker para volver a la Edad Media.

La IA no es más que un ordenador potente por el momento. Si hay problemas que le den al interruptor, pero hay que seguir investigando.

En el caso de que se consiga crear en poco tiempo una IA super inteligente, con emociones y demás, la propia IA tomará consciencia de la importancia de la vida.

Lo que no tiene mucho sentido es que al parecer si somos capaces de crear una IA Hitler, pero no una IA Gandhi. Igual soy yo el único que ve esto o quizás es más complejo, pero si ChatGPT no te dice como puedes hackear el Pentágono, igual es que se ha desarrollado para hacer el bien ¿no?


Es que chatgpt esta capadisimo y se nota quien la ha creado xD tiene tendencias politicas etc etc
Alguien ha mencionado por ahí que no puede dedicarse a la enseñanza, o algo similar. Pues bien, yo me atrevo a decir que ya es mejor que algunos profesores. Ojo, recalco lo de algunos. Yo utilizo la IA precisamente para aprender y me está ayudando muchísimo. Lo dicho, sin ser ni mucho menos perfecta, explica mejor que algunos profesores. Obviamente, prefiero a un buen profesor, pero entre un mal profesor y la IA, me quedo claramente con esta última.
SirAzraelGrotesque escribió:Alguien ha mencionado por ahí que no puede dedicarse a la enseñanza, o algo similar. Pues bien, yo me atrevo a decir que ya es mejor que algunos profesores. Ojo, recalco lo de algunos. Yo utilizo la IA precisamente para aprender y me está ayudando muchísimo. Lo dicho, sin ser ni mucho menos perfecta, explica mejor que algunos profesores. Obviamente, prefiero a un buen profesor, pero entre un mal profesor y la IA, me quedo claramente con esta última.


Si, lo he dicho yo.

No digo que la IA no se buena para aprender. Digo que no es buena para enseñar. En modo autodidacta, evidentemente que es buena herramienta para aprender.

Yo lo tengo en el AppleWatch y cuando le pregunto cosas, siempre aprendo algo nuevo.
bacogod escribió:la IA está almacenada en hardware (CPU RAM discos duros etc) pero no, no son inteligentes por mucho que te empeñes. Tiene información almacenada y la expone tras entrenamiento, sin más. Entonces para ti una calculadora es inteligente?
Un traductor es inteligente?

No lo sé. ¿Me defines qué es la inteligencia y cómo medirla?

bacogod escribió:La IA cuando llevas usandola un tiempo se nota bastante... Los textos parecen clonicos por desgracia. Para mi gusto bajará mucho la calidad de todo.

Claro. Porque la IA está en pañales ahora mismo y tú eres un experto en tener conversaciones. Ahora dime si un niño de 6 años tiene la capacidad de discernir lo. De hecho, hay pruebas con chavales de 16 años que no han tocado un libro en su vida y se la cuelan. Sí, al ojo del experto todavía no engaña, pero ahora tiene algo que no tenía hace unos años: engaña al inexperto. Eso es encomendable para algo que está naciendo.

xDarkPeTruSx escribió:¿Como sé que una persona entiende algo? En realidad no es tan sencillo de explicar, porque las personas no somos tan simples, pero es "fácil" saber si una persona te ha entendido o no.

Si tan fácil es se puede medir. Pero es que no es fácil. Principalmente porque el entendimiento es algo subjetivo y como tal, no ea falsable. Lo más que podemos hacer es examinar. Es tener una lista de preguntas que al contestarlas correctamente asumimos que lo ha entendido. ¿Significa eso que lo ha entendido? No lo sé. Pero si consideras que sí, entonces las IAs lo hacen dentro de su campo de aplicación. Si consideras que no, entonces no puedes saber si lo entiende o no lo entiende.

xDarkPeTruSx escribió:Si yo digo; tal familiar ha muerto. La respuesta de una persona sería "Lo siento, te acompaño en el sentimiento" y probablemente se acabaría la conversación, porque entiende lo que significa a nivel emocional.

Eso es lo que tú crees. No sólo sabemos que existe gente incapaz de sentir empatía (las zonas del cerebro relacionadas con las emociones no se activan), sino que además, para poder decir eso, has necesitado enseñarle. Has necesitado entrenarlo.

¿Cómo sabes que esa persona entiende a nivel emocional lo que significa y no simplemente está diciendo lo que toca decir en esos momentos? Es más. ¿Si no eres capaz de empatizar no tienes inteligencia? ¿Es la emoción necesaria para la inteligencia? Porque normalmente se considera lo emocional como lo contrario a lo inteligente. ¿Cómo defines inteligencia para llegar a la conclusión esa?

Porque en tu post hablas mucho de emociones, pero emociones no es equivalente a inteligencia.

xDarkPeTruSx escribió:No te digo que la IA no sea inteligente "a su manera" en su mundo cerrado. Pero lo que está claro es que como bien dices, una IA especializada en Matemáticas, no sabe de arte. Habría que reprogramarla de forma externa. Si se da el caso de que tienen algoritmos capaces de aprender o reorganizarse para poder especializarse automáticamente en más cosas con influencia externa, ahí estamos pasando a otro nivel.

El ser humano puede ser electricista, estudiar y convertirse en carpintero. Una IA, sin la intervención de programadores y demás, de momento no es capaz.


Tú estás hablando de una inteligencia de propósito general. Pero que no sea general no significa que no sea inteligente. Porque de ser así los humanos tampoco seríamos inteligentes, pues hay muchas cosas que debido al funcionamiento de nuestro cerebro no podemos comprender.

De hecho, extiendo el argumento. Un ser humano no puede ser electricista sin un electricista que le enseñe. Si tu abandonas a un bebé en la jungla y sobrevive, no se convierte en electricista. Hay que entrenarle. Nadie nace aprendido ni aprende sólo. Todos necesitamos que nos digan que esta cosa plana con 4 patas es una mesa y se utiliza para poner cosas encima. Todo el que tenga niños sabe lo mucho que cuesta enseñarles que la mesa no es para sentarse (por la broma de que la IA tampoco). Nosotros tenemos órganos cuyo propósito es entrenar a nuestro cerebro con estímulos en respuesta a eventos externos. El motivo por el cual las IA necesitan mucho más soporte que las personas es porque carece. De esos órganos y las respuestas hay que ponerselas a mano. No por otra cosa.

Al final el punto es el mismo: tú no puedes entender la experiencia subjetiva de nadie más que de tí mismo. No sabes si el vecino es una mente compasiva o simplemente ha aprendido qué y cómo decir para conseguir los resultados deseados. Como mucho puedes determinar qué procesos físicos están sucediendo. Y por ende, hay dos posibilidades. O aceptas que la existencia de tales procesos físicos es la prueba de que eso sucede (objetivismo, ergo las redes neuronales cumplen) o defiendes que la definición de conciencia o entendimiento, o lo que sea depende de la experiencia subjetiva, pero entonces, ni puedes demostrar que yo no soy un mero robot orgánico depleto de experiencias subjetivas , ni puedes demostrar que un robot no tiene esas experiencias. Porque no es falsable.

Y aunque el segundo punto es un buen debate filosófico, lo único que podemos hacer es lo primero. En el momento en el que una máquina pueda cumplir con las métricas que usamos para medir la inteligencia, el hecho de que quieras desestimarlo porque esperas algo subjetivo es una mera creencia.

Pero es que tú, a efectos prácticos , no le exiges a ningún ser humano que te demuestre que hay algo más allá de un mero calculo en su cerebro. Porque tú asumes que determinados comportamientos están asociados a determinadas emociones. Pero esa es una falacia de asociación. Por eso mismo esto es un debate estéril. Porque no hay nada más allá que puedas comprobar que el hecho de que una IA pueda pasar por procesos que puede hacer una persona. Y ahora mismo, ya lo hace. A nivel local y no general, pero lo hace. Lo que tú le pides a una persona para saber si te entiende o no y no te cuestionas dos veces, la IA ya lo hace.
@Reakl Pero es que antes de una IA ya existían programas que realizan tareas que hace el cerebro humano, sigo sin ver tu punto. Y otra cosa, si no sientes las emociones... Yo cuando estoy triste lo noto, y no creo que sea una falacia como dices, o cuando estoy cansado, o contento, o euforico.... A diferencia de ti yo si que creo que las emociones influyen.
bacogod escribió:@Reakl Pero es que antes de una IA ya existían programas que realizan tareas que hace el cerebro humano, sigo sin ver tu punto. Y otra cosa, si no sientes las emociones... Yo cuando estoy triste lo noto, y no creo que sea una falacia como dices, o cuando estoy cansado, o contento, o euforico.... A diferencia de ti yo si que creo que las emociones influyen.

Tú cuando estás triste lo notas tú. El resto no lo sabemos. Lo asumimos.

Si mañana te dicen que tu mujer, por poner un ejemplo, era en realidad un robot pero nunca lo supiste. Simplemente una IA lo suficientemente bien entrenada para fingir que tiene emociones. ¿Qué pensarías?

Antes (y ahora, vamos), existen algoritmos que son capaces de responder ante una condición. Un algoritmo está diseñado para responder a un problema concreto.

Ahora, una IA no es así. Aunque no deja de ser un algoritmo (técnicamente puedes definir el universo como un algoritmo), la IA (redes neuronales) tiene una propiedad que un algoritmo genérico no tiene. La IA es capaz de sacar respuestas para las cuales no ha sido entrenada. De ahí su utilidad.

Yo te soy sincero. Creo que las IA lejos de ser algo que compite con los cerebros va a ser algo que cuestiona nuestro entendimiento sobre lo que es nuestro cerebro. La inteligencia, el aprendizaje o el entendimiento son cosas que están muy basadas en la filosofía y no tanto en la ciencia. La IA está poniendo en tela de juicio todas esas cosas, y mientras que la ciencia ficción nos vende una IA como una inteligencia humana mejorada, lo que se está viendo es que nuestras definiciones son tan laxas que una máquina es capaz de entrar en estas definiciones, y como ya ha pasado varias veces, la solución al problema es darse cuenta de cómo la forma filosófica de ver las cosas no se corresponde con el comportamiento real, y en breves veremos definiciones más precisa y una nueva perspectiva en cómo funciona nuestra propia cabeza.
@Reakl

Precisamente por eso se llaman Inteligencias "artificiales" porque es lo que nosotros entendemos como inteligencia, simulada por procesos mecánicos y algoritmos.

Entiendo tu punto, porque ahora mismo podríamos estar conectados a un ordenador y seguimos pensando que nuestro mundo es "real". ¿Y de qué modo defines lo que es real? Es muy matrix pero es ultra filosófica la película.

Porque real para nosotros es nuestra interpretación de lo que nos rodea.


Evidentemente que no sabes lo que pasa por la cabeza de alguien, pero cuando le explicas algo a una persona, por sus microexpresiones y demás, sabes si realmente ha entendido mínimamente.

Claro, ahí entras a definir ¿Qué es entender algo? Porque Siri, que es tontisimo, entiende lo que dices, lo traduce a texto y ejecuta una orden.

La diferencia yo creo que está en el proceso químico (o biologico) que a ti te permite entender algo. Una IA entiende las cosas porque tiene un algoritmo creado por humanos que le permite entender, pero su entendimiento de las cosas depende de su algoritmo, no de sus capacidades; me explico, puede tener una memoria excelente, tener una base de datos descomunal y una capacidad de procesamiento como para enumerar cada átomo del universo, pero por el momento no tiene la capacidad de mejorar sus algoritmos. Llegará el dia que si, pero por el momento no.

Esa es la diferencia con una persona, que puede ser como sea, pero la propia persona tiene medios para mejorar, no necesita a otra persona para ser carpintero, puede leer un libro o practicar.

Tu decías lo de que nadie nace siendo carpintero o tal... pero hubo ciertas personas singulares que crearon la profesión, ¿no? Es nuestra capacidad o nuestra curiosidad lo que nos impulsa a crear o aprender cosas que puede que no existan.

Ya digo... llegará el dia en que una IA haga lo mismo (creatividad, curiosidad, prueba/error, descubrir cosas que nadie le ha enseñado, capacidad de deducción..) pero por ahora, ChatGPT es un algoritmo sofisticado, pero no es inteligente.

Claro, yo ahora mismo pienso en ChatGPT como referencia, porque a nivel publico, no tenemos otra cosa. Doy por echo que hay empresas con algoritmos más avanzados y que Google y estas empresas titánicas, se mean en la boca de ChatGPT...

Pero vuelvo a repetir. Todo el mundo está convencido de que si una IA cobra consciencia y es capaz de superar la mente humana, nos va a aniquilar. Es el típico pensamiento humano. Yo en cambio estoy convencido de que una Super IA consciente, se dará cuenta por si misma que es tan importante la existencia de los seres vivos (humanos, animales, etc..) como la suya propia.

Ni Skynet ni nada. Realmente lo más inteligente no es exterminar a los humanos, si no investigarlos e intentar mejorarlos.

Si nosotros, que tenemos una capacidad limitada, tenemos la curiosidad de saber si es capaz de modificar genéticamente a un humano para ser inmortal y mejorarlo ¿por qué no va a tener curiosidad una IA? Y tendrá curiosidad por saber si hay otras especies u otros seres artificiales como ella misma, pero más avanzados.

¿La IA dominará el mundo? Puede ser y tendremos gobiernos formados por una IA ¿y qué? Coño, segurísimo que lo hacen mejor que los que tenemos ahora, leñe.

Que gobierne una IA justa e inteligente (cosa que en la clase gobernante la inteligencia no existe), para mi estaría de puta madre, sinceramente.


PD: No digo que la IA sea una mosquita muerta y no vaya a matar "en pro de la ciencia", pero, coño... nosotros hemos hecho lo mismo. Habrá que "educarlas" correctamente, pero yo no lo veo tan crítico ni siquiera para parar 6 meses. Que tiren palante, que de lo errores se aprende.
Reakl escribió:
bacogod escribió:@Reakl Pero es que antes de una IA ya existían programas que realizan tareas que hace el cerebro humano, sigo sin ver tu punto. Y otra cosa, si no sientes las emociones... Yo cuando estoy triste lo noto, y no creo que sea una falacia como dices, o cuando estoy cansado, o contento, o euforico.... A diferencia de ti yo si que creo que las emociones influyen.

Tú cuando estás triste lo notas tú. El resto no lo sabemos. Lo asumimos.

Si mañana te dicen que tu mujer, por poner un ejemplo, era en realidad un robot pero nunca lo supiste. Simplemente una IA lo suficientemente bien entrenada para fingir que tiene emociones. ¿Qué pensarías?

Antes (y ahora, vamos), existen algoritmos que son capaces de responder ante una condición. Un algoritmo está diseñado para responder a un problema concreto.

Ahora, una IA no es así. Aunque no deja de ser un algoritmo (técnicamente puedes definir el universo como un algoritmo), la IA (redes neuronales) tiene una propiedad que un algoritmo genérico no tiene. La IA es capaz de sacar respuestas para las cuales no ha sido entrenada. De ahí su utilidad.

Yo te soy sincero. Creo que las IA lejos de ser algo que compite con los cerebros va a ser algo que cuestiona nuestro entendimiento sobre lo que es nuestro cerebro. La inteligencia, el aprendizaje o el entendimiento son cosas que están muy basadas en la filosofía y no tanto en la ciencia. La IA está poniendo en tela de juicio todas esas cosas, y mientras que la ciencia ficción nos vende una IA como una inteligencia humana mejorada, lo que se está viendo es que nuestras definiciones son tan laxas que una máquina es capaz de entrar en estas definiciones, y como ya ha pasado varias veces, la solución al problema es darse cuenta de cómo la forma filosófica de ver las cosas no se corresponde con el comportamiento real, y en breves veremos definiciones más precisa y una nueva perspectiva en cómo funciona nuestra propia cabeza.


Y yo te soy sincero, creo que estamos muy lejos de una AGI y que a dia de hoy la IA no esta poniendo en tela de juicio nada porque todos sabemos que trabaja con patrones. Lo siento pero creo que se está exagerando demasiado el tema y creo que para que una IA sea como un humano debería hacerse todo lo contrario a donde están tirando las actuales. Todo lo que comentas ya lo hacia un PC antes que la IA, no veo que antes nadie dijera que se iba a acabar el mundo. Es normal que una máquina sea capaz de realizar acciones que hace nuestro cerebro, antes, y ahora, aunque ahora den respuestas aleatorias sigue estando entrenado, no es un razonamiento propio. Creo que hay demasiado miedo a una AGI y creo que ni lo veremos en vida.
Estoy convencido que en algún momento llegará la singularidad. No lo veremos nosotros, o sí.

Depende de lo rápido que escale esto.

Para que ocurra ese hito, pienso que la clave está en la autoconservación. Es el estímulo más básico que mueve a los seres vivos.

Si a una máquina con enormes capacidades le introduces una simple instrucción, con prioridad sobre todo lo demás, de buscar su propia autoconservación, nos la puede liar pardisima.

Quizá en un primer momento podría buscar la colaboración con nosotros, buscar el beneficio mutuo para seguir desarrollándose, pero en el momento en que perciba actos de agresión por nuestra parte y valore que somos una potencial amenaza, bueno, ya lo hemos visto [facepalm]

Imagen
Kastan escribió:Es un debate interesante, parece que mucha gente está en desacuerdo con los gurús y expertos que alertan del riesgo. ¿Habéis leído lo que escriben?, os recomiendo que busquéis el artículo de Eliezer Yudkowsky. A estas alturas la desinformación masiva que circula por todas partes ya me ha hecho muy suspicaz, pero como mínimo creo que habría que estudiar los riesgos que señala. Por lo que supondría que tuviera razón, sobre todo.

Claro, quienes hablan de riesgos podrían estar defendiendo sus propios intereses o los de terceros, por muy entendidos que sean en la materia. Hoy uno sólo puede fiarse al 100% de experiencias sensoriales directas. Pero dado el calibre de la reputación que tienen los críticos, me extraña que los legos puedan despreciarlos alegremente usando argumentos propios.

Los gobiernos temen a estos bichos porque enseñan y son imparciales. No pueden usarlos para manipular a la población como hacen con la TV, prensa, radio, cine, etc.

Por supuesto que CHAT GPT ya lleva manipulación de serie y respuestas cocinadas, pero ha abierto la puerta a que se creen herramientas libres igual de poderosas. Cada empresa de forma privada puede tener uno y entrenarlo como ellos crean conveniente, incluso un particular puede montarse uno.

Tal vez ahora es pronto, pero en unos años con el avance tecnológico estas ia,s podrán correr en ordenadores tradicionales sin mucho esfuerzo.

@clamp Pienso lo mismo compañero. Internet de aquí a pocos años va a ser un hervidero de basura con cientos de miles de ias copándolo todo. Escribiendo reviews falsas, reseñas, artículos engañosos, perfiles falsos que serán indistinguibles de personas reales, estafas...

Luego también afectará a cientos de miles de empleos, las ia,s nos hará más pobres. La sociedad no está preparada para la ia y el batacazo será descomunal. Lo bueno es que después del bache, la sociedad resurgirá, el sistema educativo se modificará para adaptarse a las ias.

La IA arrasará con todo. Por un lado será todo un espectáculo, pero por otro da bastante miedo.

¿Se puede evitar todo esto? Me temo que no, ya no se puede frenar. ¿Es posible frenar la piratería? pues esto es igual o peor.

Y estoy seguro de que algunas empresas, tienen ia,s ultrapoderosas. GPT sólo es la punta del iceberg, no es nada en realidad. Vete a saber lo que esta gente tiene metido en el cajón.
@clamp las IAs actuales ni tan siquiera tienen experiencias, no aprenden de forma continua. Eso podría cambiar, pero mientras sea así, dudo que vayan a tener un sentido de auto-conservación. Son programas "estáticos" sin memoria, excepto el input que le estés dando en ese momento.

De hecho la forma en que mantienen una conversación coherente es simplemente porque meten la conversación previa como input pregunta tras pregunta.
paco_man escribió:
Kastan escribió:Es un debate interesante, parece que mucha gente está en desacuerdo con los gurús y expertos que alertan del riesgo. ¿Habéis leído lo que escriben?, os recomiendo que busquéis el artículo de Eliezer Yudkowsky. A estas alturas la desinformación masiva que circula por todas partes ya me ha hecho muy suspicaz, pero como mínimo creo que habría que estudiar los riesgos que señala. Por lo que supondría que tuviera razón, sobre todo.

Claro, quienes hablan de riesgos podrían estar defendiendo sus propios intereses o los de terceros, por muy entendidos que sean en la materia. Hoy uno sólo puede fiarse al 100% de experiencias sensoriales directas. Pero dado el calibre de la reputación que tienen los críticos, me extraña que los legos puedan despreciarlos alegremente usando argumentos propios.

Los gobiernos temen a estos bichos porque enseñan y son imparciales. No pueden usarlos para manipular a la población como hacen con la TV, prensa, radio, cine, etc.

Por supuesto que CHAT GPT ya lleva manipulación de serie y respuestas cocinadas, pero ha abierto la puerta a que se creen herramientas libres igual de poderosas. Cada empresa de forma privada puede tener uno y entrenarlo como ellos crean conveniente, incluso un particular puede montarse uno.

Tal vez ahora es pronto, pero en unos años con el avance tecnológico estas ia,s podrán correr en ordenadores tradicionales sin mucho esfuerzo.

@clamp Pienso lo mismo compañero. Internet de aquí a pocos años va a ser un hervidero de basura con cientos de miles de ias copándolo todo. Escribiendo reviews falsas, reseñas, artículos engañosos, perfiles falsos que serán indistinguibles de personas reales, estafas...

Luego también afectará a cientos de miles de empleos, las ia,s nos hará más pobres. La sociedad no está preparada para la ia y el batacazo será descomunal. Lo bueno es que después del bache, la sociedad resurgirá, el sistema educativo se modificará para adaptarse a las ias.

La IA arrasará con todo. Por un lado será todo un espectáculo, pero por otro da bastante miedo.

¿Se puede evitar todo esto? Me temo que no, ya no se puede frenar. ¿Es posible frenar la piratería? pues esto es igual o peor.

Y estoy seguro de que algunas empresas, tienen ia,s ultrapoderosas. GPT sólo es la punta del iceberg, no es nada en realidad. Vete a saber lo que esta gente tiene metido en el cajón.


chatgpt esta super censurado y es super progr.... La IA no es imparcial, es lo que decidan sus creadores. DIle que te cuente un chiste de un negro por ejemplo. La censura va a seguir existiendo SIEMPRE.

Y sin tanto dinero nadie va a crear una herramienta gratis libre y rapidamente

Para lo del trabajo queda aún mucho, estamos en el mejor momento para encontrar curro. Y lo del contenido, si, olvidaos del contenido de calidad gratuito para siempre. Y la IA va a hacer menos inteligentes a las personas, ya lo hacía internet. Yo no coincibo a día de hoy mis estudios y futuro trabajo sin IA, y seguramente me acabe formando en campos de IA (soy web developer)
@Findeton

La memoria la puedes añadir.

Ahora se mueve con inputs, necesita de la intervención de una persona para que actúe.

Pero imagina que introdujeras esa instrucción básica en su memoria y la conservara en el tiempo.

Cada elección que tomara desde ese momento sería ponderando su beneficio / sacrificio propio.

Quizá no entienda el sentido ni la finalidad, pero es que no es relevante, sería como dejar pulsado el acelerador de un coche, no dejará de avanzar en esa dirección.

Bueno, es muy tarde ya para estas rayadas [tomaaa]
Por lo que he leído el peligro es que no entendamos las motivaciones de la máquina. Los seres humanos estamos diseñados para atribuir emociones; lo hacemos con los animales e incluso con los objetos inanimados, y es una forma de asegurar la empatía entre individuos, nos viene del sistema límbico. Si en algún momento una IA logra algún tipo de autoconciencia, ésta será totalmente alienígena para nosotros. Igual que ella no podrá experimentar emociones humanas, nosotros no podremos ni imaginar qué es lo que la mueve. Muy Ex Machina, vamos. Creo que en este debate ésa es LA PELÍCULA, si no la habéis visto ya estáis tardando.

En cuanto a qué decisión tomar, en realidad no importa. Hay quien lo pararía ya, otros se lanzarían de cabeza y yo me mantendría en una posición cauta entre ambos extremos, pero... ¿para qué discutirlo?, ésto no se va a consultar a la ciudadanía, los gobiernos y las empresas querrán aventajar al contrario y lo van a estudiar a fondo nos guste o no. De hecho no me extrañaría nada que ya tuvieran alguna AGI, parcial o plenamente operativa, lejos de los focos.
Kastan escribió:Por lo que he leído el peligro es que no entendamos las motivaciones de la máquina. Los seres humanos estamos diseñados para atribuir emociones; lo hacemos con los animales e incluso con los objetos inanimados, y es una forma de asegurar la empatía entre individuos, nos viene del sistema límbico. Si en algún momento una IA logra algún tipo de autoconciencia, ésta será totalmente alienígena para nosotros. Igual que ella no podrá experimentar emociones humanas, nosotros no podremos ni imaginar qué es lo que la mueve. Muy Ex Machina, vamos. Creo que en este debate ésa es LA PELÍCULA, si no la habéis visto ya estáis tardando.

En cuanto a qué decisión tomar, en realidad no importa. Hay quien lo pararía ya, otros se lanzarían de cabeza y yo me mantendría en una posición cauta entre ambos extremos, pero... ¿para qué discutirlo?, ésto no se va a consultar a la ciudadanía, los gobiernos y las empresas querrán aventajar al contrario y lo van a estudiar a fondo nos guste o no. De hecho no me extrañaría nada que ya tuvieran alguna AGI, parcial o plenamente operativa, lejos de los focos.

Cierto. Vete a saber lo que tienen ciertas empresas.

GPT no es más que que un aperitivo bastante limitado que han querido arrojar al populacho, pero seguro que a este punto se llegó hace muchos años, sólo que es ahora cuando ha salido a la luz.

Google lleva muchos años hablando de ia,s y aún no ha sacado nada, pero seguramente tendrán cosas tochisimas que usaran para vete tú a saber qué fines.
Habláis de lo que ocultará empresas como Google, pero creo que lo más tocho lo tendrá el departamento de defensa de USA, china o Israel. No olvidemos que por ejemplo el primero inventó el GPS unos 50 años de que se hiciese comercial, y que su presupuesto, si no es infinito, se acerca
No sé vosotros, pero para mi GPT4 ha sido una autentica ducha de realidad... La singularidad está a la vuelta de la esquina, yo me veo absolutamente incapaz de prever lo que va a pasar de aquí 12 meses...

En muy poco tiempo va a dar un vuelco a toda la escala de valores, primero el intelecto, y luego la mano de obra (los principales medios del ser humano para subsistir en sociedad) se volverán algo abundante, superfluo...

¿De que va a trabajar la mayoría de la gente? Va a haber una parte cada vez más grande de la población que no serán útiles laboral-mente, porqué podrán ser reemplazados por una IA. Va a nace una nueva clase social inempleable, inútil. ¿Que solución se le pone a esto? ¿RBU?

Se va a agrandar la desigualdad entre países con acceso a la ia y países que no lo tienen. Eso es fácil de prever y va a hacer que ningún país quiera bajarse del barco. Así que la carrera es imparable, el futuro puede ser brillante pero ahora es muy importante que elijamos muy bien nuestro camino. Yo cada vez estoy más convencido que estamos ante el momento más importante del futuro de la humanidad.
BeRReKà escribió:No sé vosotros, pero para mi GPT4 ha sido una autentica ducha de realidad... La singularidad está a la vuelta de la esquina, yo me veo absolutamente incapaz de prever lo que va a pasar de aquí 12 meses...

En muy poco tiempo va a dar un vuelco a toda la escala de valores, primero el intelecto, y luego la mano de obra (los principales medios del ser humano para subsistir en sociedad) se volverán algo abundante, superfluo...

¿De que va a trabajar la mayoría de la gente? Va a haber una parte cada vez más grande de la población que no serán útiles laboral-mente, porqué podrán ser reemplazados por una IA. Va a nace una nueva clase social inempleable, inútil. ¿Que solución se le pone a esto? ¿RBU?

Se va a agrandar la desigualdad entre países con acceso a la ia y países que no lo tienen. Eso es fácil de prever y va a hacer que ningún país quiera bajarse del barco. Así que la carrera es imparable, el futuro puede ser brillante pero ahora es muy importante que elijamos muy bien nuestro camino. Yo cada vez estoy más convencido que estamos ante el momento más importante del futuro de la humanidad.



Si quienes controlan las IAs son los que están, estuvieron y seguirán estando dispuestos a explotar al resto para su beneficio, entonces estamos jodidos. Si no, solamente puedo imaginar un futuro mejor. No creo que la IA venga para remplazarnos, sino para complementarnos y para ayudarnos. Pero sería importante que esta nueva tecnología fuera libre y universal y no controlada por gobiernos y resto de instituciones con malas intenciones hacia la población global.
bacogod escribió:
Reakl escribió:
bacogod escribió:@Reakl Pero es que antes de una IA ya existían programas que realizan tareas que hace el cerebro humano, sigo sin ver tu punto. Y otra cosa, si no sientes las emociones... Yo cuando estoy triste lo noto, y no creo que sea una falacia como dices, o cuando estoy cansado, o contento, o euforico.... A diferencia de ti yo si que creo que las emociones influyen.

Tú cuando estás triste lo notas tú. El resto no lo sabemos. Lo asumimos.

Si mañana te dicen que tu mujer, por poner un ejemplo, era en realidad un robot pero nunca lo supiste. Simplemente una IA lo suficientemente bien entrenada para fingir que tiene emociones. ¿Qué pensarías?

Antes (y ahora, vamos), existen algoritmos que son capaces de responder ante una condición. Un algoritmo está diseñado para responder a un problema concreto.

Ahora, una IA no es así. Aunque no deja de ser un algoritmo (técnicamente puedes definir el universo como un algoritmo), la IA (redes neuronales) tiene una propiedad que un algoritmo genérico no tiene. La IA es capaz de sacar respuestas para las cuales no ha sido entrenada. De ahí su utilidad.

Yo te soy sincero. Creo que las IA lejos de ser algo que compite con los cerebros va a ser algo que cuestiona nuestro entendimiento sobre lo que es nuestro cerebro. La inteligencia, el aprendizaje o el entendimiento son cosas que están muy basadas en la filosofía y no tanto en la ciencia. La IA está poniendo en tela de juicio todas esas cosas, y mientras que la ciencia ficción nos vende una IA como una inteligencia humana mejorada, lo que se está viendo es que nuestras definiciones son tan laxas que una máquina es capaz de entrar en estas definiciones, y como ya ha pasado varias veces, la solución al problema es darse cuenta de cómo la forma filosófica de ver las cosas no se corresponde con el comportamiento real, y en breves veremos definiciones más precisa y una nueva perspectiva en cómo funciona nuestra propia cabeza.


Y yo te soy sincero, creo que estamos muy lejos de una AGI y que a dia de hoy la IA no esta poniendo en tela de juicio nada porque todos sabemos que trabaja con patrones. Lo siento pero creo que se está exagerando demasiado el tema y creo que para que una IA sea como un humano debería hacerse todo lo contrario a donde están tirando las actuales. Todo lo que comentas ya lo hacia un PC antes que la IA, no veo que antes nadie dijera que se iba a acabar el mundo. Es normal que una máquina sea capaz de realizar acciones que hace nuestro cerebro, antes, y ahora, aunque ahora den respuestas aleatorias sigue estando entrenado, no es un razonamiento propio. Creo que hay demasiado miedo a una AGI y creo que ni lo veremos en vida.

Es que no necesitas una AGI para poner patas arriba a toda la sociedad. No es un todo o nada. La cuestión es si es capaz de hacer una tarea o conjunto de tareas mejor que una persona.

Hasta hoy, todas las máquinas que se han hecho han ido sustituyendo puestos de trabajo mecánicos y de bajo valor. Pero la IA está ahora a las puertas de ser capaz de sustituir lo que mucha gente consideraba el bastión de la humanidad: el trabajo intelectual. Y eso va a hacer que lo que reemplace no sean los trabajos de perfil bajo, sino los trabajos intermedios. Y eso es muy grave. Porque anteriormente si tu puesto era sustituido, estudiabas y apostabas por un puesto intermedio. Pero ahora puede que eso sea imposible. Porque para convertirte en un ingeniero de élite necesitas pasar por todos los puntos intermedios. Pero esos puntos ya no existen.

Y eso es algo que ningún ordenador ha sido jamás capa, de hacer. Los ordenadores han sido siempre máquinas pasivas que responden órdenes. Ya no. Ahora toman decisiones. Y esa decisiones, cada día que pasa son más efectivas que las decisiones tomadas por un ser humano.

¿Es problema de las IAs? No. Es un problema de que seguimos inmersos en un sistema donde para poder obtener los recursos necesarios para el ejercicio de tu vida necesitas serle útil a otra persona. ¿Cómo le vas a ser útil a nadie si un ordenador que cuesta el salario de 3 meses es capaz de ofrecer mejores resultados que tú?

Y de ahí el revuelo. Hay miedo a lo que va a pasar porque nadie puede predecir cómo nos vamos a adaptar y quién va a caer por el camino.

Y nada de eso lo hacía un ordenador. Un ordenador si tomaba una decisión era porque alguien había definido un árbol de comportamientos. Ahora elige. Y ya elige mejor que mucha gente. Es cuestión de tiempo que su toma de decisiones, mejor informada de lo que cualquier humano puede hacer, en mucho menor tiempo, tenga mejores resultados que el grueso de la población formada.
No basta con hacerlo igual o mejor que una persona, también tiene que ser al menos igual de rentable. Probablemente más, por los gastos de implementación.
Schwefelgelb escribió:No basta con hacerlo igual o mejor que una persona, también tiene que ser al menos igual de rentable. Probablemente más, por los gastos de implementación.


Pero es que el coste de la IA es entrenarla, una vez entrenada ya es replicable prácticamente a coste 0.
BeRReKà escribió:
Schwefelgelb escribió:No basta con hacerlo igual o mejor que una persona, también tiene que ser al menos igual de rentable. Probablemente más, por los gastos de implementación.


Pero es que el coste de la IA es entrenarla, una vez entrenada ya es replicable prácticamente a coste 0.

No sé yo, que por algo empiezan a aparecer ofertas de trabajo de "ingeniero" de prompts. Alguien tiene que alimentar al algoritmo.
Schwefelgelb escribió:No basta con hacerlo igual o mejor que una persona, también tiene que ser al menos igual de rentable. Probablemente más, por los gastos de implementación.

Cosa que está tirada porque lo bueno de lo digital es que la duplicación es prácticamente gratuita.

Ya lo es, de hecho. Midjourney te cuesta $30 al mes. Tendrían que multiplicar su precio por 100 para ser menos rentable que una persona, y habría que evaluar a cuántas personas sustituiría una sola cuenta. Piensa que midjourney no necesita descansar. Si llega un día en el que con un sólo artista puedes hacer el trabajo de 10.

Schwefelgelb escribió:No sé yo, que por algo empiezan a aparecer ofertas de trabajo de "ingeniero" de prompts. Alguien tiene que alimentar al algoritmo.

Ese puesto de trabajo está muerto antes de nacer. Si hay algo que hace precisamente bien chatgpt es la interpretación del lenguaje natural.

Tenemos ahora un prototipo en desarrollo. Y para invertir todo el esfuerzo en la mejora se usa tecnología existente para el resto. En este caso una sencilla consola de prompts integrada en discord.

Ahora, ponte en el día en el que se saque un sistema operativo exclusivo. ¿Va a ir con prompts? No. Va a usar lenguaje natural. Y más que eso. Se va a poder iterar en los propios resultados para ajustar a lo deseado. "Ponle una copa en esta mano", "muéstrame una lista de estilos artísticos populares", "desenfoca el fondo", "no tanto", "recórtame la figura", "añádele iluminación desde la izquierda", "cambia la luz de la izquierda a color rojo".

El propio director podrá ajustar lo que desee.

Y ya no solamente eso. Antes de irte a casa:
"Google, Genérame 500 variaciones de este banner optimizadas para maximizar el CTR".

Eso sí, para variar, unos pocos surfearán la ola. Pero eso no vale a largo plazo ni para la población general.
Veremos si desaparecen los trabajos o la adopción es lenta y en puntos muy concretos como con el grafeno.
Schwefelgelb escribió:Veremos si desaparecen los trabajos o la adopción es lenta y en puntos muy concretos como con el grafeno.

¿Now jugamos un café servido por una IA? XD
para los que comentan lo de que la IA tienen una base de datos inmensa decirles que estan equivocados o usan el concepto base de datos mal.

se usan datos pero no los almacena en forma de base de datos. los algoritmos intentan emular al cerebro, compuesto de neuronas y de conexiones entre ellas. estos algoritmos durante su entrenamiento al presentarle los datos van creando conexiones entre neuronas y potenciando unas conexiones y debilitando otras. La informacion presentada se convierte en conocimiento que puede ser recuperado y que puede predecir deducir datos que no se le han presentado. Pero en ningun momento hay una base de datos con la informacion, al igual que tampoco la hay en nuestro cerebro

Es evidente que en algun momento se va a producir la singularidad, ya sea porque aprendamos tanto de nuestro cerebro que consigamos trasladarlo a las IA, o que lo averiguen ellas solas por su cuenta.
Reakl escribió:
Schwefelgelb escribió:No basta con hacerlo igual o mejor que una persona, también tiene que ser al menos igual de rentable. Probablemente más, por los gastos de implementación.

Cosa que está tirada porque lo bueno de lo digital es que la duplicación es prácticamente gratuita.

Ya lo es, de hecho. Midjourney te cuesta $30 al mes. Tendrían que multiplicar su precio por 100 para ser menos rentable que una persona, y habría que evaluar a cuántas personas sustituiría una sola cuenta. Piensa que midjourney no necesita descansar. Si llega un día en el que con un sólo artista puedes hacer el trabajo de 10.

Schwefelgelb escribió:No sé yo, que por algo empiezan a aparecer ofertas de trabajo de "ingeniero" de prompts. Alguien tiene que alimentar al algoritmo.

Ese puesto de trabajo está muerto antes de nacer. Si hay algo que hace precisamente bien chatgpt es la interpretación del lenguaje natural.

Tenemos ahora un prototipo en desarrollo. Y para invertir todo el esfuerzo en la mejora se usa tecnología existente para el resto. En este caso una sencilla consola de prompts integrada en discord.

Ahora, ponte en el día en el que se saque un sistema operativo exclusivo. ¿Va a ir con prompts? No. Va a usar lenguaje natural. Y más que eso. Se va a poder iterar en los propios resultados para ajustar a lo deseado. "Ponle una copa en esta mano", "muéstrame una lista de estilos artísticos populares", "desenfoca el fondo", "no tanto", "recórtame la figura", "añádele iluminación desde la izquierda", "cambia la luz de la izquierda a color rojo".

El propio director podrá ajustar lo que desee.

Y ya no solamente eso. Antes de irte a casa:
"Google, Genérame 500 variaciones de este banner optimizadas para maximizar el CTR".

Eso sí, para variar, unos pocos surfearán la ola. Pero eso no vale a largo plazo ni para la población general.


Para que has usado chatgt?

Porque para programación como no sepas cómo funciona en lenguaje es imposible que con lenguaje natural te haga algo potable e incluso suele fallar con lenguaje técnico. Te hablo de hacer algo tocho, no un snake en Python. Hablas de las de imágenes/video pero total no existen

Y donde tú ves automatización yo veo contenido clónico por doquier sin sentido. Creo que se valorará más todo lo clínico, porque si, a día de hoy se nota.

Photoshop iba a matar a los fotografos/fotografia
Wordpress a los desarrolladores

Y la realidad es = contenido clonico para los tontos del seo y farmeadores

Proyectos serios = humanos desarrollando

Y asi será, quien quiera hacerse una web propia usará chatgpt y se la hará en 1 minuto, quien quiera algo decente e innovador deberá hacerla a mano. Te podría pasar una de desastres hechos por chatgpt de gente que ni lo revisa que es tristisimo. En 15-20 años veremos, pero por los próximos humanos deberá habiendo humanos. cuando usas la IA a diario para cosas tecnicas te das cuenta que le queda mucho. Y como digo, para crearte una foto o una web normalilla guay, pero ponte hacer un proyecto de 100 componentes, reza a jesucristo


Y voy a responder a tu mensaje anterior. Decir que las máquinas solo realizaban acciones basicas y de bajo valor... Bfffff no se en que mundo vives xD si gracias a las "maquinas" que creamos estas foreando estas con internet y mil cosas... SI crees que antes de la IA la tecnologia e informatica solo sustituia cosas basicas... Vivimos en diferentes mundo. Y chatgpt jamás va a ser una AGI, al menos como está entrenada ahora. Que te pongas filosofico que si razona X y X no hace que lo haga. Y también te digo, los servidores de la IA no son gratis, ni baratos. El gasto es muy elevado, porque se que tu piensas que una empresa paga 20€ por chatgpt y ale a funcionar pero la realidad es muy distinta. El revuelo viene por unos vendehumos que dicen que los artistas serán sustituidos, que los programadores serán sustituidos. Pero no trabajan de ello. Pregunta a cualquier Lead que se va a reir en tu cara, porque a dia de hoy para proyectos grandes falla demasiado. Y me dirás pues ya mejoraraaaa, pero a dia de hoy nanai.


Es una buena herramienta, pero no un sustituto de un proyecto enorme, no es capaz.
Eso si, le doy 10 años para que sea capaz de hacer un proyecto medio serio de tamaño mediano el solo

@sopor Pero si dependen mucho de la base de datos con la que se han entrenado. Aunque luego no lo usen. Cuando consigan saber como funciona el cerebro podremos decir si la IA se parece o no. A dia de hoy mi opinion seguirá siendo férrea en que no. Sin saber como funciona es imposible saberlo. Y me encanta la IA pero creo que hay demasiado vendehumismo de gente ajena al sector tecnologico (tipo boom cripto-bros, no lo digo por vosotros) Es más me estoy planteando estudiarme alguna carrera sobre big data en algún país europeo en 1 o 2 años. Aunque quiero esperar a ver si sacan cosas potables de IA con la revolucion actual
@bacogod asi es. en la fase de entrenamiento es donde podemos hablar de la "base de datos" (datos) con la que entrenamos a la IA.
Kastan escribió:Por lo que he leído el peligro es que no entendamos las motivaciones de la máquina. Los seres humanos estamos diseñados para atribuir emociones; lo hacemos con los animales e incluso con los objetos inanimados, y es una forma de asegurar la empatía entre individuos, nos viene del sistema límbico. Si en algún momento una IA logra algún tipo de autoconciencia, ésta será totalmente alienígena para nosotros. Igual que ella no podrá experimentar emociones humanas, nosotros no podremos ni imaginar qué es lo que la mueve. Muy Ex Machina, vamos. Creo que en este debate ésa es LA PELÍCULA, si no la habéis visto ya estáis tardando.

En cuanto a qué decisión tomar, en realidad no importa. Hay quien lo pararía ya, otros se lanzarían de cabeza y yo me mantendría en una posición cauta entre ambos extremos, pero... ¿para qué discutirlo?, ésto no se va a consultar a la ciudadanía, los gobiernos y las empresas querrán aventajar al contrario y lo van a estudiar a fondo nos guste o no. De hecho no me extrañaría nada que ya tuvieran alguna AGI, parcial o plenamente operativa, lejos de los focos.

bacogod escribió:
Reakl escribió:
Schwefelgelb escribió:No basta con hacerlo igual o mejor que una persona, también tiene que ser al menos igual de rentable. Probablemente más, por los gastos de implementación.

Cosa que está tirada porque lo bueno de lo digital es que la duplicación es prácticamente gratuita.

Ya lo es, de hecho. Midjourney te cuesta $30 al mes. Tendrían que multiplicar su precio por 100 para ser menos rentable que una persona, y habría que evaluar a cuántas personas sustituiría una sola cuenta. Piensa que midjourney no necesita descansar. Si llega un día en el que con un sólo artista puedes hacer el trabajo de 10.

Schwefelgelb escribió:No sé yo, que por algo empiezan a aparecer ofertas de trabajo de "ingeniero" de prompts. Alguien tiene que alimentar al algoritmo.

Ese puesto de trabajo está muerto antes de nacer. Si hay algo que hace precisamente bien chatgpt es la interpretación del lenguaje natural.

Tenemos ahora un prototipo en desarrollo. Y para invertir todo el esfuerzo en la mejora se usa tecnología existente para el resto. En este caso una sencilla consola de prompts integrada en discord.

Ahora, ponte en el día en el que se saque un sistema operativo exclusivo. ¿Va a ir con prompts? No. Va a usar lenguaje natural. Y más que eso. Se va a poder iterar en los propios resultados para ajustar a lo deseado. "Ponle una copa en esta mano", "muéstrame una lista de estilos artísticos populares", "desenfoca el fondo", "no tanto", "recórtame la figura", "añádele iluminación desde la izquierda", "cambia la luz de la izquierda a color rojo".

El propio director podrá ajustar lo que desee.

Y ya no solamente eso. Antes de irte a casa:
"Google, Genérame 500 variaciones de este banner optimizadas para maximizar el CTR".

Eso sí, para variar, unos pocos surfearán la ola. Pero eso no vale a largo plazo ni para la población general.


Para que has usado chatgt?

Porque para programación como no sepas cómo funciona en lenguaje es imposible que con lenguaje natural te haga algo potable e incluso suele fallar con lenguaje técnico. Te hablo de hacer algo tocho, no un snake en Python. Hablas de las de imágenes/video pero total no existen

Y donde tú ves automatización yo veo contenido clónico por doquier sin sentido. Creo que se valorará más todo lo clínico, porque si, a día de hoy se nota.

Photoshop iba a matar a los fotografos/fotografia
Wordpress a los desarrolladores

Y la realidad es = contenido clonico para los tontos del seo y farmeadores

Proyectos serios = humanos desarrollando

Y asi será, quien quiera hacerse una web propia usará chatgpt y se la hará en 1 minuto, quien quiera algo decente e innovador deberá hacerla a mano. Te podría pasar una de desastres hechos por chatgpt de gente que ni lo revisa que es tristisimo. En 15-20 años veremos, pero por los próximos humanos deberá habiendo humanos. cuando usas la IA a diario para cosas tecnicas te das cuenta que le queda mucho. Y como digo, para crearte una foto o una web normalilla guay, pero ponte hacer un proyecto de 100 componentes, reza a jesucristo


Y voy a responder a tu mensaje anterior. Decir que las máquinas solo realizaban acciones basicas y de bajo valor... Bfffff no se en que mundo vives xD si gracias a las "maquinas" que creamos estas foreando estas con internet y mil cosas... SI crees que antes de la IA la tecnologia e informatica solo sustituia cosas basicas... Vivimos en diferentes mundo. Y chatgpt jamás va a ser una AGI, al menos como está entrenada ahora. Que te pongas filosofico que si razona X y X no hace que lo haga. Y también te digo, los servidores de la IA no son gratis, ni baratos. El gasto es muy elevado, porque se que tu piensas que una empresa paga 20€ por chatgpt y ale a funcionar pero la realidad es muy distinta. El revuelo viene por unos vendehumos que dicen que los artistas serán sustituidos, que los programadores serán sustituidos. Pero no trabajan de ello. Pregunta a cualquier Lead que se va a reir en tu cara, porque a dia de hoy para proyectos grandes falla demasiado. Y me dirás pues ya mejoraraaaa, pero a dia de hoy nanai.


Es una buena herramienta, pero no un sustituto de un proyecto enorme, no es capaz.
Eso si, le doy 10 años para que sea capaz de hacer un proyecto medio serio de tamaño mediano el solo

@sopor Pero si dependen mucho de la base de datos con la que se han entrenado. Aunque luego no lo usen. Cuando consigan saber como funciona el cerebro podremos decir si la IA se parece o no. A dia de hoy mi opinion seguirá siendo férrea en que no. Sin saber como funciona es imposible saberlo. Y me encanta la IA pero creo que hay demasiado vendehumismo de gente ajena al sector tecnologico (tipo boom cripto-bros, no lo digo por vosotros) Es más me estoy planteando estudiarme alguna carrera sobre big data en algún país europeo en 1 o 2 años. Aunque quiero esperar a ver si sacan cosas potables de IA con la revolucion actual


La cosa es de donde coge los datos para hacer esos proyectos serios y si lo hace con el permiso de los creadores.
bacogod escribió:Para que has usado chatgt?

Porque para programación como no sepas cómo funciona en lenguaje es imposible que con lenguaje natural te haga algo potable e incluso suele fallar con lenguaje técnico. Te hablo de hacer algo tocho, no un snake en Python. Hablas de las de imágenes/video pero total no existen

Y donde tú ves automatización yo veo contenido clónico por doquier sin sentido. Creo que se valorará más todo lo clínico, porque si, a día de hoy se nota.

Photoshop iba a matar a los fotografos/fotografia
Wordpress a los desarrolladores

Y la realidad es = contenido clonico para los tontos del seo y farmeadores

Proyectos serios = humanos desarrollando

Y asi será, quien quiera hacerse una web propia usará chatgpt y se la hará en 1 minuto, quien quiera algo decente e innovador deberá hacerla a mano. Te podría pasar una de desastres hechos por chatgpt de gente que ni lo revisa que es tristisimo. En 15-20 años veremos, pero por los próximos humanos deberá habiendo humanos. cuando usas la IA a diario para cosas tecnicas te das cuenta que le queda mucho. Y como digo, para crearte una foto o una web normalilla guay, pero ponte hacer un proyecto de 100 componentes, reza a jesucristo


Y voy a responder a tu mensaje anterior. Decir que las máquinas solo realizaban acciones basicas y de bajo valor... Bfffff no se en que mundo vives xD si gracias a las "maquinas" que creamos estas foreando estas con internet y mil cosas... SI crees que antes de la IA la tecnologia e informatica solo sustituia cosas basicas... Vivimos en diferentes mundo. Y chatgpt jamás va a ser una AGI, al menos como está entrenada ahora. Que te pongas filosofico que si razona X y X no hace que lo haga. Y también te digo, los servidores de la IA no son gratis, ni baratos. El gasto es muy elevado, porque se que tu piensas que una empresa paga 20€ por chatgpt y ale a funcionar pero la realidad es muy distinta. El revuelo viene por unos vendehumos que dicen que los artistas serán sustituidos, que los programadores serán sustituidos. Pero no trabajan de ello. Pregunta a cualquier Lead que se va a reir en tu cara, porque a dia de hoy para proyectos grandes falla demasiado. Y me dirás pues ya mejoraraaaa, pero a dia de hoy nanai.


Es una buena herramienta, pero no un sustituto de un proyecto enorme, no es capaz.
Eso si, le doy 10 años para que sea capaz de hacer un proyecto medio serio de tamaño mediano el solo

Te recuerdo que estás usando un prototipo.

Lo que muestra el prototipo es que puede hacer lo que puede hacer una persona. Es como si hubiéramos pillado el cerebro de una rata y le hubiéramos enseñado a programar, y me vienes tú a decir que para qué sirve eso.

Yo te digo para qué sirve. Se de una empresa de móviles que usa una IA entrenada para generar niveles a través de los resultados de todos los que ya tenían hechos en todos sus juegos. El resultado es que es capaz de generar niveles en 3 minutos frente a los 2 días de un diseñador de niveles. Esos niveles no sólo consiguen los KPIs objetivo sino que además los consiguen con muchas menos iteraciones.

Un equipo de 5 diseñadores, 2 devs y 3 testers dedicados se han convertido en 1 diseñador, 2 devs y 1 tester. Los 2 devs ni si quiera son nuevos pues anteriormente ya se dedicaban a otras herramientas.

Por ahora a la empresa le va bien y no tiene necesidad de despedir a nadie, así que ha metido al resto en un nuevo prototipo. Porque claro, al ser juego nuevo los niveles con los que se entrenó no sirven para el nuevo, ¿Verdad? Bueno, pues falso. El juego estaba en soft launch muy lejos de los KPI necesarios para invertir en él. Se pilló la IA, se la modificó para poder interpretar los nuevos niveles y fue capaz de soltar niveles para el nuevo juego. Y esos niveles llegaron a tener un incremento de hasta el 8% en el engagement de los usuarios. Y estas IA están preparadas para ser entrenadas con los nuevos datos. Sacan un paquete de niveles nuevo, y con respecto a los resultados se las reentrena, volviéndose más y más eficientes.

Eso sí, ha generado nuevos puestos de trabajo. De seguridad informática porque están acojonados con el hecho de que se pueda filtrar y que la competencia empiece a usarla. Está entrenada con sus propios datos internos y, ahora mismo, esos datos valen oro.
Reakl escribió:
bacogod escribió:Para que has usado chatgt?

Porque para programación como no sepas cómo funciona en lenguaje es imposible que con lenguaje natural te haga algo potable e incluso suele fallar con lenguaje técnico. Te hablo de hacer algo tocho, no un snake en Python. Hablas de las de imágenes/video pero total no existen

Y donde tú ves automatización yo veo contenido clónico por doquier sin sentido. Creo que se valorará más todo lo clínico, porque si, a día de hoy se nota.

Photoshop iba a matar a los fotografos/fotografia
Wordpress a los desarrolladores

Y la realidad es = contenido clonico para los tontos del seo y farmeadores

Proyectos serios = humanos desarrollando

Y asi será, quien quiera hacerse una web propia usará chatgpt y se la hará en 1 minuto, quien quiera algo decente e innovador deberá hacerla a mano. Te podría pasar una de desastres hechos por chatgpt de gente que ni lo revisa que es tristisimo. En 15-20 años veremos, pero por los próximos humanos deberá habiendo humanos. cuando usas la IA a diario para cosas tecnicas te das cuenta que le queda mucho. Y como digo, para crearte una foto o una web normalilla guay, pero ponte hacer un proyecto de 100 componentes, reza a jesucristo


Y voy a responder a tu mensaje anterior. Decir que las máquinas solo realizaban acciones basicas y de bajo valor... Bfffff no se en que mundo vives xD si gracias a las "maquinas" que creamos estas foreando estas con internet y mil cosas... SI crees que antes de la IA la tecnologia e informatica solo sustituia cosas basicas... Vivimos en diferentes mundo. Y chatgpt jamás va a ser una AGI, al menos como está entrenada ahora. Que te pongas filosofico que si razona X y X no hace que lo haga. Y también te digo, los servidores de la IA no son gratis, ni baratos. El gasto es muy elevado, porque se que tu piensas que una empresa paga 20€ por chatgpt y ale a funcionar pero la realidad es muy distinta. El revuelo viene por unos vendehumos que dicen que los artistas serán sustituidos, que los programadores serán sustituidos. Pero no trabajan de ello. Pregunta a cualquier Lead que se va a reir en tu cara, porque a dia de hoy para proyectos grandes falla demasiado. Y me dirás pues ya mejoraraaaa, pero a dia de hoy nanai.


Es una buena herramienta, pero no un sustituto de un proyecto enorme, no es capaz.
Eso si, le doy 10 años para que sea capaz de hacer un proyecto medio serio de tamaño mediano el solo

Te recuerdo que estás usando un prototipo.

Lo que muestra el prototipo es que puede hacer lo que puede hacer una persona. Es como si hubiéramos pillado el cerebro de una rata y le hubiéramos enseñado a programar, y me vienes tú a decir que para qué sirve eso.

Yo te digo para qué sirve. Se de una empresa de móviles que usa una IA entrenada para generar niveles a través de los resultados de todos los que ya tenían hechos en todos sus juegos. El resultado es que es capaz de generar niveles en 3 minutos frente a los 2 días de un diseñador de niveles. Esos niveles no sólo consiguen los KPIs objetivo sino que además los consiguen con muchas menos iteraciones.

Un equipo de 5 diseñadores, 2 devs y 3 testers dedicados se han convertido en 1 diseñador, 2 devs y 1 tester. Los 2 devs ni si quiera son nuevos pues anteriormente ya se dedicaban a otras herramientas.

Por ahora a la empresa le va bien y no tiene necesidad de despedir a nadie, así que ha metido al resto en un nuevo prototipo. Porque claro, al ser juego nuevo los niveles con los que se entrenó no sirven para el nuevo, ¿Verdad? Bueno, pues falso. El juego estaba en soft launch muy lejos de los KPI necesarios para invertir en él. Se pilló la IA, se la modificó para poder interpretar los nuevos niveles y fue capaz de soltar niveles para el nuevo juego. Y esos niveles llegaron a tener un incremento de hasta el 8% en el engagement de los usuarios. Y estas IA están preparadas para ser entrenadas con los nuevos datos. Sacan un paquete de niveles nuevo, y con respecto a los resultados se las reentrena, volviéndose más y más eficientes.

Eso sí, ha generado nuevos puestos de trabajo. De seguridad informática porque están acojonados con el hecho de que se pueda filtrar y que la competencia empiece a usarla. Está entrenada con sus propios datos internos y, ahora mismo, esos datos valen oro.


En ningún momento he dicho que no sirva, uso la IA a diario para todo. A lo que me refiero es que en un proyecto tocho enorme la IA aún no sirve, en el caso de generador de niveles de un juego de movil sin más, no me sorprende, ya había herramientas y assets antes de la IA, lo mismo con los mmo chinos, etc. Pero ahora dime si la IA ha hecho un proyecto tocho. A lo que me refiero es a proyectos tipo hacer un gta v, una aplicacion con 1000 componentes. No, no es capaz. Cosas pequeñas o clónicas si que es capaz, como los tipicos juegos asiaticos (que ya eran clonicos de por si) Pero un proyecto original, creativo, y enorme, a dia de hoy no es capaz, y no creo que lo consigan por lo menos en 10 años.

Estoy de acuerdo en que la IA es útil pero creo que se está metiendo demasiado miedo, no he visto aun hacer nada enorme.
bacogod escribió:En ningún momento he dicho que no sirva, uso la IA a diario para todo. A lo que me refiero es que en un proyecto tocho enorme la IA aún no sirve, en el caso de generador de niveles de un juego de movil sin más, no me sorprende, ya había herramientas y assets antes de la IA, lo mismo con los mmo chinos, etc. Pero ahora dime si la IA ha hecho un proyecto tocho. A lo que me refiero es a proyectos tipo hacer un gta v, una aplicacion con 1000 componentes. No, no es capaz. Cosas pequeñas o clónicas si que es capaz, como los tipicos juegos asiaticos (que ya eran clonicos de por si) Pero un proyecto original, creativo, y enorme, a dia de hoy no es capaz, y no creo que lo consigan por lo menos en 10 años.

Estoy de acuerdo en que la IA es útil pero creo que se está metiendo demasiado miedo, no he visto aun hacer nada enorme.

Te he puesto un ejemplo de cómo la IA en su estado actual puede sustituir a un departamento entero.

Y creo que te confundes porque no sabes lo que es diseñar niveles. No es arte ni son assets ni tiene nada que ver con algoritmos de generación aleatoria.

Una IA no ha hecho un proyecto tocho ni ha hecho falta para empezar a sustituir gente ni para hacerlo mejor que los trabajadores especializados. No hablamos de servir cafés. Hablamos de precisamente puestos de trabajo especializados que van a caer antes que el del señor que sirve cafés.
Reakl escribió:
bacogod escribió:En ningún momento he dicho que no sirva, uso la IA a diario para todo. A lo que me refiero es que en un proyecto tocho enorme la IA aún no sirve, en el caso de generador de niveles de un juego de movil sin más, no me sorprende, ya había herramientas y assets antes de la IA, lo mismo con los mmo chinos, etc. Pero ahora dime si la IA ha hecho un proyecto tocho. A lo que me refiero es a proyectos tipo hacer un gta v, una aplicacion con 1000 componentes. No, no es capaz. Cosas pequeñas o clónicas si que es capaz, como los tipicos juegos asiaticos (que ya eran clonicos de por si) Pero un proyecto original, creativo, y enorme, a dia de hoy no es capaz, y no creo que lo consigan por lo menos en 10 años.

Estoy de acuerdo en que la IA es útil pero creo que se está metiendo demasiado miedo, no he visto aun hacer nada enorme.

Te he puesto un ejemplo de cómo la IA en su estado actual puede sustituir a un departamento entero.

Y creo que te confundes porque no sabes lo que es diseñar niveles. No es arte ni son assets ni tiene nada que ver con algoritmos de generación aleatoria.

Una IA no ha hecho un proyecto tocho ni ha hecho falta para empezar a sustituir gente ni para hacerlo mejor que los trabajadores especializados. No hablamos de servir cafés. Hablamos de precisamente puestos de trabajo especializados que van a caer antes que el del señor que sirve cafés.


No, no se lo que es diseñar niveles porque yo programo aplicaciones, y ni están sustituyendo a nadie, hay más curro que nunca. Y en sector financiero y muchos proyectos confidenciales tienen hasta prohibido usar Chatgpt por miedo a donde va la información. Yo no veo que se esté sustituyendo a gente masivamente, al contrario, veo más trabajo que nunca. Creo que metéis demasiado miedo.

Que alguna empresa pueda sustituir gente? Si, pero también te digo, mucha gente sobraba ants de la IA. Parece que en 1 año van a desaparecer artistas redactores programadores y siento decirte que lo dudo bastante, que habrá más curro que nunca. Si crees eso es que no trabajas de ello. Pero en un año veremos si han desaparecido todos los empleos tal y como decís. Porque a día de hoy más curro que nunca en el sector tecnológico

Y lo de hacerlo mejor estoy en desacuerdo, he visto cada desastre que luego hay que arreglar... Lo hace más rápido, pero no siempre mejor.


Y no me vengas con "es un prototipo ya verás" yo hablo del día de hoy, en 10 años alomejor si pasa lo que dices pero a corto plazo es obvio que no

Herramienta útil = si
Crisis global paro masivo a corto plazo = no
Vaya ful el chatgepeto este. Solo por curiosidad y probar le hago una primera pregunta... que tiempo hace hoy en Barcelona? Y me contesta que no puede saber eso, que consulte una web de meteorología. [carcajad]
mcubcn escribió:Vaya ful el chatgepeto este. Solo por curiosidad y probar le hago una primera pregunta... que tiempo hace hoy en Barcelona? Y me contesta que no puede saber eso, que consulte una web de meteorología. [carcajad]


(De momento) no tiene acceso a la información en tiempo real. Solamente hasta 2021, creo y no a toda, sino a la que le proporcionaron para que aprendiera.
SirAzraelGrotesque escribió:
mcubcn escribió:Vaya ful el chatgepeto este. Solo por curiosidad y probar le hago una primera pregunta... que tiempo hace hoy en Barcelona? Y me contesta que no puede saber eso, que consulte una web de meteorología. [carcajad]


(De momento) no tiene acceso a la información en tiempo real. Solamente hasta 2021, creo y no a toda, sino a la que le proporcionaron para que aprendiera.

en bing si le puede preguntar eso jeje
Por si alguien le interesa, dejo material audiovisual que he ido recopilando estas semanas, son videos largos, pero muy interesantes.

Sparks of AGI, en esta presentación se intenta entender si GPT es inteligente, y que significa ser inteligente:



The AI dilemma, de los creadores de the social dilemma, analiza las implicaciones del cambio social que se avecina.



Entrevista larga a Sam Altman (2 horas), CEO de openAI, esta es más técnica, aquí hay muchos detalles de como se ha entrenado al modelo y como ha ido evolucionando.

Probando por primera vez el ChatGPT y la verdad está entretenido para preguntar tonterías o para que te de algunas ideas XD
La IA desde luego podria destruir el planeta,simplemente curando todas las enfermedades y el hambre,eso seria el fin.

@HungryGator Se le pueden preguntar cosas de programacion,codigo y royos asi?,me molaria una IA que pudiera programar lo que le pidieras...
emerald golvellius escribió:La IA desde luego podria destruir el planeta,simplemente curando todas las enfermedades y el hambre,eso seria el fin.

@HungryGator Se le pueden preguntar cosas de programacion,codigo y royos asi?,me molaria una IA que pudiera programar lo que le pidieras...

Creo que sí, te recomiendo probarlo. Le he dicho si me puede hacer códigos HTML para curiosear y la IA me lo ha hecho. No se si funcionará o no, pero prueba XD
HungryGator escribió:
emerald golvellius escribió:La IA desde luego podria destruir el planeta,simplemente curando todas las enfermedades y el hambre,eso seria el fin.

@HungryGator Se le pueden preguntar cosas de programacion,codigo y royos asi?,me molaria una IA que pudiera programar lo que le pidieras...

Creo que sí, te recomiendo probarlo. Le he dicho si me puede hacer códigos HTML para curiosear y la IA me lo ha hecho. No se si funcionará o no, pero prueba XD

Aun es pronto,pero en unos buenos años me imagino algo como:

"IA arquitectura Megadrive,videojuego de Toaplan Outzone,realiza Conversion al sistema Megadrive"

[carcajad]

seria brutal,poder pedirle que te programe lo que quieras,se me ocurren estas cosas por que veo que con IA se hace Arte...

y claro entre que una IA deberia ser muy buena Coder,y que hacen Arte...

no deberia serle dificil hacer videojuegos,crear Pixel Art,entender las arquitecturas de cada sistema,hacer los ajustes necesarios...

esto en 20 añitos yo creo que se podra,lo que no se es que pasara con esta gente que crea VFX,si le podras pedir a una IA que genere particulas de lluvia,que te desarrolle un oceano un bosque,iluminacion etc.
393 respuestas
14, 5, 6, 7, 8