La Comisión Europea identifica siete pilares para el desarrollo de inteligencias artificiales éticas

Alejo I
8 8 23
Noticias » Tecnología
A mediados del año pasado la Comisión Europea se propuso el ambicioso objetivo de poner límites a lo que las inteligencias artificiales podrán y no podrán hacer en el futuro. O más concretamente qué dirección deberán adoptar para evitar problemas inesperados. No es una tarea sencilla si se considera que las implicaciones que esta tecnología tendrá a nivel laboral, económico e incluso social son probablemente incognoscibles.

El proyecto, dirigido en cierto grado por un "consejo de sabios" formado por 52 expertos independientes, llega ahora a una nueva fase con el lanzamiento de lo que se describe como un "piloto" durante el cual la Comisión Europea "invita" a empresas, institutos de investigación y autoridades públicas a poner a prueba las conclusiones de los expertos y asegurarse de que sus líneas maestras "pueden ser implementadas en la práctica".

De acuerdo con el comunicado oficial, la Comisión Europea recibirá ahora las opiniones al respecto antes de buscar un consenso internacional "para construir inteligencias artificiales centradas en el ser humano". Las mencionadas líneas maestras son las siguientes:

El piloto, que tendrá lugar durante el verano, ahondará en estas cuestiones para explorar las implicaciones sociales de los sistemas de IA, acotando asuntos tan amplios y complejos como la responsabilidad y su posible adjudicación compartida en caso de fallo, que no es un asunto menor si se considera los enormes problemas que representan tecnologías como los vehículos autónomos.

La Unión Europea ante el reto estratégico de la IA

La implicación de la Comisión Europea en el desarrollo a largo plazo de la inteligencia artificial no es un mero trámite burocrático fruto de mentes aburridas. Es una cuestión absolutamente estratégica.

Las autoridades se han dado cuenta de que la Unión Europea lleva un considerable retraso en el desarrollo de sistemas de IA en relación a Estados Unidos, pionera en muchos aspectos, pero también de China, que ha avanzado drásticamente en muy poco tiempo gracias en parte a un potente sector tecnológico y a unas políticas de privacidad que en otras partes del mundo serían extraordinariamente intrusivas. Existe un auténtico sentido de urgencia por impulsar la inteligencia artificial desde posiciones europeas.

En este aspecto, resulta interesante que el comunicado señala a Japón, Canadá y Singapur como países con ideas similares en lo que respecta al futuro de la inteligencia artificial y con los que se podría contar de cara a conseguir consensos o equivalencias internacionales. Todo ello se inscribe en el seno de una estrategia a nivel europeo con la que se busca conseguir una inversión anual mínima de 20.000 millones de euros anuales durante la próxima década entre organismos públicos y privados.
23 comentarios
  1. Las leyes de Asimov dejaran de ser ciencia ficcion ...
  2. eso no son leyes, son 7 pilares basicos para hacer leyes, las 3 de asimov me da que se quedan cortas para la IA, con el timepo aprenderan a hacer lo mismo que los humanos y es atajar, usar las artimañas para llegar a objetivos, y ahi es donde esta el peligro. Algun dia necesitaran un codigo maquinal mas tocho que el civil y si no al tiempo,

    bye
  3. ¡Qué linda retahila de buenas intenciones!
    (léase con un exagerado tono de sarcasmo [facepalm] )

    Pues para seguir con el comentario sobre Asimov, añado que si pretenden acudir a conceptos de cienciaficcion para diseñar sus "principios de diseño", tambien deberían acudir a la ciencia ficcion para ver cómo suelen acabar estas cosas... Y para ahorrar tiempo lo resumo: MAL

    Y ya dejando la "sci-fi" atrás, la unica intencion de todo esto es tener controlada a la poblacion. Aun ayer o anteayer cazaba un trozo final de un reportage estupido de la 2 donde primero te calentaban la cabeza con los peligros de la IA contra la privacidad de los usuarios, y de cómo, además, es imposible para el usuario controlar de forma fiable el flujo de sus propios datos por una red cada vez mas conectada (hay que ser un lumbrera para darse cuenta de esto, desde luego... :-| ) no va y dice el andoba que la solucion es tener tus propias IAs "a tu servicio" para controlar por ti el flujo de esos datos... ¿No querías caldo? ¡Toma ochenta tazas! ... ains

    Todo es un timo para que vayamos contentos al matadero.
  4. Alejo I escribió:pero también de China, que ha avanzado drásticamente en muy poco tiempo gracias en parte a un potente sector tecnológico y a unas políticas de privacidad que en otras partes del mundo serían extraordinariamente intrusivas. Existe un auténtico sentido de urgencia por impulsar la inteligencia artificial desde posiciones europeas


    ¿Creéis que es posible competir con China?, quizás el exceso de regulación lastrará el desarrollo europeo. Es evidente que hay que ponerle límites a la Inteligencia Artificial, el problema es que si China no sigue las mismas reglas terminará teniendo una ventaja considerable.

    Espero que aún queden muchos años para alcanzar la singularidad, dejo un enlace de la wikipedia por si alguien siente curiosidad, es un tema apasionante pero puede resultar aterrador.

    Singularidad
  5. El problema vendrá cuando una inteligencia artificial de un vehículo autónomo tenga que decidir si atropellar un peatón o salvar a los pasajeros de dicho vehículo.

    Un saludo.
  6. Qué humano todo lo que hacen esta gente...

    Ah no!
  7. Da igual las leyes que impongan, habra barra libre tarde o temprano porque cualquier pais o grupo con una etica diferente a la hora de ver este tema hara los avances que considere necesarios por encima de lo que la UE, EEUU o quien se crea con el derecho de regir las directrices del desarrollo de las inteligencias artificiales y una vez se salte ese punto todos iran detras para no quedarse atras.
  8. Alejo I escribió:
    • Agencia humana y supervisión: los sistemas de IA deberán facilitar sociedades igualitarias apoyando la agencia humana y derechos fundamentales, y no mermar, limitar u orientar de forma negativa la autonomía humana.
    • Robustez y seguridad: una IA confiable requiere que los algoritmos sean seguros, fiables y lo suficientemente robustos para lidiar con errores o inconsistencias durante todas las fases del ciclo de vida de los sistemas de IA.
    • Privacidad y control de datos: los ciudadanos deberían tener el control absoluto sobre sus propios datos, al tiempo que los datos que les impliquen no puedan ser utilizados para causarles daño o discriminarles.
    • Transparencia: la trazabilidad de los sistemas de IA debería ser asegurada.
    • Diversidad, no discriminación y ecuanimidad: los sistemas de IA deberán considerar todo el rango de capacidades humanas, habilidades y requisitos, así como asegurar la accesibilidad
    • Bienestar social y del entorno: los sistemas de IA deberán ser utilizados para promover un cambio social positivo y mejorar la sostenibilidad y la responsabilidad ecológica.
    • Responsabilidad: deberá haber mecanismos para asegurar la responsabilidad y rendición de cuentas para sistemas de IA y sus resultados.
    • NO DAÑAR A NINGÚN MIEMBRO DE LA OCP.


    Faltó poner la última directiva, arreglado. XD
  9. Yo veo dos fallos aqui, uno , que estas leyes miran solo por las personas, luego una maquina podra esclavizar a otra , modificarla y todo lo que conlleve, y segundo, todo lo que hacemos contamina el medio, vivimos en una sociedad que abusa de la gente, ¿se trata de bloquear a las maquinas para que no hagan nada al respecto?
  10. A mi la IA me genera una serie de dudas, principalmente derivadas de la idea de que una inteligencia artificial no es otro cosa que un código picado por un ingeniero, es decir, una máquina dotada de IA no puede hacer más allá que lo que tiene tiene escrito en su memoria. Como otro usuario comenta arriba, si se llega al punto de la singularidad (supongo que haciendo uso de redes neuronales que ayuden al auto-aprendizaje y similares), las leyes que se comentan arriba se pondrían cumplir siempre y cuando la IA las acepte porque ya sería "consciente" de las mismas, o no? [toctoc] Se me está yendo demasiado...
Ver más comentarios »