La ONU reúne a expertos para debatir sobre los ‘robots asesinos’

A pesar de que fuera de las películas, videojuegos o libros aún no existen armas 100% autómatas capaces de decidir atacar y matar a un humano, la industria militar se encuentra cerca de superar ese umbral. Por ese motivo la ONU reunirá el próximo lunes a varios expertos para regular los Sistemas de Armas Autónomos Letales.

Actualmente ya existen robots militares y aeronaves autónomas que no requieren de un control remoto por parte de una persona, pero no pueden usar armamento letal sin la intervención humana. La posible desaparición de esta última premisa plantea varios dilemas éticos, por ejemplo, saber quién es el responsable de un crimen cometido por una máquina totalmente autónoma.

Los responsables de la campaña “Stop Killer Robots” afirman que las armas letales autónomas constituyen una posible amenaza para la humanidad y deben ser prohibidas. En su opinión "no se puede garantizar que los sistemas de armas autónomas respeten de forma predecible el derecho internacional" y el hecho de que los países no hayan debatido su control supone un gran riesgo.

En un reciente informe Human Rights Watch recomienda “prohibir el desarrollo, la producción y el uso de armas totalmente autónomas a través de un instrumento legal internacional”.

Quienes están a favor de las armas robóticas sostienen que las leyes de guerra actuales bastarían para resolver cualquier problema con las armas autónomas, y que en todo caso una moratoria sería mejor alternativa a la prohibición absoluta.
Que un ordenador falle y envie una bomba nuclear por si mismo no parece descabellado. (o algo similar) Pero no creo que viva para ver esos "robots asesinos"
Adiós a la escena de la presentación del ED-209 en Robocop.

Saludos.
pirateas un robot autónomo letal, modificas su programación para que aniquile a cierto sector de la población, te piras. ¿quién es el responsable del asesinato? El que creo al robot.

Lo que sí que está claro es que, como entremos en guerra, los países se va a pasar las prohibiciones por el forro de las pelotas...
Eso contravendría las leyes de la robótica, sólo espero que las películas no sean premonitorias XD
Skynet is comin soon... :-? :-? :-?
Robots asesinos , suena a coña
La ONU reúne a expertos para "comer" y de paso desvariar de algo cuando vayan soplaos..... :-|
Si los humanos no son capaces de discernin que a tiros no se solucionan las cosas, mucho menos unas maquinas programadas por dichos humanos..........la llevamos clara
U_Saks está baneado por "Saltarse un ban con un clon"
[facepalm] [qmparto]
hkg36e escribió:Que un ordenador falle y envie una bomba nuclear por si mismo no parece descabellado. (o algo similar) Pero no creo que viva para ver esos "robots asesinos"


creo que es más probable que un humano "fallé" y le dé al botón rojo...
Últimamente solo hacen que salir noticias alertando sobre este tipo de amenazas y la preocupación de gente que entiende sobre el tema respecto a estas.
No digo que salgamos a la calle con las pancartas de "El fin esta cerca", pero si no tomarlas demasiado a cachondeo, ya que solo hay que recordar que cuando tu ves al robot Asimo en una presentación cogiendo un vaso su equivalente militar, que se está desarrollando con fondos casi ilimitados, lleva una gatling como si nada.
Tampoco debemos olvidar la mente tan "abierta" que tienen ciertos militares en ciertos países, y que no conocen limites a la hora de cagarla, como nos ha venido enseñando la historia de la humanidad hasta ahora.
Que ganas tengo de que salga el nuevo Deus Ex...
logoff escribió:
creo que es más probable que un humano "fallé" y le dé al botón rojo...


Eso diselo a Stanislav Petrov, las maquinas no tienen sentido comun.
elpiyao escribió:La ONU reúne a expertos para "comer" y de paso desvariar de algo cuando vayan soplaos..... :-|


[qmparto]

Joder, que gracia me ha hecho.

Yo espero que el ser humano no se tan estúpido como para equipar con armas letales a un robot que pueda decidir usarlas en base a una programación. En fin, al final lo de Skynet va a resultar ser un documental.

Un saludo.
que dabatan todo lo que quieran.. que luego vendra EEUU y mandara un robot AUTOMATA y los matara!!!!
Pues por mucho que lo prohiban ahora... Me da que solo lo retrasaría. Todo se está orientando a ser autónomo. Trenes, aviones, coches...
¿Que es mas peligroso, miles de aviones volando sobre nuestras cabezas con cientos de personas, miles de trenes circulando por nuestras ciudades con cientos de personas y millones de coches por todo el planeta (todos ellos autónomos claro, que no esta tan lejos), o robots disparando?
Yo tengo mis dudas y si todo esta correctamente programado los fallos deberían ser minimos, y si hay fallos...tengo mis dudas que prohibiria antes (cosa que sera imposible parar).
Es un tema mas serio de lo que se podria pensar. Ademas, no esta tan lejos en el futuro....
http://es.gizmodo.com/el-caza-no-tripulado-qf-16-esquiva-por-1-vez-un-misil-1628387866

Skynet is coming.
:O
Siiii, por fin.

Sólo falta hacerlos y decirles que el peor enemigo del hombre es...... EL HOMBRE. A ver que pasa.
Akiles_X escribió:
logoff escribió:
creo que es más probable que un humano "fallé" y le dé al botón rojo...


Eso diselo a Stanislav Petrov, las maquinas no tienen sentido comun.


Pensaba que sería algún ajedrecista vapuleado por una computadora [facepalm]

http://es.wikipedia.org/wiki/Stanislav_Petrov
Lo que tengo bastante claro es que tarde o temprano estos robots funcionarán con Android como sistema operativo, xd
Lo malo de esto es ¿cómo sabe un robot que una persona es un enemigo o un civil?

En principio no hay forma de saberlo, podríamos pensar que a lo mejor si va armado lo reconoce como tal, pero si en realidad es una barra de pan o algo que una máquina pueda confundir con un rifle???

Que por mucha IA y hostias que le metas una máquina es TONTA y siempre lo será, para muestra una imagen: http://imgur.com/QG3T2kd

Pues si el kinect puede reconocer una puerta como segundo jugador, ya un robot asesinos de estos ya flipas.
Parece una noticia del April Fool´s day [sonrisa]
shinobi128 escribió:Lo malo de esto es ¿cómo sabe un robot que una persona es un enemigo o un civil?

En principio no hay forma de saberlo, podríamos pensar que a lo mejor si va armado lo reconoce como tal, pero si en realidad es una barra de pan o algo que una máquina pueda confundir con un rifle???

Que por mucha IA y hostias que le metas una máquina es TONTA y siempre lo será, para muestra una imagen: http://imgur.com/QG3T2kd

Pues si el kinect puede reconocer una puerta como segundo jugador, ya un robot asesinos de estos ya flipas.


Vamos a ver, por partes:
- de momento esta todo en pañales, pero en vamos...de esos que compras antes de tener incluso al bebe.
- y ¿de verdad piensas que el kinect es tecnologia punta en cuanto a reconocimiento del entorno? Las maquinas en un futuro (recordemos que todo esto es en vistas al futuro) veran mejor que nosotros, escucharan mejor que nosotros, procesaran mas datos (variables) y mas rapido que nosotros. No dudeis que de aqui a "muchos" años, las maquinas en el 99,9% de los aspectos, nos daran 100000 vueltas.
¿Los drones?

No hay na que hacer son Americanos e Ingleses y matan por la libertad de la humanidad, la democracia y el capitalismo.
Akiles_X escribió:
logoff escribió:
creo que es más probable que un humano "fallé" y le dé al botón rojo...


Eso diselo a Stanislav Petrov, las maquinas no tienen sentido comun.


Pero el chico esta hablando de probabilidades, y lo que ocurrio con Stanislav Petrov pues si es de gran magnitud pero no quiere decir nada, cuantos daños colaterales les cuentas a las maquinas como autonomas pues actualmente cero, todos los daños han sido humanos

Y humanos como maquinas autonomas hay muchos "SOLO OBEDESCO ORDENES", solo segui el protocolo, y con ello tuvimos suerte. si suerte.

es obvio que si pusieron a cargo a alguien del sistema de alertamiento es por que setenia en duda y era es un candado de seguridad. y creo que si pones varios te da mas seguridad un sistema que la persona.

Es que tan solo de pensar que la gente mata por que eres negra, o judia o por una depresion haciendo impactar un avion.....al menos un robot policia no cometeria errores, los errores siempre seran de los humanos por su falta de prevision o programacion, pero al menos no llevaria a alguien a un sitio y por que es negro le daria fin.

le es dificil al hombre pensar que le pueden superar, y el "error" o posible error en las maquinas lo critica y agiganta a mas no poder, por que su arrogancia le impide ver, sus errores o darle valor a las cosas. nadie habla de los sistemas de alertamiento que si fueran totalmente automaticos pudieron haber evitado tragedias como los de un tren a velocidad excesiva que el operador reacciono tarde.

creo que la peli de yo robot , da un poco de luz en esto.

Para terminar creo que la guerra y matar es simplemente el primer error, y el mas grande, culpemos a un soldado que solo sigue ordenes o un robot electronico , o errores o aciertos. es una aberracion matar por "defender"??, intereses?.

besos
Y también llegarán los Cylons... xD

Fuera coñas, a mí estos de los "robotitos" siempre me ha dado un poco de repelús... [toctoc]
Lo que decia la peli de Terminator podra ser real algun dia??

No se yo si lo veremos...pero si no lo vemos yo creo que sera mejor.
Yogurth escribió:Adiós a la escena de la presentación del ED-209 en Robocop.

Saludos.

Imagen
Y una vez más se dará aquello de "La realidad supera a la ficción".

@pereztroika
te has dejado la parte buena (gore XD )
No me parece una tontería, es un tema muy serio. La IA es un tema que preocupa a mucha gente que sabe de lo que está hablando.

Que hoy en día no los tengamos en producción (robots autónomos), no quiere decir que la tecnología no esté mucho más avanzada en el entorno militar.

No podemos permitirnos perder el control de este tema, la criticidad está a la altura del armamento nuclear, yo creo.
Estas cosas existen: https://www.singularityweblog.com/super ... -kill-bot/

Me parece lógico que se abra un debate en la ONU al respecto.
no estamos para naaaadaaa lejos de un autómata, ya que creo recordar que IBM tenia el desarrollo de un ordenador autómata capaz de tomar sus decisiones (creo no equivocarme) en el ajedrez.
Ahora bien, un robot autómata, eso ya es otra historia, un robot capaz de escanear la zona (ya se puede), capaz de diferenciar armas peligrosas (los escaneres policiales en los aeropuertos se asemejan) pero no se acerca del todo, pero que digan, este es malo, este no, eso ya seria darle conciencia no autonomía, como va a tomar una decisión tan... humana una maquina, eso es mucho ver el futuro.

Hombre lo mas parecido, seria darle escaneres faciales a una maquina, para buscar por ejemplo terroristas y que vayan por ellos, siempre y cuando no se tapen la cara [360º] [360º] .
Mejor harían en reunirse para debatir sobre los humanos asesinos y que se dejen de ciencia ficción porque que yo sepa las bombas, aviones estrellados, inmolados, ametrallados, países exprimidos, etc no son provocados por "robots asesinos" y el día que eso llegue no lo podrá parar nadie como no se puede para lo anteriormente expuesto ya que al fanatismo religioso/político o de cualquier índole no lo para la ONU lo para la educación con todo lo que eso quiere decir.
thedarknight escribió:Mejor harían en reunirse para debatir sobre los humanos asesinos y que se dejen de ciencia ficción porque que yo sepa las bombas, aviones estrellados, inmolados, ametrallados, países exprimidos, etc no son provocados por "robots asesinos" y el día que eso llegue no lo podrá parar nadie como no se puede para lo anteriormente expuesto ya que al fanatismo religioso/político o de cualquier índole no lo para la ONU lo para la educación con todo lo que eso quiere decir.


+1 Mejor no se puede decir.

Se enseñan muchas cosas en los institutos pero tolerancia y empatía no.

Los fanatismos siempre son malos, de cualquier tipo, pero como ya has dicho los religiosos y políticos son los peores, ya que hacen que la gente se mate. Cosa que es absurda, ya que una persona vive donde vive y tiene la religión que tiene (si es que tiene) de forma totalmente aleatoria, ya que se puede nacer aquí o en el congo y por esa aleatoriedad se ha de ser tolerante con todo el mundo, ya que yo no he decidido donde he nacido y nadie lo ha hecho.
caballoneta escribió:eso ya seria darle conciencia no autonomía, como va a tomar una decisión tan... humana una maquina, eso es mucho ver el futuro

Ya hay IA's aprendiendo por si solas como lo haría un bebé. Por relaciones de imágenes en internet.
En el momento que supere cierto punto de inteligencia la velocidad de aprendizaje va a ser jodidamente brutal.

Un humano reconoce enemigos porque ha aprendido, primero en su vida común, luego en su profesión y finalmente basado en ciertas reglas básicas, a veces soportadas por imágenes y coordenadas, a veces sin ello.
Llegados a ese punto, una máquina será capaz de tener acceso a toda preparación e información de manera automática.

Siempre que lo tengan bajo un entorno controlado y faciliten esa info a cada unidad limitandoles la capacidad de aprendizaje fuera de ese entorno, bien. Como el proceso falle puede ser un gran peligro, por una parte si llega a la conclusión de que tomar ciertas decisiones es favorable aunque supongan un gran coste, y por otro que un bug suponga poner en riesgo una vida que no debería calificarse de objetivo.


Por mí que aprendan mucho sin control, a lo mejor encarcelarían a unos cuantos de los que nos gobiernan y sabrían como hacer prosperar la sociedad. A malas qué puede pasar que nos maten a todos porque nos considere la plaga del planeta? Si a fin de cuentas cada X años ya nos matamos en guerras nosotros solitos...
Akiles_X escribió:
logoff escribió:
creo que es más probable que un humano "fallé" y le dé al botón rojo...


Eso diselo a Stanislav Petrov, las maquinas no tienen sentido comun.


Ay las dado , imposible debatir eso. [plas] [plas] [plas] [plas] [plas]
shinobi128 escribió:Lo malo de esto es ¿cómo sabe un robot que una persona es un enemigo o un civil?

En principio no hay forma de saberlo, podríamos pensar que a lo mejor si va armado lo reconoce como tal, pero si en realidad es una barra de pan o algo que una máquina pueda confundir con un rifle???

Que por mucha IA y hostias que le metas una máquina es TONTA y siempre lo será, para muestra una imagen: http://imgur.com/QG3T2kd

Pues si el kinect puede reconocer una puerta como segundo jugador, ya un robot asesinos de estos ya flipas.

Llegará el día en el que una máquina sepa identificar una amenaza mejor que cualquier persona, en menos tiempo, y reaccionar de forma más precisa y sin necesidad de ser letal.
Miles de años sobre la Tierra y seguimos siendo igual de imbéciles pensando en guerras y armas para matar a nuestros iguales.

La ONU en si misma ya es un modo de separar a los supuestos buenos de los supuestos malos.
¿Para cuando mi T800 OpenSource tuneado? [Ooooo]
cuidado con wall-e jajajajaj
39 respuestas