Primer fallecido en un accidente de coche con piloto automático

1, 2, 3, 4
Ya es oficial y así lo han comunicado desde el mismo blog de Tesla: hay un primer fallecido en un coche de la compañía mientras hacía uso del piloto automático en carretera. Se trata de Joshua Brown, de 45 años y natural de Ohio.

Al parecer y según el registro oficial de los hechos, Brown murió el pasado 7 de mayo cuando su coche acabó debajo del remolque de un camión en una carretera de Florida mientras hacía uso del modo de piloto automático de Tesla, es decir, que la inteligencia artificial del automóvil estaba al volante tomando las decisiones de conducción.

El fatal accidente se habría producido en el momento en el que un camión realizó un giro a la izquierda y el coche de Brown terminó debajo de la carga enganchado. El hombre falleció mientras “el coche” era el que conducía, y es aquí donde se abre un gran interrogante en un caso que no tiene precedentes. Se trata de un vacío legal, ya que jamás una persona había muerto mientras una IA iba al volante.

La gran pregunta, ¿de quién es la culpa? (de existir culpa), es lo que ahora se intentará dilucidar a través de la investigación en curso que está llevando a cabo la NHTSA, el organismo en Estados Unidos que controla la seguridad en las carreteras. Tesla por su parte ha explicado a través de su página lo siguiente:

El cliente que ha fallecido en el choque tenía una familia que le quería. Estamos más que tristes por su pérdida, era un amigo de Tesla y de toda la comunidad del coche eléctrico. Dio su vida por la innovación y la promesa que mantenemos como misión en Tesla y queremos mostrar nuestra compasión a su familia y amigos. Tesla ha informado a la NHTSA del accidente tan pronto como lo supimos para determinar si el sistema funcionó según las expectativas.

Se da el caso que Brown era un reconocido fanático de la tecnología de la compañía. El hombre subía una gran cantidad de vídeos a YouTube, muchos de ellos con el fin de mejorar la propia tecnología de Tesla con recomendaciones, y precisamente uno de estos vídeos se ha hecho viral en las últimas horas. Se trata de un vídeo donde podemos ver como su Tesla con el piloto automático ya estuvo cerca de sufrir un accidente con otro vehículo, pero el coche acabó realizando una maniobra que finalmente evitó el choque.


Lo único cierto a estas horas es que el resultado de las investigaciones abre un nuevo campo legal (y quizás judicial) sobre ese presente y futuro que se avecina con el uso de las IAs en carretera. Tesla por su parte recuerda que siempre recomienda hacer uso del piloto automático solamente en carreteras, nunca en zonas urbanas, además de insistir en que el conductor siempre debe llevar las manos sobre el volante aunque el piloto automático esté en funcionamiento.

Fuente: El País
Lo que se me viene a la mente son aquellos datos en los que el Google Car había hecho xxxx pruebas (muchas) y los accidentes que tuvo fueron por culpa de los demás.

En el mismo video vemos como una camioneta se le tira encima y el piloto automático evita el choque. Yo ultimamente tengo que coger el coche más de lo normal y da miedo lo que te encuentras por ahi. La gente está zumbadisima, el intermitente... ¿que es eso? y ya he evitado varias colisiones de coches que literalmente y sin un atisbo de duda se me tiraban encima y que hubiera acabado mal si yo no hubiera esquivado.

Eso sí, tengo que reconocer que una vez evito las colisiones, bajo la ventanilla y lo que le digo al conductor no es NADA bonito.
Esta tecnología acaba de nacer, yo no creo que este lo suficientemente probada para que lo lleven los coches, en la carretera pueden pasar mil y un imprevisto, la pregunta es y ahora que va pasar?
Soy programador, y por experiencia sé, que existen millones de variables que pueden hacer que falle un programa... por eso NUNCA me fiaré de que una IA pilote un coche
Pues esto es lo que muchos se temían que pasara que el piloto automático que en teoría era totalmente seguro fallara, pues este ya puede ser el principio del fin de la conducción autónoma, si había trabas antes, ahora los detractores ya lo tienen en bandeja, ya tienen el precedente que necesitaban
Pobre hombre, me a dao pena ver el vídeo. Supongo que es él el que hace la maniobra en el vídeo o el sistema en ese caso funciona. Habrá que ver que es lo que realmente a pasado, aunque con tanto animal suelto conduciendo y tantas posibilidades en milésimas de segundo de que se sumen acciones, que ni la mejor IA lo evitaría, digo yo.
En primer lugar DEP, después, pues tienen que averiguar que ha fallado en la IA para que esa circunstancia no se vuelva a repetir, la carretera tiene estas cosas, casi infinitas variantes que pueden acabar en accidente, eso lo sabemos, pero no por eso hay que cesar en este camino, que me parece el correcto y lógico.

Un saludo.

P.D-> el vídeo, pues eso, cafres que se creen que van solos en la carretera, buena reacción del coche, y no sé si el que toca el claxon es el propio coche o el conductor.
Pero es seguro que el otro vehículo no cometió ninguna infracción, ni hizo maniobras bruscas como en el video de la noticia?

Lo que está claro es que la IA debe estar muy testeada antes de que esto sea común y mas con lo incívica que es la gente conduciendo... Es la selva a veces.
Por lo que pone en el comunicado oficial de Tesla, los sensores no pudieron distinguir el camión sobre el cielo del mismo color, por lo que no se aplicaron los frenos antes del impacto. También entre otras cosas, recuerdan que es un asistente y que nunca hay que dejar de estar preparado para tomar el control manual.

https://www.teslamotors.com/en_CA/blog/ ... edirect=no
Tha Sniper escribió:Soy programador, y por experiencia sé, que existen millones de variables que pueden hacer que falle un programa... por eso NUNCA me fiaré de que una IA pilote un coche


Pues yo te digo que prefiero fiarme de que todos los coches sean conducidos por IA que por personas que ni miran por los espejos antes de cambiar de carril o se piensan que poner los intermitentes les da derecho y prioridad a hacer lo que les venga en gana.
Os doy mi opinión sobre la conducción automatica, y es que seguro que el sistema funciona, pero hasta que de la ecuación no salga el factor humano de los demás coches de la carretera, el sistema seguirá fallando, ese factor humano de los demás conductores, crean demasiadas variables, que una IA no calculará del todo bien. Con el tiempo y cuando todos los coches en carretera tenga este sistema seguro que todo irá mejor, opino.
Garru escribió:Esta tecnología acaba de nacer, yo no creo que este lo suficientemente probada para que lo lleven los coches, en la carretera pueden pasar mil y un imprevisto, la pregunta es y ahora que va pasar?


Necesitan escenarios reales para seguir probándose, igual que alguien que acaba de sacarse el carnet. De todas maneras todavía no lo tienen como una tecnología para subirte en el coche y olvidarte de todo, se supone que sólo está recomendado para autopista y con el conductor siempre atento y con las manos en el volante, simplemente se ofrece como una ayuda para la conducción.
Draifet escribió:Por lo que pone en el comunicado oficial de Tesla, los sensores no pudieron distinguir el camión sobre el cielo del mismo color, por lo que no se aplicaron los frenos.


Me extraña que no tenga sensores de proximidad, así como una especie de radar o sonar, no? No creo que lo haga todo por cámara.
El problema es mezclar IA con gentuza a la que deberian retirarle el permiso de conducir.

Si todos los vehiculos fuesen con IA ayudaria enormemente a la seguridad y reduciria los atascos.
El problema no es que una IA programada pueda conducir bien y mucho más seguro que una persona que es posible. El problema viene que esa IA no tiene que conducir con otras IA o conductores modelo tiene que hacer frente a la gran cantidad de descerebrados en la carretera y eso ya es más complicado.
makatru escribió:Os doy mi opinión sobre la conducción automatica, y es que seguro que el sistema funciona, pero hasta que de la ecuación no salga el factor humano de los demás coches de la carretera, el sistema seguirá fallando, ese factor humano de los demás conductores, crean demasiadas variables, que una IA no calculará del todo bien. Con el tiempo y cuando todos los coches en carretera tenga este sistema seguro que todo irá mejor, opino.


Exacto, esto mejoraría enormemente si todos los vehículos e incluso la propia vía estuvieran comunicándose entre sí.
El problema es que prueban el sistema en los USA, que lo prueben en donde vienen el 90% de los videos de choques que se ven en internet, o sea Rusia y China, de ahi no sale un piloto automatico, de ahi sale directamente Skynet..
Desde mi punto de vista ,lo visto en el video es causado por mezclar dos entidades distintas en un mismo medio, personas y automatas. Creo que de haberse dado el caso de solo tener automatas que se rijan por las mismas reglas nunca daria lugar a fallos como este. El hecho de que las personas conduzcamos mal , es evidente.
Por lo tanto mal augurio para esto de los coches automaticos, porque es inevitable que en un plazo medio de 25 años tengan que convivir las dos entidades. Una opcion a esto podria ser incluir una tercera entidad la carretera , que de alguna forma regulara el flujo y fuera consciente de alguna forma de identificar las dos entidades anteriores.
El piloto automatico en coches, no les queda años, les queda decadas. Y viendo lo del accidente, siempre tiene que ir un conductor con carnet de conducir.
Pues yo también prefiero fiarme de la IA antes de cada uno que hay suelto por la carretera...
@Ramysc pues es lo que pone: "Neither Autopilot nor the driver noticed the white side of the tractor trailer against a brightly lit sky, so the brake was not applied."

Tal vez los sensores tipo proximidad a cierta velocidad no funcionan, y dejan relevado el tema a otros sensores que deben ser los que se confundieron por el color, igual que mi roomba que con los muebles oscuros no frena y les pega porrazos.
Que hijo de puta el del camion, si no se aparta y frena la IA se lo lleva por delante.

Por otro lado, no se cuantos coches hay con IA por ahi, para sacar una estadistica, pero como todo en la vida la seguridad 100% no existe. Los aviones tienen 1 siglo y siguen teniendo accidentes.
Iba a haber uno tarde o temprano.

Se están vendiendo tecnologías de aparcamiento que todavía no las veo para comercializar, como para congiar en un piloto automático...
El video es bastante claro, el error es de ambos , camión que no mira(probablemente no lo vea por el angulo muerto) y piloto automático que sobrepasa por la derecha, no se puede adelantar por la derecha en autovia.
El tema es que tienen que convivir coches automaticos con personas que se piensan que la carretera es el jardin de casa.
Yo la verdad que de este tema de la conducción autónoma pasé hace tiempo... Pensaba que eran todo "demos" en entornos "preparados"... Para nada me esperaba que ya hubiera coches circulando por cualquier vía... Hay que tener los huevos muy grandes para dejar que una IA conduzca por ti y hacer de conejillo de indias de una compañía...

Más que nada porque la IA no deja de ser software y todos sabemos que el software falla SIEMPRE... Solo hay que ver la IA en los juegos, programas que dan errores, programas que se "congelan"... Solo que en este caso supone la muerte.
Mu bien el video... pero no veo que guarde mucho las distancias de seguridad... xD

Y lo de siempre, la conducción aut. muy bonita, pero solo como asistente... no como autónoma...
Arcadiu escribió:
Tha Sniper escribió:Soy programador, y por experiencia sé, que existen millones de variables que pueden hacer que falle un programa... por eso NUNCA me fiaré de que una IA pilote un coche


Pues yo te digo que prefiero fiarme de que todos los coches sean conducidos por IA que por personas que ni miran por los espejos antes de cambiar de carril o se piensan que poner los intermitentes les da derecho y prioridad a hacer lo que les venga en gana.


Si todos los coches fuesen con su IA, seguramente no habría accidentes o muy pocos. Algún bug podría causarlos siempre, eso sí.

El problema principal es la convivencia de la IA con las personas. Una IA funciona para el 99% de los casos, los que se consideran "normales", pero cuando te llega un desgraciado y te la juega en una rotonda, por ejemplo, la IA puede no estar preparada para esos movimientos inesperados. Algunos los sorteará bien y otros terminarán en tragedia como en este caso.
Pues yo soy de los que se fía más de la IA esa que de los cazurros que hay con carnet porque como dice el primer comentario, tienes que ir esquivando a los demás, no sólo por los que pasan de las señales (Stop, ceda el paso, semáforos, pasos de peatones, etc) también los que se creen que es un videojuego o un circuito de F1 y van a 100 donde deberían ir a 40.
A dia de hoy creo que por muy buena que sea la IA le falta la improvisacion que tenemos las personas para adaptarnos a un imprevisto de y de tomar una decision en el momento oportuno. Por no decir que en muchos casos cuando vas por la carretera intuyes quien te la puede liar.
Seguro que tiene sus fallos como todo y encima entra también el factor sorpresa , que puede pasar en cada momento y como actué la maquina
Hay cosas también que la IA es incampaz de ver... Por ejemplo puedes ver a lo lejos que un tío que está 10 metros por delante en los giros se mete en el carril del vecino... Esto la IA no lo ve que yo sepa y cuando le toque adelantarlo va a haber choque casi seguro... y así cantidad de casos. Yo hay veces que veo cafres por el retrovisor que van a 80 por ciudad haciendo chirriar las ruedas en las curvas, cuando eso yo reduzco y les dejo pasar en plan: "si te tienes que hostiar hostiate tú"... Eso la IA no lo hace tampoco.
Seifert escribió:A dia de hoy creo que por muy buena que sea la IA le falta la improvisacion que tenemos las personas para adaptarnos a un imprevisto de y de tomar una decision en el momento oportuno. Por no decir que en muchos casos cuando vas por la carretera intuyes quien te la puede liar.


Totalmente de acuerdo, cuantas veces vas al lado de algunos y pensando este me la lía. Pero es difícil darle esa "conciencia" a la IA, pero se puede suplir con respuestas programadas, pero hay que seguir mejorando la IA, esto no es fácil.

Un saludo.
Año 2015, 1,25 millones de personas fallecidas en las carreteras de las cuales el 100% fue SIN piloto automático. Si acaso que tiren a la basura todo el I+D invertido en esta tecnología y se olviden del tema porque haya pasado esto (que ni sabemos si fue culpa del coche Tesla aún).
dogboyz escribió:Yo la verdad que de este tema de la conducción autónoma pasé hace tiempo... Pensaba que eran todo "demos" en entornos "preparados"... Para nada me esperaba que ya hubiera coches circulando por cualquier vía... Hay que tener los huevos muy grandes para dejar que una IA conduzca por ti y hacer de conejillo de indias de una compañía...

Más que nada porque la IA no deja de ser software y todos sabemos que el software falla SIEMPRE... Solo hay que ver la IA en los juegos, programas que dan errores, programas que se "congelan"... Solo que en este caso supone la muerte.

Bueno, en este caso supuso la muerte, pero un accidente con IA no supone la muerte, al igual que accidentes tenemos la mayor parte de los conductores y la mayoría sobrevivimos.
Muy mala suerte, habría que ver cómo fue el accidente porque es posible que se produjese de igual manera si fuese un coche no autónomo.
El incidente del vídeo no veo qué tiene que ver, ni hay accidente, ni es culpa de la ia.

elnksoy escribió:Iba a haber uno tarde o temprano.

Se están vendiendo tecnologías de aparcamiento que todavía no las veo para comercializar, como para congiar en un piloto automático...

No las verás pero ya hace bastante que se venden, aunque no sé si alguien lo usará aún teniéndola. Funciona cuando hay espacio suficiente sobrante y es lenta.
Miedo me da que una IA lleve mi coche.. ya me jode que el acelerador sea un sensor, y que si piso a fondo y pongo el AA, sea el coche quien decida que no lo pone porque necesita toda la potencia...
Dependiendo de como evolucione esto, si en algun momento TODOS los coches tienen piloto automatico y fueran realmente buenos, evitariamos muchos accidentes, pero estando como esta, es cuestion de estar mas atento que la IA, como si de un GPS se tratara, el conductor manda sobre la maquina.
Estoy flipando con vuestros comentarios y esa estrechez de mira.

No se en el caso de tesla pues que yo sepa lleva menos tiempo que google con las pruebas de los coches autónomos, pero en el caso de google hablamos de mas de 3 millones de kilómetros y en apenas 20 accidentes que han tenido creo que solo en 1 o 2 había sido culpable el coche, y me estáis diciendo que le faltan décadas a los coches autónomos?

Los coches autónomos ya son una realidad y dispondremos de ellos a corto plazo queráis vosotros o no.

Personalmente espero que se implanten cuanto antes, como ha comentado un compañero mas arriba, ya estoy hasta los cojones de todos los putos descerebrados que hay en la carretera contra los que me tengo que jugar la vida a diario, por que por muy exagerado que parezca NOS JUGAMOS LA VIDA.
A ver señores, estáis mezclando churras con merinas.

Una cosa es el "Autopilot de Tesla", que no es más que un asistente de conducción con esteroides que a grandes rasgos, te mantiene en el carril por donde circulas manteniendo una velocidad y evitando colisiones de forma automática, y otra cosa es un sistema de conducción autónoma (como incorpora el famoso "coche huevo" de Google).

Los Tesla no disponen ni del hardware ni del software necesario para realizar una conducción autónoma completa y segura al 100%. Hay quien ha visto en el asistente del Tesla una conducción autónoma completa y no un mero asistente (que es lo que es) que nos puede servir para poder quitar nuestra atención de la carretera unos instantes en caso de ser necesario.
Desde luego que lo que hace en el vídeo no es nada del otro mundo, varios coches lo llevan a día de hoy y no es piloto automático el control de crucero adaptativo. Es como si voy con el control de crucero y me estampo y digo que ha sido el coche que estaba acelerando solo ¬_¬
si todos los coches tubieran ia y estubieran intercomunicados no pasaria eso,
se eliminaria el factor humano
La conducción debería ser una asistencia a la conducción. Nunca automática al 100%.
Elkri escribió:Estoy flipando con vuestros comentarios y esa estrechez de mira.

No se en el caso de tesla pues que yo sepa lleva menos tiempo que google con las pruebas de los coches autónomos, pero en el caso de google hablamos de mas de 3 millones de kilómetros y en apenas 20 accidentes que han tenido creo que solo en 1 o 2 había sido culpable el coche, y me estáis diciendo que le faltan décadas a los coches autónomos?

Los coches autónomos ya son una realidad y dispondremos de ellos a corto plazo queráis vosotros o no.

Personalmente espero que se implanten cuanto antes, como ha comentado un compañero mas arriba, ya estoy hasta los cojones de todos los putos descerebrados que hay en la carretera contra los que me tengo que jugar la vida a diario, por que por muy exagerado que parezca NOS JUGAMOS LA VIDA.

El problema es que esos datos de Google no son fiables, me explico, te ponen que a lo mejor falla 10 veces en un año que el conductor tiene que hacerse cargo del vehículo, pero en realidad son miles de veces las que el conductor se hace cargo del vehículo por no fiarse de la máquina porque ve que no le gusta la decisión que va a tomar o no es lógica pero como no se registra fallo Google no está obligado a publicar estos datos por lo que la mayoría solo nos enteramos de las pedazo de cifras que sacan porque estas no las ponen ya cada uno que piense lo que quiera pero esto ya lo explicaron en un medio
gomez_m escribió:El problema es que esos datos de Google no son fiables, me explico, te ponen que a lo mejor falla 10 veces en un año que el conductor tiene que hacerse cargo del vehículo, pero en realidad son miles de veces las que el conductor se hace cargo del vehículo por no fiarse de la máquina porque ve que no le gusta la decisión que va a tomar o no es lógica pero como no se registra fallo Google no está obligado a publicar estos datos por lo que la mayoría solo nos enteramos de las pedazo de cifras que sacan porque estas no las ponen ya cada uno que piense lo que quiera pero esto ya lo explicaron en un medio


Ok, pásanos la fuente de tu afirmación. Gracias.
Tha Sniper escribió:Soy programador, y por experiencia sé, que existen millones de variables que pueden hacer que falle un programa... por eso NUNCA me fiaré de que una IA pilote un coche


En este caso la variable crítica es lo que hace el zumbao que se cruza con el camión, el loco que se te tira encima a cruzar una calle sin paso de cebra, el daltónico que confunde rojo y verde en los semáforos... sobre esas sí que no hay control en absoluto. Si el mundo no estuviera lleno de escoria que no merece vivir, todo sería mucho más bonito :) Y no, no me refiero a errores humanos, me refiero a esos que van en el coche (y fuera de él) como si el mundo fuera suyo y el resto fuéramos insectos... Contra eso no hay IA que valga. Son como putos yihadistas, pero en ligar de bombas llevan coches.

Viva Tesla, viva Google y viva la innovación.
Esto del Early Access pasa factura [hallow]
Y eso que hay 4 coches que llevan 4 adinerados.

Imaginaos las baratijas que venderían a la plebe. Más los hackers, mas los fallos electrónicos.

Los que tienen ni idea de coches dirán que no, pero ya os digo que los coches de antes eran mejores ni fallaban. Ahora los bmw y demás basura cada dos por tres da fallos y son mucho más simples.

Los autobuses modernos les PETA también el sistema, en fin, lamentable.

Dep a la familia.
He vivido de arreglar máquinas y he estudiado programación IAs incluidas... y también tengo mis decenas de miles de km hechos en coche.

El problema que le veo a esto es principalmente las personas que se puedan meter de por medio en la conducción de tu coche, aportando cada caso unas variables muy únicas. Ya están diciendo por el hilo que el trailer que se le echó encima al coche pudo ser confundido con el color del cielo, aunque no me he molestado en mirar eso.

Y vaya que muchos conducen como locos y hacen unas maniobras asesinas de las que como no tengas tus reflejos e improvisación, no sales vivo, a menudo teniendo que elegir entre 2 males posibles el menos malo y el que te deje mas vivo. Son demasiados factores...
@Tha Sniper desconozco porqué todos los que hemos programado alguna vez coincidimos en esto. Opino igual, además de esas variables tenemos a los intrusos. Que mediante el gps del coche algo podrían hacer, por ejemplo capar la señal y dar datos falsos.
Chic@s que es un coche con piloto automático, no un coche autónomo, no nos confundamos. Las recomendaciones de llevar siempre las manos en el volante es porque si tu actúas el automático se desconecta. Seamos congruentes con la información. No conocemos lo que ocurrió exactamente, el error pudo ser del propio conductor, todos los años muere gente en las carreteras pero como los conductores son los únicos responsables pues no podemos buscar otros culpables. No solo eso, también desechamos la tecnología. Ahora que podemos culpar a la máquina o al que "inventó o fabricó" la máquina pues lo hacemos y de paso rechazamos al "invento". No se me ocurriría culpar al que creó o fabricó la máquina para compactar metales solo porque alguien cayera dentro de ella y se matase. Habría primero que esclarecer como sucedieron los echos, hay muchísimas posibilidades y no creo que debiéramos adelantarnos. Si no hubiéramos avanzado en la aeronáutica por que uno de los primeros que lo intentaron se mató, hoy no tendríamos aviones. Estamos hablando de máquinas voladoras automáticas en las que confiamos!

En fin, es solo una reflexión en voz alta. Espero no tener que volver a comentar por una noticia tan triste.

Un saludo.
178 respuestas
1, 2, 3, 4