Muere una mujer en EEUU atropellada por un vehículo autónomo de Uber

Nedaim

#114 Tambien es absurdo pensar que un coche que habra tenido tests en un entorno seguro y ha rodado en muchas otras pruebas en situaciones reales, como se lee en las noticias, no ha sido capaz ni de reducir lo suficiente la velocidad como para no atropellar mortalmente a una persona que no ha cometido una imprudencia descomunal.

B

Esta tecnología está en pañales como comentaba Arthoid(?) páginas atrás. Que haya tan pocos accidentes lo único que nos dice es que en unas décadas no va a haber conductores humanos, y si los hay serán pagando un seguro sustancialmente mayor que el de los dueños de coches autónomos.

Lo más interesante de la conducción autónoma es la parte ética: ¿en una situación donde muere el dueño de coche vs un peatón inocente qué vida debe priorizar la IA? ¿y si hay una familia en el coche?

1 respuesta
Krules

#122 el tema ético es jodido.

Me suena que había una página con casos como los que comentas, te ponían un coche y distintas situaciones para elegir A o B.

A ver si alguien sabe a cual me refiero y la pone por aquí.

1 respuesta
FR1D

#24 te estas columpiando tu poniendo ejemplos atu interes y encima.no fue este el caso del accidente mi bro.

cabron

#123

http://moralmachine.mit.edu/

1
Ulmo
#120Javimorga:

también es cierto que los conductores de emergencia tienen que intervenir alrededor de 1 vez cada 5000km (intervenciones no necesariamente relacionadas con la seguridad). Sin esos conductores el número de accidentes tal vez sería mayor.

Fuente de esto último: https://www.dmv.ca.gov/portal/dmv/detail/vr/autonomous/disengagement_report_2017

Así por lo pronto sacado de tu fuente, el Nissan:

En 8.000 kilómetros: 17 veces el conductor tubo que intervenir incluyendo 9 veces que el software peta, invasiones de carriles bici, no detenerse en intersecciones con el semáforo en rojo o acelerar teniendo un vehículo delante.

Ese 1 vez cada 5.000 Km no se de donde te lo sacas realmente.

#120Javimorga:

Por otro lado, parece ser que el coche autónomo no tenía la culpa después de todo. Podéis volver a guardaros la bilis:

¿Y que importa de quien sea la culpa? ¿Acaso alguien que incumple una norma como usar el paso de cebra merece morir atropellado? Aquí la cuestión es si los vehículos autónomos son más o menos seguros que un conductor humano, no en cuantas muertes la culpa es del muerto o del coche autónomo.

3 respuestas
cabron

#126

El tema está en que muchos estáis usando este caso concreto para abrir un debate general sobre esta tecnología, cuando ya se ha dicho que en este caso concreto si el coche hubiese estado manejado por una persona tampoco hubiese podido evitar el atropello.

1 respuesta
atom
#108cabron:

El informe preliminar de la policía indica que fue culpa de la mujer y no del coche

Lo que dice el informe es que el vehículo circulaba a mayor velocidad de la permitida y que ni tan siquiera intentó frenar:
the preliminary investigation found the Uber car was driving at 38 mph in a 35 mph zone and did not attempt to brake.

Quizás circulando a la velocidad permitida y con una mínima reacción del vehículo se podría haber evitado el accidente y salvado la vida de una persona. El que alguien pueda cometer una infracción no justifica que no se haga nada para evitar un accidente mortal.

#116Carcinoma:

Al menos cabe pensar que los accidentes por exceso de velocidad

the preliminary investigation found the Uber car was driving at 38 mph in a 35 mph zone and did not attempt to brake.

2 respuestas
B

Esto es lo mismo que con los aviones, se cae uno y la gente se lleva las manos a la cabeza. Cuando cada día vuelan miles.

A base de pruebas se irá perfeccionando el sistema y que aprenda. No se puede pretender que se lance un sistema tan sofisticado sin siquiera llevarlo a testeo.

1 respuesta
DoRiTo

El tema es el de siempre, para que sean una mejora no tienen que ser totalmente perfectos, sólo mejores que el conductor medio.
Y ya habeis visto conducir al conductor medio.

Ya vereis con los robots médicos, eso si que va a traer cola.

atom
#129yukikaze:

A base de pruebas se irá perfeccionando el sistema y que aprenda. No se puede pretender que se lance un sistema tan sofisticado sin siquiera llevarlo a testeo.

Lo que no se puede hacer es experimentar en la vía pública y con la población, matando gente porque a las empresas les resulte más barato.

1
Javimorga

#126 Si lees el artículo verás como el jefe de policía dice que la de la bici salió de las sombras invadiendo rápidamente el carril del vehículo y que en ninguna situación se hubiera podido evitar el atropello. Que un coche sea autónomo no significa que pueda saltarse las leyes de la física.

2 respuestas
Ulmo
#127cabron:

El tema está en que muchos estáis usando este caso concreto para abrir un debate general sobre esta tecnología, cuando ya se ha dicho que en este caso concreto si el coche hubiese estado manejado por una persona tampoco hubiese podido evitar el atropello.

Es que el debate debe existir y la tecnología debe estar bajo sospecha y ser concienzudamente supervisada. Entre otras cosas porque ni sabemos ni sabremos como funciona dicha tecnología (sus patrones de decisión me refiero), por lo que únicamente nos podemos basar en las observaciones para determinar como de segura es.

Existe unas prisas por el ahorro de costes que puede incorporar estos sistemas cuando realmente el único motivo para implantarlos debería ser el de la seguridad.

#132Javimorga:

en ninguna situación se hubiera podido evitar el atropello.

Y dale que erre, que eso importa un bledo, que una persona al volante también hace frente a imprevistos insalvables. La cuestión es si en promedio estos coches tienen más accidentes que uno conducido por personas, y eso es fácilmente medible con el suficiente número de observaciones. Independientemente del análisis que quieras hacer de casos particulares.

De los datos que pasaste ya solo con los fallos de software su tasa de irse a la mierda es bastante superior a la de cualquier humano.

1 2 respuestas
Javimorga
#126Ulmo:

Ese 1 vez cada 5.000 Km no se de donde te lo sacas realmente.

Lo sacaba de Waymo, que son los que más avanzados están en esta tecnología y los que más coches tienen con diferencia (y muchos de cuyos exempleados trabajan ahora en uber).

B

Ha muerto una mujer frente a un coche automatizado y nos llevamos las manos a la cabeza. Y luego cada fin de semana, dejamos que conductores ebrios conduzcan sin hacer el atisbo de quitarle las llaves.

Se ha producido un accidente que en situaciones normales podría no haberse efectuado. Lo que hay que ver en una situación normal de un conductor humano podría haberlo evitado o no. En el caso del ciclista se lanzó a la vía sin tiempo a reaccionar tanto ni humano ni máquina pues un vehículo requiere un tiempo de respuesta para poder frenar.

Si la gente y conductores no hiciera el cabra por la calle, no harían falta conductores autónomos.

Javimorga
#133Ulmo:

Y dale que erre, que eso importa un bledo, que una persona al volante también hace frente a imprevistos insalvables. La cuestión es si en promedio estos coches tienen más accidentes que uno conducido por personas, y eso es fácilmente medible con el suficiente número de observaciones. Independientemente del análisis que quieras hacer de casos particulares.

Pero si es que eso está más que estudiado y demostrado que los autónomos con más seguros: https://www.vtti.vt.edu/featured/?p=422

When compared to national crash rate estimates that control for unreported crashes (4.2 per million miles), the crash rates for the Self-Driving Car operating in autonomous mode when adjusted for crash severity (3.2 per million miles; Level 1 and Level 2 crashes) are lower. These findings reverse an initial assumption that the national crash rate (1.9 per million miles) would be lower than the Self-Driving Car crash rate in autonomous mode (8.7 per million miles) as they do not control for severity of crash or reporting requirements. Additionally, the observed crash rates in the SHRP 2 NDS, at all levels of severity, were higher than the Self-Driving Car rates. Estimated crash rates from SHRP 2 (age-adjusted) and Self-Driving Car are displayed in Figure 1.

atom
#132Javimorga:

en ninguna situación se hubiera podido evitar el atropello

No, el informe dice que:

it would have been difficult to avoid this collision

Por lo que quizás se podrían haber evitado/minimizado los daños si el vehículo hubiese reaccionado.

cabron

#133

Yo no digo que no exista el debate, pero no se puede usar este ejemplo para abrirlo.

#128

Ya veo que copias y pegas solo lo que te interesa, ¿de esto no dices nada?

“It’s very clear it would have been difficult to avoid this collision in any kind of mode [autonomous or human-driven] based on how she came from the shadows right into the roadway,”

1 respuesta
M

Siempre digo que la tecnología es buena pero hasta cierto punto. A veces queremos ir más allá sin antes estar preparados.

Más allá de que la mujer haya cruzado o no donde no debería, el auto debería haber frenado. Ahora fue una vida humana ¿Y si fuera un animal? ¿Estará preparado?

El auto sólo debería estar en circulación, después de estar seguros que puede actuar con antelación ante las circunstancias menos pensadas. Al menos las más básicas y que suceden a menudo.

1 respuesta
Carcinoma

#128 Generalmente, los accidentes por exceso de velocidad no suelen referirse a infracciones de 6km/h, sino a algo más considerable.

De todas formas, ya ves que en el informe se especifica lo poco probable que hubiera sido que un conductor humano pudiera haber salvado la situación.

B
#139Marianostud:

El auto sólo debería estar en circulación, después de estar seguros que puede actuar con antelación ante las circunstancias menos pensadas. Al menos las más básicas y que suceden a menudo.

Pero es que para estas ya está preparada para circular. Son las que son por imprevistos las que no puede estarlo, no por software sino porque la propia física del vehículo te lo impide. Frenar de 50km/h a 0 en menos de 1 segundo. Podríamos hacer que los vehículos fueran a menos velocidad pero eso no serviría de nada

1 1 respuesta
Dante88

Es una barbaridad que se les este regalando a empresas que estan podridas de dinero la via publica para que hagan sus experimentos con una tecnologia que esta en pañales.

Esto porque esta tecnologia sera mas segura que los humanos conduciendo. Eso lo veremos, de momento no es asi.

Y claro tenemos a un piloto que se pasa 8 horas no haciendo nada, pero de repente tiene que preveer que el coche no va a frenar a tiempo y evitar el accidente en el ultimo segundo. Vaya pantomima.

1 respuesta
atom
#138cabron:

Ya veo que copias y pegas solo lo que te interesa, ¿de esto no dices nada?

“It’s very clear it would have been difficult to avoid this collision in any kind of mode [autonomous or human-driven]

También lo podemos comentar. Ahí dice que hubiese sido difícil evitar el accidente en cualquier modo de conducción, tanto para un humano como para la máquina. Pero en ningún caso dice que no se podría haber evitado.

#138cabron:

based on how she came from the shadows right into the roadway,”

El hecho de que saliese de una zona en sombras puede, o no, justificar que el conductor humano no reaccionase a tiempo. En todo caso es responsabilidad del conductor ajustar la velocidad del vehículo a las condiciones de la vía por la que circula, independientemente de la velocidad máxima permitida, que además según el informe excedía.

Para la máquina no hay NINGUNA justificación para aceptar que atropelle a una persona que sale de una zona en sombra, al LIDAR o los sensores de ultrasonidos les da igual si es de día o de noche, o si hay mucha o poca luz. Los sensores, si funcionaron correctamente, deberían o debieron ver venir a la bicicleta, tanto en condiciones de poca o ninguna luz.

1 respuesta
Kimura

Me resulta curioso como por algún proceso cognitivo que no alcanzo a entender, se le pide infalibilidad a la máquina, pero no se le pide lo mismo al humano.

Sigo pensando que me sentiría mas seguro rodeado de 100 ubers, que no de 10 coches conducidos por primates.

B

Y si fue la persona la que atropello el auto

2
cabron

#143

Oye pues vas y les dices a la policía de Arizona, que son los que han comunicado que el coche no ha tenido culpa en el accidente, que están equivocados y que usen tú criterio y no el suyo (a pesar de que ellos tienen acceso a todos los datos del accidente, incluyendo el vídeo que graba el coche, y tú no tienes acceso a nada)

M
#141yukikaze:

Frenar de 50km/h a 0 en menos de 1 segundo. Podríamos hacer que los vehículos fueran a menos velocidad pero eso no serviría de nada

Si es como lo dices, en parte discrepo en lo que he comentado (cabe destacar que no he visto el video, sí lo sé, no debería haber comentado tampoco si no lo vi), para un humano también sería imposible ya que coincido con lo que dices, salvo que podría hacer una maniobra arriesgandose a que sea aún peor; todo depende del tráfico de automóviles que haya en el lugar.

Muy difícil hacer algo por escapar de la situación.

B

Las maquinas están para proteger al ser humano de sus estupideces. Pero ellas están hechas por los propios humanos.

1
Shooket

#30 Pues no, el coche autónomo está testado y preparado para reaccionar mucho antes que el humano. Pero muchísimo antes. Tú mismo puedes encontrar en YouTube vídeos de Teslas "prediciendo" accidentes antes de que ocurran, y no es predicción mágica, es cálculo matemático.

Probablemente en lo que tú tardes en parpadear y saber que está pasando el coche ya ha calculado y reaccionado a tiempo.

Dicho esto, ¿Puede ser que el coche se haya "bugeado" y no haya visto a la mujer? Puede ser, pero la probabilidad viendo la de kms que llevan estos coches encima sin ningún tipo de accidente es bajísima.
¿Puede ser que la mujer se haya despistado por cualquier motivo y se haya metido en la calzada sin que haya tiempo material para frenar un coche de dos toneladas? Bastante más probable.

1
ManKorR

Lo que queda claro de esto es que es culpa de la mujer