#90 a ver si te banean esta cuenta tambien y te vas a tomar por culo
El tema delicado que ya se ha mencionado es aclarar el tema legal de quien es el culpable. ¿El dueño del coche?¿El que lo fabricó?¿El que programó el software?¿El que va dentro del coche?¿ Se asume que siempre es culpa del coche autónomo? La IA de nueva generación va a generan muchos debates de este tipo.
De todas formas con la aviación hubo mucha muerte en sus inicios y mucha duda, y hoy en dia nadie se plantea que sean lo suficientemente seguros para usarse masivamente.
#94 en todo caso la empresa operadora y el dueño del vehículo. Por supuesto el q va a ir a desquitarse lo máximo posible es la aseguradora, que es la más interesada en depurar responsabilidades, más incluso que la familia de la fallecida.
#95 si el tema es que como van muy sensorizados se puede saber bastante bien qué pasó y saber si fue fallo humano, mecánico o de IA. Una vez aclarado esto, que ya digo es muy facil con los coches autonomos, el tema es legal, y ver que se pone en la legislación y en los contratos.
#52Nygul:Con la cantidad de cientos de miles de kilómetros que han hecho los coches autónomos( Ya sean de Tesla, Google, etc) con un porcentaje de accidente mínimo comparado con la de vehículos conducidos por personas
Fuente? Porque coches autónomos circulando deben haber poquísimos y desde hace muy pocos años, así que esa estadística no la veo yo tan clara.
En España hay unos 1.000 muertos por año con un parque de 27 millones de vehículos. Eso hace 1 muerto al año por cada 27.000 vehiculos. Entiendo que no circulan tantas horas como los de Uber, ¿pero cuántos tiene Uber en pruebas? ¿100?
Ademas creo que los autónomos solo hacen transporte urbano, qur juraría que tiene una mortalidad inferior.
#96 no sé cómo irá ese tema, pero no veo por ejemplo que la empresa que asegura por ejemplo a la fabricante del Lidar tragar con un supuesto fallo, no sé si me entiendes. Por ejemplo esa empresa puede alegar fallos por mal manteniendo y así hacer girar la pelota.
Esa cascada de responsabilidades no llegará por qué en estos casos (sobre todo tan tecnológicos y mediáticos) se cierran con un acuerdo economico entre las partes. Claro que el que primero paga va a ser el dueño del vehículo y la operadora (su seguro si procede), luegos estos pueden demandar a quien quieran de suministradores de software etc.. que sería un caso aparte.
#98 ya bueno si cada una de las partes podra decir lo que quieran luego ya sino se ponen de acuerdo que decida el juez. Pero que es un debate interesante el de la responsabilidad con las decisiones con IA que hay que abordar y pronto.
#99 si, en eso estoy contigo, pero ya te digo, con el ejemplo del Lidar q ponía antes en plan hardware puede pasar tres cuartas partes de lo mismo con la "IA", no van atomizarla hasta llegar al algoritmo que generó el "error" de juicio y tirarle mierda al dueño o al que tenga la patente sobre el..
Yo lo tengo claro. La operadora q sera Uber se va a comer un buen papelote.
Cualquier IA por mala que sea va a superar a una cantidad de personas inutiles que hay en las carreteras. Hay que joderse la de noticias falseadas que van a utilizar para sacar polémica de este tipo de cosas.
En este tema hay muchos problemas éticos a la hora de llevar esta clase de coches a producción (sobre todo por temas legales) pero yo creo que no puede empeorar la situación de tráfico actual y de accidentes.
#101Saiko9:Cualquier IA por mala que sea va a superar a una cantidad de personas inutiles que hay en las carreteras.
Y vuelve la cabra al monte, ¿tienes cifras sobre eso? La conducción es muy intuitiva y este es un aspecto que les cuesta muchísimo a las IA. No hablamos de tiempos de reacción en donde evidentemente una máquina siempre será mejor, sino en interpretar intenciones y anticipar sucesos.
Ya te puse algunos datos en #97 , que por cierto he mirado y UBER tiene escasamente 200 coches autónomos desde hace 2 años. Echa cuentas y verás que esa afirmación es difícilmente cierta.
Todos aquellos que echan bilis a los coches autónomos, a ver si algún día atropelláis a alguien porque ha sudado completamente de los pasos de cebra y luego venís llorando por la multa millonaria/pena penitenciaria que os han metido.
Cualquier traba que se le ponga al avance de la conducción autónoma será una traba que le pongamos a las ciudades sin atascos, con mucha menos contaminación y con muchos menos accidentes.
También el piloto automático de los aviones empezó siendo un simple apaño en el giroscopio y la brújula, y hoy en día pocos pilotos hay que no lo utilicen para fases enteras del trayecto.
Eliminar al ser humano de la ecuación siempre supondrá mejorar en la fiabilidad de una operación mecánica. No pasa nada por asumirlo; aún nos queda la creatividad, que a eso no nos van a ganar las máquinas en mucho tiempo.
#58 Eres consciente de que la persona que va en el asiento del conductor puede asumir los mandos y controlar el vehiculo en caso de necesidad, no? De hecho, ese es su puto trabajo. Vamos, que si no le dió tiempo a evitar el accidente ni a una persona, igual es mas culpa de la mujer que del coche
#48 Iba una persona detras del volante. Si no reaccionaron a tiempo ni la persona ni el coche es muy posible que la persona que cruzo indebidamente lo hiciese MUY indebidamente.
El informe preliminar de la policía indica que fue culpa de la mujer y no del coche. Después de haber visto los vídeos que graba el propio coche, piensan que una persona conduciendo tampoco hubiese podido evitar el accidente.
fuente: http://fortune.com/2018/03/19/uber-self-driving-car-crash/
#13 Ahora toma otro detalle. ¿Un humano hubiera parado?
Porque yo me he parado muchas veces cuando gente se me ha tirado a la carretera sin pasos de cebra, incluso por jodidas autovías.
#109 Si ni el coche ni el humano pudieron parar a tiempo, lo más probable es que tú tampoco hubieras podido hacerlo.
#111 Primero habría que hacer la reconstrucción del accidente y poner a prueba a un conductor.
#112 Tiempo al tiempo. De momento los primeros informes y la versión del conductor ratifican la teoría de que la señora cruzó por un lugar poco iluminado y a 50 metros de un paso de peatones. Bien por ella.
#105salkO:Vamos, que si no le dió tiempo a evitar el accidente ni a una persona, igual es mas culpa de la mujer que del coche
#106Nedaim:ba una persona detras del volante. Si no reaccionaron a tiempo ni la persona ni el coche es muy posible que la persona que cruzo indebidamente lo hiciese MUY indebidamente.
Seamos serios, esa persona está ahí por si el coche se vuelve loco, no por evitar este tipo de accidentes. Pretender comparar los tiempos de reacción de un conductor normal que está permanentemente interactuando con el entorno con el tiempo de reacción que puede tener un tío que lleva 6 horas mirando al horizonte sin hacer absolutamente nada es absurdo.
#108cabron:piensan que una persona conduciendo tampoco hubiese podido evitar el accidente.
Lamentablemente ningún informe esclarecerá realmente el problema: si estos sistemas causan más o menos muertes. La única forma es dejar que el tamaño de muestra aumente y comparar datos de millones de horas conducidas por estos vehículos con los datos de millones de horas conducidas por los convencionales.
Bueno veamos el vaso medio lleno, la menda pasará a la historia como la primera baja de un coche autónomo. Va a ser famosa.
#114 Al menos cabe pensar que los accidentes por exceso de velocidad o los relacionados con el consumo de drogas se verán reducidos considerablemente. Y no sé qué porcentaje serán del total, pero me imagino que mucho o casi todo.
#116 Lógicamente pero la máquina cometerá otros. Como digo es un tema delicado, hay que tener en cuenta que los diferentes sistemas pueden tener diferentes datos de siniestralidad, no necesariamente el sistema que usa UBER debe adolecer de lo mismo que el sistema de Tesla o Google.
Como digo actualmente la única forma de comprobarlo lamentablemente es dejarlos correr y comprobar si causan más o menos accidentes anuales que su equivalente a vehículos conducidos por personas. Partiendo de la base que ya han superado unas pruebas que presupongo bastante rigurosas.
#70 Pues mira, yo me monto en aviones por trabajo, y me río del piloto automático. Ni te imaginas la cantidad de limitaciones que tiene. Cada vez lo van perfeccionando más, pero poco a poco. Es una herramienta genial para minimizar la carga de trabajo, y ayudar a gestionar situaciones complicadas, siempre y cuando, debido a fallos no se haya desconectado.
Para ponerte el ejemplo clásico, cuando los aviones "aterrizan solos" si hay niebla. Bien, para que se de ese caso, la pista en la que pretendes aterrizar, debe estar habilitada para dichos aterrizajes, los procedimientos de baja visibilidad deben estar en marcha, todas las luces de aproximación de la pista deben de estar operativas, por supuesto, los pilotos deben de estar habilitados para dichos aterrizajes, y los aviones, no tener ningún fallo que afecte a dichas capacidades de aterrizaje.
Pero no solo eso, hay mil cosas que pueden fallar durante un aterrizaje así, y el piloto debe de estar atento siempre para tomar el control del avión, y realizar un aterrizaje frustrado, y creeme, pueden fallar cosas hasta muy, muy abajo.
Y no acaba aquí el tema! El piloto automático tiene unas limitaciones de viento, bastante bajas, dicho sea de paso. En modo manual, y esto depende del tipo de avión, pero en el mío en particular, se puede aterrizar hasta con 38 nudos de viento cruzado. En automático, entre 15 y 10.
La teconología está ahí, está avanzando rapidísimamente, pero simplemente, a día de hoy, es incapaz de operar el día a día de manera autónoma, con los millones de variables que hay, de una manera efectiva y segura.
El humano, y la tecnología combinados, es la combinación perfecta.
#97 Hay muchos más vehículos autónomos de los que la gente piensa. En los estados donde los prueban son algo cotidiano, incluso están empezando a desplegar flotas de taxis autónomos en Arizona. El número de accidentes por kilómetro es mucho menor para los coches autónomos, y los accidentes que ocurren son prácticamente siempre causados por el otro conductor, aunque también es cierto que los conductores de emergencia tienen que intervenir alrededor de 1 vez cada 5000km (intervenciones no necesariamente relacionadas con la seguridad). Sin esos conductores el número de accidentes tal vez sería mayor.
Fuente de esto último: https://www.dmv.ca.gov/portal/dmv/detail/vr/autonomous/disengagement_report_2017
Por otro lado, parece ser que el coche autónomo no tenía la culpa después de todo. Podéis volver a guardaros la bilis: