La primera muerte en el interior de un vehículo autónomo desató una polémica que involucra a las leyes, fabricantes y aseguradoras.
La primera muerte de un ocupante de un vehículo autopilotado, sucedida el pasado 7 de mayo, en Estados Unidos, abrió el debate sobre la conveniencia de la aplicación de la inteligencia artificial en los automóviles.
De hecho, la Administración Nacional para la Seguridad del Tráfico en las Carreteras de ese país (Nhtsa, por sus siglas en inglés), abrió una investigación preliminar con el propósito de determinar el correcto funcionamiento del sistema de conducción autónoma.
La víctima fue Joshua Brown, quien conducía un
Tesla Model S en una carretera de Florida, cuando el auto se metió debajo del remolque de un camión en una intersección. Según el abogado del conductor del camión, Brown estaba viendo una película mientras el auto se desplazaba a exceso de velocidad con el piloto automático encendido.
El hecho causó controversia porque se trató del primer caso en el que una persona fallece en el interior de un vehículo con función de conducción autónoma, lo cual aún no está contemplado en las leyes estadounidenses. Por ello, no está claro quién es responsable por la muerte de Brown y deberá responder ante la justicia.
La investigación podría atribuir el accidente a un daño en el software del vehículo y señalar a Tesla como responsable del siniestro, en una resolución sin precedentes. Un fallo judicial en ese sentido podría retrasar el desarrollo de los autos dotados de inteligencia artificial, pues su aplicabilidad en la automoción del futuro cercano quedaría seriamente cuestionada.
Joshua Brown era un entusiasta de la tecnología y la conducción autónoma. Compartía sus experiencias en su propio canal de YouTube. CARBURANDO
Elon Musk, presidente de Tesla Motors, mediante un comunicado lamentó el incidente en el que falleció Brown, a quien se refirió como un cliente y amigo de la marca.
No obstante, también apuntó que fue la primera muerte en más de 209 millones de kilómetros recorridos con el piloto automático activado, frente al promedio mundial de una muerte por cada 96 millones de kilómetros cuando el vehículo es conducido por un humano.
Musk añadió que, tan pronto supo lo del accidente, Tesla proporcionó toda la información disponible a la Nhtsa, con el fin de apoyar sus investigaciones y determinar las causas del accidente.
Pese a la gran cantidad de cámaras y sensores con los que el
Model S está equipado, ni el vehículo ni el conductor detectaron la parte trasera del camión. En el documento se cita que el remolque era de color blanco y que la luz de ese día era radiante, lo cual pudo confundir al sistema de vigilancia.
Al parecer, los sensores y cámaras aún no son capaces de detectar ciertos riesgos muy específicos.
Como norma general, Tesla desactiva el piloto automático cuando requiere la atención del conductor y recomienda que este siempre tenga ambas manos puestas sobre el volante. En el caso del accidente de Brown, los registros confirman que esto no se cumplió.
El caso despertó la preocupación de las entidades reguladoras del tránsito, de los órganos legislativos y hasta de las empresas aseguradoras de EE.UU. y de otros países donde ya circulan vehículos autopilotados, aunque se encuentren en fase de pruebas. Para muchos, el sueño de la siniestralidad cero de las compañías que desarrollan tecnologías autónomas es aún una utopía.
Fuente: Infobae América