viernes, diciembre 14, 2018
info@rysspty.com
Noticias

Los vehículos totalmente autónomos deben aprender a leer las intenciones de los peatones

Views
RYSSPTY

Hay tantas variables a tener en cuenta cuando se trata de peatones. Los conductores humanos saben esto muy bien.

Somos muy expertos en reconocer si una persona tiene la intención de cruzar la calle o simplemente estar de pie junto al paso de peatones sin ninguna razón, sabemos lo que significa cuando un ciclista se pone en movimiento, y podemos medir el ritmo de un corredor a medida que se aproximan a una intersección, anticipan si planean continuar su carrera o si realmente disminuirán la velocidad.

Ahora, a menos que el nombre de su computadora sea Ultron o Skynet, es probable que no tome en cuenta este tipo de variables, al menos no con la intuición que muestran los humanos y, ciertamente, no con la tecnología 2018.

“No se puede parar por cada ser humano que se encuentra al lado de la carretera”, declaró el jefe de I + D de Volvo, Henrik Green. “Pero también necesita detenerse en el punto correcto cuando el peatón está a punto de salir a la calle”.

Durante el Salón del Automóvil de Los Ángeles de este año , Volvo y Luminar demostraron cuán avanzada está su tecnología LiDAR, ya que incluso puede detectar poses humanas, incluidas extremidades individuales, a distancias de hasta 250 metros.

Incluso si los sensores se vuelven extremadamente buenos para detectar el movimiento, eso solo puede no ser suficiente para dar una predicción precisa de lo que podría suceder. Por ejemplo, si se detectó un corredor durante tres segundos corriendo hacia una intersección, la mejor predicción para la intención futura podría no ser esa trayectoria exacta, sino su cara y si estaban mirando el vehículo o no. Otro buen ejemplo sería si se detectara a un peatón mirando hacia abajo en su teléfono inteligente: tal cosa constituiría una mayor probabilidad de comportamiento arriesgado, informa Automotive News.

“Lo importante es entender este tipo de características en lugar de solo mirar el movimiento”, declaró Leslie Nooteboom, cofundadora y directora de diseño de Humanising Autonomy en el Reino Unido.

Además de los ingenieros de software, Humanising Autonomy también emplea un equipo de psicólogos del comportamiento que cambian las imágenes de la cámara y ayudan a entrenar a los sistemas sobre cómo se comportan las personas cuando se trata de interactuar con el tráfico.

“Tienes que tener modelos de comportamiento general que sean muy detallados, y luego el siguiente paso es hacerlos más localizados”, agregó Nooteboom. “Tenemos una base de comportamientos generales para una ciudad en particular, y luego puede vincularse a ubicaciones específicas e identificar cómo se comportarán las personas en una intersección con un semáforo oculto o un cruce que se detiene en medio de la carretera”.

En pocas palabras, los sistemas de auto manejo no pueden permitirse predecir el comportamiento humano de manera incorrecta. Como dice Pete Rander, presidente de Argo AI: “Si no predices bien, tienes dos opciones y ninguna de ellas es lo suficientemente buena. O dejas de jugar a lo seguro y creas una burbuja mucho más cautelosa a tu alrededor. O estás pisando los frenos “.

RYSSPTY
Raúl Reyes
the authorRaúl Reyes
Periodista
Panameño de corazón, Periodista de profesión, Bloguero por elección, Emprendedor por decisión, Lector por afición, Diseñador Gráfico y Web, Fotografía, Social Media, Car Lover... Sígueme en mis redes sociales.

Deja un comentario