Lo Último en IP@P
- Goblin Mine: La Estrategia Económica Detrás del Juego de Minería que está Fascinando a Todos
- Estos son los nuevos Cargadores UGREEN: potencia y portabilidad en dos versiones que no te puedes perder
- UGREEN Nexode Pro: El Cargador Ultradelgado que revoluciona la carga de dispositivos móviles
- La computación en la nube está transformando los juegos Online y estas son sus grandes ventajas
- Actualizaciones del Programa de Afiliados de TEMU: ¡Hasta MX$500,000 al mes!
Recientemente fue lanzado para los clientes de Tesla, en Canadá y los Estados Unidos, la versión más reciente del "Full Self Driving", el cual forma parte del sistema de conducción autónoma del fabricante de autos eléctricos. Es una de las noticias que esperaban los conductores, sin embargo, las pruebas de seguridad indican que se debe activar con mucha precaución.
De acuerdo con un artículo publicado en dawnproject.com, en una prueba realizada en un estacionamiento, se notaron inconsistencias en el funcionamiento de la versión beta del software, lo que podría en algún momento poner en riesgo la vida de los peatones y de otras personas que estén cerca de los espacios donde el coche va a detenerse.
Nueva investigación revela la incompetencia del sistema de conducción autónoma de los Tesla
Las investigaciones realizadas demuestran que el software de Tesla no cuenta con la capacidad de reconocer en reiteradas oportunidades las señales de tránsito, como por ejemplo la de girar, desviarse al estar una carretera cerrada, disminuir los límites de velocidad si se observa una zona escolar o si hay niños presentes. Por ello los críticos y especialistas han desatado sus críticas a través de las redes sociales.
Wide release of @Tesla Full Self-Driving Beta shows a callous disregard for human life. @ElonMusk is offering this defective software to "anyone in North America", even though its top supporter, @WholeMarsBlog, admits that it will "try to kill you": https://t.co/j6A5DSZSwx pic.twitter.com/4gKfgEJXcM
— Dan O'Dowd (@RealDanODowd) November 28, 2022
Uno de los aspectos que más preocupa es que durante una prueba realizada en California, en octubre de este año, se colocaron algunos objetos en la vía para medir la reacción que tenía el software de conducción autónoma de Tesla. En ambos casos se notó que se llevó por delante a una carriola y en otra a un maniquí infantil. Es decir, no tuvo la inteligencia para reconocer que debía disminuir la velocidad o cambiar de rumbo.
Según los expertos que supervisaban la prueba, en todos los casos la pantalla mostraba que la conducción autónoma estaba en funcionamiento, aunque en realidad no desarrolló las habilidades esperadas. En las conclusiones del estudio, expresan que estas acciones se convierten en un peligro para los niños que caminan por las vías públicas.
La investigación fue realizada con personal independiente y no bajo la supervisión de los entes reguladores. En reiteradas ocasiones Tesla ha indicado que el sistema de conducción automática no reemplaza a los conductores humanos y que lo más recomendable es tener las manos cerca del volante para controlar de inmediato cualquier situación imprevista. Eso ha generado una gran controversia, en especial en los amantes de las actividades riesgosas.
Estos son algunos de los desastres viales provocados por Tesla en 2022
Últimas Noticias de Internet
- Estos son los riesgos de escoger un mal hosting para tu Ecommerce o Tienda Online
- Free Planet VPN: Tu clave para una navegación segura, gratuita y privada
- Este truco del Code Interpreter de ChatGPT con el NASDAQ está haciendo ganar miles de euros a los traders
- ¡No lo dejes pasar! Amazon está casi regalando el robot aspirador Lefant M210 por un precio increíble
- La próxima vez que pidas comida por Uber Eats recibirás recomendaciones de clientes de su IA
SÍGUENOS EN 👉 YOUTUBE TV
Los datos publicados hasta junio de 2022, demostraron que en un 70% de los accidentes causados por los sistemas de conducción automática, están involucrados los autos de Tesla, lo que representa un total de 293 vehículos, con lo que superan a Honda y a Subaru. Uno de los sucesos que acaparó mayor atención fue el ocurrido en China a principios de noviembre, en el que un conductor se disponía a estacionar y de pronto el auto se salió de control a toda velocidad por varias calles.
16 accidentes mortales cuando los Teslas conducen solos
Cada vez hay más accidentes graves de los Teslas con capacidad de conducción autónoma total.
Pero, ¿es la culpa de los Tesla?
No del todo, porque el autopiloto también exige en teoría la atención continua del conductor/cc pic.twitter.com/rvPBoj4DH7— DW Español (@dw_espanol) August 5, 2022
Las imágenes se viralizaron por las redes sociales. Allí se observa a un Tesla Model Y acelerar a toda velocidad y en su recorrido choca con un par de vehículos, además de un ciclista y un peatón. Los familiares del conductor dicen que el hombre tuvo problemas con el pedal de freno mientras que la compañía aseguró que en ninguna parte del vídeo se observan las luces de frenado del coche encendidas, pero que esperarán que la policía de las conclusiones del caso.
A finales de julio, se dio un caso en Utah cuando un coche con el piloto automático encendido chocó por detrás con una motocicleta, ocasionando la muerte del conductor de acuerdo con el informe de la policía local. El hecho ocurrió una semana después que los tribunales de Florida declararan culpable a la compañía del fallecimiento de un joven de 19 años en una colisión de autos. Los hechos se dieron toda vez que un Model S se estrelló contra un muro.
Otra colisión en la que estuvo involucrada una moto ocurrió el 7 de julio, en una carretera de California. La unidad fue golpeada por detrás y el conductor falleció al instante. Por ello, las autoridades le han puesto mucho énfasis al funcionamiento del piloto automático y en la forma cómo se utilizó el frenado de emergencia. De acuerdo con el director ejecutivo del Centro para la Seguridad Automotriz Michael Brooks, es probable que el principal problema esté en que solo se utilizan cámaras, ya que los radares fueron eliminados.
Después de mayo de 2021, Tesla decidió que ampliaría el uso de la inteligencia artificial por intermedio de las cámaras para detectar posibles obstáculos en las carreteras. Voces calificadas advierten que es probable que por la deficiencia de luz los dispositivos no sean capaces de procesar las imágenes rápidamente, lo que lleva a que los accidentes se incrementen y tengan consecuencias fatales.
Todas estas deficiencias incrementan los problemas con los que tiene que luchar Elon Musk. Los desastres se producen con mucha frecuencia y al parecer no hay una solución a la vista. En algunos videos en YouTube, los conductores aseguran que deben repetir una y otra vez las acciones antes que el sistema acate la orden. A diario las denuncias aumentan, lo que lleva a que los coches sean recogidos para corregir los desperfectos antes de enviarlos de nuevo a las carreteras.