Noticias

Sueños de robot

¿Reflejo humano o artificial? Un Tesla habría tomado una compleja decisión en Rumania

El vehículo chocó deliberadamente a otro auto para proteger a un peatón. Sin embargo, no está claro quién estaba al mando.

18.10.2024 15:08

Lectura: 3'

2024-10-18T15:08:00-03:00
Compartir en

El escritor estadounidense Isaac Asimov actuó en sus obras un breve y magistral código de ética para los robots. Se trata de tres leyes que establecen lo siguiente.

1) : Un robot no hará daño a un ser humano, ni por inacción permitirá que un ser humano sufra daño.

2): Un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entren en conflicto con la primera ley.

3): Un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley.

Días atrás, un incidente de tránsito ocurrido en la localidad rumana de Brasov, puso en un brete al sistema artificial de un automóvil Tesla. En mitad de la calle, el auto chocó deliberadamente a otro vehículo que circulaba en sentido opuesto, con el fin de esquivar a un peatón que acababa de caer en la calzada.

De ese modo, el auto cumplió e incumplió a la vez la Primera Ley de la Robótica: protegió al transeúnte, pero puso en riesgo a sus ocupantes y a los del otro automóvil.

Según consigna la web especializada Autoevolution, el peatón en cuestión era un turista que visitaba la ciudad junto a un grupo de viajeros.

El turista salió ileso, al igual que la conductora del Tesla, una mujer de 39 años. Los testigos ofrecieron ayuda al conductor del otro coche, un Audi, quien sufrió heridas en la cabeza y en un brazo. Luego fue trasladado al hospital. El peatón tuvo un ataque de pánico cuando vio las consecuencias del incidente.

En redes sociales, numerosos internautas comentaron lo ocurrido y analizaron a conducta del sistema autónomo de conducción del vehículo. El debate giró en torno a lo acertado o no de la “reacción” del auto y, más allá de considerarla adecuada o no, se señaló que el coche parecía haber ido más allá de aquello para lo que fue programado. En rigor, el sistema de conducción automática está diseñado para evitar colisionar con peatones y otros autos, pero no para tomar decisiones éticas complejas y elegir chocar en procura de un objetivo superior.

Sin embargo, la discusión podría dejar de tener sentido por un detalle. Los medios locales no informaron si en el momento del accidente el Tesla funcionaba con piloto automático o si su ocupante iba al mando. En ese último caso, todo se explicaría por una veloz y altruista decisión de la conductora.