Voiture autonome : il va falloir décider qui aura le droit de vivre
Dans certains cas, la voiture autonome devra faire des choix "impossibles". Des enfants plutôt que le conducteur (ou l'inverse), des humains plutôt que des animaux (ou l'inverse), autant de situations qui poseront problème. L'université du MIT a mené une grande étude mondiale pour connaître l'avis du public à ce sujet.
L'enquête s'appelle "Morale Machine", et pour cause : il s'agit de savoir quelles seront les décisions que prendront les véhicules autonomes du futur en cas d'accident. L'image d'illustration de cet article illustre parfaitement le problème : l'auto va percuter un groupe d'enfant qui traversent, et à gauche, une barrière ou un obstacle quelconque. Il y aura quoi qu'il arrive de la casse, mais de quel côté ? Les enfants plutôt que les adultes ? Les plus nombreux avant tout ?
Toutes ces questions ont été posées par le MIT à plusieurs millions de personnes à travers le monde, et force est de constater que les opinions diffèrent selon les cultures et les régions du globe. Plusieurs critères ont été choisis pour cette étude : hommes vs femmes, favoriser le nombre (sauver un groupe plus grand qu'un autre), personnes âgées vs jeunes, piétons sur le trottoir vs piétons en train de traverser.
En Asie, par exemple, on met "nettement" moins en avant la survie des enfants (vis à vis des adultes) en cas d'accident, par rapport à l'Europe ou à l'Amérique du Nord où les enfants sont largement prioritaires.
Plus étonnant encore, toujours en Asie et au Moyen-Orient, l'accent est moins mis sur les inégalités sociales. Ce serait donc moins important si une voiture autonome percutait un médecin ou un cadre (on se demande quand même comment l'auto pourrait analyser cela) plutôt qu'un SDF. En Europe et en Amérique du Nord, le constat de l'étude diffère légèrement, avec une priorité un peu plus marquée pour les personnes ayant un statut plus important. Il y a en revanche "consensus" sur les êtres humains qui devraient être favorisés vis-à-vis des animaux.
Déposer un commentaire
Alerte de modération
Alerte de modération