Imaginer le droit et les affaires de demain. C’est ce que tentent d’anticiper la Cour administrative d’appel (CAA) de Lyon et l’Université Catholique de Lyon (Ucly) à travers des procès fictifs. Avec en appui technique les élèves ingénieurs de l’INSA Lyon. Trois fausses audiences se sont tenues en juin dernier à la CAA de Lyon, assurées par des étudiants en droit dans les rôles des avocats et des magistrats.
Voici le troisième volet, il concerne la voiture autonome et avait déjà fait l’objet d’un procès fictif en 2017.
En juin 2017, la Ville de Lyon avait été condamnée en première instance par le tribunal administratif de Lyon. Il l’avait jugée responsable de l’accident d’une voiture autonome sortie brusquement de la voie de circulation dédiée à ce type d’engin à cause du dysfonctionnement d’une de ses balises de guidage. Elle avait fini encastrée dans un lampadaire de la place Bellecour à Lyon. La ville avait dû payer 60 000 euros à la compagnie d’assurance. Ceci est le scénario prévu autour du procès fictif.
Le conducteur plus jamais responsable d’un accident ?
Ce procès en appel revenait sur cette affaire dans laquelle la responsabilité des machines et de l’intelligence artificielle peut être mise en cause.
Nous sommes en 2029 et cette voiture autonome circule sur une « zone technologique prioritaire ». Cette voie de circulation dans le centre-ville de Lyon est munie de balises disposées tout au long du trajet permettant de guider par signal les voitures autonomes.
Ce jour-là, une défaillance est intervenue conduisant le véhicule a changé brusquement de direction. La passagère n’a pas repris le contrôle à temps pour éviter la collision.
Sa responsabilité a été une nouvelle fois lors de cette audience en appel très vite écartée.
« Elle n’avait pas les mains sur le volant au moment de l’accident. Mais on ne peut pas le retenir pour qualifier une faute de sa part. Sinon on retire toute raison d’être à ces voitures autonomes », a indiqué le rapporteur.
Plus tôt, il avait posé l’enjeu d’une telle affaire :
« Aujourd’hui, la question n’est pas de savoir si le frein à main est manuel mais s’il y a un pilote dans la voiture ».
Alors, qui pilote la voiture ? La conductrice ? Même si elle peut reprendre le contrôle du véhicule, en cas de défaillance, elle ne peut être vraiment inquiétée, installée dans une voiture programmée pour se déplacer et éviter les obstacles toute seule. L’intelligence artificielle de la voiture qui n’a pas bien reçu ou compris le signal ? Ou bien le signal lui-même émis par la balise en bord de route ?
« Vous risquez la ruine de l’État ! »
Derrière ces questions se joue un enjeu de taille : dans ce type d’affaires à venir, pourra-t-on parvenir à démontrer la responsabilité de l’intelligence artificielle et des constructeurs ? Auquel cas, elle pèsera souvent sur la collectivité (locale ou l’État). C’est ce que pense notamment Marc Clément, magistrat à la CAA de Lyon et ancien ingénieur IA à l’origine de ces procès fictifs :
« Dans des cas comme cet accident fictif place Bellecour, sans blessé ni mort, il n’y aura probablement pas d’expertises poussées. Elles seraient trop coûteuses. Qui est en cause : le logiciel ? Les capteurs de la voiture ? Les bornes sur la route ? La défaillance du véhicule, donc celle du constructeur, sera impossible à démontrer. Cette condamnation encore fictive de la Ville de Lyon montre qu’on peut aller vers une socialisation du risque. Donc une prise en charge globale par la collectivité », nous disait-il en mars 2018.
C’est précisément ce qu’a plaidé l’avocat de la ville de Lyon. La responsabilité de la collectivité avait été retenue en première instance au titre d’un ouvrage défectueux et présentant en lui-même un danger. C’est en effet le dysfonctionnement présumé d’une des balises bordant la voie de circulation réservée aux voitures autonomes qui avait été jugé responsable de l’accident.
« Un dysfonctionnement de balise ne peut pas conduire à lui seul à un accident. La voiture aurait pu réagir si ses propres capteurs n’avaient pas été défaillants. Si vous reconnaissez à nouveau la responsabilité de la ville vous risquez la ruine de l’État ! », a-t-il avancé.
Comment prouver la défaillance de l’intelligence artificielle ?
L’accident est intervenu entre deux entretiens des balises sur la voie. Pour lui, « on ne peut pas prouver que la borne était défectueuse ». Pourtant elle est présumée telle. Un jugement dangereux pour la défense de la Ville pour qui :
« On ne peut pas mettre un mécanicien derrière chaque balise en permanence. L’intelligence artificielle est comme celle humaine, elle est faillible ».
Du côté de la compagnie d’assurance du constructeur, on maintient ses positions expertises à l’appui. Les capteurs du véhicule n’étaient pas défectueux et la conductrice ne pouvait pas matériellement reprendre le contrôle pour éviter la collision.
Cette affaire éclaire un des enjeux à venir : l’indépendance des expertises dans pareils cas. La compagnie d’assurance a apporté des rapports établis par ses propres experts. Comment s’assurer de leur sincérité et de leur exactitude ?
La ville de Lyon condamnée mais moins lourdement
La cour a confirmé la condamnation de la Ville de Lyon. Avec une subtilité juridique près. En première instance elle avait aussi été condamnée car l’ouvrage public incriminé, la balise, présentait selon le tribunal un danger en soi.
En appel, la nature du dispositif n’a pas été reconnue comme dangereuse. En revanche, la cour a retenu un défaut d’entretien normal. La balise en bord de route, même en l’absence de certitude technique absolue, est présumée défaillante.
Si la Ville de Lyon est reconnue responsable, cette différence juridique atténue sa sanction financière. Elle est en effet condamnée à verser 1500 euros à la compagnie d’assurances contre les près de 60 000 euros retenus en première instance.
Chargement des commentaires…