INTELLIGENCE ARTIFICIELLE : QUI EST RESPONSABLE ?

Pour faire supprimer un contenu qui bafoue vos droits, utilisez le service mis en place par le cabinet Murielle-Isabelle CAHEN.

/ Avril 2022 /

Woody Allen l’a dit : « L’intelligence artificielle se définit comme le contraire de la bêtise humaine ». Cette phrase, à moitié pleine d’ironie, cache en réalité un constat indéniable : celui d’une avancée exponentielle en la matière.

L’un des derniers exploits en date : l’intelligence artificielle créée par la société Deepmind (appartenant à Google), AlphaGo, ayant été capable de battre le multiple champion du monde de Go Lee Sedol en 2016, jeu de plateau pourtant réputé « impraticable » par une machine du fait des innombrables combinaisons possibles.

Si la technologie que constitue l’intelligence artificielle a toujours fait partie de la culture populaire (on a tous en tête l’image du robot HAL imaginé par Kubrick dans 2001), il est difficile néanmoins de dissocier la prouesse technique des risques qui s’en suivent.

Ainsi, si le débat autour de l’intelligence artificielle et plus précisément de la détermination du responsable (sur le plan civil comme pénal) dans le cadre d’un dommage causé par l’intelligence artificielle, ne fait pas encore consensus (I), il s’avère pourtant essentiel de trouver une solution à des litiges de plus en plus fréquents (II).

 


Besoin de l'aide d'un avocat pour un problème juridique  ?

Téléphonez-nous au : 01 43 37 75 63

ou contactez-nous en cliquant sur le lien


I) Les enjeux du débat sur la responsabilité

Il convient tout d’abord d’envisager une définition précise de l’intelligence artificielle, et de ses différentes déclinaisons (A), pour ensuite se pencher sur la façon la plus pragmatique de définir le responsable en cas de litige (B).

A) L’intelligence artificielle : qu’est ce que c’est ?

Naturellement il convient avant toute chose de définir, ou du moins de tenter d’apporter des éléments éclairants, quant à la définition de l’intelligence artificielle.

Le terme générique caractérise en effet « l’ensemble de théories et de techniques mises en œuvre en vue de réaliser des machines capables de simuler l’intelligence » (1).

L’expression que l’on doit à John McCarthy, pionnier de l’intelligence artificielle, a également été définie par son compère Marvin Lee Minsky comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains, car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Cette définition résonne tout particulièrement, en ce que la notion de temporalité y est parfaitement encadrée. « Pour l’instant » : le mot est lâché, et il sonne toujours plus vrai aujourd’hui puisque le progrès scientifique en la matière n’a jamais été aussi rapide et d’actualité.

Aujourd’hui, l’intelligence artificielle est en développement dans presque tous les secteurs, du système bancaire à la médecine et la justice prédictive, en passant évidemment par le monde du divertissement et de la robotique.

En ce qui concerne la justice prédictive, le projet « DataJust » avait vu le jour en France par un décret du 27 mars 2020. Ce décret avait autorisé la création d’un algorithme pouvant évaluer l’indemnisation des préjudices corporels. L’expérimentation de ce projet a duré deux ans. Cependant, ce projet a été sujet à de nombreux débats et a finalement été annulé en janvier 2022 suite à une décision du ministère de la justice.

Le propre de l’intelligence artificielle, d’ailleurs, est d’emmagasiner de nombreuses connaissances et de constituer une base sur laquelle se fonder pour réaliser les tâches demandées, grâce à ses interactions avec l’environnement et son « expérience ».

« Tay », l’intelligence artificielle de Microsoft, est un « chatbot » qui fut lancée par l’entreprise sur le réseau Twitter et répondant parfaitement à cette définition en ce que sa mission consistait à discuter avec les internautes en s’inspirant du langage, du savoir et du comportement de ces derniers à son égard.

Pour autant, les concepteurs retirèrent du réseau le programme, après que celui-ci ait tenu des propos racistes et diffamatoires à l’encontre de la communauté, qui s’amusait à tester ses limites en faussant son apprentissage.

Ce cas, parmi tant d’autres, illustre les dérives liées à l’intelligence artificielle, et pose donc la question de savoir : qui est responsable ?

 


 

Dans la résolution de vos problèmes, nos avocats sont disposés à vous aider.

Téléphonez nous au : 01 43 37 75 63


ou contactez nous en cliquant sur le lien_


Le Parlement européen a émis une résolution sur « la politique industrielle européenne globale sur l’intelligence artificielle et sur la robotiqu», datant du 12 février 2019. L’idée de reconnaître une personnalité juridique à l’intelligence artificielle a été abandonnée, on se place maintenant plus dans une position d’observation afin de pouvoir dans le futur adapter le droit de la responsabilité civile pour tenir compte de l’intelligence artificielle et de la robotique.

Cette position a été confirmée dans le projet de règlement sur l’intelligence artificielle (IA) de l’Union européenne présenté en avril 2021. En effet, le règlement n’a pas retenu la personnalité juridique de l’IA. (2)

Cependant, ce règlement vient poser les grands principes en matière d’IA. Le projet de règlement vient définir des niveaux d’intelligence artificielle.

Le premier niveau concerne les IA avec un risque inacceptable, celles-ci sont interdites, elles sont définies par exemple comme un système qui pourrait « manipuler les personnes au moyen de techniques subliminales afin de modifier leur comportement qui causerait un préjudice à la personne ou un tiers » est également pointé du doigt, le scoring social.

Le deuxième niveau est l’IA contenant un risque élevé, elles sont autorisées, mais doivent être prévu de nombreuses mesures pour démontrer que l’IA est conforme aux mesures de sécurité qui sont imposées.

Le troisième niveau concerne les IA à faibles risques, un code de conduite devra alors être respecté.

Enfin, les IA à risques minimes ne font quant à eux l’objet d’aucune exigence.

B) Comment déterminer un responsable ?

Par définition, et comme l’affirment certains, « la responsabilité civile du fait d’un individu ou d’une chose est inhérente à l’action humaine […] ce droit est fondé sur la liberté de choix de l’individu. Seul l’individu est responsable de ses décisions conduisant aux actes et aux conséquences malencontreuses induites par la faillibilité humaine » (2).

Dès lors, la responsabilité du fait des choses place aujourd’hui l’objet sous la garde de celui qui en dispose par un pouvoir d’usage, de direction et de contrôle, et responsabilise donc ce dernier lorsque l’objet en question se trouve impliqué dans le fait dommageable.

Le problème d’une telle réflexion, c’est qu’elle s’applique parfaitement à toute sorte d’objets, mais pas vraiment à l’intelligence artificielle sur lequel, par définition, l’homme n’a pas (pleinement, du moins) les pouvoirs précités.

Si l’Homme conserve un pouvoir de décision sur l’objet, alors il en sera tenu pour responsable en cas de dommage. Mais l’intelligence artificielle, amenée à fonctionner de manière autodidacte, conserve donc naturellement cette part d’indétermination et d’imprévisibilité qui met en péril une telle responsabilisation de l’homme.

Ce raisonnement apparaît d’autant plus valable quand on considère qu’aujourd’hui, l’intelligence artificielle est très souvent (si ce n’est toujours) exploitée dans le but d’atteindre des objectifs « non réalisables » par l’Homme, grâce à la puissance de calcul de la machine.

Comme l’affirme très justement Stéphane Larrière : « Dès lors, l’homme laisse la main à l’intelligence artificielle dans l’exercice de ses facultés augmentées par ce complément cognitif : il se réalise alors une sorte de délégation conférée à la machine pour décider et faire à sa place ».

C’est bien cette « délégation », on le comprend, qui se trouve au cœur du débat concernant la détermination du responsable dans le cadre d’un fait dommageable.

Le régime qui semble le plus favorable en vertu d’un tel dilemme semble être celui de la responsabilité sans faute, celle du fait d’autrui, celle « permettant d’imputer les frais du dommage à celui qui était le mieux placé, avant le dommage, pour contracter l’assurance destinée à garantir le risque » (3).

Ceci étant, au vu de la multitude de fonctionnalités offertes pas les différentes intelligences artificielles, et de la multitude de cas possibles, cette détermination n’est pas des plus aisée.

La Commission européenne a rendu un rapport le 19 février 2020 portant sur les conséquences de l’intelligence artificielle, de l’internet des objets et de la robotique sur la sécurité et la responsabilité. Ce rapport vient préciser que «bien que la directive sur la responsabilité du fait des produits donne une définition large de la notion de produit, celle‑ci pourrait être précisée pour mieux traduire la complexité des technologies». La Commission considère donc que la responsabilité du fait des choses ne devrait pas s’appliquer dans le cas de l’intelligence artificielle.

II) Un débat de plus en plus fréquent

Si les accidents liés aux voitures autonomes sont fréquents ces derniers temps (A), ne sont pas à exclure les risques liés aux autres formes d’intelligences artificielles (B).

A) Le cas des voitures autonomes

La détermination d’une telle responsabilité est un débat que l’actualité place régulièrement sur le devant de la scène médiatique, et souvent pour le pire. C’est le secteur de l’automobile qui en fait les frais aujourd’hui.

En effet si les entreprises de transport, et plus généralement les constructeurs, s’empressent de développer leur propre modèle autonome à un rythme effréné, deux accidents auront marqué les esprits ces dernières semaines.

Le premier accident, survenu le 19 mars dernier en Arizona, concerne l’entreprise Uber. Suite à des tests sur la voie publique, l’un de ses modèles autonomes a percuté un piéton, décédé par la suite de ses blessures.

Le système de l’automobile mis en cause, n’ayant pas activé le système de freinage avant l’impact, a contraint la société de suspendre ses activités dans le domaine (4). Pour autant, celle-ci soutient que l’automobiliste est à mettre en cause dans l’affaire.

Le deuxième accident récent concerne cette fois-ci Tesla et son modèle X, au volant de laquelle est décédé un conducteur 4 jours après le drame précédent.

Encore une fois, l’autopilote se trouve au cœur des débats, et si la famille de la victime accuse l’entreprise, celle-ci se dédouane de toute responsabilité en soulignant que la victime « n’avait pas les mains sur le guidon au moment de l’accident », et contre toute indication de la voiture l’invitant à prendre de telles mesures.

Ces affaires mettent en lumière tout l’enjeu de l’autonomie de l’intelligence artificielle face au pouvoir de contrôle du conducteur sur la chose, dans la détermination du responsable du fait dommageable.

Et si ces cas ne sont bien évidemment ni isolés, ni inédits (en 2016, Google comme Tesla accusaient déjà de telles « défaillances » - s’il en est, ayant conduit à des accidents), d’autres litiges pourraient rapidement voir le jour, notamment dans le cas où la voiture devrait « faire le choix », par exemple, de sauver un piéton ou son conducteur au moment d’un crash.

Dans une résolution du 12 février 2019, le Parlement européen aborde la problématique des voitures autonomes et il écrit que « la prévalence de véhicules autonomes présentera des risques [...] de défaillances techniques et va transférer à l’avenir la responsabilité du conducteur vers le fabricant, imposant aux compagnies d’assurances de modifier la manière dont elles intègrent le risque dans leur souscription.

Une ordonnance du 14 avril 2021 prévoit un nouveau régime de responsabilité pénale applicable pour les véhicules à délégation de conduite (6). Le gouvernement a publié un décret le 29 juin 2021 faisant suite à l’ordonnance. (7)

Concernant la responsabilité pénale du conducteur, l’article 123-1 du Code de la route énonce qu’elle ne sera pas retenue dans le cas où l’infraction commise serait le résultat d’une manœuvre d’un véhicule dont les fonctions sont totalement déléguées à un système automatisé, si, au moment des faits ce système exerçait le contrôle dynamique du véhicule.

Cependant, l’article 123-2 du même code prévoit que la responsabilité pénale du constructeur sera quant à elle retenue. En effet, ce dernier est responsable des atteintes involontaires à la vie et à l’intégrité des personnes. Pour que sa responsabilité soit retenue, il faudra qu’il soit établi une faute au moment où l’IA exerçait le contrôle dynamique du véhicule. S’il y a un défaut de conception, le constructeur sera responsable.

B) D’autres risques potentiels à envisager

Le cas des voitures autonome est particulièrement illustrant, mais il existe également d’autres cas de figure tout aussi problématiques.

Nous avons déjà cité l’exemple de « Tay », qui laisse penser que l’on pourrait voir un jour survenir un litige portant sur des propos dénigrants, voir du harcèlement initié par de telles intelligences artificielles.

On pense également aux assistants personnels intelligents comme Siri, Alexa, ou encore Google Home, ces « agents logiciel qui peuvent effectuer des tâches ou des services pour un individu » (5).

Si ces technologies sont régulièrement sollicitées par leur propriétaire pour effectuer des actions simples (lancer une playlist, envoyer un message ou encore passer un appel), elles peuvent également être utilisées pour effectuer des recherches complexes, dont le degré d’importance de la réponse peut varier, et donc entraîner des conséquences plus ou moins graves en cas d’erreur.

En décembre 2021, l’assistant vocal Alexa d’Amazon a dû être mis à jour d’urgence par la plateforme. En effet, celui-ci avait proposé à un enfant un défi dangereux. L’enfant avait demandé à l’assistant vocal de lui proposer des « défis à relever », la réponse à l’enfant a été la suivante : «  Branchez à moitié un chargeur de téléphone dans une prise murale, puis touchez les broches avec une pièce de monnaie​. »

Cela amène à se poser des questions sur la responsabilité des assistants personnels intelligents.

Il est facile d’imaginer que, rapidement, ces agents intelligents pourront être utilisés dans des domaines qui laissent peu de place à l’erreur, comme le médical par exemple. Quid de la détermination du responsable, dans le cas où la machine apporterait un résultat erroné à un calcul qui, de toute façon, n’était pas réalisable par l’Homme, car trop complexe ?

On en revient à cette idée de délégation soulevée plus haut. Reste à savoir quels critères prédomineront en la matière, à mesure des avancées technologies, mais aussi, malheureusement, à mesure de la variété des accidents…

Pour lire l'article sur l'intelligence artificielle, dans une version plus adaptée au mobiole cliquez

ARTICLES QUI POURRAIENT VOUS INTERESSER :

SOURCES :

(1)    http://www.larousse.fr/encyclopedie/divers/intelligence_artificielle/187257
(2)    https://eur-lex.europa.eu/legal-content/FR/ALL/?uri=CELEX:52021PC0206
(3) http://laloidesparties.fr/responsabilite-ia
(4) G. Viney, Introduction à la responsabilité, Traité de droit civil, LGDJ 2008, p.40
(5) https://www.numerama.com/business/336940-uber-suspend-ses-activites-dans-la-voiture-autonome-apres-un-mort.html
(6) https://www.legifrance.gouv.fr/jorf/id/JORFTEXT000043370894
(7)https://www.legifrance.gouv.fr/codes/section_lc/LEGITEXT000006074228/LEGISCTA000043371833/#LEGISCTA000043371833
(8) https://fr.wikipedia.org/wiki/Assistant_personnel_intelligent
Résolution du Parlement européen du 12 février 2019 sur une politique industrielle européenne globale sur l’intelligence artificielle et la robotique
https://www.europarl.europa.eu/doceo/document/TA-8-2019-0081_FR.html
Livre blanc sur l’intelligence artificielle du 19 février 2020
https://ec.europa.eu/info/sites/default/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf

retour à la rubrique 'Autres articles'

Cet article a été rédigé pour offrir des informations utiles, des conseils juridiques pour une utilisation personnelle, ou professionnelle.

Il est mis à jour régulièrement, dans la mesure du possible, les lois évoluant régulièrement. Le cabinet ne peut donc être responsable de toute péremption ou de toute erreur juridique dans les articles du site.

Mais chaque cas est unique. Si vous avez une question précise à poser au cabinet d’avocats, dont vous ne trouvez pas la réponse sur le site, vous pouvez nous téléphoner au 01 43 37 75 63.

| Conditions d'utilisation du site: IDDN | | Contacts | Plan d'accès | English version |
| C G V | Sommaire | Plan | recherche | Internet | Vie des sociétés | Vie quotidienne | Services en ligne | Votre question? |
Nous joindre - Tel : 0143377563
En poursuivant votre navigation sur notre site, vous acceptez le dépôt de cookies qui nous permettront de vous proposer des contenus intéressants, des fonctions de partage vers les réseaux sociaux et d'effectuer des statistiques. Voir notre politique de gestion données personnelles.
Partager
Suivre: Facebook Avocat Paris Linkedin Avocat Paris Tumblr Avocat Paris Twitter Avocat Paris Google+ Avocat Paris App.net portage salarial RSS Valide!
Retour en haut