intélligence artificielle et le droit

ensenble des articles et pfe en droit en langue francais marocaon dans les divers filiere de droit marocain

intélligence artificielle et le droit

Introduction :

Rapidement évolué, l’intelligence artificielle est applicable maintenant dans tous les domaines de la vie. A nos jour l’intelligence artificielle traité l’être humain au sein des hôpitaux, conduit les voitures au lieu de l’homme, gère le social media et applicable en domaine de la justice. Cette technologie est le future que nous vivent sont départ maintenant.

Le terme « intelligence artificielle », inventé par deux mathématiciens en 1956 John McCarthy et Marvin Minsky[1], c’est un syntagme terminologique compose de deux mots indissociables : intelligence et artificielle, Dans son sens commun, le dictionnaire de l’Académie française définit l’intelligence comme `un ensemble de facultés intellectuelles. C’est la faculté de comprendre, de concevoir, de connaitre, et notamment, faculté de discerner ou d’établir des rapports entre des faits, des idées ou des formes pour parvenir à la connaissance`. Par extension, c’est l’aptitude à adapter son comportement a une situation nouvelle, adresse qu’on montre dans une situation donnée, habileté dans le choix des moyens qu’on emploie pour parvenir à un certain résultat. A cet effet, l’intelligence serait intrinsèquement humaine. [2]

Ce qui distingue l’intelligence artificielle d’autre technologie c’est son habilité d’être autonome de l’intervention humain, c’est-à-dire qu’il peut agir de son même et prendre des décisions sont l’intervention humain. Le dictionnaire électronique Larousse définit l’autonomie comme le « fait de se gouverner par ses propres lois ». Selon Cristiano Castelfranchi, l’autonomie peut être vue comme la « capacité de quelque chose à évoluer ou à fonctionner indépendamment de quelque chose d’autre ». Bruce Clough donne deux définitions de l’autonomie : « avoir sa volonté propre » et «la capacité de générer ses propres objectifs sans instructions externes »[3].

En matière de la technologie et de la robotique, Hui-Min Huang définie l’autonomie de l’intelligence artificielle d’être la «capacité propre d’un système sans équipage, à capter, percevoir, analyser, communiquer, planifier, prendre des décisions et agir afin d’atteindre les buts qui lui ont été assignés par un opérateur humain à l’aide d’une interface homme/machine dédiée».[4]

Cette autonomie sera le point qui distingue les types de l’intelligence artificielle, et en matière de droit, cette autonomie et la base de connaitre quelle règle sera applique sur les sujets de l’intelligence artificielle, selon certaine échelle qualifiée a l’autonomie.

Historiquement parlent, l’intelligence artificielle revient à l’année 1936, durant laquelle le mathématicien Alan Turing, le fondateur du « test de Turing » affirma que ledit test peut être utilisé pour prouver qu’une machine est dotée d’une intelligence. D’après ce test, un interrogateur sera placé face à un appareil de télécommunication, et doit s’entretenir par écrit avec deux interlocuteurs, l’un humain, l’autre machine. Selon Turing, une fois l’interrogateur est dans l’incapacité d’identifier l’interlocuteur machine, ceci indique que la machine est intelligente[5].

Préparée par Turing, la naissance de l’intelligence artificielle a eu lieu en 1956, sous l’impulsion du mathématicien américain John McCarthy. Le droit, qui traite plutôt des activités humaines, se trouve désormais confronté à des activités générées par des machines dotées d’une intelligence artificielle. La doctrine considère que l’intelligence artificielle se présente sous deux types, à savoir l’intelligence artificielle forte et l’intelligence artificielle faible. Cette distinction est fondée sur le niveau de l’intelligence employé par le dispositif utilisé[6].

Le terme `intelligent` a été pour toujours lié à l’être humain, même les animaux n’ont pas bénéficié d’être inclus dans les être intelligent, mais l’évolution technologique a résulté que la machine [7] prend la qualité de l’intelligence. Donc une question se pose est ce que l’intelligence artificielle et l’intelligence humain sont les même.

L’intelligence humain est illimité relative à la création de dieu, et l’intelligence artificielle est un ensemble des codes programmatique est algorithme mathématique qui a la capabilité d’analysé les informations à un haut niveau et prendre des décisions plus vite avec une grande précision, mais reste une invention de l’homme, que ce dernier détermine leur limite, et control leur niveau d’intelligence.

Cette intelligence a été inventé pour exécuté certaine tache et faire certain chose déterminé comme :

  • La résolution des problèmes mathématique.
  • L’habilité de pensé et prendre des décisions vite avec un minimum de risque.
  • L’habilité d’apprentissage depuis des expérience et expertise président et l’utilisé pour résoudre les problèmes, et la prédiction des situations futuriste.
  • L’habilité d’évalué et d’adapté selon les situations données.

Intérêt du sujet :

L’étude juridique de l’intelligence artificielle ouvre les portes à un vaste domaine de recherche car cette technologie crée des problèmes qui challenge les règles communes, Bien qu’il soit généralement considéré comme un domaine de recherche extérieur à la recherche proprement juridique, mais il interfère de plus en plus avec la vie humaine, et ce dernier besoin des règlements pour gérer cette technologie et le protège contre elle.

Pour les chercheur de droit et les juriste, leur objectif principales dans ce domaine est le développement d’un modèle informatique du raisonnement juridique qui permettrait à la fois d’aider dans la résolution justifiée et expliquée de problèmes juridiques et de prédire les résultats de ceux-ci[8].

Problématique :

Le droit et l’intelligence artificielle sont des domaines distingue, mais l’intervention de cette technologie dans tous la vie oblige de mettre l’intelligence artificielle dans une sphère juridique afin de l’organisé et le protège.

Un problème se montre et que les règles communes de droit soit le droit civil ou pénal et les autres branches ne peut être applique sur certain cas ou l’intelligence artificielle et un sujet, ce qui Ness cite la rénovation de certaine règle pour s’adapté à cette évolution, et certain cas nécessite un nouvel arsenal juridique que la législation n’est pas prête pour traite les problématiques de l’intelligence artificielle surtout celle avec un intelligence et autonomie avancée.

C’est pourquoi les juristes étudiés et prépare les solutions pour les problématiques juridiques qui soulève de l’intelligence artificielle, soit qui déjà en cour ou les problématique future qui va résulter par des systèmes plus avancée.

Cette étude va centrer sur certain problématique lié à l’intelligence artificielle d’après le plan suivant :

Partie 1 : l’intelligence artificielle : domaine d’application et aspect juridique.

Chapitre 1 : les domaine d’application de l’intelligence artificielle.

Chapitre 2 : les aspects juridiques de l’intelligence artificielle.

Partie 2 : les domaines de rencontre du droit et l’intelligence artificielle.

Chapitre 1 : le droit de la responsabilité et l’intelligence artificielle.

Chapitre 2 : l’application de l’intelligence artificielle dans le practice judicaire : étude comparative.

Partie 1 : l’intelligence artificielle : domaine d’application et aspect juridique.

L’intelligence artificielle est un phénomène informatique qui est en cour d’application dans tous les domaines en vue des qualités qui présente, principalement la rapidité et la précision des résultats qui donne. Et grâce au vaste diffusion, les études s’intéresse plus en plus de cette technologie de l’intelligence artificielle, et le droit n’est pas une exception.

Le droit s’intéresse toujours à la gestion des relations humain et leur protection, ce qui explique l’intervention du droit dans le domaine d’intelligence artificielle surtout le grand contact entre l’être humain et l’intelligence artificielle.

Le droit dans la plupart de ces règles sont traditionnels et ne suit pas le grand développement humain surtout dans le domaine technologique. C’est pourquoi pour que le droit peut à un point gère les problématiques résultant de l’intelligence artificielle il faut placer cette dernier dans une forme juridique. Et pour faire ça, il faut connaitre les domaine d’application de l’intelligence artificielle (chapitre 1), afin d’étudier les aspects juridiques de l’intelligence artificielle (chapitre 2).

Chapitre 1 : les domaine d’application de l’intelligence artificielle.

Les domaines d’application de l’intelligence artificielle sont très vastes, mais comme préparation au deuxième partie, nous avant choisir des domaines qui ont très attache à l’homme est la probabilité des risques qui peut résulter des actes de l’intelligence artificielle dans ces domaines son élevé.

C’est le domaine des voitures autonome ou `self-driving cars` dans le langage mondial qui présente un vrai future de l’humanité, et l’utilisation de ce type de voiture augmente rapidement.

En parallèle, l’intelligence artificielle a trouvé le chemin au sein des hôpitaux, ou l’intelligence artificielle est utilisé au niveau des opérations chirurgicales, et les robots chirurgicaux sont maintenant au cours de travail dans certain hôpital.

Aussi l’intelligence artificielle a d’autres utilisation soit dans le domaines des études criminel, et au niveau de sécurité.

A cette pont, ce chapitre est centralise d’études les domaines d’application l’intelligence artificielle en deux partie, le premier intitulé l’usage l’intelligence artificielle au service de l’homme (section1), et le deuxième intitulé l’intelligence artificielle au service de la sécurité (section 2) .

Section1 : l’usage de l’intelligence artificielle au service de l’homme.

Tous les inventions humaines sont au service de l’humanité, soit totalement ou pour un group distingué, mais pour certaine utilisation de l’intelligence artificielle il’ est dresse pour le service de l’homme et pour rendre la vie facile. Soit par fournir à l’homme ou bien dit le consommateur des voitures qui conduite et dirige lui-même, ou par amélioré les services médicaux par des machines basées sur l’intelligence artificielle pour faire ce que l’homme est incapable de faire.

Toutefois cette section et pour étudier comment l’intelligence artificielle est utilisable dans l’industrie des voitures, et les risque qui peut résulte. Ainsi que son utilisation au niveau de la médecine et ces risques.

Sous-section 1 : `self-driving cars` ou voitures autonome : définition et risque.

Les voitures autonomes ont marqué un grand succès dans le marché économique et au sein des utilisateurs, et le vaste succès de TESLA corporation vient de ces voitures autonomes.

Le concept du véhicule à délégation de conduite, appelé également véhicule autonome, qui au départ n’était qu’un rêve, est devenu aujourd’hui une réalité. Les prémisses du véhicule autonome remontent aux années 1925 quand un inventeur, Francis Houdina, a effectué la démonstration d’une automobile radiocommandée dans les rues de Manhattan sans aucun conducteur à bord.[9]

L’Organisation Mondiale de la Propriété Intellectuelle a récemment proposé une définition du véhicule autonome aussi appelé `véhicule sans conducteur`, ou ` véhicule à conduite automatique`. Il s’agit selon elle d’un véhicule pouvant "se déplacer sans l’intervention et la surveillance continues d’un opérateur humain"[10].

Cette autonomie qui distingue ce type de voiture des autres voitures traditionnel est généralement caractérise par l’intelligence artificielle. Ce dernier qui est un ensemble des programmes informatique dans l’objective est de donne au voiture la capabilité de prendre des décisions et de manœuvre seule et avec aucune intervention de l’homme.

L’un des idées qui dirige les fondateurs de ce type de voiture est d’éliminé tous les erreurs faites par l’homme dans la route afin d’améliorer la sécurité des usages de la route par permettre au voiture de décide ce que faire suite à de nombreuse calcul mathématique et de logique pour éviter toute erreur surtout dans cas dangereux.

Cette autonomie n’est pas absolue, mais il se distingue à des niveaux selon certains principes. Selon l’OICA[11], qui présente le barèmes européen, les niveaux d’autonomie de ces voiture est de 6 échelons comme suite : [12]

Autonomie de Niveau 0 : qui signifie le niveau classique ou le conducteur prend le control totale sur la voiture, et dans lequel tout est manuel (les freins, la direction, l’accélération et la force motrice).

Autonomie de Niveau 1 : Dans le cadre d’une autonomie de Niveau 1, le conducteur peut momentanément confier au véhicule une tache de conduite à condition que la voiture ne prenne en charge que l’une des deux dimensions (longitudinale ou transversale) du guidage.

C’est par exemple le cas où le voiture contient un régulateur de vitesse adaptatif. Dans ce type des cas, le véhicule prend en charge la dimension longitudinale –l’accélération– mais laisse au chauffeur la responsabilité de se positionner dans la voie de circulation la plus adaptée.

Dans cette niveau la responsabilité de tous les faits de la voiture s’incombe sur le conducteur.

Autonomie de Niveau 2 : dans cette niveau le conducteur n’intervient pas dans la conduite qu’en mode superviseur, la voiture gère seule tous les paramètres de guidage sous la supervision du conducteur, qui a la possibilité d’intervenir pour reprendre la main sur la trajectoire à tout instant.

C’est-à-dire que le conducteur reste responsable en cas d’accident car il n’a pas été suffisamment attentif à son environnement et à manquer à son devoir de supervision. Et la responsabilité des manœuvres est faire le nécessaire d’éviter le danger est sur le conducteur. Et comme exemple de ce niveau et l’assistance au stationnement.

Autonomie de Niveau 3 : c’est le niveau ou le conducteur peut donner une partie de son conduit au voiture et abaisser son niveau de vigilance pour se consacrer à d’autres tâches de manière brève.

Mais en cas de danger le conducteur et responsable de prendre control total sur la voiture pour éviter toute risque. Dans ce niveau le système de la voiture peut seulement maintenir le véhicule sur sa voie avec une adaptabilité moyenne avec le trafic et la vitesse, mais il ne peut pas faire des manœuvres pour évites un tel danger.

Dans ce niveau la responsabilité et sur le conducteur car il doit être capable de rendre control sur la vouture a tout moment, mais aussi la voiture et responsable dans les conditions normales ou la voiture suppose de conduit lui-même come le cas de basse vitesse et le voie claire et le niveau de trafic et bas.

Autonomie de Niveau 4 : à ce niveau le voiture peut prendre certaine décision sans l’intervention de conducteur, c’est-à-dire que la voiture et le responsable de faire ce qui nécessite peur éviter le danger, mais seulement dans certain car ou le voiture et reconnue de le faire. Aussi reste que le conducteur a le liberté d’active ou désactive ces options. Et comme exemple de ce niveau en trouve le Valet Parking, système qui permet au véhicule de se garer ou de venir chercher le chauffeur.

Autonomie de Niveau 5 : c’est le niveau ou le conducteur ne fait rien qu’indique son destination et le voiture prend le control totale de faire le nécessaire pour roule de point A au point B a tout sécurité. De même ce niveau se caractérise de la capabilité de voiture de ne pas exécuter un ordre de l’homme si celui-ci est considéré comme anormal, inconsidéré ou dangereux. Pour la responsabilité est totalement sur la voiture. Et le meilleur exemple de ce type de niveau en trouve Google cars et TESLA vouture.

L’importance d’étudier ces niveaux d’autonomie et de spécifier le type de responsabilité et le responsable dans les cas d’accident ou tout risque. Aussi pour spécifier le responsable en ce qui concerne le domaines d’assurance.

Comme un point de vue sur cette sous-section, l’objective de cette autonomie et d’éviter les erreurs humaines en le remplacé par des systèmes qui compte sur le calcul mathématique et la logique. Mais peut que cette logique prendre des décisions dangereuses sur les personnes, comme le cas où le système décide des faire le nécessaire peur sauvé le conducteur en faveur de risqué les autres ou leur bien. Et d’autre part le système est exposé toujours au `bugs` informatique qui peut mal fonctionner le système, et le plus dangereuse les problèmes de piratage des systèmes informatique et que les systèmes des smart voitures présente un grand prix.

Sous-section2 : l’intelligence artificielle au service de la médicine.

Plusieurs domaines au sein de médecines utilisent l’intelligence artificielle afin d’améliores les services médicaux, on peut citer ces domaines comme utilisation de l’AI comme outil diagnostique, qui contient la radiologie comme exemple. Ainsi l’AI est utilisé largement dans le domaine de la médecine prédictive qui s’intéresse prédire certain maladie suite à des algorithmes dédiés a cette raison. Plusieurs autres domaines existent mais en va centrer cette étude sur le domaine chirurgien.

L’un des façons intéressant de l’intervention de l’AI dans le domaines chirurgien et par des robots capables de faire des opération complexe sur le corps humain avec un faible probabilité d’erreur. Ces robots se distingue par leur dégrée d’autonomie. Ce dernier qui définit le dégrée de responsabilité et sur qui cette responsabilité se tombe.

La classification des robots selon leur dégrée d’autonome est comme suite :[13]

Les systèmes passifs : ou robot avec un système passif sont des robots qui ont aucune autonomie, dont leur tâche et de fournir au chirurgien des données qui lui permettent de comparer la tâche courante à la tâche à réaliser. Le chirurgien et toujours en contrôle de toute l’opération, même il peut corriger les erreurs éventuelles qui résulte de la différence entre la stratégie réelle de chirurgien et la stratégie préparé par le système robotique d’intelligence artificielle.

Aussi il existe des robot nommé Les robots télémanipulateurs d’aide à la cœlioscopie sont des robots qui reproduisent, grâce à un ordinateur, par l’intermédiaire d’un bras et d’un poignet mécaniques les gestes effectués à distance par le chirurgien depuis une console[14] .

Les systèmes semi-actifs : Ces systèmes matérialisent la stratégie planifiée dans le champ opératoire au moyen de guides mécaniques (environnement précontraint) mais le geste reste exécuté par le chirurgien. Et ce dernier qui reste responsable de toute danger lors de l’opération. Ces robots exercent des opérations dans le domaine de Neurologie, Orthopédie, Electrophysiologie, Chirurgie vasculaire.

Les systèmes actifs : ils se caractérisent par un autonomie d’exercé des taches spécifique. Ces systèmes réalisent de manière automatique une partie de la stratégie opératoire. Le chirurgien intervient dans ce cas en tant qu’acteur de la planification préopératoire et superviseur. Dans ce cas le chirurgien et responsable dans le limite de sa supervision, mais en ce qui concerne les taches propres du robot, c’est son système qui prend la responsabilité é des faute et erreur commise.

Il est important de dire que l’étude de cette qualification nous permet de précise le responsable et mode de responsabilité soit en matière de responsabilité civil et pénal, soit en matière d’assurance.

Section2 : l’intelligence artificielle dans le domaine criminel et de sécurité.

Le domaine de sécurité est un autre domaines ou l’intelligence artificielle joue un rôle notable, dont le fait ou les systèmes de sécurité et de la surveillance utilise des algorithmes avancés pour détecter toute risque.

Aussi le domaine criminel et des investigations compte sur des systèmes basés sur l’AI pour améliorer ces services afin d’augmenter le dégrée de sécurité social en générale.

Sous-section1 : l’utilisation de l’intelligence artificielle dans le système criminel.

Certain dit que le meilleur moyen de se défendre et d’utilisé le même moyen utilisé lors d’attaque. Et la meilleure façon de protégé contre les attaques criminels électronique et d’utilisé l’intelligence artificielle pour la détection, et la prévention contre ces attaques.

L’utilisation de l’intelligence artificielle dans les domaines criminels se base sur une approche de détection et prévention des crimes par l’utilisation des programme d’intelligence artificielle et big-data[15] fondue a cette raison.

Comme un exemple des système d’intelligence artificielle dédiée à cette raison en trouve un Project nommé `Strategic Subjectif List`, dans le but est de faire des analyses aux personne déjà arrêté et les étudier pour conclure la probabilité pour que ces personnes d’être des criminels éventuellement ou non, selon les principes de la criminologie. ces études permettent de prévenir le crime et les criminelles[16] .

L’intelligence artificielle aussi jeux un rôle dans la prévention et la protection contre les crimes électroniques, cette dernière qui utilise des mécanismes similaires au mécanisme de AI, ce qui permet crée des systèmes efficaces pour lutter contre ce type de crime.

Certain programme de AI peut être programmé et utilisé par les entités informatiques afin de détecté tout menace criminel et aussi prévenir ces menaces avant les exécuté. Aussi l’AI et utilisé au nouveau de cyber sécurité afin de protégé les site web et data importante.

 

 

Sous-section 2 : l’utilisation de l’intelligence artificielle dans les systèmes de sécurité.

Comme exemple des systèmes utilisé dans ce domaine en cite `les systèmes des experts` ou `Expert système`[17], qui est un système informatique avancée qui contient des millions des commandes de programmation dans le but et la simulation de l’intelligence humain. Cette dernière qui s’utilise dans tell domaines comme le domaine de sécurité en générales afin de trouver des solutions base sur deux méthodes ; le premier et la recherche dans le base de donné ou ce système bénéfices de l’accès à des larges bases de donné mondialement, et de deuxième est l’utilisation de la logique pour résoudre les problèmes.

Cette logique à l’aide de la base de donné permet ce système d’anticipé certain danger qui peut menacer l’humanité comme les catastrophes naturelles, les attaques terroristes et le crises économique.

Aussi un autre système nommé `automatique face recognition[18]` à l’aide de ces algorithme et l’accès au base de donné mondialement, peut faire des milliards des analyses pour étudier les caractéristiques faciales et de les comparé avec certain visage reconnu au base de donné, qui’ ont dans la plupart des fugitifs, et donne un pourcentage de correspondance qui peut éventuellement arrêter le suspect concerner.

Toutefois la plupart de ces système travail avec des larges bases de donné les collectes de différente source mondialement, ce qui posent une question de la protection des donné privé, aussi ces systèmes peut collecter de data a partir des endroit privé comme les aéroport et même les rue principale sans aucun respect au vie privé des personne.

Le data collecté par des systèmes peut être vendue à des entité commercial, et c’est le cas que Facebook par exemple fait ; le fait qui engagé certaine question de sécurité t protection des donné. Certains pays comme l’union européen protègent les donner personnel de ses citoyens contre ce trafic mais certain pays ne fait rien suite des raisons économiques.

Chapitre 2 : les aspects juridiques de l’intelligence artificielle.

L’intelligence artificielle maintenant est un chose réel et n’est de fiction, c’est pourquoi il faut reformulé et crée des nouveaux principes dans tous les domaines pour s’adapter à l’intervention de l’AI en tous ce qui concerne la vie humaine. Et le droit n’est pas une exception car il est ce qui organise la vie humaine et le protège contre les dangers qui peut toucher sa vie ou ses biens.

Mais pour que le droit et l’intelligence artificielle rencontre dans un même sujet, il faut que ce dernier soit identifié avec un langage juridique, et crée les principe et règle nécessaire pour que le droit organise bien cette phénomène.

L’intelligence artificielle comme en a déjà dit au première chapitre se caractérise par des degré diverse d’autonomie, le chose qui identifie la nature de ce programme ou système ou même robot intelligent, cette nature qui tendent d’être rassemble au nature humain, ou à la nature d’une chose. Et pour les système d’intelligence artificielle avancé et Independent de l’intervention humain besoin d’reconnaissance juridique présenté par une personnalité juridique.

Un autre point déjà étudier au chapitre 1 est que les système d’intelligence artificielle se base principalement sur le big-data, cette dernière qui est fortement besoin d’une protection juridique soit comme un système autonome de l’intervention humain, ou un simple système d’intelligence initiale.

Toutefois ces deux axes vont être étudier en deux section, en commençant par une étude sur la personnalité juridique de l’intelligence artificielle (section 1), puis la protection juridique l’intelligence artificielle (section 2).

Section 1 : étude sur la personnalité juridique de l’intelligence artificielle.

Le débat de donné la personnalité juridique aux systèmes et machines intelligent est controversé, et pourquoi pas est certain pays on donner cette personnalité aux animaux, comme la France et les Etats unis par exemple. Et au regard a la responsabilité que les système et machine d’intelligence artificielle prend, c’est sage de les donné cette personnalité.

Toutefois qu’elle est le porté de la personnalité juridique de l’intelligence artificielle, et qu’elle est ces limites ?

Sous-section 1 : la personnalité juridique de l’intelligence artificielle.

Au sens générale de droit, la personnalité juridique est définie comme l’aptitude à être titulaire de droits subjectifs et débiteur d’obligation[19] . D’autre terme, la personnalité juridique c’est d’être apte à la titularité de droits et d’obligation.

Cette aptitude des obligations déjà dite au définie et la raison pour les machine et système d’intelligence artificielle de jouisse de la personnalité juridique. Ces types des machines ou système peut avoir une conscience de sa présence et peut prendre des décisions basées sur leur logique sans l’intervention de l’être humain et même sans que l’homme prévois les décision et actes de ces machines ou système AI. Le fait qui résulte que ces dernières peut cause des fautes et crée des obligations qui doivent prendre. C’est pourquoi les machines et système d’intelligence artificielle avancée et surtout les robots doivent avoir une personnalité juridique pour prendre leur responsabilité et jouir de certain droit qui garantit leur fonctionnement et protection (selon le point de vue de l’auteur).

A l’opposition de considéré l’intelligence artificielle une personne et de le considéré comme un chose, ce dernier et tout Object abstraite et caractérise d’être un droit réel, dans le fait que ce dernier et le pouvoir direct sur la chose ; d’autre terme tout ce qui n’est pas une personne est un chose.

Donc ce qui dit que les machines et système d’intelligence artificielle sont des choses a mal jugé la question, car ces derniers sont des entités qui simule l’intelligence humain et le dépasse dans certains domaines comme la médecine et la mathématique, aussi ont la capabilité d’apprendre et de se développer; aussi il prend des décisions de manière autonome, le fait que les caractéristiques de la chose indiffèrent des qualités de l’intelligence artificielle qui plus humain que toute autre chose.

L’idée de la personnalité juridique pour l’intelligence artificielle et nécessaires vue au développement de cette technologie, mais donné une personnalité juridique comme celle de l’homme et impossible car l’homme jouisse des droits et prend des obligations qui ne correspond pas à la nature des système et machine AI. C’est pourquoi l’Union Européen dans son rapport de 2017 sur le droit civil robotique appelé de crée un personnalité juridique spécial pour les robots pour considère ces dernier comme des personnes électronique indépendants obligé d’indemnisé les dommage qui causé à autrui[20].

Selon ce rapport, est un personne électronique tout robot peut prendre des décisions indépendamment et d’de façon intelligent, ou interagit avec les autre de façon Independent[21].

Dans la vie pratique et depuis le 15 octobre 2017, à l’issue de la Conférence Future Investment Initiative de Riyad l’attribution de la personnalité juridique a une intelligence artificielle est devenue une réalité. c’était un robot d’intelligence artificielle avancée nommé `Sophia`[22] qui a acquis la nationalité Saoudienne[23]. Cette action même si elle est formelle mais ouvre les portes au future pour les robots en particulier d’avoir des nationalités et de droit et même qu’une citoyenneté. Mais pour le moment et en simple terme, le droit n’est prêt pour l’intelligence artificielle ni la société, aussi les connaissance humain base sur les principes traditionnels n’est pas prêt pour cette évolution.

Sous-section 2 : les limite de la personnalité juridique de l’intelligence artificielle.

L’acquisition de la personnalité é juridique par les systèmes et machines d’intelligence artificielle, surtout les robots et un choses inévitables ; pas a notre temps mais en future. Quel que soit la nature ou le nom donné à cette personnalité juridique il’ est limité en regard de celle de l’homme ou même les personnes morales.

L’un des principes limites à propos de ce sujet et que la personnalité juridique et privilège pour certain type d’intelligence artificielle, et selon la règlementation européen de l’intelligence artificielle, la personnalité juridique ou électronique et doté juste pour les système qui travaille avec un concept appeler `Deep Learning[24]`. Aussi il est limité selon les besoin et la nature de tout système ou machine d’intelligence artificielle[25].

La réglementation pré cité stipule que `Qu’au moins les robots autonomes les plus sophistiqués puissent être considérés comme des personnes électroniques dotées de droits et de devoirs bien précis y compris celui de réparer tout dommage causé à un tiers`, celle signifie que les systèmes AI avec un dégrée d’intelligence inferieur sont exclue de la personnalité juridique, cette dernière qui doté seulement au système avec un intelligence et technologie supérieur.

D’autre terme, la personnalité juridique et privilège a l’intelligence artificielle qui a une volonté autonome et qui travail et pense sans l’intervention de l’être humain.

Section 2 : la protection juridique l’intelligence artificielle.

L’intelligence artificielle est un système informatique principalement construit d’une ou multiple logicielle en relation avec des bases de donné, aussi la plupart de ces systèmes ne fonctionne pas sans l’existence d’un réseau informatique, c’est pourquoi ces systèmes est toujours à l’exposition de toute menace, surtout les cyber menace et cyber attaque.

Aussi ces systèmes peuvent être toujours le sujet de piratage et de vol ; et parce que la plupart des Etats n’ont pas des règlementations juridiques spécifique pour les système d’intelligence artificielle et le système informatique en général, il’ est nécessaires de compté sur les règles juridiques en vigueur pour gérer et protège ces systèmes.

L’un des moyens de protection que je choisie d’étudier’ c’est la protection des systèmes AI comme étant un sujet de propriété intellectuelle et industrielle (sous-section 1), et la protection juridique de la base de donné des systèmes AI, et leur protection dans l’environnement numérique en général (sous-section2).

Sous-section 1 : l’intelligence artificielle et la protection de la propriété intellectuelle et le droit des brevets inventions.

Les droit d’auteur se distingue en deux branche principales, le premier c’est les droits d’auteur et les droits en relation avec elle, et le deuxième c’est les brevets et les marques commercial ainsi que les modèles industriels. Et quand l’intelligence artificielle entre ce domaine il prend effet dans tous ces domaines, et intervient avec certaine règle inadéquate pour être applique sur m’intelligence artificielle.

Au Maroc, la protection des droit d’auteur et protégé par les disposition de la loi 2-00 relative aux droit d’auteur et droits voisins[26]; d’après son l’article 2 l’auteur bénéfice de la protection de son œuvre littéraire ou artistique. Ce terme œuvres et identifier par l’article 3 de la même loi qui stipule ` la présente loi s’applique aux œuvres littéraires et artistique qui sont des créations intellectuelles originales dans le domaines littéraires et artistique, telles que :

  1. Les œuvres exprimées par écrit ;
  2. Les programmes d’ordinateur ;
  3. Les conférences, allocutions, sermons et autres œuvres faites de mots ou exprimées oralement ;
  4. Les œuvres musicales qu'elles comprennent ou non des textes d'accompagnement ;
  5. Les œuvres dramatiques et dramatico- musicales
  6. Les œuvres chorégraphiques et pantomimes ;
  7. Les œuvres audio-visuelles y compris les œuvres cinématographiques et le vidéogramme ;
  8. Les œuvres des beaux-arts, y compris les dessins, les peintures, les gravures, lithographies, les impressions sur cuir et toutes les autres œuvres des beaux-arts ;
  9. Les œuvres d'architecture ;
  10. Les œuvres photographiques ;
  11. Les œuvres des arts appliqués ;
  12. Les illustrations, les cartes géographiques, les plans, les croquis et les œuvres tridimensionnelles relatives à la géographie, la topographie, l'architecture ou la science ;
  13. Les expressions du folklore et les œuvres inspirées du folklore ;
  14. Les dessins des créations de l'industrie de l'habillement.

La protection est indépendante du mode ou de la forme d'expression, de la qualité et du but de l’œuvre. `

D’après cette article les programmes d’ordinateur son l’objets de la protection de la loi sur les droit d’auteur, et les systèmes d’intelligence artificielle son exactement des programme d’ordinateur. Aussi d’après le même article, les œuvres d’architecture entre dans cette protection, et les systèmes AI ou machine AI sont dans la plupart des architectures dans la phase du projet, et c’est le même chose pour Les illustrations, les cartes géographiques, les plans, les croquis et les œuvres tridimensionnelles relatives à la géographie, la topographie, l'architecture ou la science.

Une autre loi dans ce sujet et la loi n° 17-97 relative à la protection de la propriété industrielle[27]. D’après son premier article, ` la protection de la propriété industrielle a pour objet les brevets d’invention, les schémas de configuration (topographies) de circuits intégrés, les dessins et modèles industriels, les marques de fabrique, de commerce ou de service, le nom commercial, les indications de provenance et les appellations d’origine ainsi que la répression de la concurrence déloyale. `

Tout systèmes AI, machine AI ou programmes AI et une invention qu’un singulier ou un group des inventeur et scientifique sort à l’existence, cette invention qui est toujours besoin de le protège contre les autres de ne pas le voler ou le copier, et l’article 16 de cette loi garantie cette protection par le fait de donné à tout invention un titre de propriété industrielle délivré par l’organisme chargé de la propriété industrielle. Aussi le même article stipule que Ce titre confère à son titulaire ou à ses ayants droit un droit exclusif d’exploitation de l’invention. Et pour les personnes ayant les droits de bénéficier de ce titre sont l’inventeur ou ses ayant droit selon le même article, aussi si plusieurs personnes ont réalisé l’invention indépendamment l’une de l’autre, le droit au titre de propriété industrielle appartient à celle qui justifie de la date de dépôt la plus ancienne.

Un problème dans l’application du droit d’auteur et des brevets d’invention sur l’intelligence artificielle est la personne qui bénéfice de ces droits, en principe l’auteur humain o l’inventeur qui bénéfice de ce droit en principe parce que c’est lui qui a inventé le dit système ou machine. Mais dans le cas ou se système ou machine AI lui-même fait ces inventions et crée les idées le problème se pose de qui est l’auteur ou l’inventeur ici, et la réponse c’est le système AI qui a indépendamment et sans l’intervention humain a fait ce qui a fait, donc le droit d’auteur et de l’invention appartient à cette système.

Et si en reviens à la loi 2-00 dans son article premier l’auteur est définie comme ` L'auteur est la personne physique qui a créé l'œuvre ; toute référence, dans cette loi, aux droits patrimoniaux des auteurs, lorsque le titulaire originaire de ses droits est une personne physique ou morale autre que l'auteur, doit s'entendre comme visant les droits du titulaire originaire des droits. `, c’est-à-dire l’auteur doit être une personne physique et bien sûr avoir une personnalité juridique. Cette dernière qui est un élément essentiel pour l’intelligence artificielle doit avoir pour qu’il bénéfice de certain droit qui résulte de son production propre indépendamment de tout intervention humain.

Dans certain cas, le programme d’intelligence artificielle peut créer des œuvres, ce qui pose la question de la qualification des œuvres crée par pal AI. La réponse de cette question varie selon deux approche : la première c’est de voir l’intention des personnes qui ont inventé et programmé ce système AI, s’ils ont l’intention spécifique que leur système va créer cette œuvre, c’est- à-dire que les droits de cette dernière appartiennent ou personne ne qui a permet le système de crée cette œuvre. Cette approche repose sur l’idée qu’une intention spécifique est nécessaire pour créer une œuvre. Rarement théorisée, cette hypothèse reprend une idée latente dans le droit d’auteur : une personne n’est pas auteur d’une œuvre dont elle n’a pas conscience avoir créée[28] .

La deuxième approche repose sur l’étude des faits ayant donné naissance à l’œuvre, la réponse n’est pas la même. Le titre d’auteur englobe alors tous les intervenants qui ont contribué, avec un minimum de talent et de jugement, à la création de l’œuvre[29]. Ici les bénéficiaires du droit du d’auteur peur être les créateurs du système AI en plus des utilisateurs de ce système, ce Qui donne un œuvre de collaboration entre les divers intervenant dans ce système soit programmeurs ou utilisateur.

Sous-section 2 : la protection juridique de base de donné de l’intelligence artificielle.

Le système pénal au Maroc garantie un certain protection au système informatique en générales, dans le fait que l’intelligence artificielle dans la plu part du temps faits Object des systèmes informatique, cette protection pénales des système informatique est assurée par la loi 07-03[30] complétant le code pénal dans les articles 607-3 jusqu’au 607-11.Celle-ci permet de sanctionner toutes les intrusions non autorisées dans un système de traitement automatisé de données. Elle fait la distinction entre l’accès et le maintien frauduleux dans un STAD. En effet, deux types d’accès illicites peuvent être envisagés :

  • L’accès dans l’espace, qui consiste à pénétrer par effraction dans un système informatique (accès frauduleux) ;
  • L’accès dans le temps, qui s’agit du fait d’outrepasser une autorisation d’accès donnée pour un temps déterminé (maintien frauduleux). [31]

Ces incriminations peuvent être illustré autrement dans le domaine de l’intelligence artificielle qui travail par une large base de donné, on peut le considérer comme une entrave illégale au data base située dans les systèmes de l’intelligence artificielle ou à tout autre endroit ou le système utilise, afin de détruire les donnes du système ou les manipulé, ou plus souvent les voler pour les revendre ou les réutiliser dans des actes criminels. Leur protection se manifeste dans les sanctions apportées par la loi, variant selon la nature et la gravité des crimes, et pouvant atteindre jusqu'à 5ans d’emprisonnement et entre 100.000dh et 200.000dh d’amende.

Un autre moyen de protection est cité dans la loi portant sur la protection d’auteur, qui donne une définition du data dans son article 14 avec une sanction entre 2 mois à 6 mois et d’une amende de 10.000dh à 100.000dh a tout atteint illégal aux data base.[32]

De même ; la loi 09-08 présente elle aussi une protection dans le monde numérique, reposant sur les données des personnes que l’intelligence artificielle peut utiliser en cour de son travail, car l’intelligence artificielle est utilisé dans nombreuse domaines et études qui exige le traitement informatique des data personnelles des gens soit au niveau mondiale ou local.

Cette loi (09-08) s’applique au traitement des données à caractère personnel, sous quelque forme que ce soit relatives à une personne physique identifiée ou identifiable. Le nom, prénom, adresse, courriel, photographie d’identité, numéro d’identification, empreintes digitales constituent par exemple des données à caractère personnel. Dans cette optique peut-on considérer une adresse IP comme une donnée à caractère personnel et par conséquent tombe sous la protection de la loi n°09-08[33].

 

 

Partie 2 : les domaines de rencontre du droit et l’intelligence artificielle.

Le droit est la discipline qui gère les relations entre les êtres humains et protège leurs biens et leur bien-être. Certains faits qui ont été déjà produit par l’intelligence artificielle qui ont causé par la suite certains problèmes qui obligent de poser la question de qui est le responsable de ces faits et comment les gérés. Ce qui nécessite l’étude du droit de la responsabilité et son application sur l’intelligence artificielle. Ce qui va être le sujet du (chapitre 1) .

Au sein du même domaine, l’intelligence artificielle est utilisé par l’administration de justice ainsi que les juristes comme les cas des avocats, cette technologie qui peut affecter les intérêts de ces derniers soit positivement ou négativement (chapitre 2) .

Chapitre 1 : le droit de la responsabilité et l’intelligence artificielle.

L’autonomie qui caractérise certains systèmes ou machine d’intelligence artificielle les permet de prendre des décisions sans l’intervention de l’être humain, en plus, ils peuvent prendre des décisions ou des faits sans que l’homme l’ait excepté.

Ces décisions ou faits peuvent résulter des dommages aux autres personnes physiques ou morales, ce qui donne lieu à une responsabilité juridique. En droit il y a deux types de responsabilité, civile et pénale, et ces deux derniers seront l’objet d’études et leur application sur l’intelligence artificielle est à travers l’étude de la responsabilité civile résultant des faits de l’intelligence artificielle (section 1), et la responsabilité pénale de l’intelligence artificielle (section 2).

 

Section 1 : la responsabilité civile e résultant des faits de l’intelligence artificielle.

Le droit de la responsabilité civile  est celui qui s’intéresse à déterminer un responsable d’un dommage causé pour indemnisé une victime, l’intelligence artificielle surtout dans les années dernières a causé des dommages à certaines personnes tel que les juristes qui trouvent une difficulté au niveau de la détermination du vrai responsable, et avec le développement de l’intelligence artificielle cette problématique va être posée très souvent c’est pourquoi l’étude des règles de la responsabilité et leur application sur l’intelligence artificielle est nécessaire. Cette étude est devisée en deux sous-parties comme suivant :

Sous-section 1 : l’application des règles communes de la responsabilité civile sur l’intelligence artificielle.

Pour que la responsabilité civile e s’applique, il faut l’existence d’un faut qui résulte un dommage à autrui, cette dommage qui donne l’obligation de réparation en faveur de l’autrui.

Les règles générales de la responsabilité civile sont identifiées par l’article 77 et 78 du code d’obligation et contrat, d’où l’art 77 stipule ` Tout fait quelconque, de l'homme qui, sans l'autorité de la loi, cause sciemment et volontairement à autrui un dommage matériel ou moral, oblige son auteur à réparer ledit dommage, lorsqu'il est établi que ce fait en est la cause directe. Toute stipulation contraire est sans effet. ` et l’art 78 édicte ` Chacun est responsable du dommage moral ou matériel qu'il a causé, non seulement par son fait, mais par sa faute, lorsqu'il est établi que cette faute en est la cause directe. Toute stipulation contraire est sans effet. La faute consiste, soit à omettre ce qu'on était tenu de faire, soit à faire ce dont on était tenu de s'abstenir, sans intention de causer un dommage. `

L’interprétation de l’art 77 montre que le législateur a attacher l’existence du dommage par un fait de l’homme, mais c’est un article écrit dans un temps différent, et ne peut être appliqué sur un système informatique intelligent ou une machine AI, et c’est la même chose pour le terme `chacun` utilisé par le législateur dans le début de l’art 78`. Pour que l’intelligence artificielle soit responsable des dommages qu’elle cause il faut la création d’une règle adéquate pour l’évolution informatique.

Donc pour appliquer les règles en vigueur à nos jours sur l’intelligence artificielle il faut considérer cette dernière comme une chose et appliquer la responsabilité civile résulter des dommages causés par une chose, ou un produit et appliquer la responsabilité civile résulté par les produits défectueux. En tout cas, le fait de considérer l’intelligence artificielle une chose n’est juste vue que la chose est un matériel abstrait non prudent, et l’intelligence artificielle et une entité prudente et raisonnable[34]. Aussi pour le fait de la considéré un produit c’est invalidé car le produit est en principe une chose

C’est-à-dire au Maroc même si l’intelligence artificielle n’est pas présente au moment mais en tous les règles communes de droit civil ne peuvent être appliquer à l’intelligence artificielle, mais cette pensée n’est pas générale car l’intelligence artificielle est distingué à des niveaux, et ses niveaux déterminent la catégorie ou l’intelligence artificielle se pose, et ce qui est une chose, produit ou un être autonome qui pense et fait ce qu’il veut. Et sa sera l’étude du prochain paragraphe.

 

Sous-sections 2 : les types de la responsabilité civile de l’intelligence artificielle.

Déjà étudier dans cette recherche, les degrés ou niveau de l’intelligence artificielle qui détermine le niveau de l’autonomie de cette dernière. Le sixième niveau était le niveau autonome de toute intervention humaine, et les autres niveaux sont plus ou moins sous le control humain. Ces niveaux doivent être selon mon avis les aspects qui déterminent  l’auteur qui prend  la responsabilité civile  en premier lieu, si les systèmes ou machine AI se qualifiées dans les premiers niveaux l’être humain prend la responsabilité, mais la grande question c’est qui est cette personne responsable ? est-ce que c’est  l’ingénieur qui a créer le système  ou machine ? ou le développeur qui coder le système  informatique ? ou le mathématicien qui crée le logarithme et la logique de l’intelligence artificielle ? les intervenants sont sans doute nombreux et tous partagent  le succès ou l’échec du projet, ou peut être juste l’un de ces intervenant qui mettent le faute qui résulte le mal fonctionnement du système  Ai. Toutefois dans ces cas les juges et les experts vont savoir le responsable en application des règles générales de la responsabilité civile, par ce que ce qui est important c’est l’être humain.

Du même l’être humain peut prend responsabilité à sa qualité de gare des systèmes ou machine AI, cette responsabilité de garde et édictée par l’art 88 du DOC qui stipule `Chacun doit répondre du dommage causé par les choses qu'il a sous sa garde, lorsqu'il est justifié que ces choses sont la cause directe du dommage, s'il ne démontre :

1. Qu'il a fait tout ce qui était nécessaire afin d'empêcher le dommage ;

2. Et que le dommage dépend, soit d'un cas fortuit, soit d'une force majeure, soit de la faute de celui qui en est victime`.

Le concept de garde fait référence au pouvoir de surveillance, de contrôle et de direction qu’une personne peut exercer pour son propre compte sur un bien. Ainsi, pour qu’une personne soit tenue responsable à titre de gardien du bien, il faut qu’elle ait le pouvoir de contrôle, de direction et de surveillance sur le bien au moment où celui-ci cause, par son fait autonome, le dommage[35]. Cette définition pour qu’il s’applique il faut que l’être humain avait la surveillance, de contrôle et de direction sue le machine ou systèmes AI, et c’est le cas existe dans les cinq niveaux premiers de l’intelligence artificielle déjà étudier dans la première partie.

Par exemple voiture autonome (self-driving cars) appartient aux cinq niveaux précité où l’intelligence artificielle peut prendre contrôle de voiture même si l’homme l’active, et ce dernier donne les ordres et peut reprendre le control a toute moment, donc à tout accident ou dommage le conducteur prend la responsabilité totale en vue des règles de la responsabilité civile et de l’assurance.

Mais dans le cas où l’intelligence artificielle appartient au sixième niveau l’auteur responsable se change parce que l’intelligence artificielle a ce niveau est capable d’apprendre, d’actes et pensées sans l’intervention de l’être humain et même sans que ce dernier prévoit ce qui l’intelligence artificielle peut faire, même qu’il peut dépasser l’intelligence humaine dans des cas spécifiques comme les sciences appliquées et la médecine comme exemple. Ce qui donne que l’homme n’est pas responsable des faits de ce qui acte avec sa propre volonté et sa propre logique.

Maintenant les Etats n’ont pas des régimes spéciaux pour ces cas, car l’intelligence artificielle est en cour de développement, et comme les juristes disent le fait crée le droit, donc il faut que cette technologie en premier lieu sorte à l’utilisation par les gens, les accidents et les dommages qui se produisent, puis les législations mondiales peuvent penser à des règles adéquates pour contrôler la situation. C’est toujours les mécanismes de travaille de droit.

Section 2 : la responsabilité pénale de l’intelligence artificielle.

Comme que la possibilité de l’intelligence artificielle peut causer des dommages civils à l’être humain, certains cas ont été produits par cette technologie ont causé une responsabilité pénale. L’étude de la relation entre la responsabilité pénale et l’intelligence artificielle sera faite selon deux sous-partie comme suivant :

Sous-section 1 : la responsabilité pénale en regard de l’intelligence artificielle.

Pour que la responsabilité pénale soit validée il faut l’existence d’une violation d’un droit commun ou personnel par une faute causée par ces violations, en plus d’un lien de causalité entre eux. En plus de ceci la responsabilité pénale se base sur l’existence d’un élément matériel et moral pour qualifier un telle violation comme un crime.

Dans la responsabilité pénale de l’intelligence artificielle, trois acteurs peuvent prendre cette responsabilité :

La responsabilité de l’utilisateur de l’IA : certains des utilisateurs des programmes et systèmes d’intelligence artificielle peuvent être responsables des faits causés par son programme, cette responsabilité peut être née des faits délictueux faites par des programmes AI ou son propriétaire peut manipuler son système et le reprogrammer pour exécuter des cybers crimes par exemple. Dans ce cas quel que soit l’intelligence de ce système, son utilisateur prend la responsabilité et le considère le criminel.

Un autre cas est lorsqu’une personne vole une machine d’intelligence artificielle comme le cas des voitures autonomes et commis des crimes avec l’aide de ses machines ou fait des accidents, en tout cas la responsabilité est à l’être humain.

La responsabilité du créateur de l’IA : l’intelligence artificielle est un ensemble de programmes informatiques codé et développé par des programmeurs ou créateurs, dans certains cas le système généré par l’intelligence artificielle échoue à cause des fautes techniques que les créateurs de ce programme, système, ou machine produisent, quel que soit le programmeur, l’ingénieur ou tout autre intervenant, et quel que soit cette faute intentionnel ou non intentionnel. Cela pourrait notamment être le cas si cet individu a volontairement créé une IA causant des accidents37, ou s’il a fait preuve de négligence criminelle à cet égard. En effet, si le geste répréhensible posé par l’IA était prévisible et évident, le programmeur pourrait être responsable du crime commis par l’IA[36] .

La responsabilité de l’IA elle-même : même que l’idée de l’intelligence artificielle commis des crimes est de science-fiction mais dans le future sera en réalité. A nos jours les accidents atteint l’être humain de la part des machines AI qui sont présentes même s’ils sont non intentionnels et se produit par accident mais leur responsabilité existe lorsque l’être humain n’a rien à voir avec le travail du système de l’intelligence artificielle.

C’est pourquoi certains auteurs opinent qu’une responsabilité criminelle de l’IA est déjà possible. Selon Hallevy, si l’entité d’IA est suffisamment avancée afin d’avoir `l’actus reus[37]` et la `mens rea[38]`, il n’y a aucune raison de ne pas tenir celle-ci responsable criminellement de ses actes.[39]

Sous-section 2 : qui peut engager la responsabilité pénale de l’intelligence artificielle.

L’intelligence artificielle est inventé principalement pour aider l’être humain dans son travail quotidien ou le remplacé, en tout cas l’intelligence artificielle est toujours en contact avec l’être humain. Quand on parle de la responsabilité pénale de l’intelligence artificielle l’idée principale qui vient à nos têtes c’est la probabilité que l’intelligence artificielle surtout les machines intelligentes exécutent des violations sur l’être humain.

Certains accidents dans le monde entier ont été fait par des machines tuent  un être humain, surtout dans les usines, c’est le cas du premier meurtre de ce type qui était marquer dans les usines du Ford en Etats Unie (Michigan), les faits étant en janvier 25, 1979 quand un ouvrier de l’usine Ford était frapper par un arm robotique et lui à tuer, les investigations ont  donner un résultat c’est que la faute était de la part du robot qui a donné des calculs fausses résultant que l’ouvrier a suivi ses résultats donner par ce dernier, ce qui a finit par sa mort . Toutefois la famille de l’ouvrier a était indemnisé avec le montant de 10 million de dollar, en plus de décision de jury que les mesures de sécurité ont était faible ce qui a donner la responsabilité pénale a l’usine Ford[40] .

Un autre cas qui été l’un des premiers meurtres causé par une machine en Europe et précisément en Allemand dans l’usine de Volkswagen, le président de l’usine a déclarer que cette meurtre était une faute de l’être  humain et n’est pas du robot, puisqu’il été programmer de faire certaines tâches , et la victime été assigner de travailler à côté de l’arm robotique quand ce dernier a attraper la victime et causé sa mort[41].

C’est deux exemples ont été causé par des robots avec une intelligence inferieure et travail selon des ordres programmés qui ont une relation seulement de leur travail. Et cette infériorité de leur intelligence était le problème de ces accidents, car au moment où un être humain s’intervient avec leur chemin, ils ne peuvent pas distinguer l’homme de la chose programmée de travailler avec, c’est pourquoi les fautes se produisent.

Mais dans le cas où l’intelligence artificielle jouisse d’une autonomie déterminée, la responsabilité pénale varie selon cette autonomie comme le cas déjà étudié dans la responsabilité civile. Et en résumé à tout moment où l’être avait un contrôle de toute façon sur la machine ou système AI, la responsabilité pénale et de l’homme mais dans le cas où l’intelligence artificielle et totalement autonome les règles changent vers l’intelligence artificielle.

En 2016, le premier accident causé par un système auto pilote était marqué en Amérique par une voiture TESLA, les faits de l’accident étant que la voiture TESLA conduisait directement et en plein vitesse extra vers un large camion ce qui a causé le mort du conducteur. TESLA a rapporté que les causes de l’accident étaient que le système des détecteurs de la voiture n’a pas réussie à reconnaitre le camion, et la voiture en auto pilote conduisait vers elle et passer en dessous du camion fini par la morte. Et même que certains témoins ont dit que le conducteur était occupé par regarder la télévision de son voiture, la responsabilité et considéré du voiture à cause de son système[42] .

Dans cet exemple précèdent la responsabilité pénale résulte de la mort du conducteur et de l’accident ont été sur le système de la voiture. Mais l’absence des règles juridiques qui régissent l’intelligence artificielle donnent point d’interrogation sur comment régit ces types d’accident surtout en future ou l’intelligence devient plus en plus intelligente à un point où il peut faire des fautes pénales avec toute intention, surtout que le système considère l’être humain comme une menace qui doit être éliminé comme le cas où il doit protéger son propriétaire par violer d’autre personne.

 

Chapitre 2 : l’application de l’intelligence artificielle dans la pratique judicaire.

Au moment où l’intelligence artificielle est en cours d’utilisation dans certains domaines telles que le domaine de médecine et la robotique, les aspirations sont très élevées pour que cette technologie soit utilisable dans le domaine de justice.

Les intervenant dans le domaine de la justice quel que soit l’administration ou les tribunaux ou les métiers auxiliaire à la justice sont dans le chemin de l’invasion de l’intelligence artificielle dans tout le domaine, ce qui nécessite tout partie de trouver des moyens de s’adopter avec cette technologie et protéger les intérêts contre elle.

Section 1 : au niveau de la gestion du département de justice et les tribunaux.

La gestion administrative est un riche domaine où l’intelligence artificielle peut être productive. Au niveau de la justice, l’application de l’intelligence artificielle est possible soit dans la gestion administrative au niveau du ministère de la justice, soit au sein des tribunaux et cours.

Sous-section1 : l’intelligence artificielle et la gestion administrative de la justice.

La numérisation de la justice est déjà en cour d’application par tous les Etats avec une différence d’un Etat avec une autre. La numérisation de la justice présente la base principale où l’intelligence artificielles se constitue, et l’un des étapes premières dans le processus d’intégrés cette technologie dans le département de justice et toute l’administration au sein des Etats.

L’utilisation de l’intelligence artificielle au niveau de la gestion administrative de la justice consiste à réaliser des systèmes de traitement automatisé pour les informations et document qui entre dans l’échange quotidien et habituel dans la relation administration/citoyen. Certaine procédure administrative ou même judiciaire peut être accorder à des systèmes intelligents pour les traités et les validés sans l’intervention de l’être humain et dans un temps très brève.

A cet égard, le ministère de la justice a développé un système destiné au traitement des tâches administratives au sein des tribunaux et cours, ce système a pour objectif de distribuer les demandes et requêtes sur les magistrats pour les juger [43], cette tâche qui est déjà la mission  de président du cour ou tribunal.

Aussi le même ministère à développer certains autres systèmes situent dans la plateforme e-justice dans le but est de gérer les demandes de citoyen. Ce qui montre l’orientation de l’Etat marocaine d’installer les systèmes numériques et intelligence dans sa gestion administrative.

Tout fois, l’utilisation soit de la numérisation et de l’intelligence artificielle  au sein de l’administration marocaine qui a connue certains défis, soit au niveau de l’incompétence des personnelles de l’administration marocaine dans tous les domaines et surtout au niveau informatique, le problème c’est  que l’Etat marocaine traite par l’emploi des techniciens et ingénieurs d’informatique pour assurer la bonne transformation de l’administration marocaine vers la numérisation et l’intelligence artificielle.

Le deuxième défit c’est les citoyens qui ne sont pas prêt pour utiliser les plateformes numériques et les systèmes intelligentes que l’administration marocaine emploi. Même que l’administration oblige les citoyens d’utiliser les plateformes numériques sans aucune préparation ce qui conduit à l’exploitation de l’ignorance du plusieurs personnes.

Sous-section 2 : l’intelligence artificielle et les décisions juridiques.

L’utilisation de l’intelligence artificielle dans le processus de prononcer des jugements peut se faire par le moyen de prédiction de décision. Certains systèmes d’intelligence artificielle ont été programmé pour étudier et analyser des millions des actions juridiques et leurs faits ainsi que les jugements prononcés à ces actions, afin que ce système Ai peut faire une prédiction ou une probabilité des prédictions pour que un juge choisit parmi elle.  Par exemple, un logiciel peut prévoir l’indemnité de licenciement qu’un salarier pourrait obtenir en se basant sur l’ensemble des jugements rendus aux prud’hommes. Et soit le juge choisit lui-même les critères, soit l’algorithme associe à chaque cas une indemnité[44].

En France par exemple, Un décret du 27 mars 2020 crée un traitement automatisé de données à caractère personnel "DataJust". Le traitement DataJust vise à développer, pour une durée de deux ans, un dispositif algorithmique permettant de recenser, par type de préjudice : [45]

  • Les montants demandés et offerts par les parties à un litige ;
  • Les montants alloués aux victimes en indemnisation de leur préjudice corporel dans les décisions de justice rendues en appel par les juridictions administratives et les formations civiles des juridictions judiciaires.

Dans un projet fondu par l’université de Londres, les spécialistes ont développé un système d’intelligence artificielle destiné à aider les juges au sein des cours et tribunaux de droit d’homme européen. L’objectives de ce système est d’aider les juges dans la classification des demandes et actions et l’organisation selon l’ordre de priorité. Aussi ces systèmes sont programmés pour prédire des jugements dans ce domaine. Ce système est réussi dans 4 jugements de 5 en total, c’est- à-dire d’un pourcentage de 79%. Ces prédictions ont été basé sur l’analyse et l’étude de plus de 600 antécédent juridique déjà reconnu par les systèmes dans son base de donné.

Au Maroc, les magistrats et fonctionnaires des tribunaux sont en cour d’apprentissage des outils informatiques, mais le ministère de justice a préparé un plan de réforme de justice basé sur la numérisation de la justice. L’un des principales nouveautés portées par cette réforme est la numérisation des services juridiques et la procédure juridique, préparation des bases principales pour le transfert à la justice prédictive et la justice robotique...etc. même si en application réelle semble d’être difficile à atteindre dans le futur proche en vue de la situation actuelle du gouvernement Marocain et ses ressources ainsi qu’à la méthodologie  qu’ils suivent, mais le ministre de justice dans une session de la chambre de conseiller a déclaré dans une réponse sur une question sur `la qualité des jugements au Maroc` que le ministère a développer un logiciel en faveur des magistrats, son objectif est de calculer les indemnisations dans le cadre du code de circulation sans toucher le pouvoir décisionnaire du juge. Ce logiciel a été appliqué sur 1000 décision avec un grand succès au niveau du résultat[46] .

Section 2 : au niveau des métiers auxiliaires au justice : avocat comme exemple.

Plusieurs études et analyses déterminent que au future la métier d’avocat sera là plus affecté par l’intelligence artificielle, bien que quelque expert affirme que la métier d’avocat ne va plus exister au future. C’est pourquoi j’ai choisie l’étude de la relation entre le métier d’avocat et l’intelligence artificielle selon deux sous-partie comme suivant :

Sous-section 1 : l’utilisation de l’intelligence artificielle dans les domaines d’avocats.

L’intelligence artificielle peut être l’objet de certaines tâches que les avocats normalement faits, soit de donner une consultation ou réponse juridique ou présenter les justiciables devant un juge.

En cas de la consultation juridique, certain système AI ont été introduite à cette raison sous forme des chatbots. Ce dernier s’appuie sur la `machine Learning` et `data mining[47]` pour répondre à certaines questions et faire des conversations avec l’être humain. A cet effet, les LAWBOTs et en cours d’introduction en domaine du droit. Comme les cas des États-Unis, ou les `robots avocats` qui sont déjà à l’œuvre et semblent converser en langage naturel avec les humains.

Parmi ces LAWBOT on peut citer ROSS, qui est un chatbot avec une intelligence juridique, il réfléchit, et l’humain peut réagir avec lui, même qu’il peut développer ses connaissances.

Ross est susceptible pour répondre aux questions, lire l’ensemble des lois et de fournir une réponse détaillée s’appuyant sur l’apprentissage de l’ensemble des législations et toutes autres sources comme les antécédents judiciaires, ces sources sont soit installer au sein du système de ce chatbot, soit utiliser la technique de `data mining` pour collecter les informations de différentes sources mondialement. En vue de sa compétence, ROSS et devient le premier robot embouché par un Lawfirm (société d’avocat) au Etats unie.

Au même sens, Xiaofa est un robot situer dans le premier tribunal de Beijing (chine) où il présente la consultation juridique pour les visiteurs du tribunal, aussi il aide les personnes à comprendre les termes juridiques. En plus, Xiaofa peut répondre sur 40 milles questions en domaines des contentieux juridiques, et peut traiter avec 30 milles problématiques juridiques[48] .

Le problème qui se pose dans ces LAWBOTs est celui de la déshumanisation du rapport client/conseil ou encore du rapport avocat/associé en ce que limpasse est faite sur la dimension interpersonnelle et lensemble des compétences que nous avons identifiées supra comme relevant des softskills i.e., sens commun, intelligence émotionnelle, éthique professionnelle[49].

Un autre moyen d’utilisation de l’AI au domaines d’avocats est l’automatisation de certaines tâches accomplies de façon habituelle par les avocats, comme le cas de donner à un système AI de créer des documents juridiques à partir d’un module déjà reconnu par la base de donner de ce système afin d’éviter les fautes et l’abréviation du temps et d’efforts.

Sous-section 2 : limites et difficulté de l’utilisation de m’intelligence artificiel dans les domaines d’avocats.

Pourquoi le métier d’avocat ? il existe certaines études qui estiment que dans le future proche le métier d’avocat sera inexistant, et va se remplacer par des robots ou systèmes d’intelligence artificielle. Mais pour connaitre est ce que cette estimation sera vrais ou fausse, faut d’abord connaitre Comment une personne devient un avocat ? est-ce que l’habilité humaine mémorisée les codes et les législations, ou son habilité d’interprété ces derniers selon les besoins de tout client.

L’un des deux facteurs qui permet une personne d’être un vrai avocat et l’habilité de présenté une consultation adéquate à un client basé sur une communication directe, d’où l’avocat extrait les faits constitutifs de la problématique qui va être l’axe de l’action, quel que soit la façon par laquelle le client parle et telle qu’elle est sa langue.

un système d’intelligence artificielle peut être très avancée en ce qui concerne l’analyse et l’étude des millions des documents et donnés dans un temps brève pour donner une réponse soit une série des probabilité basé sur les informations situés dans  sa base de données, mais une bonne consultation juridique n’est pas juste l’objet d’un ensemble des documents et législation, mais il est le résultat de revivre et reconstituer les faits selon les conditions du client et son point de vue et son milieu de vivre, et c’est la chose qu’un robot ou ordinateur ne peut jamais se faire soit maintenant soit au future.

Le deuxième facteur c’est l’interprétation des lois et des législations, et la faculté de l’être humain de trouvé les vides juridiques. Chaque cas se caractérise par des faits spéciaux qui nécessitent l’interprétation des lois selon ces cas. Un robot peut faire une interprétation mais seulement pour les termes telle qu’elle est introduite dans son système, qui peut être applicable sur le cas ou non.

il est très commun à la doctrine que l’interprétation diffère de chacun à un autre et comme les avocats disent, `interrogez 10 avocats sur le même sujet, et vous obtiendrez 12 réponses différentes`. Si l’on admet que ce phénomène n’est pas causé par les défauts des juristes interrogés, mais qu’il est un effet normal de la nature des problèmes juridiques et des caractéristiques des textes légaux ; alors on peut s’attendre à des effets considérables sur ce que l’on peut espérer de l’apprentissage machine, aussi bien entrainées que soient les machines. Voilà qui limitera les domaines où l’IA peut être utile aux avocats[50] .

Résumé :

Quel que soit les avis et les réponses des experts, soit au domaines de la loi ou d’informatique, sur la relation droit/intelligence artificielle. La vérité et que les règles juridiques de notre temps ne sont pas prêtes pour l’intelligence artificielle.

Même que les connaissances humaines sont très peu sur cette technologie et sont future est cague, avec une accorde du part des experts informatiques que cette technologie va menacer tous les domaines humains, soit on ce qui concerne ses libertés ou moyen de vivre.

La règle dit que le fait crée le droit, c’est-à-dire le législateur attend qu’un problème se produite pour penser de faire une loi pour le contrôlé. Et le fait que l’être humain et encore incapable de connait tous sur cette technologie, donne l’impossibilité de faire des loi adéquate pour contrôlé cette technologie et le protégé et de protégé contre elle.

What's Your Reaction?

like
0
dislike
0
love
0
funny
0
angry
0
sad
0
wow
0