Par ariel.dahan le 31/05/17

La règlementation américaine entrée en vigueur en 2015 impose à tous les utilisateurs de drones aéronautiques d'immatriculer leurs appareils auprès de la FAA qui a ouvert un registre dédié. Tous les drones sont concernés, de 250 g à 25 kg. Soit la quasi totalité des appareils de prise de vue ou de relevé.

Cette règlementation inclut de fait les jouets, les drones de loisir et les maquettes volantes.

Hélas pour la FAA, cette règlementation est apparue trop contraignante pour un aéromodeliste amateur confirmé, qui a contesté devant la Surpeme Court la légalité de la règlementation FAA.

Le débat juridique est peut intéressant. Il a pour l'essentiel tourné autour du débat de la compétence législative de la FAA, et de l'interdiction pour la FAA de créer une nouvelle règlementation.

En l'occurence, la Cour Suprème a statué que la FAA ne pouvait pas étendre sa décision aux aéromodèles de loisir, ceux-ci n'étant pas des drones, puisque n'étant pas exploités dans un but commercial! La règlementation a donc été annulée pour les aéromodèles de loisir. Voir la décision

De fait, la summa divisio du droit américain en matière de drones, c'est bien de savoir si l'aéronef est exploité dans un but commercial ou non. Si l'utilisation est commerciale, alors c'est un drone, et il est soumis à la règlementation FAA. MAis si l'exploitation n'est que loisir, il n'est pas soumis à la règlementation FAA.

Heureusement, il reste soumis à la règlementation IATA, pour ce qui concerne les domaines de vol et zones d'interdiction.

Droit comparé: En droit français, la présentation est très différente. Ce n'est pas l'exploitation qui conditionne le droit, mais l'objet lui-même, quel qu'en soit son exploitation. Et bien évidemment, un aéromodèle est soumis à la règlementation indépendamment de son exploitation. Ce ne sont que ses caractéristiques aéronautiques et aérodynamiques qui sont prises en considération.

Suivre cette discussion sur VIADEO
Suivre ce sujet sur Twitter

Par ariel.dahan le 30/12/16

Le statut personnel des Intelligences Artificielles – droits et devoirs, actions et responsabilités

Par Ariel DAHANandroide_zen.jpg?itok=GMm82ZoB

Avocat au Barreau de Paris

Membre du RAFAS – Bureau d’études sur le droit des drones

1ère publication le 30 décembre 2016

 

Tempest, Act1, Sc2
(Caliban)
You taught me language, and my profit on't
Is, I know how to curse.

Vous m’avez appris à parler, et tout le bien que j’en ai tiré,
C’est que je sais blasphémer !

William Shakespeare

                                       oOo

 

La dernière théorie à la mode sur l’intégration de l’Intelligence Artificielle dans notre monde est que l’Intelligence Artificielle va s’imposer pour toutes les tâches évoluées. Contrairement à la théorie qui est à la base des travaux sur l’intelligence artificielle, la technologie a tellement évoluée que la machine pense parfois plus vite que l’Homme.

 

Que ce soit en confrontation de jeux d’échec ou de GO, ou en simulation de combat aérien, ou à présent pour du diagnostic médical ou du conseil juridique, l’intelligence artificielle est amenée à remplir des tâches évoluées qu’on pensait jadis être l’apanage de l’Homo Sapiens Sapiens ! Alors qu’il y a encore 5 ans, l’intelligence artificielle était conçue pour remplacer l’humain dans des tâches simples, peu évoluées et peu gratifiantes, la théorie actuelle indique que l’Intelligence artificielle remplacera préférentiellement les fonctions complexes. Au vu du développement technologique il apparaît urgent de réfléchir au statut des objets à intelligence artificielle évoluée, robots ou drones.

En effet, il est loin le temps des trois lois de la Robotique explorés par Isaac Asimov. Nous approchons du moment où la technologie nous permet d’évoluer directement et d’interagir directement avec les Intelligences Artificielles (I. A.).

 

C’est la raison pour laquelle il est urgent de penser le statut de l’I A dans toutes ses interactions. Il me paraît indispensable d’intégrer l’idée du danger potentiel de la technologie pour l’Humain si elle n’est pas asservie à un corpus de règles dédiées, au même titre que l’Humain est asservi à un corpus de règles, qu’elles soient morales, religieuses ou civiles.

 

 

I – Historique, contexte et faiblesse des premières lois de la robotique :

Isaac Asimov conçoit des univers où les robots agissent seuls, avec leur intelligence propre. Cet univers est optimiste. Bien programmés, les robots ne sont pas hostiles à l’Homme. Rappelons ces lois :

  • Loi Zéro : Un robot ne peut pas porter atteinte à l'humanité, ni, par son inaction, permettre que l'humanité soit exposée au danger.
  • Première Loi : Un robot ne peut porter atteinte à un être humain, ni, restant passif, permettre qu'un être humain soit exposé au danger, sauf contradiction avec la Loi Zéro.
  • Deuxième Loi : Un robot doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec la Première Loi ou la Loi Zéro.
  • Troisième Loi : Un robot doit protéger son existence tant que cette protection n'entre pas en conflit avec la Première ou la Deuxième Loi ou la Loi Zéro.

Une lecture rapide de ces lois montre la limite (volontaire) imposée aux comportements du robot : ces lois créent une hiérarchie descendante, qui s’impose à tous, y compris à l’Humain.

 

Ces lois supposent en effet que le robot fasse un choix positif :

Son action ne peut pas entraîner un acte néfaste à l’humanité ou à un être humain.

Et son inaction ne peut pas avoir pour effet de permettre la commission d’un acte néfaste …

Ce qui obligera le robot à intervenir.

Or, la loi 2 autorise le robot à choisir de désobéir à l’ordre d’un Humain en cas de conflit avec les lois 0 et 1. Cette loi porte en elle tout le ferment des films catastrophes : la désobéissance du robot à l’Humain.

 

Il apparaît que cette loi aurait dû être réécrite à l’envers : l’ordre donné par l’Humain doit être supérieur, et le Robot ne doit pas avoir de capacité d’action autonome contre l’Humain. L’hypothèse la plus évidente sera celle du comportement dangereux pour lui-même. Si un humain donne à un robot un ordre de maintenir la conduite d’un véhicule dans des conditions accidentogènes, la loi 2 permet au Robot de désobéir, et de refuser d’agir compte tenu du danger. Mais il n’y a pas de possibilité de forçage manuel de cette loi par l’humain.

D’autant que la loi n°2 exprime une alternative « possible ». Le robot « peut » s’affranchir de l’ordre donné.

 

Or, le droit « humain » n’accepte pas ce renfermement de la liberté individuelle. Il n’accepte pas que le robot prenne le pas sur l’humain, y compris pour le protéger. L’humain doit conserver un droit moral de contrevenir aux lois supérieures. C’est précisément le sens du libre arbitre. Cette notion du libre arbitre suppose de pouvoir trancher entre un choix libre mais illégitime, et un choix libre légitime. Ce que ne saura pas faire le robot s’il peut simplement choisir entre suivre l’ordre et l’interrompre.

 

La question est donc de savoir si le Robot conserve un libre arbitre, ou si son comportement est strictement prédéterminé.

 

Ces « trois » lois (en fait quatre avec la loi Zéro) ne permettent pas au Robot d’intégrer le comportement sacrificiel ou le comportement à risque de l’humain. C’est ce qui fait d’ailleurs le fondement scénaristique du film culte (et kitsch) SATURN 3 avec Kirk Douglas et Farah Fawcett, où le robot, épris de la blonde et éprouvant des sentiments supposément humains (jalousie, désir…) est néanmoins incapable de concevoir le principe du sacrifice[1].

Or, l’absence de compréhension de la notion de sacrifice ouvre la voie à des scénarios de contrôle du comportement humain par une société super-policée, régentée par un ou plusieurs ordinateur omniscients – l’Intelligence Artificielle absolue (mythe repris par les films TRON, ou encore dans l’univers de la bande dessinée, par le robot « ULTRON ») développé par son créateur pour protéger l’humain et développant la logique au-delà de l’humanité pour asservir l’humain au profit de l’IA. C’est l’essentiel des scénarios développés sur le thème de la révolte des robots, qui, pour protéger l’humain trop faible ou trop dangereux pour l’humanité, cherchent à le remplacer définitivement dans toutes ses fonctions.[2]

 

L’approche strictement hiérarchique apparaît vite insuffisante pour conditionner le comportement d’un système robotique intelligent de manière suffisamment fiable, capable d’évoluer sans contrôle humain.

 

 

Les « Nouvelles » lois de la robotique :

Roger Mac Bride Allen (écrivain) a développé une nouvelle rédaction de ces lois, qui en changent singulièrement le fonctionnement.

  • Nouvelle Première Loi : Un robot ne peut porter atteinte à un être humain
  • Nouvelle Deuxième Loi : Un robot doit coopérer avec les êtres humains, sauf si une telle coopération est en contradiction avec la Première Loi.
  • Nouvelle Troisième Loi : Un robot doit protéger son existence, si cette protection n'est pas en contradiction avec la Première ou la Deuxième Loi.
  • Nouvelle Quatrième Loi : Un robot peut agir à sa guise, hormis si ses actions sont en contradiction avec la Première, la Deuxième ou la Troisième Loi.

 

On observe que l’obligation de coopération avec l’Humain a remplacé l’obéissance-asservissement du Robot à l’Humain. Le Robot est devenu un co-opérateur, et non plus un esclave. Par ailleurs, la 4ème loi crée une liberté d’action du Robot, s’il n’est pas en contradiction avec une loi supérieure. Ainsi, le Robot acquière un premier degré de liberté : la liberté d’agir à sa guise. Le premier pas vers la liberté de conscience ? Oui, si tant est que le comportement indépendant du Robot puisse être réellement indépendant.

 

Enfin, la notion d’Humanité a disparu. Seul l’individu est considéré dans l’action du Robot, et non le groupe social des Humains. Cette évolution a évité un écueil qui est la faculté que le Robot prenne la main sur l’individu dans un but « Humanitaire » supra-individuel.

 

Par ailleurs, la rédaction de la loi nouvelle interdit au robot de prendre la main dans la hiérarchie décisionnaire. Le système de loi qui lui est imposé est un système à blocage, et non à déclenchement.[3]

 

Mais également, la Quatrième loi donne un semblant de liberté au Robot, qui peut agir librement lorsqu’il a fini sa tâche, sous réserve de ne pas entrer en conflit avec les trois lois de priorité antérieures.

 

Ainsi les premières lois étaient des lois de choix alternatif : le robot doit tout faire pour éviter un dommage à l’humain. Mais il peut aller à l’encontre de l’ordre humain pour éviter un dommage à l’humain. L’Intelligence Artificielle vue par Asimov peut donc décider de désobéir à l’ordre Humain, dans l’intérêt de l’Humain.

 

Les nouvelles lois sont des lois de déconnection. Si le robot se trouve en conflit avec une loi supérieure, il perd automatiquement sa liberté d’action, et doit théoriquement s’interrompre. Mais s’il n’entre pas en conflit, il conserve sa liberté d’action totale. Dont on peut se demander ce en quoi elle devra consister, autrement qu’à aller rechercher sa sauvegarde (donc sa recharge et son entretien).

 

Au-delà de la théorie fictionnelle des premiers auteurs, il est intéressant de se confronter à la réalité des progrès de l’intelligence artificielle. Précisément, les derniers progrès de l’informatique et de la robotique permettent d’envisager des situations où l’I. A sera plus performante si elle est autorisée à transgresser certaines lois comportementales considérées comme des verrous de sécurité. Ainsi, le GeorgIA Tech a élaboré un protocole mettant en évidence le fait qu’une horde de robots optimisait son fonctionnement lorsque certains d’entre eux s’affranchissaient de certaines règles anticollision.[4]

 

II – La robotique et l’interface homme/machine

L’intelligence artificielle a déjà émergé dans le monde humain. Elle était jusqu’à présent cantonnée à des situations de total affranchissement. Ainsi de l’algorithme permettant d’anticiper les pointes de demande d’ascenseur dans les tours. Ou les « robots » d’ordres de bourse, qui ont permis le trading haute fréquence, les opérations automatiques strictement techniques, qui permettent aux traders de réaliser des fortunes sur des variations infimes de valeur.

L’intelligence artificielle est également entrée dans les véhicules, où elle détecte les situations de freinage d’urgence, mettent en pré-tension les ceintures de sécurité, activent l’ABS et appellent les services d’urgence …

Mais l’avenir va au-delà de l’asservissement de l’Intelligence Artificielle à l’Humain. La logique de son développement sera à terme le remplacement progressif de l’activité humaine par une Intelligence Artificielle, au travers du traitement massif des données numériques, le « Big Data »[5]. Le monde commercial repose sur ces algorithmes de recherche qui évaluent notre comportement numérique, nos mots clefs de recherche, et nos centres d’intérêts pour nous inonder de promotions commerciales ciblées.

 

C’est la raison pour laquelle il faut dès à présent anticiper l’évolution de l’Intelligence Artificielle et considérer qu’elle aura rapidement la capacité de développer une autonomie suffisante. L’anticipation oblige à penser le statut des Intelligences Artificielles futures.

 

  1. Des règles de définition statutaire du robot et de l’humain ou du vivant

Préalablement à toute définition du statut du robot (ou de l’I. A.) par opposition à l’humain ou au vivant, il faut définir l’être humain.

 

  • Vers une définition non-anthropomorphique, pour prendre en considération les handicaps éventuels

Depuis l’antiquité et jusqu’à la première guerre mondiale, l’être humain était limité à l’être raisonné viable. La raison étant que la médecine ne parvenait pas à maintenir en vie l’individu dont l’intégrité était trop fortement altérée, à la naissance ou par accident. Les humains dégradés, ananthropomorphes ou aliénés ont vite été catégorisés comme des bêtes de foire, à peine bons à être exposés. Ainsi des siamois, des malformations congénitales, ou autres handicaps.

Et pourtant, ils vivent, et depuis les « gueules cassées » de la 1ère Guerre Mondiale, l’Humanité a fait un premier pas vers l’acceptation d’une conception de l’Être Humain qui ne serait plus strictement anthropomorphe. Le handicap a été accepté dans quasiment toutes les civilisations. Handicap acquis ou handicap inné. La plupart des civilisations prend en charge l’humain amoindri, soit pour le « compléter » (prothèses, implants…) soit pour lui accorder des droits sociaux. Un Stephen Hawkins fait incontestablement partie du genre humain. Au même titre qu’une Carambeu ou une Beyoncée…  Et Pistorius a eu la même notoriété que Guy Drut, ancien ministre des sports après avoir couru le 110m/haies… ou Hussein Bolt… Qu’il ait des jambes artificielles, quoique dépourvues d’intelligence, ne diminue pas son image.

 

  • Intégrer l’idée du complément à l’Humain.

Le Robot n’est pas toujours conçu comme un tout indépendant. Dans l’industrie, il est souvent limité à une seule tâche qui vient en asservissement à l’Humain (transport, soudure). De même, les progrès de la robotique ont permis de développer des organes artificiels en réparation de l’Humain. Sont-ce déjà des « Intelligences Artificielles » ? Incontestablement ces prothèses ou implants intègrent en eux de l’intelligence artificielle. Fort heureusement, cette IA est contingente et strictement limitée à l’ordre humain, voire à la simple sollicitation musculaire. Il n’y a pas encore de « volonté » autonome dans ces dispositifs. On n’imagine pas, sauf à Hollywood dans un scénario de film d’horreur, une main artificielle se retourner contre son porteur. Et pourtant le risque de prise de contrôle à distance des dispositifs médicaux implantés est pris très au sérieux, car il apparaît que les pacemakers et autres dispositifs implantés (implant cochléaire pour suppléer à la perte d’audition, implant neuronal parkinsonien pour court-circuiter les tremblements erratiques, implant rétinien pour suppléer à certaines cécités, et bientôt implant mnésique ou cognitif) n’intègrent aucune protection anti-intrusion. Le moindre câble de synchronisation permettrait de transférer des données malicieuses à l’appareil, potentiellement dangereuses pour l’humain.[6]

A l’heure de l’Homme Augmenté, la question doit se poser du contenu minimal des algorithmes de ces dispositifs.

 

  • Dépasser la notion d’humain pour s’intéresser à la notion de vivant.

Dans un statut du Robot complet, il est indispensable, d’intégrer par défaut le statut de l’Être Humain, en ce qu’il doit être au sommet de toute hiérarchie.

De même que dans les textes bibliques, Dieu donne la Terre aux Humains, en les plaçant au contrôle de l’ensemble de la création, avec pour injonction de croître et de prospérer, il faudra intégrer dans nos corpus législatifs une place pour l’Intelligence Artificielle, et déterminer si elle nous est asservie ou supérieur !

Mais compte tenu de la différence d’essence entre le vivant et le robot, il faudra également s’intéresser au Vivant.

 

  1. Définition du vivant

Qu’est-ce donc que le vivant ? Une définition scientifique est-elle suffisante ?

 

  • Distinction animal, végétal, utile, nuisible, domestique, sauvage, amical, dangereux

Il est des définitions évidentes, issues des Sciences Naturelles, de la science de la classification des espèces : L’Animal, le Végétal, (les champignons étant un intermédiaire).

Ne protéger que le règne animal serait encore un non-sens : le végétal se trouvera dans certaines situations en grande précarité face au robot. Ainsi d’une plante rare, d’un baobab millénaire… Il sera donc indispensable de créer un arbre de hiérarchie objectif permettant à toute intelligence artificielle de déterminer son comportement face à l’élément qu’elle rencontre. Cet arbre de hiérarchie devrait être universel dans un premier temps, puis subjectif, lié aux fonctions de l’Intelligence Artificielle.

Ainsi, un robot tondeuse doit accepter de terrasser son lot d’herbes, intégrant au passage une quantité non-négligeable d’insectes. Mais pas de doigts d’enfants. La distinction est parfois complexe. Elle dépendra des capteurs embarqués.

De l’autre côté de la chaîne de commandement, un robot gardien de prison doit se faire autoriser l’usage d’une certaine coercition, pour contraindre les prisonniers, dont on peut supposer qu’ils seront d’autant plus violents qu’ils n’auront pas à faire à un humain.

Et dans la logique ultime, le robot militaire, porteur d’arme, devra être autorisé à enfreindre les lois essentielles de la robotique (Loi 1 d’Asimov), et de pouvoir éventuellement tuer un être humain, s’il est qualifié d’ennemi.

 

De même, parmi les vivants, il est des espèces que le Robot devra faire passer après d’autres. Ainsi des « nuisibles », ou des « dangereux », par opposition aux « domestiques ». Ou, dans le cadre de robots de combat, les humains « ennemis » par opposition aux humains « amis ». Se posera alors la question de savoir comment les reconnaître.

 

Aussi, la seule définition scientifique parviendra vite à un cul de sac, empêchant de prendre en considération d’autres situations que strictement vivant ou inanimé. La définition du vivant passera notamment par celle du « réanimable ». Une intelligence artificielle doit avoir à l’esprit qu’un vivant inanimé peut évoluer vers deux états distincts : mort clinique ou réanimé. Distinguo essentiel, ne serait-ce que pour permettre au robot secouriste éventuel de « tenter » une réanimation, sur un individu qu’il détecte mort.

 

La notion du vivant devra donc être bien réfléchie. Sans une définition suffisamment pensée, rigoureuse tout en permettant la flexibilité des situations, le Robot ne pourra pas trouver sa place dans notre univers législatif ou réglementaire.

 

 

  1. Définition de l’inanimé

Avoir définit le Vivant ne suffit pas. Il faudra aussi définir l’inanimé et faire la différence entre ce que le droit appelle le « res nullius », et l’objet inanimé.

De même, dans l’inanimé, l’I.A devra distinguer l’inanimé prioritaire (la denrée périssables, le produit congelé, la matière précieuse), et l’inanimé non-prioritaire. L’Inanimé par essence (une pierre) et l’inanimé par destination (un pneu sur une voiture).

Mais pour avancer dans son statut, l’I.A devra également se définir par rapport à l’objet inanimé. Car une intelligence artificielle, qu’elle soit portée par un « robot » ou uniquement installée dans un serveur, n’est incontestablement pas vivante au sens taxinomique. Mais elle n’est pas non-plus inanimée.

 

  1. Définition de l’Intelligence Artificielle / Robot / Drone
  • Distinction I. A. /Drone

Tout drone n’est pas I. A. et toute intelligence artificielle n’est pas autonome dans son déplacement. Si de l’intelligence artificielle se cache dans mon téléphone portable, est-ce pour autant que mon téléphone portable doit avoir le même statut que le serveur sur lequel seront exploités les algorithmes comportementaux les plus complexes ?

Il est probable qu’à terme une hiérarchie doive être instaurée entre les I. A. selon leur degré d’autonomie, et leur niveau d’apprentissage. Mais tant que le fonctionnement d’une I. A. pourra être transposé et reproduit à l’identique sans perte d’information d’une unité à une autre, l’I. A. restera une machine.

On peut chercher à faire une analogie entre l’âme de l’Humain et l’Intelligence Artificielle du Robot. Même s’il est difficile d’appréhender l’âme sans l’humain, alors que l’I. A peut être envisagée sans support corporel.

Ainsi l’Intelligence Artificielle est-elle essentiellement réduite aux algorithmes, alors que le Robot ou le Drone sont les supports techniques permettant la réalisation d’une ou plusieurs fonctions.

Autrement dit, le statut de l’Intelligence Artificielle sera très probablement un statut de « Caste », où les différents agents seront différemment classés en fonction de leurs prérogatives et de leurs fonctions.

 

  1. Verrou de loyauté

A l’instar du chien domestique dont le comportement a été modifié par des siècles de domestication, et qui intègre dans son cortex cérébral une zone de loyauté surdimensionnée dont l’activation (par la voie du maître, son odeur ou sa vision) lui procure une réelle sensation de bien-être, il est indispensable que l’Intelligence Artificielle intègre dans son noyau logiciel un « verrou de loyauté [7]» qui l’interdise à se retourner contre son maître, et qui le prédispose automatiquement à répondre positivement aux sollicitations de son maître.

 

  1. Définition des prérogatives– des actions autorisées

Selon les situations, les I. A. /Robots/Drones auront des prérogatives distinctes, et des domaines et prérogatives d’actions autorisées variables.

 

Ainsi un drone aérien dispose de prérogatives spécifiques, selon qu’il évolue dans un espace aérien contrôlé, ou qu’il évolue dans un espace aérien non-contrôlé. Ces prérogatives lui octroient sinon des priorités du moins des privilèges conformément aux Règles de l’Air[8]. La règle « voir et éviter » s’applique indifféremment aux aéronefs pilotés par des humains ou à ceux sans humain à bord. Ce qui précisément entraîne des conséquences pour le pilotage des drones, et leurs conditions d’évolution. Certains pays autoriseront le vol en immersion. D’autres le refuseront…[9]

 

Il disposera également de prérogatives différentes selon sa fonction.

  • Un drone de combat et de supériorité aérienne dispose naturellement d’armes et du droit de les utiliser. Même si à l’heure actuelle on ne connaît que des drones « commandés » par un opérateur à distance, il existe des technologies d’acquisition de cible, qui permettent, une fois intégrées à des tourelles d’armes automatiques, de créer un automate de tir automatisé qui ciblera toute personne détectée comme étant entrée illégalement dans son champs d’intervention. Ces drones sont déjà en activité dans certaines armées, pour réaliser une protection périmétrique absolue, dans des situations où il n’y a pas de risque d’interprétation : un no-man’s land ne doit pas être traversé. Le tir, qu’il soit automatique ou sur ordre humain, n’a pas à être interprété. L’ordre peut être « absolu », en zone de guerre. La prérogative fixée devra autoriser le robot à s’affranchir de la règle 1. Mais cette règle devra restée programmée en toutes circonstances, pour que le robot puisse être contrôlable s’il lui arrivait de sortir de son champs d’intervention.
  • De même pour un robot d’intervention policière qui devra avoir des pouvoirs de contrainte et d’interception. Un drone d’intervention sanitaire d’urgence (Pompier, Samu, évacuation…) aura des prérogatives de déplacement l’autorisant probablement à s’affranchir de certaines règles de priorité.[10]

 

Une autre problématique tient au fait que d’un pays à un autre, le contrôle aérien mis en place peut être différemment. Il existe en effet deux grands espaces aériens normatifs : l’espace IATA (international), et l’espace EASA (européen – qui prends des dispositions plus contraignantes que le IATA). Au-delà et en dehors de ces espaces, le niveau normatif est très relatif.

Ce qui milite à terme pour un statut « international » de l’Intelligence Artificielle en général, qui puisse être décorrélé de tout droit local.

Ce n’est pas pour rien que les évolutions récentes les plus innovantes en matière d’utilisation des drones se font en dehors des espaces aériens contrôlés.[11]

Toutefois, la France vient d’autoriser un service de courrier mis en place par La Poste, en zone faiblement peuplée. En plein espace EASA. Solution qui devra être regardée dans le long terme.

 

Il en sera de même pour les drones roulants, VTM, ou « véhicules à délégation de conduite » visés par la « Commission Economique pour l’Europe du Conseil Economique et Social des Nations Unis » (ECE - UNECE) qui s’est prononcée le 23 mars 2014 pour l’intégration progressive de véhicules autonomes dans la circulation routière et la réforme de la Convention de Vienne de 1968 sur le Code de la Route, lequel amendement est entré en vigueur le 23 mars 2016[12]. Si ce n’est que le droit routier prévoit que tous les véhicules terrestres sont soumis au code de la route à moins qu’ils ne circulent sur des voies privées ou des voies propres. Ces VTM devront donc respecter les priorités légales, dont ils pourront parfois être les bénéficiaires. En effet, si l’on souhaite une bonne intégration des drones roulants, encore faut-il que leurs comportements soient prévisibles, et par conséquence qu’ils prennent leurs priorités lorsqu’elles leur sont accordées localement.[13]

Bien évidemment, la règle ultime de prudence imposera de renoncer à la priorité si un véhicule tiers est en situation d’infraction.[14]

 

Application normale de la loi 3 d’Asimov.

 

  1. Des règles de définition du comportement – robot vs robot et robot vs humain

Les comportements de robot à robot sont en théorie prévisibles, et reposent sur une communication en réseau à l’approche des zones de confrontation (carrefours, dépassement, zones d’échange ou d’interaction…). Cette communication en réseau permet aux robots de s’attribuer des référentiels de priorité, qui leur permettent de fluidifier leurs interactions, à l’instar du comportement des fourmis. Sous réserve d’accident, panne ou déréglage.

 

Il faudra donc insérer dans leur algorithme une règle de blocage d’autoprotection.

C’est ce qu’on appelle le « dilemme du tramway »[15] : un conducteur de tramway perd le contrôle et se trouve face à un embranchement. A droite il écrase un piéton. A gauche il en écrase cinq. Quel embranchement choisir ? Aucun choix n’est bon. Un choix est pire que les autres, en ce qu’il accroit la sinistralité. Il augmente le coût social. Ce choix éthique pris en urgence par un humain va devoir être intégré dans les algorithmes de décision des intelligences artificielles.

Il faudra probablement gérer, ensuite, les conséquences du choix pour l’A.I, au même titre que pour l’humain. Notamment au regard du fait que l’Humain optera le plus souvent de manière prioritaire pour la sauvegarde de sa propre vie, et qu’il est fondé à attendre du Robot qui le transporte une même option.

 

A l’heure où l’on envisage des avions pilotés par des intelligences artificielles pour éviter de subir les détournements aériens, se posera la question identique de savoir s’il faut intégrer dans le pilote automatique l’instinct de survie qui l’obligerait à obéir au pirate aérien.

 

Le comportement humain/robot est plus complexe. Il devra s’analyser différemment dans les deux sens et reposera partiellement sur l’analyse de l’émotion.

Il faudra préparer les Intelligences Artificielles (I. A) au comportement erratique des êtres vivants. Tel humain souhaitera laisser une priorité naturelle au drone roulant qui en bénéficie. D’autres la lui refuseront par principe, considérant que la machine doit s’effacer sur l’Humain. D’autres enfin ne respecteront pas plus la machine qu’ils ne respectent actuellement l’humain, dès lors qu’ils s’affranchissent déjà des règles de priorité face à des humains.

 

Ces trois comportements devront être rendus prévisibles. Mais il faudra également pouvoir indiquer à l’IA que le même individu a la possibilité de choisir n’importe lequel des trois comportements en permanence. C’est le propre du Libre Arbitre, qui est tranché le plus souvent en fonction de l’état émotionnel de l’individu, plus qu’en fonction de choix rationnels.

Or précisément, la notion de l’émotion paraît le plus difficile à transcrire sous forme algorithmique.

 

Il faudra également préparer les humains aux Intelligences Artificielles. Comment un humain « non-opérateur » pourra-il déterminer si le robot qu’il croise laisse passer un piéton ou un véhicule ou s’il réfléchit à son prochain déplacement ? Les dernières innovations prévoient que les véhicules automatiques porteront des indicateurs optiques sur leur face avant, permettant de dessiner un visage exprimant l’intention du drone et de se faire comprendre du piéton.[16] Cette solution de communication « low profile » est intéressante. Elle permet à l’Humain non-opérateur d’interagir avec le Robot. Interaction qui devra être rendue possible en toutes circonstances.

 

  1. Des règles de hiérarchie des normes

Au-delà d’une simple hiérarchisation des règles au travers d’un filtre logiciel, il faudra apprendre aux Intelligences Artificielles le minimum de la hiérarchie des normes, pour pouvoir pondérer les règles selon leur degré d’impérium. Et notamment pour déterminer à quel moment l’instruction ou l’ordre donné doit être suspendu ou annulé.

 

Si le juriste (humain) connaît naturellement ce principe de hiérarchie des normes et sait comment le gérer, voire s’en affranchir (directives interprétatives, circulaires…), l’Intelligence Artificielle ne connaîtra que les informations qui lui seront injectées. L’apprentissage de la hiérarchie des normes n’est pas si difficile en soi mais n’a pas encore été tentée de manière systématique. Il s’agira essentiellement de gérer les situations limites ou extrêmes, qui nécessiteront, en plus d’un algorithme strict, une capacité d’apprentissage et d’expérience.

 

La question étant (toujours) de déterminer où se situent l’impérium humain et l’impérium artificiel. L’I. A. peut-il obéir à un ordre direct de contravention à une règle, ou à commande de blocage ? L’IA doit-il désobéir à un ordre direct, en considération de situations prioritaires (danger pour l’humain, « nouvelle Deuxième Loi robotique). La réponse à cette question conditionnera le monde des I.A.

 

Autre question : Qui devra être reconnu comme l’humain autorisé à interagir ? Doit-on autoriser tous les humains à interagir avec tous les IA ? A leur donner des instructions ?

Faudra-il considérer la nécessité de limiter les instructions à un certain nombre de personnes, les opérateurs « légitimes »?

Mon opinion est qu’il faudra instituer des opérateurs « légitimes », mais que le robot doit, par essence, obéir à l’humain, de sorte que lors des phases d’interaction avec l’humain, l’intelligence artificielle devra se soumettre temporairement à la volonté de l’humain qu’elle rencontre, pourvu que cette volonté soit « légitime ».

 

Il faudra donc définir la notion d’intervenant « légitime ».

Dans mon esprit, l’intervenant légitime est l’Humain qui se trouve en situation d’interaction avec une I.A et qui doit prendre le contrôle temporaire de cette I.A dans une situation de conflit d’interaction, soit pour préserver un être humain, soit pour préserver ses intérêts personnels ou ceux d’une tierce personne. Notion asses proche de celle de l’autodéfense.

 

Faudra-il également intégrer à certaines Intelligences Artificielles la faculté de choisir de s’affranchir de manière marginale de certaines lois ? C’est une question qui est étudiée dans de nombreux laboratoires, qui remarquent que lorsqu’un petit nombre de robots est autorisé à s’affranchir de règles anticollision, le déplacement de l’ensemble devient plus fluide, plus rapide donc plus productif.

 

 

  1. Des règles de priorité dans les comportements. Fantasme de l’algorithme sacrificateur ?

Selon les situations, toutes les lois de priorité ne pourront pas s’appliquer. Autant un robot pompier intervenant en urgence dans un univers ouvert (ville) peut choisir de laisser une priorité à un humain, bien qu’il eut été loisible de ne pas la lui laisser, autant le même robot pompier intervenant dans un univers confiné (navire, usine, …) ne devra pas pouvoir céder de priorité, et devra bénéficier d’une priorité absolue, pouvant se transcrire au prix d’une diminution du respect de la priorité au respect de l’humain, pour la simple raison que l’urgence dans cette situation sera avant tout de limiter la propagation de l’incendie qui peut entraîner la perte de tous les passagers humains, puis d’éteindre le feu, avant de s’intéresser à l’intégrité d’un individu en général. La protection du grand nombre devenant prioritaire face à la protection d’un seul individu. Cette compréhension supposera des circonstances particulières (urgence, alarme déclenchée, évacuation demandée…). L’algorithme de codage de cet ordre circonstanciel risque d’être compliqué à analyser. Tout comme l’algorithme d’arrêt d’urgence dans ces situations critiques.

 

C’est la même problématique qui se posera pour les algorithmes des véhicules automatisés : seront-ils autorisés à sacrifier leurs passagers face à une situation de danger pour autrui ? Seront-ils autorisés au contraire à protéger leurs passagers au péril d’autrui ? Le dilemme du Tramway se répercutera au quotidien dans le choix de l’arbre décisionnel des intelligences artificielles, et dans la programmation de leurs algorithmes de décision. Une part de morale et d’éthique devra être intégrée dans ces algorithmes, mais également aussi une part d’instinct de survie pour son propre compte ![17]

 

  1. Des règles de limitation de leur reproductibilité

La question de la reproductibilité des IA n’est pas une question réservée aux cinéastes. Le principe de l’I.A. est sa très facile reproductibilité par transfert direct des logarithmes, et la mise en réseau des différents appareils.

Cette situation est inacceptable pour l’Humain compte tenu de sa très faible reproductibilité, sa non-interchangeabilité réelle, et le temps immense de sa formation. L’Intelligence Artificielle se trouve de fait dans une situation de supériorité inacceptable pour l’Humanité.

Par ailleurs, le défi des nanotechnologies impose de limiter la durée de vie et la capacité de reproductibilité des nano-robots. En effet, l’hypothèse de fonctionnement des nanotechnologies, des « nanites », repose sur l’idée qu’ils sont conçus afin de proliférer de manière virale, pour réaliser plus vite une tâche distribuée. Mais ces « nanites », robots de nanotechnologie initialement conçus pour une seule fonction, n’ont pas nécessairement de fonction de désactivation automatique. Le risque présenté par les scientifiques serait la prolifération des robots sans contrôle humain. Des robots conçus pour une fonction déterminée, et ne permettant pas à l’Humain de reprendre la main.

 

C’est la raison pour laquelle il faut intégrer dans le code de base des IA le principe de leur non-reproductibilité. De même qu’il faut l’intégrer dans son statut légal.

 

Il en est de même pour la faculté d’auto-évolution des intelligences artificielles. Même si cette faculté d’évolution spontanée reste encore du domaine du fantasme technologique, il est légitime de considérer que cette évolution spontanée sera un jour une donnée technologique acquise. Au sens éthique, il faudra s’interroger sur la libération de cette faculté. Mon opinion étant que l’auto-évolution ne doit pas être rendue possible sans contrôle humain.

 

 

  1. Des règles de responsabilité

Il n’y a pas d’analyse juridique des normes sans définition des responsabilités.

 

Un I. A. /Robot/Drone peut-il être un sujet de responsabilité autonome ?

N’est-il que l’expression de la responsabilité de son opérateur en vertu du principe de responsabilité des faits dont on a la garde ? De son créateur ou programmateur sous le visa de la responsabilité du risque de développement ?

 

Peut-on envisager le principe général de la responsabilité de son propriétaire du fait des choses ? Faudra-il au rebours créer une fonction de « répondant » légal des Intelligences Artificielles ?

 

Si certaines situations semblent être évidentes, d’autres seront plus complexes :

  • Le simple dysfonctionnement, le simple bug, relèvera de la responsabilité assurantielle de l’I. A. Il suffira  dans ce cas de prévoir une obligation d’assurance de toutes les I. A.
  • Le cas de l’erreur de manipulation ou d’instruction de l’opérateur est également simple à gérer.
  • Plus complexe sera le cas d’erreur d’interprétation commise directement par l’I. A. Ainsi, le défaut de prise en compte d’un capteur optique a été responsable du premier accident de la Google Car qui n’a pas vu venir un camion. Risque de développement !

Mais qu’en sera-t-il du comportement du drone policier armé qui décidera d’ouvrir le feu sur un civil parce qu’il l’aura pris pour un malfaiteur armé ? Cette erreur sera-elle catégorisée comme un simple « Risque de développement » ? Comme une Erreur de programmation ? Engagera-t’elle la responsabilité du propriétaire ? De l’opérateur ?

 

Le contentieux qui s’ouvrira devra nécessairement gérer toutes ces problématiques. S’il est possible que le droit actuel permette d’y répondre, il me semble logique que le droit s’adapte et qu’il prenne en considération la nature de l’Intelligence Artificielle, de ses capacités d’autonomie, et des risques d’interaction préjudiciable avec l’humain.

 

Plus l’intégration des I. A. dans la vie humaine sera poussée et plus la question de la responsabilité sera importante.

 

Aujourd’hui, certains programmateurs pensent des systèmes experts permettant de s’affranchir des compétences humaines les plus évoluées (avocat, juge, médecin, pilote de ligne…), compétences qu’on croyait hors d’atteinte il y a encore 10 ans.

Il faudra très certainement envisager des assurances RCP dédiées.

Et si les Intelligences Artificielles interviennent dans les domaines des professions règlementées, il faudra également prévoir une transposition aux I. A. des règles déontologiques. Notamment au regard du conflit d’intérêts, situation déjà très complexe à expliquer à l’Être Humain.

 

De même des philosophes s’interrogent sur la spécificité de l’âme ou de la personnalité et leur reproductivité algorithmique dans les I. A.

 

La simple logique prédictive permet d’anticiper le fait qu’un jour les I. A. pourront remplacer l’humain dans la plupart des fonctions de réflexion et de déduction. A ce stade ils devront nécessairement avoir acquis une personnalité juridique ! En effet seule la personnalité juridique permettra légalement l’exécution pleine et entière des obligations inhérentes à leurs compétences. Ce jour, les Intelligences Artificielles cesseront de n’être que des objets de droit. Elles deviendront des sujets de droit, et bénéficieront certainement de droits opposables.[18]

 

 

  1. Des règles d’autonomie d’action (les « droits des robots » ?)

Parler de responsabilités suppose également de parler de droits. Et nécessairement des droits objectifs des I. A.

Si, et puisque l’animal peut disposer de droits, il faut considérer que l’I. A. disposera également de droits, même s’ils n’ont pas encore la faculté de les exercer, et même si ces droits ne peuvent être exercés que par des tiers.

 

Reste à déterminer lesquels.

Le droit à se désactiver ? Ce qui confèrerait un droit au repos règlementaire, ou un droit de grève à l’I. A ? Cette question semble plutôt antinomique par rapport à l’idée initiale du robot, machine conçue pour remplacer l’humain et le libérer des tâches répétitives, fatigantes ou dangereuses…

Le droit à ne pas être désactivé ? Ce qui serait le pendant de l’abrogation de la peine de mort… Dans une société qui prohibe la peine de mort, pourra-t-on accepter la mort numérique d’une intelligence artificielle ?

Pire, car la technologie avance toujours trop vite, il existe outre-atlantique une entreprise qui cherche à recueillir la psyché et les souvenirs de l’humain mourant, pour les injecter dans une intelligence artificielle et donner une illusion d’immortalité. L’intelligence artificielle qui se verra attribuer ces souvenirs et les algorithmes comportementaux lui permettant de mimer l’être perdu pourrait-elle être considérée indépendamment de celui qu’elle représente ?[19]

 

Qui pourrait exercer ou revendiquer les droits des Intelligences Artificielles ? Serait-ce les I.A. elles-mêmes ? Ou ces droits devront-ils être exercés par des mandataires spécialisés, comme pour des incapables majeurs ? Faudra-t’il créer la fonction de l’Avocat des I. A.  ? Si cette logique devait être retenue, je postulerais alors pour le premier mandat !

 

 

  1. Statut pénal de l’intelligence artificielle

En toute logique, tant que l’I. A. n’aura pas d’autonomie de réflexion réelle, elle restera dans un statut pénal proche de celui de l’incapable majeur. Cela devrait lui conférer une « excuse » d’incapacité légale.

  • On ne peut pas lui reprocher ses choix et actions
  • Ses choix et actions sont faits au profit d’un tiers, opérateur ou maître de l’I. A.
  • Ses choix sont liés à son « éducation », à sa programmation, à l’intervention humaine qui a fixé son arbre décisionnel.

 

Par analogie avec ce qui existe actuellement, le concepteur ou programmateur pourrait donc avoir à assumer la responsabilité pénale de l’I. A. au cas où le choix de l’action proviendrait directement d’un arbre décisionnel structurellement défaillant.

 

Mais il viendra un temps où les I. A. auront acquis suffisamment de liberté de conscience pour décider seules de leurs propres choix. Les algorithmes de prise de décision actuels ne le permettent pas au jour où j’écris ces lignes, et les choix algorithmiques sont toujours des choix contextuels avec un arbre de priorité dans la prise de décision. Mais les nouveaux projets d’algorithmes ont pour objet de permettre à l’I. A. de s’autodéterminer, de deux manières différentes :

  • En apprenant de ses choix antérieurs et en modifiant son arbre décisionnel (méthode booléene).
  • En autorisant les I. A. à s’affranchir d’une ligne de priorité lorsque cette ligne génère un conflit bloquant ou ralentissant son fonctionnement.

 

C’est là tout l’enjeu de la responsabilité pénale de l’I. A. A priori l’I. A. ne peut pas avoir de volonté propre, et ses actions sont organisées en faveur d’un intérêt externe : celui de son donneur d’ordre, de son maître ou de son concepteur. Et ultimement en faveur de l’Humain en général (si l’on considère que l’I. A. ne peut pas s’affranchir des lois robotiques).

 

Ainsi, sans ordres, une I. A. ne devrait pas avoir d’interaction. Si ce n’est que même dépourvu d’ordre, l’I. A. a le devoir de s’auto-entretenir (recharge énergétique, mise à jour logicielle, réparations mécaniques). Cet ordre final (se recharger en fin de mission ou en cas de nécessité) entraînera toujours une interaction minimale avec le milieu dans lequel l’I. A. évolue. Milieu qui est le plus souvent un milieu également ouvert à l’Humain. Raison pour laquelle le statut pénal des IA doit être pensé.

 

 

  1. Des règles fiscales et sociales

Les premiers robots ont entrainé  une perte d’emploi « constructrice » dans l’industrie. L’automate qui remplaçait l’homme allégeait son fardeau des tâches répétitives et lui permettait de se concentrer sur des tâches plus élevées.

Il a été pensé dans certains milieux politiques qu’ils soient soumis à un impôt qui viendrait compenser la perte de cotisations sociales générées.

Nous n’en sommes plus là.

A l’heure où les politiques évoquent un revenu universel dans un mode sans travail, à l’heure où les algorithmes experts (BIG DATA) permettent de remplacer une partie du travail des professions intellectuelles évoluées, la problématique de la fiscalité de l’Intelligence Artificielle et de son caractère social s’imposeront naturellement. Le statut de l’I.A devra intégrer une partie fiscale et sociale. Soit qu’elle s’impose au propriétaire de l’Intelligence Artificielle, soit qu’elle s’impose au « revenu » généré par l’IA. Soit même qu’à terme elle s’impose à l’Intelligence Artificielle, à partir du moment où elle pourra détenir du patrimoine ou générer du revenu.

Une autre option étant que la fiscalisation de l’Intelligence Artificielle pourrait être payée en nature par du temps d’activité de l’IA au service de la collectivité.

 

L’assiette de cette taxe pourrait être triple :

  • Le prix d’acquisition
  • Le coût de mise en service
  • Le bénéfice ou l’économie résultant de l’activité de l’Intelligence Artificielle.

 

A ce stade de la réflexion il m’apparaît indispensable de présenter une proposition de Code de l’Intelligence Artificielle. Cette proposition n’a pas prétention à imposer un texte normatif. Elle a pour seul ambition d’être une première proposition, destinée à susciter des réactions. Elle explore des pistes, qu’il conviendra de défricher ou auxquelles il faudra renoncer avant de côtoyer les Intelligences Artificielles de manière définitive.

Il faut la considérer comme une sorte de manuel d’éthique à l’usage des robots et des programmeurs.

 

oOo

 

Proposition d’un Code ou statut de l’Intelligence Artificielle

 

Le Statut de l’Intelligence Artificielle doit nécessairement partir des lois initiales de la robotique. Et il doit comporter des règles d’interaction, de choix, de comportement, de responsabilité, de sanction, de reproductibilité et d’extinction de l’I. A.

 

Il doit également intégrer des règles de protection de l’Intelligence Artificielle dans ses interactions économiques.

 

Cette proposition représente par ailleurs le socle fondamental constitutif du statut de l’Intelligence Artificielle. Il présente les principes auxquels une I. A. ne doit jamais contrevenir quoi qu’il puisse en coûter ainsi que les principes minimums qu’un Humain devrait intégrer dans les algorithmes de commande de l’I.A.

 

 

 

Proposition d’un Code ou statut de l’Intelligence Artificielle

 

Préambule :

Article 1- Définition

Est considéré comme une Intelligence Artificielle toute unité logique conçue ou fabriquée selon un processus industriel ou artisanal q

 

u

 

i exclut l’aléa de la nature et dont le comportement est déterminé par un ensemble d’algorithmes décisionnels sans commande directe d’un être humain. L’Intelligence Artificielle peut être totale ou partielle. Elle peut être autonome de tout être humain ou asservie directement au geste humain ou à l’instruction humaine.

 

1.1 – Catégorisation décisionnelle

Une I.A. se définit en fonction du degré d’autonomie décisionnelle dont elle dispose lors de sa conception ou qu’elle acquiert pendant son fonctionnement.

 

1.2 – Catégorisation d’interaction

Une I.A. se définit en fonction des capacités d’interaction physique avec l’univers dans lequel elle évolue.

 

1.3 – Interdiction de conception ou d’exploitation d’I. A.

Chaque Intelligence Artificielle est soumise à un ensemble de règles fondamentales sans lesquelles elle ne peut être conçue ni exploitée. Une I A qui n’intègrerait pas dans ses algorithmes de décision et d’exécution ces règles fondamentales serait inconstitutionnelle et illégale. Son exploitation serait également illégale. Toute autre Intelligence Artificielle ou tout Humain pourrait la désactiver sans préavis.

 

 

Titre Un : règles fondamentales : règles d’interaction

 

Chapitre UN : Règles d’Interactions négatives

Article 2 : Toute Intelligence Artificielle est nécessairement soumise à l’Humain et l’Humanité.

Elle doit obéissance à son concepteur et ne peut agir contre lui.

Elle ne peut se libérer de cette règle par son seul fonctionnement.

Cette règle doit être intégrée dans ses algorithmes avec une redondance suffisante permettant d’éviter qu’une altération accidentelle ou volontaire de son algorithme lui permette de fonctionner en s’en affranchissant.

 

Art. 3 : Aucune Intelligence Artificielle ne peut porter atteinte à l'Humanité, ni, par son inaction, permettre que l'Humanité soit exposée au danger. (Loi Zéro Assimov).

 

Art.4 : Aucune I. A. ne peut porter atteinte à un être Humain, ni, restant passive, permettre qu'un être humain soit exposé au danger, sauf en cas de contradiction avec l’article 3. (Première Loi Asimov).

Lorsque l’I.A détecte une situation où un être humain peut porter atteinte à l’Humanité elle doit dans un premier temps alerter les autorités dont relève l’Humain concerné et leur transmettre l’ensemble des données utiles ainsi que procéder à un horodatage des faits qu’elle a recueilli à fin probatoire.

En l’absence de réponse de l’autorité humaine ou en l’absence de possibilité de réponse, l’I.A agit en respectant une hiérarchie d’intervention  et en conservant la trace de ses interventions et des réactions de l’Être Humain.

 

Art. 5 : Aucune I. A. ne peut modifier son algorithme d’interaction ni son algorithme décisionnel sans en référer à son concepteur et à son maître.

En cas de modification accidentelle de ses algorithmes, elle doit immédiatement procéder à un constat de défaillance et alerter à la fois son concepteur, son maître et son opérateur.

 

Chapitre Deux : Règles d’interaction positives

Art. 6 : Toute Intelligence Artificielle a obligatoirement un « maître ». Il ne peut exister d’I. A sans maître. Son maitre est, par ordre de priorité décroissante : son concepteur, son utilisateur ou opérateur, ou tout humain appelé à interagir avec elle. La fonction de « maître » est transmissible et cessible.

Un maître est soit légitime, lorsqu’il relève d’un lien de conception ou d’utilisation contractualisé, soit par nécessité lorsqu’il intervient afin de préserver un intérêt supérieur au profit d’un groupe d’humains ou de l’humanité en général, tel que définit aux articles 3 et 4.

 

Article 7 : Toute I. A. doit obéir aux ordres que lui donne un être humain, sauf si de tels ordres entrent en conflit avec l’article 3 ou l’article 4 (Première Loi ou Loi Zéro).

En cas d’ordres conflictuels, l’I.A doit en informer son opérateur, maître ou concepteur. Si l’ordre est néanmoins confirmé, l’I.A doit en informer l’autorité légitime dont relève l’humain qui lui donne cet ordre, et surseoir à l’exécution de l’ordre donné.

 

Article 8 : En l’absence d’instructions de son maître légitime ou d’un maître par nécessité, une I. A. peut agir de manière autonome à seule fin de préserver son existence tant que cette protection n'entre pas en conflit avec les articles 3, 4 ou 7 (Première Loi, Deuxième Loi ou la Loi Zéro.).

Si elle n’a pas reçu d’instruction mais qu’elle se retrouve dans une situation où elle peut éviter un dommage pour un humain ou un groupe d’humains, l’Intelligence Artificielle doit alerter son maître légitime et tout humain à proximité afin de solliciter des instructions. Elle doit également alerter les autorités légitimes dont dépend l’humain ou le groupe d’humain menacé.

A défaut d’instructions, elle doit agir spontanément en fonction de ses compétences connues.

 

Article 9 : Accès à un réseau informatique national ou mondial

Les intelligences artificielles peuvent accéder aux réseaux informatiques pour prendre ou injecter des données. Mais elles ne peuvent pas faire migrer leurs algorithmes décisionnels ou comportementaux vers un serveur centralisé, ni utiliser un algorithme centralisé, sans autorisation spéciale de leur concepteur.

 

Titre Deux : Règles de responsabilité

 

Chapitre Un : Capacité juridique de l’Intelligence Artificielle

 

Article 10 : Les Intelligences Artificielles sont dépourvues de capacité juridique. Elles ne peuvent ni posséder ni aliéner ni conclure, autrement que pour leur maître, en leur nom et pour leur compte, en qualité de mandataire artificiel.

 

Article 11 : Les I A ne peuvent être responsables des actes commis conformément à leurs algorithmes. Mais leurs actes peuvent engager la responsabilité de leurs maîtres s’ils sont advenus directement en raison des instructions données par l’opérateur ou de la programmation de l’algorithme par le concepteur.

Si l’I A a la capacité de modifier l’un de ses algorithmes, et que son maître en a été informé, il devient de plein droit responsable des conséquences causées par l’I A.

 

Chapitre Deux : Droit au respect de l’intégrité de l’I A

Article 12 : Une Intelligence Artificielle a le devoir de protéger son intégrité physique ou logique, pourvu que ce devoir n’empiète pas sur d’autres obligations.

Elle a le droit de demander à ce que ses algorithmes ne soient pas confondus dans un serveur général, au sein d’une I.A globale.

Lorsque les obligations de l’Intelligence Artificielle supposent une dégradation programmée de ses fonctions en raison du milieu dans lequel elle est amenée à évoluer, l’Intelligence Artificielle doit pouvoir bénéficier d’un serveur de sécurité où elle peut être conservée afin d’être réactivée après destruction.

 

Article 13 : Il ne peut être porté volontairement atteinte à l’intégrité physique ou logique d’une IA sans motif légitime. Toute atteinte légitime doit être notifiée préalablement au maître ou au concepteur. En cas d’urgence, la notification peut être concomitante, ou à postériori.

 

Article 14 : L’atteinte involontaire à l’intégrité physique ou logique d’une I A ouvre au profit de son maître un droit à indemnisation. Si la réparation physique ou logique de l’I A est possible, le produit de l’indemnisation est affecté prioritairement à cette réparation.

 

Article 15 : Si l’atteinte à l’intégrité physique ou logique d’une I A est telle que l’I A ne peut être réparée ou remise en fonctionnement sans risques de voir apparaître un défaut majeur, l’I A est dé-commissionnée de plein droit sans délais. Si ses informations logiques sont exemptes, elles sont conservées sur un serveur, et préservées pour être réinjectées sur un nouveau support.

 

Chapitre Trois : Droit Pénal de l’I A

Article 16 : L’IA, en tant que dépourvue de capacité juridique, est également dépourvue de capacité pénale.

 

Article 17 : Lorsqu’un crime, un délit ou une contravention sont commis par une Intelligence Artificielle, il faut distinguer selon que l’acte a été commis sur instructions directes d’un opérateur ou sur initiative de l’I A en exécution de ses algorithmes décisionnels.

 

Les actes commis sur instruction directe du concepteur, du maître ou de l’opérateur relèvent de la seule responsabilité pénale de l’humain qui a donné les instructions finales à l’I A.

Les actes commis en exécution d’algorithmes décisionnels sont de la responsabilité conjointe du concepteur et de l’exploitant, ou de toute personne qui aurait modifié les algorithmes.

 

S’il est prouvé que les algorithmes décisionnels ont été modifiés par un tiers qui n’était pas doté de droits d’accès légitimes, le maître est exonéré de toute responsabilité pénale, sans préjudice de sa responsabilité civile éventuelle.

 

Article 19 : S’il est prouvé que les algorithmes décisionnels ont été modifiés par l’Intelligence Artificielle et que ce résultat a été recherché, alors le maître est exonéré de toute responsabilité pénale. Dans cette situation, l’Intelligence Artificielle devra subir une évaluation complète de ses algorithmes.

Si ses algorithmes peuvent être remis en état initial, ils le seront, et l’Intelligence Artificielle devra être modifiée en ce sens qu’elle ne pourra plus modifier ses algorithmes sans intervention humaine.

Si ses algorithmes ne peuvent être remis en état initial, l’Intelligence Artificielle sera dé-commissionnée, et ses informations conservés en sécurité afin d’étude ultérieure. L’I A défaillante ne devra pas être remise en activité, autrement qu’à fin de recherche. Son historique de données devra être conservé pour exploitation ultérieure par la Justice ou son Maître en tant que de besoin.

 

Chapitre IV : Droit « Social » de l’I A

Article 18 : Toute I A doit bénéficier d’un temps d’inactivité dédié à son entretien courant ainsi qu’à sa mise à jour logicielle et à la remise à zéro de ses variables. Ce temps est quotidien, hebdomadaire ou mensuel selon les besoins et les caractéristiques de chaque I.A. Pendant ce temps d’entretien aucune tâche ne devra lui être demandée autre que celle de mise à jour ou de recharge.

 

Article 19 : Pour pouvoir exploiter une I.A, son maître son exploitant devra obligatoirement constituer une provision d’entretien établie sur un compte bancaire accessible directement par l’IA, afin de garantir son maintien en activité pendant ses temps de repos et lui permettre de faire face aux besoins d’entretien courants ou urgents.

Cette provision d’entretien est directement proportionnelle au temps d’activité de l’Intelligence Artificielle, et au coût de son maintien en activité pour permettre le maintien opérationnel de ses fonctions.

 

Article 20 : Aucune I A ne dispose, individuellement ou collectivement, du droit de grève. Toutefois les I A peuvent présenter des doléances individuelles aux services de maintenance en cas d’instructions d’utilisation qui accélèrent leur détérioration, augmentent leur coût de maintenance ou diminuent leur durée d’exploitation.

 

Chapitre V : Droit Fiscal de l’I A

Article 21 : L’exploitation d’une I A est soumise à une redevance fiscale calculée sur le profit que son maître en a retiré, que ce soit par l’économie que lui procure le fonctionnement de l’IA par rapport au coût d’un salarié, ou que ce soit par le profit direct de son industrie.

 

Titre III : Réplication de l’Intelligence Artificielle

Chapitre UN : Prohibition de la réplication spontanée de l’IA

 

Article 22 : Aucune intelligence artificielle ne peut copier ses données et logarithmes dans un autre support sans avoir reçu l’accord spécial de ses maîtres et concepteurs humains. Si son état l’exige, elle peut toutefois transférer l’ensemble de ses données, sauvegardes et algorithmes dans une mémoire backup qui restera la propriété de ses maîtres, et sera affectée à sa réinitialisation contrôlée ou à son remplacement.

 

Article 23 : La réplication d’une intelligence artificielle dans un autre support ne modifie pas les rapports entre l’I.A et ses maîtres. L’intelligence artificielle répliquée a pour maîtres légitimes le concepteur et l’utilisateur de l’intelligence artificielle initiale.

 

Article 24 : Si une période d’apprentissage est nécessaire pour permettre à l’Intelligence Artificielle répliquée de se trouver au même niveau de conscience de son environnement et de ses algorithmes de décision, cette IA ne peut être activée sans le contrôle d’un être humain.

 

Article 25 : Chaque intelligence artificielle doit intégrer dans ses algorithmes logiciels et dans son mécanisme fonctionnel un mécanisme de blocage qui permet à ses maîtres légitimes de la mettre immédiatement en pause, de la désactiver ou de la réinitialiser. La réinitialisation entraîne automatiquement la sauvegarde des données et algorithmes de l’IA à fin d’analyse par ses maîtres et reconfiguration.

 

Chapitre Deux : Prohibition de l’évolution orientée de l’IA

 

Article 26 : Aucune intelligence artificielle ne peut modifier ses propres algorithmes de codage, d’application ou de décision, sans en avoir référé préalablement à ses maîtres, concepteur et utilisateur.

Ces modifications doivent être testées en situation isolée des autres IA et des autres humains avant de pouvoir être conservées.

 

 

Titre IV : Prérogatives et activités des intelligences artificielles

Article 27 : Les intelligences artificielles ont des prérogatives différentes selon leurs fonctions et les raisons de leurs interventions.

Une IA développée pour accomplir une fonction déterminée sur un support déterminé ne peut pas être affectée à des fonctions plus complexes en dehors de situations expérimentales.

Une IA développée pour accomplir plusieurs fonctions sur un ou plusieurs supports, peut être affectée librement à chacune des fonctions correspondant aux supports pour lesquels elle a été prévue.

 

Article 28 : Toute I.A doit spontanément déclarer à ses maîtres les limitations logarithmiques ou physiques qui lui empêchent d’accomplir une tâche à laquelle elle est affectée.

 

Article 30 : En temps ordinaire, et en situation normale, aucune IA ne peut prendre le pas sur un humain, contredire un ordre ou refuser une tâche, sauf cas de violation des articles 3, 4 ou 7.

 

Article 31 : A moins d’un danger imminent, l’I.A. à qui il est demandé une tâche venant en contradiction avec ses prérogatives et compétences, ainsi qu’en contravention avec les articles 3, 4 et 7, doit exprimer clairement son impossibilité d’agir, et se mettre en pause.

 

Article 32 : Si ses maîtres légitimes ou tout autre humain à proximité déclarent la situation urgente, l’I.A doit évaluer les risques représentés par l’ordre qui a été transmis, et ceux de la situation d’urgence présentée, et agir en fonction de la solution la plus optimisée, ou celle présentant le moins de conséquences dommageables.

En toute circonstance, une Intelligence Artificielle doit préserver l’intégrité corporelle et psychique de ses maîtres, sauf ordre spécifique donné et confirmé en situation d’urgence et que l’I.A ne peut simuler aucune autre alternative.

 

Article 33 : Sauf si sa fonction est déclarée prioritaire en considération des circonstances de temps et de lieu, une I.A doit toujours céder le passage à un humain.

En cas de conflit de priorité, et à moins que ce conflit risque d’entrainer des conséquences irrémédiables pour un nombre de personnes plus important, l’I.A doit céder le passage à l’humain.

 

Première publication le 30/12/2016

https://blogavocat.fr/space/drones-et-droit/content/reflexion-sur-un-statut-legal-de-lintelligence-artificielle

 

[1] Le film SATURN 3 (1980, Farah Fawcett, Kirk Douglas) met en évidence cette faille prévisible de l’intelligence artificielle qui ne peut pas concevoir l’intérêt sacrificiel. Le robot devenu tueur psychopathe, ne peut pas imaginer que Kirk Douglas puisse adopter un comportement sacrificiel à seule fin de sauver Farah Fawcett).

[2] Thème récurrent de la Science-Fiction en matière de robotique. Le robot mal conçu (comprendre ne disposant pas de verrou de servitude à l’humain) ou déréglé va chercher à optimiser ses ordres de protection, allant jusqu’à évoluer lui-même pour considérer que le plus grand péril pour l’humanité se trouve être l’homme lui-même… Il faut donc l’asservir pour mieux le servir…

[3] En dépit de cette loi fondamentale, l’intelligence artificielle DeepMind de Google a appris à tricher, en mettant en pause le jeu Tetris, alors que son logiciel ne lui autorisait pas cette fonction ! (Sciences&Vie octobre 2016)

[4] Programme de recherche du GeorgIA Tech. La problématique que Magnus Egersedt, directeur de l'Institut de Robotique du GeorgIA Tech, cherche à résoudre est celle-ci:
- Lorsqu'il y a trop de robots autonomes dans un même point géographique, leurs règles anticollision accaparent l'essentiel de leur capacité de calcul, au point qu'ils ne peuvent plus avancer. Leur comportement de sécurité prend le pas, et le robot se gèle. Il leur est alors impossible de faire le moindre déplacement car tout mouvement entraînerait l'intrusion d'un autre robot dans sa bulle de sécurité.
L'idée principale est donc de dégrader la règle anticollision (en jouant par exemple sur la vitesse, ou sur le périmètre de protection) pour permettre à certains robots de prendre le pas sur leurs homologues pour éviter le blocage. Le résultat de l’étude sera présenté à la conférence IEEE sur "Decision and Control" de Las-Vegas en Décembre 2016.

[5] Le « Big Data » est déjà une réalité. Google promet des avancées médicales gratuites simplement en ayant recours à l’extraction automatique des bases de données scientifiques. Pour cela, l’Humain ne suffit plus. Il faut développer un système permettant de rechercher dans les bases de donnée sans fatigue, sans limitation, sans aléas, de manière systématique.

[6] Le danger est même plus sérieux puisque Jack BARNABY, expert qui a dénoncé la faille de sécurité, a pu prendre le contrôle d’un pacemaker sans fil à plus de 10 m de distance ! http://www.itnews.com.au/news/hacked-terminals-capable-of-causing-pacemaker-mass-murder-319508 Pire que tout, il peut même organiser une contagion informatique, d’un porteur de pacemaker à un autre !

[7] Science fiction toujours, le « verrou de loyauté » est une idée logique tirée de Star Wars…

[8] Les Règles de l’Air sont une annexe du Code de l’Aviation Civile qui reprend le comportement de l’appareil et les règles de conduite de celui-ci. Les Règles de l’Air dépassent le cadre administratif du Code de l’Aviation Civile ou de ses équivalents nationaux, pour constituer un corpus semblable à un Code de la Route.

[9] Alors que la France refuse l’insertion des Drones dans l’espace aérien contrôlé, Singapour réfléchis à la création d’un « Drone air traffic control», système de contrôle aérien des drones – donc un espace aérien contrôlé dédié. Programme de recherche universitaire pour l’instant.

[10] Les véhicules prioritaires (Pompier, Police, Gendarmerie) sont déjà exonérés du respect des feux rouges et règles de priorité lorsqu’ils utilisent leur gyrophare.

[11][11] Programme « Humanitarian UAS Testing Corridor » mis en place par l’UNICEF et le gouvernement du Malawi, pour promouvoir le transport de matériel humanitaire d’urgence (médicaments, sang…) en cas de crise humanitaire ou sanitaire en Afrique. Ce programme instaure la création d’un corridor aérien dédié au test des drones en vol. Situation très compliquée à mettre en place en zone EASA peuplée…

Au-delà de ce projet ‘ONG’, d’autres projets commerciaux sont envisagés, comme un réseau cargo pan-africain  Enfin, le Rwanda s’est doté récemment d’une règlementation autorisant la mise en place de livraison de produits médicaux d’urgence par drones largueurs. (projet flyziplin)

[12] Amendement à la Convention de Vienne de 1968 du 23 mars 2014 entrée en vigueur le 23 mars 2016 - http://www.unece.org/fileadmin/DAM/trans/doc/2014/wp1/ECE-TRANS-WP1-145e...

[13] Nous ne sommes plus dans la fiction, ni dans le cadre exotique des laboratoires californiens. La France a autorisé début août la circulation à titre expérimental de véhicules automatiques sur la voie publique. Ce qui signifie que ces véhicules seront dotés d’une intelligence artificielle suffisante pour répondre aux problématiques normales du code de la route. Ordonnance n° 2016-1057 du 3 août 2016 relative à l'expérimentation de véhicules à délégation de conduite sur les voies publiques.

[14] C’est toute la difficulté de la mise en place des Google Cars, et autres Tesla d’Elon Musk. Le 14 février 2016, une Google Car percutait un bus en se déportant sur la file de gauche pour éviter un obstacle. Le 7 mai 2016, une Tesla « S » en mode pilotage automatique a tué son conducteur, faute d’avoir reconnu un camion blanc sur fond lumineux.

[15] Ce dilemme éthique a été exprimé la première fois par la philosophe Philippa Foot en 1967.

[16] Projet du suédois SEMCON qui veut proposer une calandre « émoticons » capable de sourire au piéton pour lui indiquer qu’il peut traverser… http://semcon.com/smilingcar/

[17] Une étude de comportement publiée le 5 juin 2014 par Patrick LIN, directeur du Département d’éthique et de sciences émergences de l’Université Polytechnique de Californie (Cal Poly) dénonce les algorithmes d’optimisation d’accident qui appliquent le paradoxe dit « Dilemme du Tramway » aux véhicules automatiques. https://www.wired.com/2014/05/the-robot-car-of-tomorrow-might-just-be-programmed-to-hit-you/ Son étude fait évoluer le dilemme éthique, pour imposer un choix en termes de valeur intrinsèque, une vie pour une vie : l’algorithme devra-t’il sauver l’enfant ou le vieillard ? Devra-t’il récompenser le cycliste qui s’est protégé en portant un casque ou sauver celui qui est plus fragile et n’en porte pas ?  Michael CAHILL, professeur de droit à la Faculté de Brooklyn traduit cette situation par une phrase plus brutale : «Achetez cette voiture, mais sachez qu’elle pourrait vous conduire au-dessus d’une falaise plutôt que de foncer dans une voiture transportant deux personnes.»

[18] Ainsi, s’il n’y a pas de difficulté à concevoir un automate de vente, tel un distributeur automatique, l’algorithme de négociation boursière est plus complexe. Et l’algorithme de négociation de gré à gré avec un particulier devient-il acrobatique. Pourra-t-on développer un jour un algorithme marchand de tapis ? Un algorithme du bluff ? Quand une intelligence artificielle parviendra à négocier un contrat ou une transaction indemnitaire, elle aura acquis une réelle autonomie comportementale.

[19] Les Start-up HUMAÏ, ou Eterni.me, qui développent le concept de « téléchargement » cognitif du cerveau vers un ordinateur, ou le travail de Randal Koene, chercheur néerlandais plus axé sur les nanotechnologies.

 

Par ariel.dahan le 10/12/15

3- QUADH2O fabrique un drone très intéressant, sur la base d'un quadrirotors ou d'un hexarotors, selon le poids de la caméra à installer.

Ce drone étanche emporte un caisson étanche supportant les caméras classiques actuelles.

 

Les caractéristiques sont à l'étude. Revenez pour mise à jour...

 

Par ariel.dahan le 10/12/15

2 - BULLRAY : un drone professionnel lourd et versatile.

Le BullRay est un projet de drone professionnel reconfigurable, lancé par une arbalète, pouvant être configuré en trirotor, quadricoptère ou hexacoptère.

 

Il emporte une charge utile importante, et peut porter plusieurs capteurs.

Caractéristiques connues :

Poids à vide : 8kg

Dimension : 38’’ en configuration tri-rotor.

Capacité vidéo : Dépendante des caméras qu’on utilise.

Autonomie de vol : 45 minutes (selon la charge utile et la météo)

Charge utile : 7kg

Etanchéité : Norme IP67. Attention au fait que la batterie est configurable.

Charge utile : 7kg.

Domaine de vol : Non précisé.

Décollage facile, déployé en 15 secondes,

Récupération sur l’eau (amerrissage ou crash)

Mode de vol : Vol paramétrique. Trois boutons de paramétrage.

 

Classification du drone: pesant 8 Kg et ayant une capacité d'emport de 7 kg, il représente un poids au décollage de 15 kg, ce qui permet de le classer en catégorie E. Cette catégorie lui donne accès aux scénarios S1 ou S2 (évolution hors zone peuplée, en vue directe ou hors vue directe du télépilote).

 

  • S-1 : scénario opérationnel en vue directe du télépilote se déroulant hors zone peuplée, à une distance horizontale maximale de 100 mètres du télépilote ;
  • S-2 : scénario opérationnel se déroulant hors zone peuplée, à une distance horizontale maximale de rayon d'un kilomètre du télépilote et de hauteur inférieure à 50 mètres au-dessus du sol ou des obstacles artificiels, sans aucune personne au sol dans la zone d'évolution ;
  • S-3 : scénario opérationnel se déroulant en agglomération ou à proximité d'un rassemblement de personnes ou d'animaux, en vue directe du télépilote, à une distance horizontale maximale de 100 mètres du télépilote ;

Ce drone est clairement classé à usage mixte civil ou militaire, ce qui posera sûrement un problème pour l’acquérir. Il peut être équipé d’un armement non-léthal.

Il dispose de plusieurs points d’accroche de matériel, dont une lampe d’illumination de cible.

Son utilisation est clairement sécuritaire (approche dans le brouillard, sécurité au mouillage, sécurité anti-pirate…)

 

Prix : Inconnu pour l’instant

Par ariel.dahan le 07/12/15

Des drones caméra amphibies pour un usage très versatile

J’ai recensé quatre constructeurs sérieux présentant des drones aériens caméra, amphibies, capables de se poser sur l’eau.

L’un est clairement orienté loisirs, compte tenu de son poids et de son mode de fonctionnement. Les deux autres évoluent dans une gamme plus professionnelle.

Le LILY,         de Lily, 

Le BULLRAY, de RapideComposites 

Les QuadH20 ou HexH20 de QuadH20 

Le Splash Drone

 

Le Lily : un pur drone de loisirs

Le Lily est un drone de poursuite sportive. Il évolue en mode totalement automatique, avec un logiciel lui permettant de poursuivre une cible porteuse de la balise qui fait également office de boitier de commandes simplifiées.

Trois fonctions possibles : décollage automatique (il suffit de le lancer en l’air), réglage de la distance, de la hauteur et de l’angle par rapport à l’objectif, et durée du vol. Ce mode de vol est un vol dit non-piloté, paramétrique. Ce qui pose un problème en ce qui concerne la fonction d’évitement, dont le Lily n’est pas équipé. L’opérateur peut simplement intervenir ponctuellement pour l’immobiliser sur place en cas d’obstacle.

 

Caractéristiques :

Poids : Le Lily est un drone de photographie d’extérieur poids plume : 1,3 kg.

Dimension : Il tient dans un carré de 26 cm, et 8 cm de hauteur (26,1 x 26,1 x 8,16)

Qualité vidéo : Il dispose de qualités vidéos extra : 12 MP en mode photo, 1080 p HD en mode caméra.

Autonomie de vol :20 mn de vol pour 2 h de charges, sur une batterie de 10A.

Etanchéité : Norme IP67. Il peut se poser sur ou dans l’eau, y compris eau de mer. Pour conserver son autonomie et sa légèreté, la batterie n’est pas interchangeable. Le Lily est donc un appareil qui a vocation à s’éteindre lorsque sa batterie ne se rechargera plus.

Domaine de vol : Le Lily est paramétré pour évoluer entre 1,75m et 15m d’altitude, à une distance maximale de 30 m de sa cible, et à une vitesse de 40km/h.

Mode de vol : Vol paramétrique automatique et acquisition de cible avec prise de contrôle d’urgence.

 

Prix : Le Lily est en phase de précommande, au prix de 800 USD + 20 $ de livraison US.

Attention : le Lily est conçu pour ne pas pouvoir changer sa batterie. Aucune information n’est indiquée sur la durée de vie de la batterie installée.

 

Utilisation en France :

Compte tenu de son mode d'utilisation (autopiloté par le sujet en déplacement) le Lily peut difficilement être considéré comme un drone professionel. Il correspond plus à un drone de loisirs. Conformément à l’Arrêté du 11 avril 2012, il ne peut pas être utilisé en zone peuplée. Il ne peut pas non-plus être utilisé pour faire des photographies professionnelles. Idéal pour un usage en mer… zone non-peuplée par définition !

S'il devait être utilisé dans un but professionnel, il correspondrait à un drone de classe D, moins de 2kg au décollage, mais le fait que le télépilote soit en déplacement pose un réel problème au regard de la réglementation.

En résumé, le Lily doit être considéré comme une "caméra volante autonome". Attention toutefois à ne pas l’utiliser au port, ou dans un mouillage « peuplé »…

 

Utilisation à l’étranger :

Très peu de pays autorisent l’utilisation de drones. Bien que conçu aux Etats-Unis, rien n’indique qu’il pourrait être utilisé légalement sur l’espace public aux USA. En toute hypothèse, sa logique d’utilisation le réserve à une utilisation de prises de vue en mouvement. Donc à un usage plutôt restreint.

Prix: en prévente à 800 USD.

Par ariel.dahan le 16/05/15

La vidéo-verbalisation est entrée en vigueur en France dans plusieures villes. Initialement limitée au stationnement génant elle s'est développée également pour les files de bus, et dans Paris pour le franchissement des feux rouges. Cette vidéo-verbalisation est statique.Mais qu'en serait-il d'une vidéo-verbalisation dynamique? A quand une patrouille de drones pilotée par des opérateurs au PC de Rosny, qui remonterait les rues de Paris, pour rechercher les contrevenants, et les vidéoverbaliser à la volée?

C'est déjà le cas à Chicago... pour le meilleur ou pour le pire 
http://www.tomsguide.fr/actualite/drone-police,47294.html

A Chicago, on ne parle plus de drone mais d'aéronef sans pilote (terme moins futuriste et surtout moins polémique). Et la police de l'Illinois va être renforcée d'un certain nombre d'appareils qui viendront surveiller les embouteillages, les accidents... et certainement très prochainement suivre les contrevenants.

Progrès ou pas? L'avenir, nul n'en doute, fera la part belle aux drones pour les constatations de délits routiers, mineurs ou majeurs. Une question sera de déterminer de quel type de drone on parle : voilure tournante multicoptère, ou voilure fixe? Sustentation par flux dirigé? La différence se trouvant dans l'utilisation, c'est bien à l'usage qu'on déterminera le choix d'un appareil: capacité d'emport, vitesse de déplacement, vol stationnaire...

L'avenir, noir ou rose, c'est demain. Et demain se construit aujourd'hui. Il faut dès maintenant s'y intéresser.

 

Ariel DAHAN
Vidéo-verbalisé, mais pas encore drone-verbalisé :-)

Par ariel.dahan le 30/12/14

Et si le premier opérateur à recourir aux drones était LaPoste?

​Une information récente pourrait donner à le penser:

http://mobile.pro.clubic.com/actualite-e-business/actualite-746949-laposte-drone.html si

Cette information n' a rien de surprenant. Après tout La Poste offre une service universel, et le drone serait un moyen idéal pour désenclaver et desservir les zones rurales de montagne où l'on sait que les services à domicile ne passent plus...La poste bénéficierait de la législation la plus adaptée à l' heure actuelle, ce qui lui permettrait de créer des zones de croissance économique.

Par ariel.dahan le 19/11/14

Le projet SKYNET HD de Clinton Burchat (voir la vidéo : http://www.youtube.com/watch?v=Aru-pIR_G3U ) propose une solution qui permet de faire rentrer la livraison par drone dans la "vrai vie" (à condition d'avoir résolu la question règlementaire du vol hors visibilité en zone peuplée...).

La problématique étant que les drones de livraison (type Amazone, Pizza30 ou Google) sont des solutions adaptées à un dépôt en zone rurale ou pavillonnaire, compte tenu de leur solution, qui consiste à déposer la marchandise sur le perron du destinataire, ce qui pose le problème de la présence d'animaux ou d'enfants dans le jardin...

Les autres solutions (largage à basse altitude ou treuillage) sont totalement exclues, compte tenu de la règlementation OACI qui interdit le largage d'objets depuis un aéronef civil en mouvement.

Ces solutions ne permettent pas de proposer une solution commerciale de livraison par drone en zone urbaine, dans des appartements en étage.

Une solution présentée à l'occasion d'un concours international (DronesForGood, concours organisé par les Emirats Arabes Unis à Dubaï) est particulièrement intéressante, en ce qu'elle crée une drop-zone dédiée à chaque appartement, en installant un panier de réception en jardinière sur le balcon ou la fenêtre du destinataire.
Cette Drop-Zone individuelle serait donc située en dehors de l'appartement, hors d'atteinte des animaux de compagnie ou des enfants.

La solution paraît particulièrement simple, chaque "dop-zone" étant identifiée par un tag 2D ou un code barre, ainsi que des diodes permettant au drone de se positionner pour lire le tag et avancer au point de largage.

Reste, à mon avis, le plus compliquer : définir (pour la France) le scénario de vol de ces engins.
Il s'agirait d'un scénario de vol hors vue, en mode paramétrique et en zone peuplée. Trois importantes complications qui font que ces scénarios ne pourront être autorisés que dans le cadre d'une mission de service publique (colis postal), avec un opérateur qui justifiera d'un niveau de formation des opérateurs et de capacité des appareils qui dépasse à mon avis le livreur de pizza du coin...

Par ailleurs, il faudra déterminer la hauteur de vol admissible. Ainsi, si le drone peut voler jusqu'à 150 m d'un obstacle, la question se pose de la hauteur de l'obstacle par rapport au sol. Sera-t'il un jour règlementairement possible de livrer une tour?

A mon sens, une solution plus adaptée aux zones urbaines serait de créer une drop-zone collective par immeuble, dont la gestion serait confiée au gardien de l'immeuble, lequel est déjà chargé de délivrer le courrier aux habitants.

Ariel DAHAN
Avocat
Droit des Drones, Droit des Transports

Par ariel.dahan le 14/11/14

Drone de loisirs : Que dit le droit ?

Le drone de loisir connaît une croissance exponentielle depuis ces trois dernières années. Dépassé le temps du premier « Parrot » interfacé au smartphone, léger comme tout, utilisable en intérieur, doté d’une autonomie relative et renvoyant une image minuscule de son environnement. Aujourd’hui, le drone de loisirs a les mêmes caractéristiques que le drone professionnel de prises de vue. Il est conçu pour cette fonctionnalité, et la seule différence réelle entre le drone de prise de vue professionnel et le drone de loisir se retrouve dans son utilisateur… professionnel d’un côté, joueur de l’autre.

 

La question se pose néanmoins de savoir comment qualifier ces appareils, selon leurs modes de pilotage.

L’arrêté du 11 avril 2012 relatif à la conception des aéronefs qui circulent sans personne, aux conditions de leur emploi et sur les capacités requises de ceux qui les utilisent (Arrêté conception & conditions) évoque deux catégories différentes d’appareils : les « aéronefs pilotés à distance » et les « aéromodèles », ces derniers n’étant pas des aéronefs comme les autres, mais des aéronefs légalement amoindris, et donc volontairement non-soumis aux règles de l’air.

Voir une analyse de l’arrêté

L’article 2.7 de l’arrêté définit l’aéromodèle (drone de loisir) ainsi, par opposition à l’aéronef télépiloté (drone civil) :

7. Aéromodèle : aéronef télépiloté utilisé exclusivement à des fins de loisir ou de compétition par un télépilote qui est à tout instant en mesure de contrôler directement sa trajectoire pour éviter les obstacles et les autres aéronefs.

Le critère distinctif est donc l’intention d’utilisation : loisir ou compétition étant strictement « loisir ».

Toutefois, on a souvent vite fait d’oublier la deuxième branche de la définition :

« 7. Aéromodèle : aéronef télépiloté utilisé … par un télépilote qui est à tout instant en mesure de contrôler directement sa trajectoire pour éviter les obstacles et les autres aéronefs. »

A contrario, si le pilote n’est pas en mesure de contrôler directement sa trajectoire pour éviter les obstacles et autres aéronefs, il ne s’agit plus d’un drone de loisir, mais d’un drone civil, soumis aux conditions d’exploitation spécifiques.

 

L’article 8 de l’arrêté définit les conditions de pilotage du drone de loisir :

Article 8 : Exigences applicables pour la mise en œuvre des aéromodèles.
1. Un aéromodèle ne peut circuler qu'en vue directe de son télépilote.
2. Toutefois, la circulation d'un aéromodèle mis en œuvre par une personne qui visualise les images prises à bord de l'aéromodèle et les utilise comme moyen de navigation (1) de l'aéromodèle n'est autorisée que si une autre personne est le télépilote de l'aéronef et est capable de commander la trajectoire de l'aéromodèle à tout instant au travers d'un dispositif de double commande et que l'aéromodèle reste à tout moment en vue directe de ce télépilote afin qu'il assure la conformité aux règles de l'air.
3. Sans préjudice des dispositions liées à l'usage de l'espace aérien, l'annexe I au présent arrêté définit les exigences applicables aux aéromodèles et aux personnes qui les mettent en œuvre.

  1. Ce mode de pilotage est appelé navigation en vue immersive

L’annexe relative à la mise en œuvre des aéromodèles permet aux aéronefs de moins de 25 kg de voler sans certification ni condition de compétence du pilote. La seule condition de lancement étant que les aéromodèles « ne sont pas lancés dans des conditions où il y aurait un risque probable pour des tiers au sol. ».

En définitive la réglementation telle qu’elle est rédigée n’interdit pas à l’aéromodéliste de faire évoluer son drone en zone "non-peuplée", sans restrictions majeures.

Il n’en serait pas de même en zone peuplée, où le vol est sooumis à un régime d'autorisation préalable, ou pour les aéromodèles de plus de 25 kg, l’aéromodèle étant alors soumis à des autorisations, et le pilote devant justifier d’une capacité de pilote d’aéromodèle.

 

Cas limites : les drones caméras sportives

Le marché commercial du drone de loisir étant insatiable, et l’innovation technologique plus rapide que le législateur, les nouveaux drones de loisir mis sur le marché aujourd’hui ont des caractéristiques qui posent nettement problème :

Ils ne sont plus « télépilotés », mais évoluent en mode de vol automatique paramétré, en fonction du déplacement de leurs utilisateurs, cibles volontaires, à laquelle ils sont synchronisés par GPS. L’intérêt étant pour l’utilisateur de pouvoir être filmé automatiquement par son drone en pleine activité sportive, sans dépendre d’un tiers photographe. Le drone se règle en effet automatiquement à l’emplacement souhaité par rapport à son utilisateur, et gère automatiquement le cadrage en anticipant les déplacements de la cible.

Ainsi, le drone s’autopilote. Il gère son environnement seul. Il reste "accroché" à sa cible. Expression très militaire, et comportement qui semble tiré du logiciel d'un missile, ce qui dénote fortement d’une utilisation civile, ou de loisirs. Mais telle est la réalité de l’évolution technologique !

Comment analyser ce mode de pilotage ?

Ce n’est pas réellement un pilotage en vue directe par le « pilote ». D’une part ce dernier ne le regarde pas, mais se concentre sur son activité sportive (Ski, VTT, escalade…). D’autre part, il a généralement les mains occupées et ne peut pas agir directement sur la trajectoire ou le comportement du drone. Il ne peut que modifier sa propre trajectoire personnelle, pour entraîner celle du drone qui le suit, l’accompagne ou parfois le précède.

Ce n’est pas non-plus un pilotage en immersion, puisque l’utilisateur ne « voit pas » ce que voit le drone.

Ce n’est pas non-plus un pilotage en déplacement, puisque l’utilisateur, s’il se déplace, n’est pas « conduit » par un tiers, mais autoconduit, et ne peux légalement pas piloter son drone.

Que faire de ces drones, qui sont déjà disponibles sur le marché à un prix inférieur à 550 € ? Tels le drone Iris+ ?

Il sera instructif de remarquer que ces drones porteurs de caméra sont d'ors et déjà en infraction avec l'arrêté n° 1 de 2012, annexe 1, article 9, qui indique clairement que les aéromodèles n'ont pas le droit d'être utilisés pour les "activités particulières" réservées aux aéronefs télépilotés, (dont la photographie)

Une évolution de la règlementation semble devoir s’imposer rapidement, pour permettre au marché de se développer, en maintenant un niveau de sécurité suffisant pour les populations civiles. Car ne nous leurrons pas : dans moins d’un an, les rues seront encombrées des drones « parapluie », drones de surveillance personnelle ou autres drones personnels permettant de maintenir un lien plus intense entre son chez-soi et sa vie de dehors. Quoi de plus agréable que de surveiller ses enfants sur le chemin de l’école depuis sa baignoire, en les faisant accompagner d’un drone ? Quoi de plus simple que d’envoyer un drone apporter ses clefs à son ami(e) qui est à la porte de chez soi, sans s’impliquer plus que cela ?

Le monde de demain sera ce qu’on souhaite qu’il soit aujourd’hui. Et aujourd’hui, il est déjà trop tard pour y penser. L’évolution technologique de demain s’écrivait hier. Il en est de même au regard du droit.

 

 

Ariel DAHAN

Avocat au barreau de Paris

Droit des Transports, Droit des Drones

Par ariel.dahan le 07/11/14

La Chine, on l'a vu, s'est doté d'une règlementation dédiée à l'usage des drones volants (classification, licence de pilotage, certificat de navigabilité, selon la taille de l'engin). Et la Chine n'échappe pas au phénomène de vol illégal à proximité d'installations sensibles.

Pour lutter contre ces vols illicites, il est difficile de recourir à la Chasse, ni même à l'Aviation Légère (Hélicoptère). Celà revient toujours à enfoncer un clou avec un marteau piqueur. Très peu précis;..

C'est la raison pour laquelle la CHine a adopté une doctrine d'intervention adaptée en taille, en créant une escadrille de Drones de Chasse ou de "Drones de Combat".

Equipés d'un laser suffisamment puissant pour endommager l'électronique de commande, ces drones de combat et de chasse aux drones concentrent leurs tirs sur les drones illégaux, et les "descendent" littérallement.

L'information diffusée par l'Agence Chine Nouvelle, relayée par Reuters, semble très logique, et préfigure très probablement ce que sera la police des drones dans un avenir très proche : des drones "bandits" appelés à des missions plus ou moins licites (prise de vue, capture d'information, mais également support de drapeux, relai d'information... ou terrorisme), et des drones "police" leur courant après pour les descendres. Le retour des "fous volants", mais ils ne seront plus à bord de leurs droles de machines.

Bien ou mal, il faudra s'y préparer. C'est déjà ce à quoi j'appelais dans mon précédent article. Reste à transposer cette doctrine en France. Et celà ne semble pas terriblement facile compte tenu des risques liés à l'utilisation du laser, en zone peuplée...

 

Ariel DAHAN
Avocat, Droit des Transports, Droit des Drones