
La responsabilité traditionnelle de l’exploitant de drones en Suisse atteint ses limites, car la prise de décision est de plus en plus déléguée à des systèmes autonomes.
- Le droit actuel se concentre sur le pilote humain, mais la réalité évolue vers des opérations autonomes et connectées (U-Space).
- De la logistique à la technologie médicale, la responsabilité se répartit entre les fabricants, les fournisseurs de logiciels et les exploitants d’infrastructures.
Recommandation : Les juristes et les exploitants doivent penser au-delà de la simple responsabilité du pilote et analyser plutôt les risques systémiques et l’ensemble de la chaîne de responsabilité pour être prêts pour l’avenir.
Le scénario est aussi futuriste qu’inquiétant : un drone de livraison autonome, chargé d’échantillons médicaux urgents, évite un obstacle imprévu et s’écrase dans un jardin privé. La question juridique qui se pose immédiatement semble simple à première vue. Le droit suisse, en particulier les normes de responsabilité civile, attribue clairement la responsabilité au détenteur ou à l’exploitant de l’aéronef. C’est la réponse établie, étayée par l’obligation d’enregistrement, d’assurance et de respect des zones d’exclusion aérienne, telles que prescrites par l’Office fédéral de l’aviation civile (OFAC).
Pourtant, cette réponse simple s’effrite face au développement technologique rapide. Que se passe-t-il si la décision de la manœuvre d’évitement n’a pas été prise par un pilote humain, mais par une IA ? Si la trajectoire de vol a été adaptée dynamiquement par un système central de gestion du trafic comme celui de Skyguide ? Ou si un capteur défectueux du fabricant a déclenché la chaîne fatale d’événements ? L’autonomie croissante déplace la responsabilité d’une seule personne vers un réseau complexe de matériel, de logiciels et d’infrastructures. La question de la responsabilité n’est plus seulement « Qui pilotait le drone ? », mais « Quel élément du système autonome a fait défaut ? ».
Cet article analyse l’érosion de la responsabilité traditionnelle de l’exploitant dans le contexte suisse. Nous examinons comment la coordination dans l’espace aérien, l’utilisation de robots dans l’industrie, la recherche militaire et même la logistique de précision remettent en question et redéfinissent le cadre juridique des systèmes autonomes. Il s’agit de comprendre la question de la responsabilité de demain, qui va bien au-delà du seul pilote de drone.
L’article suivant met en lumière les différentes facettes de cette zone d’ombre juridique. Il propose un aperçu structuré des développements technologiques et des questions de responsabilité associées, qui sont d’une importance cruciale pour tout acteur du secteur des systèmes autonomes en Suisse.
Sommaire : L’avenir de la responsabilité des drones en Suisse
- Gestion du trafic pour drones : comment Skyguide coordonne l’aviation avec et sans équipage
- Assistants à quatre pattes : pourquoi les robots sont préférables aux humains dans les installations industrielles dangereuses
- Recherche à l’ETH : où la Suisse tire-t-elle la ligne en matière de robotique militaire ?
- Vol hors vue directe : quelles preuves de sécurité l’OFAC exige-t-il ?
- Agriculteurs intelligents : comment les drones sauvent les faons dans les hautes herbes et pulvérisent l’engrais avec précision
- Comment l’armée adapte sa doctrine de défense à la fin de la neutralité classique
- Protection contre les chocs et la température : comment emballer les montres mécaniques pour préserver leur précision
- Du mouvement d’horlogerie au robot chirurgical : comment la précision suisse conquiert la technologie médicale
Gestion du trafic pour drones : comment Skyguide coordonne l’aviation avec et sans équipage
La vision d’un espace aérien automatisé n’est plus de la science-fiction en Suisse. Comme l’indique un rapport de la NZZ, la Poste Suisse transporte déjà des échantillons de sang de manière autonome entre des hôpitaux à Lugano depuis octobre 2017 – un projet pionnier et le premier service de ligne commerciale de ce type au monde au-dessus d’une zone habitée. La base technique de telles opérations est posée par le service de la navigation aérienne nationale, Skyguide, avec l’introduction progressive d’un système de gestion du trafic pour drones, connu sous le nom d’U-Space. Ce système va bien au-delà d’un simple enregistrement ; il crée un fondement numérique sur lequel l’aviation avec et sans équipage peut être coordonnée en toute sécurité.
Après des phases de test réussies à Genève, Lugano et Zurich, Skyguide a introduit un service numérique national pour la planification des vols et les autorisations dans l’espace aérien contrôlé. Les exploitants de drones peuvent soumettre leurs plans de vol en ligne et recevoir des autorisations ou des directives d’adaptation directement du système. Ici, la responsabilité se déplace déjà : le pilote n’agit plus de manière isolée, mais au sein d’un écosystème numérique géré par Skyguide. Les données que le pilote utilise pour ses décisions de vol proviennent directement de Skyguide, ce qui fait de la navigation aérienne une partie active de la chaîne de sécurité opérationnelle.
Cette centralisation soulève une question de responsabilité cruciale : que se passe-t-il si un accident est dû à des données erronées ou à une instruction incorrecte du système U-Space ? Si « l’autonomie décisionnelle » du pilote est limitée par les directives du système, la responsabilité pourrait ne plus incomber uniquement à l’exploitant, mais s’étendre au fournisseur d’infrastructure – dans ce cas, Skyguide. Le rôle du contrôle aérien passe d’une surveillance passive à une gestion active, ce qui nécessite une réévaluation de la responsabilité systémique.
Assistants à quatre pattes : pourquoi les robots sont préférables aux humains dans les installations industrielles dangereuses
Le transfert de responsabilité de l’homme à la machine se manifeste non seulement dans le ciel, mais aussi au sol, en particulier dans les environnements industriels à haut risque. Ici, des robots autonomes assument des tâches trop risquées, trop monotones ou simplement impossibles pour les humains. Un exemple suisse de premier plan est ANYbotics, une spin-off de l’ETH Zurich. Leurs robots à quatre pattes de la série « ANYmal » effectuent des travaux d’inspection et de maintenance dans des centrales électriques, des usines chimiques et sur des plateformes offshore.
Ces robots ne sont pas des jouets télécommandés ; ils naviguent de manière autonome, lisent des instruments de mesure, détectent des anomalies comme des fuites de gaz ou des surchauffes et transmettent des données en temps réel. L’utilité économique et sécuritaire est énorme. Selon un rapport de Bilan, plus de 200 robots ANYmal sont déjà en service dans le monde, les entreprises pouvant « engager » ces assistants mécaniques pour environ 8000 francs par mois. Ils travaillent 24 heures sur 24, sans fatigue et sans risque d’erreur humaine dans des situations critiques.

Cependant, là aussi, un vide réglementaire apparaît concernant la responsabilité. Si un tel robot ignore une situation dangereuse en raison d’une mauvaise interprétation des données des capteurs ou cause lui-même un dommage, qui est responsable ? Est-ce l’entreprise exploitante qui utilise le robot (responsabilité du propriétaire d’ouvrage) ? Ou est-ce ANYbotics en tant que fabricant (responsabilité du fait des produits), dont le logiciel d’IA a pris la décision ? La complexité augmente car l’« exploitant » ne définit souvent plus que l’objectif, tandis que la machine détermine de manière autonome le chemin pour y parvenir.
Recherche à l’ETH : où la Suisse tire-t-elle la ligne en matière de robotique militaire ?
Le développement technologique des systèmes autonomes est largement stimulé par la recherche dans des hautes écoles comme l’ETH Zurich. Un équilibre délicat s’établit entre utilité civile et application militaire, soulevant de profondes questions éthiques et juridiques. La Suisse, avec sa tradition de neutralité, est confrontée ici à des défis particuliers. De nombreuses entreprises suisses de robotique se positionnent clairement contre une utilisation militaire de leur technologie.
Ainsi, Péter Fankhauser, PDG d’ANYbotics, souligne un engagement clair dans les actualités de la SRF : « Nous promettons que nous n’utiliserons pas nos robots polyvalents de pointe ou les logiciels que nous développons comme armes – et nous n’aiderons pas d’autres à le faire. » Cette position éthique contraste toutefois avec l’intérêt croissant de l’armée pour les systèmes autonomes. Une enquête de la NZZ montre comment la collaboration entre les hautes écoles et l’office d’armement Armasuisse s’intensifie. Selon elle, les investissements d’Armasuisse dans la recherche universitaire sont passés de 4,9 millions de francs en 2016 à 9,85 millions de francs prévus pour 2025.
Cette problématique du « double usage » est centrale pour la question de la responsabilité. Alors qu’un robot civil est développé selon des règles claires de responsabilité du fait des produits, les systèmes militaires sont soumis à d’autres critères. Lorsque la recherche fondamentale, financée par des fonds publics et militaires, débouche sur des systèmes d’armes autonomes, les responsabilités s’estompent. La question « Qui est responsable ? » est supplantée par la question « Qui est responsable de l’engagement ? ». La frontière entre un outil et une arme autonome devient floue et met à l’épreuve le droit international ainsi que les lois nationales. La Suisse doit définir où elle trace la ligne rouge pour préserver ses principes éthiques et sa politique de neutralité.
Vol hors vue directe : quelles preuves de sécurité l’OFAC exige-t-il ?
L’un des plus grands obstacles techniques et réglementaires à l’utilisation commerciale des drones est le vol hors de la vue directe du pilote, connu sous le nom de BVLOS (Beyond Visual Line of Sight). Alors qu’un pilote de loisir doit toujours garder son drone en vue, des opérations telles que le transport d’échantillons de sang ou l’inspection de longues lignes électriques ne sont économiquement viables qu’en mode BVLOS. C’est précisément là que l’Office fédéral de l’aviation civile (OFAC) intervient avec des exigences strictes pour garantir la sécurité.
L’OFAC exige des exploitants qui souhaitent voler en BVLOS des preuves de sécurité complètes. Cela comprend une analyse de risque détaillée (SORA – Specific Operations Risk Assessment), des redondances techniques du drone (par exemple, des parachutes de secours) et, surtout, la compétence avérée du pilote. L’accent de la réglementation actuelle est fortement mis sur la qualification du « dernier maillon » humain de la chaîne. Le pilote doit être en mesure d’intervenir à tout moment, même s’il ne surveille plus le drone que via un écran et des données télémétriques. La réglementation s’accroche à l’idée du « Human-in-the-loop », l’humain qui garde le contrôle ultime.

Cette focalisation sur le pilote montre le dilemme des législateurs : la technologie évolue vers une autonomie totale, tandis que le droit tente de définir un responsable humain. Pour les exploitants de drones et les juristes, cela signifie que le respect des exigences formelles de l’OFAC est la condition préalable à toute exploitation légale. Mais ce n’est qu’une question de temps avant qu’un incident ne soulève la question de savoir si le respect de tous les protocoles de formation suffit lorsque le logiciel autonome prend une décision erronée imprévisible.
Plan d’action : Exigences d’enregistrement et d’examen de l’OFAC
- Effectuer l’enregistrement : Tous les drones à partir de 250g ou équipés d’une caméra doivent être enregistrés auprès de l’OFAC via le portail UAS.gate.
- Suivre la formation et le test en ligne : Une formation en ligne d’environ quatre heures doit être complétée par un test (min. 75 % de bonnes réponses).
- Passer l’examen pour la catégorie A2 : Pour l’exploitation de drones plus lourds (900g-4kg) à proximité de personnes, un examen théorique personnel supplémentaire auprès d’un organisme reconnu par l’OFAC est requis.
- Obtenir le certificat de compétence UE : Le certificat délivré après la réussite du test est valable dans toute l’UE et doit être renouvelé tous les 5 ans.
- Souscrire une assurance responsabilité civile : Une assurance responsabilité civile avec une couverture d’au moins 1 million de francs est légalement obligatoire pour tous les drones à partir de 250g.
Agriculteurs intelligents : comment les drones sauvent les faons dans les hautes herbes et pulvérisent l’engrais avec précision
Dans l’agriculture suisse également, les systèmes autonomes révolutionnent les processus de travail et créent une valeur ajoutée claire pour l’écologie et l’efficacité. Deux exemples notables sont le sauvetage des faons et la fertilisation de précision. Avant la fauche, des drones équipés de caméras thermiques survolent les champs pour repérer les faons cachés dans les hautes herbes et les sauver ainsi d’une mort certaine sous les lames des machines. D’autres drones agricoles analysent les besoins en nutriments du sol et pulvérisent des engrais ou des produits phytosanitaires au centimètre près, uniquement là où c’est nécessaire. Cela préserve l’environnement et réduit les coûts.
Malgré ces applications intelligentes, le cadre juridique reste traditionnel. Selon les lois suisses sur les drones, une assurance responsabilité civile est obligatoire pour tout drone d’un poids égal ou supérieur à 250 grammes ; pour les drones agricoles commerciaux (souvent plus de 500 grammes), une couverture minimale de 1 million de francs est prescrite par la loi. La loi continue donc de partir d’un cas de responsabilité classique : le drone de l’agriculteur endommage la propriété du voisin, et l’assurance du détenteur prend en charge les frais.
Ce modèle ignore la complexité croissante. Que se passe-t-il si le drone pulvérise le mauvais champ en raison de données erronées d’un service satellite externe ? Qui est responsable si le logiciel de détection des faons échoue ? Fait intéressant, une étude de l’Université de Saint-Gall montre que les consommateurs suisses sont prêts à payer un prix élevé pour des services de drones premium, mais qu’ils sont en même temps moins enclins à prendre des risques. Ce besoin de sécurité et de responsabilité claire augmentera la pression sur les législateurs et les fabricants pour rendre la chaîne de responsabilité plus transparente dans les systèmes agricoles autonomes.
Comment l’armée adapte sa doctrine de défense à la fin de la neutralité classique
Nulle part le passage à l’autonomie totale n’est poursuivi avec autant de détermination que dans le secteur militaire. Alors que les applications civiles sont encore fortement marquées par le principe du « Human-in-the-loop », l’armée suisse explore déjà des scénarios dans lesquels le contrôle humain est réduit à une simple fonction de surveillance. L’image traditionnelle des soldats pilotant directement des drones cède la place à une nouvelle doctrine misant sur la force des essaims et de l’intelligence artificielle.
Markus Höpflinger, responsable du Centre suisse des drones et de la robotique d’Armasuisse, a clairement formulé cette vision d’avenir à la SRF : « À l’avenir, en tant qu’humain, on surveillera des centaines ou des milliers de drones volant de manière autonome. » Cette déclaration marque un changement de paradigme. Il ne s’agit plus de piloter des unités individuelles, mais de gérer un système complexe s’auto-organisant. Ce changement est soutenu par des investissements massifs. Selon une annonce du chef de l’armée, jusqu’à 800 millions de francs seront dépensés au cours des quatre prochaines années pour tester de nouveaux systèmes d’armes, y compris des technologies autonomes.
Ce développement a des conséquences directes sur le concept de neutralité et la responsabilité juridique. Lorsqu’un essaim de drones autonome prend une décision aux conséquences létales, la chaîne de commandement traditionnelle et donc la responsabilité au regard du droit international sont à peine traçables. L’autonomie décisionnelle de la machine crée une zone grise qui défie le droit international humanitaire. Pour les juristes, cela signifie que les principes de distinction, de proportionnalité et de précaution en temps de guerre doivent être réinterprétés. La doctrine militaire repousse la frontière technologique et oblige la société à se confronter aux questions de responsabilité les plus inconfortables.
Protection contre les chocs et la température : comment emballer les montres mécaniques pour préserver leur précision
À première vue, le transport de montres de luxe semble avoir peu de points communs avec celui d’échantillons de sang. Pourtant, en y regardant de plus près, la comparaison des exigences logistiques révèle à quel point les profils de risque, et donc les conséquences potentielles en matière de responsabilité, peuvent différer dans le transport autonome. L’industrie de précision suisse, qu’il s’agisse de l’horlogerie ou de la technologie médicale, impose les exigences les plus élevées à l’ensemble de la chaîne d’approvisionnement.
Le transport d’une montre mécanique de haute valeur nécessite avant tout une protection contre les chocs et les températures extrêmes qui pourraient affecter sa mécanique délicate. La valeur est purement matérielle et hautement assurable. Le transport de biens médicaux comme des échantillons de sang par drone présente en revanche un profil de risque totalement différent. Ici, il est question de rapidité, de fiabilité et du respect d’une chaîne du froid ininterrompue. La valeur matérielle de l’échantillon est faible, mais sa valeur immatérielle – la santé ou même la vie d’un patient – est inestimable. Une erreur logistique peut avoir des conséquences potentiellement fatales.
Le tableau suivant, basé sur des données de la NZZ, compare les différentes exigences et illustre pourquoi la question de la responsabilité doit être examinée selon le contexte.
| Critère | Transport de montres | Transport de sang par drone |
|---|---|---|
| Charge utile maximale | Variable | 2 kg (Matternet) |
| Portée | Globale | Jusqu’à 20 km |
| Vitesse | Variable | Jusqu’à 70 km/h |
| Contrôle de température | Température ambiante | Chaîne du froid requise |
| Valeur d’assurance | Très élevée | Moyenne à élevée |
Cette comparaison montre clairement qu’une règle de responsabilité forfaitaire pour les livraisons autonomes n’est pas pertinente. Un juriste évaluant un cas de responsabilité lors d’un crash de drone doit tenir compte du contexte spécifique de la cargaison. La perte d’une montre entraîne un cas de sinistre relevant du droit des assurances, tandis que la perte d’un échantillon de sang peut soulever des questions de devoir de diligence médicale et potentiellement de lésion corporelle. Le type de marchandises transportées définit la dimension du risque et donc la complexité de la responsabilité.
L’essentiel en bref
- La responsabilité traditionnelle du détenteur selon le droit suisse reste la base, mais devient de plus en plus insuffisante avec les systèmes autonomes.
- L’autonomie décisionnelle des machines répartit la responsabilité sur une chaîne d’acteurs : fabricants, développeurs de logiciels, exploitants d’infrastructures et utilisateur final.
- Les futures évaluations juridiques devront analyser l’ensemble de la chaîne de responsabilité systémique au lieu de se concentrer uniquement sur l’opérateur humain.
Du mouvement d’horlogerie au robot chirurgical : comment la précision suisse conquiert la technologie médicale
L’ultime convergence de la précision, de l’autonomie et de la responsabilité se trouve dans la salle d’opération. La même ingénierie suisse qui produit des mouvements d’horlogerie filigranes alimente aujourd’hui le développement de robots chirurgicaux ultramodernes. Ces systèmes ne sont plus de la science-fiction, mais font partie intégrante de nombreux hôpitaux suisses. Ils permettent des interventions mini-invasives avec une précision qui dépasse celle de la main humaine. Cependant, ils représentent aussi la forme la plus complexe d’interaction homme-machine et soulèvent les questions de responsabilité les plus difficiles.
Un robot chirurgical n’est pas un acteur indépendant, mais un outil entre les mains du chirurgien. Néanmoins, il dispose de ses propres mécanismes de sécurité, de limites de mouvement et d’assistances logicielles. Si une erreur survient lors d’une intervention, la responsabilité se fragmente en plusieurs branches potentielles : le chirurgien (erreur de traitement), l’hôpital (responsabilité du propriétaire d’ouvrage pour des appareils défectueux) et le fabricant du robot (responsabilité du fait des produits). La délimitation exacte est extrêmement difficile au cas par cas et fait souvent l’objet de litiges juridiques complexes. Le devoir d’information du médecin s’élargit aux risques spécifiques de la méthode assistée par robot.
Ce développement en salle d’opération est le microcosme qui confirme la thèse centrale de cet article : plus un système devient autonome et complexe, plus le concept d’une seule partie responsable devient inadéquat. La responsabilité devient une question d’attribution au sein d’un système sociotechnique. Pour les exploitants de drones et les juristes, c’est une conclusion cruciale. Les structures juridiques qui se forment aujourd’hui autour des robots chirurgicaux sont un signe avant-coureur des modèles de responsabilité qui s’appliqueront demain aux réseaux de logistique et de trafic autonomes.
La réflexion sur ces questions de responsabilité complexes n’est pas un exercice académique, mais une nécessité opérationnelle. Pour les exploitants et leurs conseillers juridiques, il est impératif de prendre dès aujourd’hui des dispositions contractuelles et d’assurance qui vont au-delà de la responsabilité classique du détenteur et couvrent l’ensemble de la chaîne de responsabilité systémique.
Foire aux questions sur les systèmes autonomes et la responsabilité
Qui est responsable lors de l’utilisation de robots chirurgicaux dans les hôpitaux suisses ?
La question de la responsabilité est complexe et englobe potentiellement le chirurgien (erreur de traitement), l’hôpital (responsabilité du propriétaire d’ouvrage) et le fabricant (responsabilité du fait des produits). La responsabilité concrète dépend du cas d’espèce.
De quelles certifications les chirurgiens ont-ils besoin pour les opérations robotisées ?
Les chirurgiens doivent suivre des formations spécifiques et obtenir des certificats pour chaque type de robot. Les normes sont définies par les fabricants et les sociétés médicales spécialisées.
Comment se déroule l’information du patient pour les interventions assistées par robot ?
Le médecin doit informer le patient de manière exhaustive sur les risques spécifiques de l’assistance robotique afin que le consentement soit juridiquement valable.