Face aux divers dangers potentiels qui accompagnent la robotique, l’homme doit mettre en place les protections nécessaires pour s’en préserver.
Il n’y a qu’à observer l’évolution des ordinateurs pour se convaincre du bien-fondé de la démarche. En effet, alors que dans les années 70, les machines les plus performantes traitaient péniblement un million d’instruction par seconde, aujourd’hui le moindre PC portable en traite six milliards. À ce rythme, on prévoit que les machines pourront exécuter cent mille milliards d’instructions par seconde d’ici une vingtaine d’années.
La première règle de base est bien évidemment de respecter les trois lois édictées par Asimov et de la loi Zéro qu’il a ajoutée par la suite: en substance, aucun robot ne peut porter atteinte à l’humanité ni permettre qu’elle soit blessée.
Mais ces lois ont elles-mêmes leurs limites puisque la notion de mal est elle-même soumise à un appréciation subjective.
C’est pourquoi de nombreuses personnes se demandent à l’heure actuelle s’il ne faudrait pas instaurer des lois pour nous protéger des robots, car des questions d’ordres éthique et juridique risquent de se poser dans un avenir proche. Par exemple, peut-on laisser un pilote automatique prendre le contrôle d’un avion si le copilote ne suit pas les procédures d’usage ? Ou encore, comment garantir la protection de la vie privée ? Des concertations sont menées dans de nombreux pays à cet effet et elles pourraient aboutir à la création d’un droit de la robotique.
En attendant, ce ne sont pas les questions qui manquent, notamment sur la recherche en robotique sur l’autonomie à laisser aux robots, sur les règles à définir pour démarquer sans ambigüité le vivant du non-vivant, ou encore sur les limites de la rechercher sur l’augmentation de l’humain. Sans oublier la qualité émergente de l’euthanasie des robots.