Faut il contrôler l’intelligence des machines

Le chef d’entreprise de l’innovation technologique Elon Musk a récemment exhorté les gouverneurs du pays à réglementer l’intelligence artificielle « avant qu’il ne soit trop tard ». Musk insiste sur le fait que les connaissances contre nature signifient un «danger existentiel pour l’humanité», un regard alarmiste qui confond la technologie de l’IA avec la science-fiction. Néanmoins, même les experts de l’IA comme moi reconnaissent qu’il existe des problèmes valables concernant son influence sur les armes, les tâches et la vie privée. Il est naturel de se renseigner, peu importe si nous devons créer une IA quelconque. Je pense que la réponse est bien sûr. Mais ne devrions-nous pas faire un plan pour au moins ralentir les progrès sur l’IA, par curiosité de prudence? Cependant, lorsque nous y parviendrons, des pays comme l’Extrême-Orient nous rattraperont. Le cheval IA a gardé la grange, et notre meilleur pari est de faire un effort pour la diriger. L’IA ne doit pas être armée, et toute IA devra avoir un «interrupteur d’arrêt» imprenable. En plus de cela, nous devons normaliser l’influence concrète des systèmes d’intelligence artificielle (par exemple, la sécurité des automobiles autonomes) plutôt que de chercher à déterminer et à maîtriser le domaine amorphe et rapidement constructif de l’intelligence artificielle.Je recommande 3 politiques pour des solutions de capacité d’apprentissage synthétique. qui se trouvent être influencés par, mais développent davantage, les «trois directives juridiques de la robotique» que l’écrivain Isaac Asimov a lancées en 1942: Un robot ne peut pas blesser un individu ou, par inaction, permettre à une personne de visiter ; un robot doit obéir aux commandes qui lui sont présentées par l’humanité, sauf lorsque ce type d’achats bouleverserait avec les règles précédentes; ainsi qu’un robot doivent protéger son style de vie unique tant que cette sécurité n’est pas en conflit avec les deux lois précédentes. Ces trois lois et réglementations sont élégantes mais peu claires: en quoi consistent exactement les dommages causés par l’IA? Je suggère une base plus concrète pour éviter les dommages causés par l’IA, basée sur quelques règlements de ma part. Tout d’abord, un programme d’IA doit être soumis à toute une gamme de directives juridiques concernant son propriétaire individuel. Cette ligne directrice inclurait les méthodes privées, corporatives et commerciales et gouvernementales. Nous ne voulons pas que l’IA s’engage dans la cyberintimidation, la manipulation de l’offre ou les menaces terroristes; nous ne voulons pas que le FBI décharge les techniques d’IA qui poussent les individus à commettre des infractions criminelles. Nous ne voulons pas d’automobiles autonomes qui génèrent au moyen de lumières rouges, ou pire, d’outils d’IA qui violent les traités mondiaux. Notre réglementation fréquente doit être modifiée afin que nous ne puissions pas déclarer que notre système d’IA a géré un problème que nous ne pouvions pas comprendre ou prévoir. En d’autres termes, «Mon IA l’a fait» ne devrait pas raisonner contre la conduite de la loi. Ma prochaine directive est qu’un système d’IA doit évidemment révéler qu’il n’est pas un être humain. Quand nous avons vu en matière de bots – des logiciels qui peuvent s’engager progressivement dans des conversations avancées avec de vrais gens – la société exige des assurances que les techniques d’IA sont clairement définies comme ce genre de. En 2016, un bot appelé Jill Watson, qui s’est présenté comme un assistant pédagogique pour un cours en ligne à Georgia Technology, a trompé les étudiants en le considérant absolument comme humain. Une illustration beaucoup plus critique sera l’utilisation répandue de robots politiques professionnels-Trump sur les sites Web sociaux à l’intérieur des jours et des nuits les mieux notés aux élections de 2016, selon des experts d’Oxford. Mon conseil ferait en sorte que les hommes et les femmes sachent à quel moment un bot se fait passer pour quelqu’un. Nous avons certainement actuellement vu, par exemple, SEO Inside @DeepDrumpf – un bot qui a imité humblement Donald Trump sur Twitter. Les solutions d’IA ne produisent pas seulement de faux tweets; en outre, ils développent de faux clips vidéo de nouvelles. Des experts de l’École de Washington ont récemment lancé un clip vidéo d’imitation de l’ancien directeur Barack Obama à travers lequel il semblait convaincant de parler de termes qui avaient été greffés sur une vidéo en ligne de lui discutant de quelque chose de complètement différent. Mon troisième principe est le fait qu’un système d’IA ne pourrait pas conserver ou divulguer des informations confidentielles sans l’autorisation spécifique de votre méthode pour obtenir ces informations. En raison de leur excellente capacité à générer, documenter et évaluer rapidement des informations, les systèmes d’IA sont dans une situation de premier plan pour obtenir des détails privés. Tenez compte des interactions qu’Echo sur le marché en ligne d’Amazon – un «haut-parleur intelligent» contenu dans beaucoup plus de maisons – ou des informations et des faits que votre tout-petit pourrait révéler accidentellement à votre jouet, comme une IA Barbie. Même des robots de ménage relativement inoffensifs font des cartes de votre résidence. Ce sont certainement des informations que vous souhaitez vous assurer de gérer.