CAMBRIDGE – Depuis quelques années, la « machine morale » hébergée au MIT étudie les préférences des opinions publiques concernant les façons dont les applications de l’intelligence artificielle devraient se comporter dans un certain nombre de contextes. Parmi les conclusions des données accumulées, il apparaît que lorsqu’un véhicule autonome (VA) se trouve confronté à un scénario de vie ou de mort, la façon dont on pense la réponse appropriée dépend largement d’où l’on vient et de ce qu’on sait des piétons ou des passagers impliqués.
Dans une version adaptée au VA du classique « dilemme du tramway », certains pourront préférer que la voiture heurte un meurtrier inculpé avant de blesser quelqu’un d’autre ou bien qu’elle écrase une personne âgée plutôt qu’un enfant. D’autres encore pourront défendre l’idée que le VA devrait simplement tirer au sort afin d’éviter une conduite biaisée par les données et discriminatoire.
Les cas de conscience de ce genre sont habituellement réservés aux salles d’audience ou aux enquêtes de la police judiciaire, après les faits. Mais dans le cas des VA, le laps de temps imparti à ces choix sera de l’ordre de quelques millisecondes, ce qui semble bien peu pour prendre une décision informée. Ce qui compte n’est pas ce que nous savons, mais ce que sait la voiture. La question devient alors celle de l’information dont devrait disposer le VA sur les personnes qui l’environnent. Incidemment, les entreprises devraient-elles être autorisées à proposer des systèmes éthiques à leur convenance afin d’obtenir un avantage compétitif ?
Considérons le scénario suivant : une voiture chinoise répond à des normes industrielles différentes de celles que doit respecter une voiture américaine, mais cette voiture est exportée aux États-Unis, où elle est utilisée. Cette voiture fabriquée en Chine et une voiture fabriquée aux États-Unis sont sur une trajectoire de collision, laquelle est inévitable. Si le conducteur de la voiture chinoise a des préférences éthiques qui ne sont pas celles du conducteur de la voiture américaine, lesquelles doivent prévaloir ?
Au-delà des différences culturelles qui peuvent influencer les préférences éthiques, il faut aussi prendre en compte les différences réglementaires concernant les données d’un pays à l’autre. Une voiture faite en Chine pourrait par exemple avoir accès à des données d’évaluation du comportement social, dont les constructeurs automobiles américains ne peuvent disposer. Des données plus complètes peuvent conduire à des décisions plus cohérentes, mais cet avantage doit-il favoriser un système plutôt qu’un autre ?
Bien évidemment, avant que les VA ne prennent la route en masse, nous devrons établir sur qui et sur quoi reposent les responsabilités des décisions prises par les algorithmes, que ce soit sur les autorités municipales, les gouvernements nationaux ou les institutions multilatérales. En outre, nous aurons besoin de nouveaux cadres pour gouverner ce domaine commun aux sphères privée et publique. L’attitude des VA dans les scénarios extrêmes n’est pas seule en cause, il s’agit aussi de la façon dont les entreprises interagiront avec les différentes cultures lorsqu’elles développeront et déploieront leurs algorithmes décisionnels.
On peut imaginer que les constructeurs de VA tenteront de promouvoir des systèmes éthiques privilégiant la vie du conducteur ou permettant à l’usager d’activer à sa guise un paramétrage éthique. Pour éviter cette « tragédie des communs », il faudra établir des cadres qui puissent régir les communications entre les VA et coordonner leurs décisions. Mais en développant de tels systèmes dans des contextes culturels différents, les décideurs politiques et les entreprises se trouveront confrontés aux différentes conceptions culturelles de la souveraineté, de la vie privée et de l’autonomie des individus.
Cela pose des difficultés supplémentaires, car les systèmes d’intelligence artificielle ne tolèrent pas l’ambiguïté. Concevoir ex nihilo une application d’intelligence artificielle requiert un très grand degré de précision ; pour le meilleur ou pour le pire, ces systèmes ne font que ce qu’on leur dit de faire. Cela signifie qu’entreprises, gouvernements et autres fournisseurs devront faire des choix explicites lorsqu’il s’agira de programmer des protocoles de réponse pour des situations variables.
Mais avant d’en arriver là, les décideurs politiques devront définir l’étendue des responsabilités engagées dans la conception des algorithmes, afin de déterminer quelles décisions, le cas échéant, doivent être du ressort de l’entreprise ou des personnes. Les choix qui relèveront des compétences de l’État devront faire l’objet de débats. Et il est peu probable de voir émerger un consensus étant donné la difficulté à résoudre les questions éthiques et morales. Bien plus qu’une solution définitive, nous devrons créer des systèmes qui, au moins, faciliteront les communications entre les VA et arbitreront les différends concernant les algorithmes et les accidents de la route.
Étant donné le degré de précision requis par les algorithmes décisionnels, il tombe sous le sens qu’un organisme international devra établir les normes qui permettront de résoudre les dilemmes moraux et éthiques. Les VA ne sont après tout qu’une application de la prise de décision algorithmique. Dans l’avenir, la gestion des normes de responsabilité algorithmique concernera de nombreux domaines.
Enfin, la première des questions auxquelles nous devons répondre est celle-ci : les entreprises peuvent-elles concevoir des cadres éthiques nouveaux, adaptés à la prise de décision algorithmique ? Nous aurions tendance à affirmer qu’elles n’en ont pas le droit.
À l’âge de de l’intelligence artificielle, certains éléments de la chaîne de valeur mondiale finiront systématiquement par être automatisés, et ne seront donc plus considérés comme des enjeux pour les entreprises en quête d’avantage compétitif. Le processus de définition et d’arbitrage de la responsabilité algorithmique devrait constituer l’un de ces domaines. D’une façon ou d’une autre, des décisions seront prises. Il est préférable qu’elles soient uniformément adoptées, et le plus démocratiquement possible.
Traduit de l’anglais par François Boisivon
CAMBRIDGE – Depuis quelques années, la « machine morale » hébergée au MIT étudie les préférences des opinions publiques concernant les façons dont les applications de l’intelligence artificielle devraient se comporter dans un certain nombre de contextes. Parmi les conclusions des données accumulées, il apparaît que lorsqu’un véhicule autonome (VA) se trouve confronté à un scénario de vie ou de mort, la façon dont on pense la réponse appropriée dépend largement d’où l’on vient et de ce qu’on sait des piétons ou des passagers impliqués.
Dans une version adaptée au VA du classique « dilemme du tramway », certains pourront préférer que la voiture heurte un meurtrier inculpé avant de blesser quelqu’un d’autre ou bien qu’elle écrase une personne âgée plutôt qu’un enfant. D’autres encore pourront défendre l’idée que le VA devrait simplement tirer au sort afin d’éviter une conduite biaisée par les données et discriminatoire.
Les cas de conscience de ce genre sont habituellement réservés aux salles d’audience ou aux enquêtes de la police judiciaire, après les faits. Mais dans le cas des VA, le laps de temps imparti à ces choix sera de l’ordre de quelques millisecondes, ce qui semble bien peu pour prendre une décision informée. Ce qui compte n’est pas ce que nous savons, mais ce que sait la voiture. La question devient alors celle de l’information dont devrait disposer le VA sur les personnes qui l’environnent. Incidemment, les entreprises devraient-elles être autorisées à proposer des systèmes éthiques à leur convenance afin d’obtenir un avantage compétitif ?
Considérons le scénario suivant : une voiture chinoise répond à des normes industrielles différentes de celles que doit respecter une voiture américaine, mais cette voiture est exportée aux États-Unis, où elle est utilisée. Cette voiture fabriquée en Chine et une voiture fabriquée aux États-Unis sont sur une trajectoire de collision, laquelle est inévitable. Si le conducteur de la voiture chinoise a des préférences éthiques qui ne sont pas celles du conducteur de la voiture américaine, lesquelles doivent prévaloir ?
Au-delà des différences culturelles qui peuvent influencer les préférences éthiques, il faut aussi prendre en compte les différences réglementaires concernant les données d’un pays à l’autre. Une voiture faite en Chine pourrait par exemple avoir accès à des données d’évaluation du comportement social, dont les constructeurs automobiles américains ne peuvent disposer. Des données plus complètes peuvent conduire à des décisions plus cohérentes, mais cet avantage doit-il favoriser un système plutôt qu’un autre ?
Bien évidemment, avant que les VA ne prennent la route en masse, nous devrons établir sur qui et sur quoi reposent les responsabilités des décisions prises par les algorithmes, que ce soit sur les autorités municipales, les gouvernements nationaux ou les institutions multilatérales. En outre, nous aurons besoin de nouveaux cadres pour gouverner ce domaine commun aux sphères privée et publique. L’attitude des VA dans les scénarios extrêmes n’est pas seule en cause, il s’agit aussi de la façon dont les entreprises interagiront avec les différentes cultures lorsqu’elles développeront et déploieront leurs algorithmes décisionnels.
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
On peut imaginer que les constructeurs de VA tenteront de promouvoir des systèmes éthiques privilégiant la vie du conducteur ou permettant à l’usager d’activer à sa guise un paramétrage éthique. Pour éviter cette « tragédie des communs », il faudra établir des cadres qui puissent régir les communications entre les VA et coordonner leurs décisions. Mais en développant de tels systèmes dans des contextes culturels différents, les décideurs politiques et les entreprises se trouveront confrontés aux différentes conceptions culturelles de la souveraineté, de la vie privée et de l’autonomie des individus.
Cela pose des difficultés supplémentaires, car les systèmes d’intelligence artificielle ne tolèrent pas l’ambiguïté. Concevoir ex nihilo une application d’intelligence artificielle requiert un très grand degré de précision ; pour le meilleur ou pour le pire, ces systèmes ne font que ce qu’on leur dit de faire. Cela signifie qu’entreprises, gouvernements et autres fournisseurs devront faire des choix explicites lorsqu’il s’agira de programmer des protocoles de réponse pour des situations variables.
Mais avant d’en arriver là, les décideurs politiques devront définir l’étendue des responsabilités engagées dans la conception des algorithmes, afin de déterminer quelles décisions, le cas échéant, doivent être du ressort de l’entreprise ou des personnes. Les choix qui relèveront des compétences de l’État devront faire l’objet de débats. Et il est peu probable de voir émerger un consensus étant donné la difficulté à résoudre les questions éthiques et morales. Bien plus qu’une solution définitive, nous devrons créer des systèmes qui, au moins, faciliteront les communications entre les VA et arbitreront les différends concernant les algorithmes et les accidents de la route.
Étant donné le degré de précision requis par les algorithmes décisionnels, il tombe sous le sens qu’un organisme international devra établir les normes qui permettront de résoudre les dilemmes moraux et éthiques. Les VA ne sont après tout qu’une application de la prise de décision algorithmique. Dans l’avenir, la gestion des normes de responsabilité algorithmique concernera de nombreux domaines.
Enfin, la première des questions auxquelles nous devons répondre est celle-ci : les entreprises peuvent-elles concevoir des cadres éthiques nouveaux, adaptés à la prise de décision algorithmique ? Nous aurions tendance à affirmer qu’elles n’en ont pas le droit.
À l’âge de de l’intelligence artificielle, certains éléments de la chaîne de valeur mondiale finiront systématiquement par être automatisés, et ne seront donc plus considérés comme des enjeux pour les entreprises en quête d’avantage compétitif. Le processus de définition et d’arbitrage de la responsabilité algorithmique devrait constituer l’un de ces domaines. D’une façon ou d’une autre, des décisions seront prises. Il est préférable qu’elles soient uniformément adoptées, et le plus démocratiquement possible.
Traduit de l’anglais par François Boisivon