CAMBRIDGE – En los últimos años, el estudio “Máquina moral” del MIT ha relevado las preferencias públicas respecto de cómo deberían comportarse las aplicaciones de inteligencia artificial en diferentes entornos. Una conclusión a partir de los datos es que cuando un vehículo autónomo (VA) se topa con un escenario de vida o muerte, la manera en que uno piense que debería responder depende en gran medida del lugar de dónde uno proviene y lo que sabe sobre los peatones o los pasajeros involucrados.
Por ejemplo, en una versión VA del clásico “dilema del tranvía”, algunos podrían preferir que el coche atropellase a un asesino convicto y no que lastimase a otros, o que atropellara a un ciudadano mayor antes que a un niño. Sin embargo, otros podrían decir que el VA simplemente debería tirar los dados para evitar una discriminación impulsada por los datos.
Por lo general, estas disyuntivas están reservadas para los tribunales o para las investigaciones policiales después del hecho. Pero en el caso de los VA, las decisiones se tomarán en cuestión de milisegundos, y esto no alcanza para llegar a una decisión informada. Lo que importa no es lo que sabemos nosotros, sino lo que sabe el coche. La pregunta, entonces, es qué información deberían tener los VA sobre la gente que los rodea. ¿Y se debería permitir que las empresas ofrecieran sistemas éticos diferentes en busca de una ventaja competitiva?
Consideremos el siguiente escenario: un coche de China tiene estándares de fabricación diferentes a los de un coche de Estados Unidos, pero es transportado a Estados Unidos y usado allí. Este coche hecho por chinos y un coche fabricado en Estados Unidos van camino a una colisión inevitable. Si el conductor del coche chino tiene preferencias éticas diferentes que el conductor del coche estadounidense, ¿qué sistema debería prevalecer?
Más allá de las diferencias culturales en las preferencias éticas, también debemos considerar las diferencias en las regulaciones de datos en los diversos países. Un coche fabricado por chinos, por ejemplo, podría tener acceso a datos de condición social, lo que le permite a su algoritmo de toma de decisiones incorporar información adicional con la que no cuentan los fabricantes de autos norteamericanos. Datos más ricos podrían conducir a mejores decisiones y más consistentes, ¿pero esa ventaja debería permitir que un sistema se imponga a otro?
Claramente, antes de que los VA copen las rutas en masa, tendremos que establecer dónde recae la responsabilidad por la toma de decisiones algorítmica, ya sea en las autoridades municipales, los gobiernos nacionales o las instituciones multilaterales. Es más, necesitaremos nuevos marcos para gobernar esta intersección de los negocios y el estado. Lo que está en juego no es sólo lo que los VA hagan en escenarios extremos, sino cómo las empresas van a interactuar con diferentes culturas en el desarrollo e implementación de algoritmos de toma de decisiones.
Es fácil imaginar que todos los fabricantes de VA no harán más que publicitar sistemas éticos que premien la vida del conductor por sobre las otras cosas, o que permitan al usuario modificar sus propios marcos éticos. Para impedir esta “tragedia de los comunes”, tendrán que existir marcos para establecer comunicación y coordinar decisiones entre los VA. Pero al desarrollar este tipo de sistemas en los diferentes contextos culturales, los responsables de las políticas y los empresarios se enfrentarán a nociones culturales muy diferentes respecto de la soberanía, la privacidad y la autonomía individual.
Esto plantea desafíos adicionales, porque los sistemas de IA no toleran la ambigüedad. Diseñar una aplicación de IA desde cero exige una especificidad profunda; para bien o para mal, estos sistemas sólo hacen lo que uno les dice que hagan. Eso significa que las empresas, los gobiernos y otros proveedores tendrán que hacer elecciones explícitas cuando codifican los protocolos de respuesta para diferentes situaciones.
Sin embargo, antes de que eso suceda, los responsables de las políticas tendrán que establecer el alcance de la responsabilidad algorítmica, para determinar qué decisiones, si las hay, deberían quedar en manos de las empresas o los individuos. Las que caigan dentro de la esfera del estado tendrán que ser debatidas. Y dado que estas cuestiones éticas y morales no tienen respuestas fáciles, es poco probable que surja un consenso. A no ser que haya una resolución definitiva, necesitaremos crear sistemas que por lo menos faciliten la comunicación entre los VA y arbitren disputas algorítmicas e incidentes automovilísticos.
Dada la necesidad de especificidad al diseñar los algoritmos de toma de decisiones, es razonable que se necesite un organismo internacional para fijar los estándares de acuerdo con qué dilemas morales y éticos se resuelvan. Los VA, después de todo, son apenas una aplicación de la toma de decisiones algorítmica. De cara al futuro, los estándares de responsabilidad algorítmica tendrán que ser gestionados en muchos dominios.
En definitiva, la primera pregunta que debemos decidir es si las empresas tienen derecho o no a diseñar marcos éticos alternativos para la toma de decisiones algorítmica. Podríamos decir que no.
En una era de IA, algunos componentes de las cadenas de valor globales terminarán siendo automatizados como algo natural, momento en el cual ya no serán considerados zonas en las que las empresas busquen una ventaja competitiva. El proceso para determinar y juzgar una responsabilidad algorítmica debería ser una de esas áreas. De una u otra manera, se tomarán decisiones. Es mejor que esto suceda de manera uniforme, y del modo más democrático posible.
CAMBRIDGE – En los últimos años, el estudio “Máquina moral” del MIT ha relevado las preferencias públicas respecto de cómo deberían comportarse las aplicaciones de inteligencia artificial en diferentes entornos. Una conclusión a partir de los datos es que cuando un vehículo autónomo (VA) se topa con un escenario de vida o muerte, la manera en que uno piense que debería responder depende en gran medida del lugar de dónde uno proviene y lo que sabe sobre los peatones o los pasajeros involucrados.
Por ejemplo, en una versión VA del clásico “dilema del tranvía”, algunos podrían preferir que el coche atropellase a un asesino convicto y no que lastimase a otros, o que atropellara a un ciudadano mayor antes que a un niño. Sin embargo, otros podrían decir que el VA simplemente debería tirar los dados para evitar una discriminación impulsada por los datos.
Por lo general, estas disyuntivas están reservadas para los tribunales o para las investigaciones policiales después del hecho. Pero en el caso de los VA, las decisiones se tomarán en cuestión de milisegundos, y esto no alcanza para llegar a una decisión informada. Lo que importa no es lo que sabemos nosotros, sino lo que sabe el coche. La pregunta, entonces, es qué información deberían tener los VA sobre la gente que los rodea. ¿Y se debería permitir que las empresas ofrecieran sistemas éticos diferentes en busca de una ventaja competitiva?
Consideremos el siguiente escenario: un coche de China tiene estándares de fabricación diferentes a los de un coche de Estados Unidos, pero es transportado a Estados Unidos y usado allí. Este coche hecho por chinos y un coche fabricado en Estados Unidos van camino a una colisión inevitable. Si el conductor del coche chino tiene preferencias éticas diferentes que el conductor del coche estadounidense, ¿qué sistema debería prevalecer?
Más allá de las diferencias culturales en las preferencias éticas, también debemos considerar las diferencias en las regulaciones de datos en los diversos países. Un coche fabricado por chinos, por ejemplo, podría tener acceso a datos de condición social, lo que le permite a su algoritmo de toma de decisiones incorporar información adicional con la que no cuentan los fabricantes de autos norteamericanos. Datos más ricos podrían conducir a mejores decisiones y más consistentes, ¿pero esa ventaja debería permitir que un sistema se imponga a otro?
Claramente, antes de que los VA copen las rutas en masa, tendremos que establecer dónde recae la responsabilidad por la toma de decisiones algorítmica, ya sea en las autoridades municipales, los gobiernos nacionales o las instituciones multilaterales. Es más, necesitaremos nuevos marcos para gobernar esta intersección de los negocios y el estado. Lo que está en juego no es sólo lo que los VA hagan en escenarios extremos, sino cómo las empresas van a interactuar con diferentes culturas en el desarrollo e implementación de algoritmos de toma de decisiones.
BLACK FRIDAY SALE: Subscribe for as little as $34.99
Subscribe now to gain access to insights and analyses from the world’s leading thinkers – starting at just $34.99 for your first year.
Subscribe Now
Es fácil imaginar que todos los fabricantes de VA no harán más que publicitar sistemas éticos que premien la vida del conductor por sobre las otras cosas, o que permitan al usuario modificar sus propios marcos éticos. Para impedir esta “tragedia de los comunes”, tendrán que existir marcos para establecer comunicación y coordinar decisiones entre los VA. Pero al desarrollar este tipo de sistemas en los diferentes contextos culturales, los responsables de las políticas y los empresarios se enfrentarán a nociones culturales muy diferentes respecto de la soberanía, la privacidad y la autonomía individual.
Esto plantea desafíos adicionales, porque los sistemas de IA no toleran la ambigüedad. Diseñar una aplicación de IA desde cero exige una especificidad profunda; para bien o para mal, estos sistemas sólo hacen lo que uno les dice que hagan. Eso significa que las empresas, los gobiernos y otros proveedores tendrán que hacer elecciones explícitas cuando codifican los protocolos de respuesta para diferentes situaciones.
Sin embargo, antes de que eso suceda, los responsables de las políticas tendrán que establecer el alcance de la responsabilidad algorítmica, para determinar qué decisiones, si las hay, deberían quedar en manos de las empresas o los individuos. Las que caigan dentro de la esfera del estado tendrán que ser debatidas. Y dado que estas cuestiones éticas y morales no tienen respuestas fáciles, es poco probable que surja un consenso. A no ser que haya una resolución definitiva, necesitaremos crear sistemas que por lo menos faciliten la comunicación entre los VA y arbitren disputas algorítmicas e incidentes automovilísticos.
Dada la necesidad de especificidad al diseñar los algoritmos de toma de decisiones, es razonable que se necesite un organismo internacional para fijar los estándares de acuerdo con qué dilemas morales y éticos se resuelvan. Los VA, después de todo, son apenas una aplicación de la toma de decisiones algorítmica. De cara al futuro, los estándares de responsabilidad algorítmica tendrán que ser gestionados en muchos dominios.
En definitiva, la primera pregunta que debemos decidir es si las empresas tienen derecho o no a diseñar marcos éticos alternativos para la toma de decisiones algorítmica. Podríamos decir que no.
En una era de IA, algunos componentes de las cadenas de valor globales terminarán siendo automatizados como algo natural, momento en el cual ya no serán considerados zonas en las que las empresas busquen una ventaja competitiva. El proceso para determinar y juzgar una responsabilidad algorítmica debería ser una de esas áreas. De una u otra manera, se tomarán decisiones. Es mejor que esto suceda de manera uniforme, y del modo más democrático posible.