Inteligencia artificial y decisiones éticas
En un interesante artículo publicado este jueves por «El Mercurio» se analiza un estudio realizado recientemente por el MIT, en el cual se plantearon distintos escenarios que podría enfrentar un vehículo autónomo, todos los cuales conllevan decisiones éticas. Esto recuerda a las tres leyes de la robótica, desarrolladas por el escritor Isaac Asimov para ser aplicadas en sus novelas de ciencia ficción. Estas leyes establecen que «un robot no hará daño a un ser humano o, por inacción, permitirá que un ser humano sufra daño; un robot debe cumplir las órdenes dadas por los seres humanos, a excepción de aquellas que entrasen en conflicto con la primera ley, y un robot debe proteger su propia existencia en la medida en que esta protección no entre en conflicto con la primera o con la segunda ley».
Lo interesante del estudio del MIT es que estos escenarios complejos fueron respondidos en una plataforma en línea por millones de personas de distintos países. Sus resultados demostraron que existen diferencias culturales importantes en la forma de resolver estos dilemas. Más allá de potenciales sesgos metodológicos (los que participaron no fueron seleccionados al azar), los resultados de este experimento sugieren que la forma de programar estos vehículos para que tomen decisiones «éticas» debe tener pertinencia cultural para que sean aceptadas por las comunidades donde se pretendan comercializar. No obstante, me surge la duda de si acaso al enfrentarse a un choque inminente se tiene el tiempo suficiente para hacer un proceso de deliberación, el cual es propio de la toma de decisiones éticas. Intuyo que en las milésimas de segundo en las que actúa un chofer entrenado no hay tiempo para una reflexión así. Pero bienvenidos son estos «juegos morales», puesto que nos permiten cuestionarnos de qué manera la intuición moral es modulada por la cultura y factores socioeconómicos.