Ir al contenido
Logo
Ciencia

Ética e Inteligencia Artificial: La parábola del robot y el cazarrecompensas

¿Tiene la inteligencia artificial libre albedrío o está simplemente sujeta a la persona que la programe?

Ética e Inteligencia Artificial: La parábola del robot y el cazarrecompensas

Una vieja cantina con seres de diversas formas y tamaños. Un pueblo desierto vislumbrado a lo lejos, en medio de un paisaje hostil. Atravesando una tormenta llega a pie desde las afueras una figura alta, de armadura, con casco. Impasible. En la cantina algunos bebieron de más y buscan una pelea, el cantinero limpia la barra sin inmutarse. La figura abre la puerta y se queda parada unos segundos. El salón completo lo mira y se paraliza, como un animal agazapado que se prepara para atacar. De esta manera conocemos a Mando, un cazarrecompensas del planeta de Nevarro y el protagonista de la serie The Mandalorian.

Mando es a las claras un personaje particular dentro de una galaxia particular. No deja que ningún robot arregle su nave o que lo transporten vehículos manejados por droides: elige viajar en una chatarra de dudosa seguridad, pero conducida por un humano. En su manera de ver el mundo, el cazarrecompensas considera a la inteligencia artificial (IA) como algo inmutable, incapaz de cambiar o de mejorar. Para él no son más que seres artificiales que toman decisiones de manera autónoma y en contra de los seres vivientes la mayoría de las veces. ¿Un tema clásico de la ciencia ficción o un tema del presente?

Pensar en cómo tratamos el costado ético de los modelos de IA es un debate necesario y que todas las organizaciones y cientistas de datos deben comprender. Porque es un hecho comprobado que un modelo de aprendizaje automático puede perpetuar la segregación presente en la sociedad, pero ¿será posible que también pueda modificarla de manera positiva?

En la serie, estos planteos se presentan mediante la figura de IG-11: un robot asesino con el que Mando no comienza una buena relación. Nuestro héroe odia a los robots. Pero este robot en particular había querido asesinar al protegido del cazarrecompensas, cariñosamente conocido dentro del fandom como Baby Yoda. Por ello no confía cuando Kuiil, su amigo, le cuenta que tomó al androide y lo reprogramó completamente, quitando sus instrucciones asesinas y reemplazándolas por otras de cuidado. Ni siquiera confía cuando le cuenta que IG-11 aprendió todo nuevamente desde cero con mucha paciencia y repetición: como si nunca hubiese existido con anterioridad, aprendió a caminar, a servir té y a cuidar de la granja de Kuiil. En la concepción que Mando tiene de los robots, IG-11 no puede cambiar y mucho menos desarrollar una nueva personalidad.  

La naturaleza de los “pensamientos” del robot está en constante tensión en la serie y nos obliga a preguntarnos de dónde provienen las acciones de esta IA. ¿Qué significa que IG-11 tenga instrucciones que una persona puede cambiar y con ello modificar el curso de sus acciones? La respuesta se devela cuando IG-11 se convierte en el héroe de la temporada gracias a sus nuevas órdenes: cuidar y proteger a Baby Yoda, incluso a costa de autodestruirse. La escena es muy difícil de olvidar: atrapados Mando y compañía por fuerzas imperiales, el robot entiende que no puede salvar al bebé en un enfrentamiento abierto y se autodestruye con una explosión. Mando y Baby Yoda logran escapar gracias al estruendo y la confusión. ¿Y por qué IG-11 hace esto? Porque dentro de su “cableado” Kuiil le dio la orden de proteger al bebé. 

De esta manera, la fuerza de los acontecimientos hace que Mando se replantee todo su sistema de creencias en torno a los droides. Con las acciones de IG-11 va a entender que en los droides no hay maldad ni bondad, sino solo actos basados en instrucciones que otras personas pusieron en ellos. IG-11 fue verdaderamente reprogramado y convertido en un robot niñero que cuida y salva al grupo. ¿Tiene la inteligencia artificial libre albedrío o está simplemente sujeta a la persona que la programe? A través de IG-11 entendemos que él nunca tuvo libertad porque, en sus propias palabras, nunca estuvo vivo ni tuvo una mente propia. Lo que hizo fue responder a hechos de su entorno como robot asesino cuando lo diagramaron para eso, y como robot niñero cuando le indicaron lo contrario.

La responsabilidad sobre las consecuencias de los modelos de IA la tienen, en definitiva, quienes los crean. Estos modelos están diseñados por personas (en muchos casos organizaciones enteras) que eligen los datos, las funciones y las metodologías con los que se entrenan: no son autónomos en su concepción. En este sentido, pueden tener malos resultados para la sociedad perpetrando sesgos y segregaciones, como también pueden ayudar a paliarlos mediante un diseño consciente y proactivo. Implementando protocolos y estándares de calidad, podemos evaluar el desempeño y las consecuencias de los modelos de aprendizaje automático: la posibilidad de cambiarlos es siempre nuestra.

Al reconfigurar a IG-11, Kuill le enseña a Mando una lección que los cientistas de datos debemos tener presente en nuestro trabajo diario. La IA —los robots—, va a ser lo que queramos que sea, por ahora y tal vez para siempre,. En ella imprimimos nuestros deseos y nuestros temores. Nuestras virtudes y nuestros prejuicios. Y de estas creaciones debemos asumir la responsabilidad completa. Esto Kuill lo tenía en claro desde un inicio, por eso cuando Mando le dijo que no confiaba en el robot él repuso: “Si confías en mí entonces también confiarás en mi trabajo”. Comprender y responsabilizarnos por la Inteligencia Artificial es una forma más que nos da la tecnología de desarrollarnos y evolucionar como sociedad. Aprovechémosla

*Paula Luvini, científica de Datos de Fundar.

    Ultimas Noticias