En 2016, Microsoft estrenó un proyecto que duraría poco. Era un chatbot de Twitter llamado Tay: una inteligencia artificial (IA) con la cual la gente podía interactuar, conversar, hacer preguntas. Pero en menos de 24 horas, el proyecto terminó convertido en un insoportable robot antisemita, misógino y racista. Bastó con que estos cientos de usuarios alimentaran al bot con mensajes de odio para que este los asumiera como un comportamiento normal. Microsoft tuvo que cerrar el proyecto ese mismo día.
Los algoritmos no son racistas; los humanos que los programan y los alimentan con información, sí. “Las máquinas no pueden tomar decisiones morales o éticas”, menciona Jorge Poveda, físico teórico y entusiasta de la cultura popular. Es así que las decisiones morales que toman los robots están basadas en parámetros definidos por personas. Mientras más específicos sean estos, la inteligencia artificial tendrá un mejor desempeño.
via GIPHY
Para el informático Roman Yampolskiy de la Universidad de Louisville, el problema con Tay era la manera en cómo estaba diseñado. Era un programa que hallaba coincidencias de patrones y asociaba preguntas y respuestas a través de estadística. “Simplemente repitió lo que la gente le decía”. Y ese sencillo funcionamiento lo aprovecharon usuarios organizados, quienes se pusieron de acuerdo para inundar al robot con mensajes racistas.
Aunque hoy se pueden ver ejemplos reales, la discusión sobre la inteligencia artificial no es nueva. Y en varias ocasiones ese debate se centra en un escenario en que las máquinas se rebelan.
via GIPHY
En su relato Círculo Vicioso, de 1942, Isaac Asimov planteaba por primera vez sus leyes de la robótica. Estas “llevaron a una discusión moral y filosófica de cómo deberían comportarse las máquinas”, dice el físico Jorge Poveda. Las tres principales leyes de la robótica son estas:
- Un robot no puede dañar a un ser humano o, por inacción, permitir que sufra daños.
- Debe obedecer órdenes de los humanos, excepto cuando entren en conflicto con la Primera ley.
- Debe proteger su propia existencia siempre que no entre en conflicto con la primera o segunda normativa.
Pero las leyes de Asimov conducen a ciertas paradojas. Un ejemplo: el dilema del tranvía, desarrollado por la filósofa Philippa Foot (1920-2010).
Un tranvía circula fuera de control. En su camino hay cinco personas atadas a la vía. Se puede accionar un botón que llevará al vehículo por una u otra vía, pero hay otra persona atada a esta. Si el maquinista fuera una IA, entra en una paradoja.
via GIPHY
Según las leyes de Asimov no puede matar a nadie. Por eso, no puede tomar la decisión de matar solo a una persona para salvar a cinco. Allí hay una contradicción. “Y ahí viene algo más complejo, que es bajo qué parámetros éticos vas a programar al robot. No bastaría con las leyes de Asimov, sino que habría que añadir algo más”, dice Poveda.
En su libro Future Proof: 9 Reglas para Humanos en la Era de la Automatización, Kevin Roose profundiza en los aspectos que la industria moderna necesita mejorar para crear IA’s al servicio de las personas.
El Basilisco de Roco es un ejercicio mental que plantea una IA con acceso a recursos ilimitados, es decir, un robot omnipotente. En este escenario, la IA decide castigar a quienes no contribuyeron a su creación.
via GIPHY
Ya sea una inteligencia artificial con enorme poder como el Basilisco o una pobremente diseñada como Tay, la discusión es la misma: ¿Qué pasa si una IA se sale de control por la manera en que fue programada? La inteligencia artificial forma parte de nuestra vida cotidiana: las recomendaciones musicales de Spotify, nuestras búsquedas de Google.
Pero, al mismo tiempo, genera incertidumbre. Una vez establecidos los parámetros, nadie puede predecir cómo esta se va a comportar.