El aparecimiento de sistemas cada vez más desarrollados alienta la idea de que las máquinas serán verdaderos aliados de las personas. Pero también se teme que sean
utilizadas con fines poco éticos.
Para bien o para mal, las revoluciones tecnológicas han estado acompañadas de cambios radicales en las sociedades que las han vivido. En la Europa medieval, la aparición de la imprenta de Gutenberg marcó el fin de los copistas. A inicios del siglo XX, en la industrialización de los Estados Unidos, la línea de montaje de Ford impuso un mecanismo de producción masiva de automóviles. Y a casi dos décadas del siglo XXI, la Inteligencia Artificial (IA) se perfila como el mecanismo que cambiará las relaciones entre personas y máquinas.
A breves rasgos, la IA es un término que se ha acuñado al aprendizaje que pueden desarrollar los equipos. De fondo, la cuestión es que un sistema informático, ya sea de una computadora, teléfono o demás, desarrolle procesos semejantes a la inteligencia humana, la cual no solo toma decisiones a partir de cierta información, sino que aprende y desarrolla nuevas capacidades cognitivas. En última instancia, el propósito de la IA es que sea un soporte para ciertas actividades humanas como limpiar de virus un equipo, resolver los problemas de tránsito de una ciudad, o simplemente ofrecer opciones musicales que sean acordes con las preferencias de los usuarios cada vez que estos navegan por YouTube o Spotify.
Sin embargo, los temores sobre esta innovación ya están a la vuelta de la esquina. En un reciente artículo, The Wall Street Journal adaptó el ensayo ‘AI Superpowers: China, Silicon Valley and the New World Order’, escrito por Kai-Fu-Lee, en el cual el autor sostiene que la revolución de la IA moldeará un nuevo contrato social. Ahí se afirma que esta tecnología, a pesar de que en teoría fue creada como un soporte para los humanos, creará mayores brechas sociales debido a que permitirá elaborar algoritmos inteligentes, basados en miles de estadísticas y variables, que perfilarán el presente y futuro de las personas.
Así, mientras las compañías de seguros tradicionales ofrecen coberturas de salud con base en simples datos médicos, las que tengan filtros de IA desarrollarán perfiles más exactos a partir del cruce de datos personales, familiares y sociales. Al ser tan perfectos, si alguien no cumple con estos requisitos, pues simplemente queda por fuera del sistema.
Como se ha demostrado en el último lustro, la IA está conociendo lo que hacemos los humanos y ofrece respuestas óptimas para resolver toda clase de problemas y situaciones. Por ejemplo, desde hace dos años, Alpha Go, un sistema basado en IA, se ha impuesto a los mejores jugadores del mundo en el Go (juego tradicional chino de estrategia). Y en esta misma semana, la empresa Ping An Good Doctor presentó en Shanghái un dispositivo que utiliza esta tecnología para monitorear la salud de los pacientes: las personas se colocan en sus muñecas un brazalete y en cuestión de un par de minutos reciben un mensaje de texto con su información médica tras analizar su frecuencia cardíaca y la comparativa con sus bases de datos; todo sin un médico como intermediario.
Antonio Luis Terrones, filósofo especializado en debates tecnológicos y profesor de la Pontificia Universidad Católica del Ecuador, sostiene que la IA sí generará un cambio en las relaciones de trabajo y humanas. A pesar de ello, y en contra de los pesimistas, él dice que esto no implica necesariamente una crisis laboral, sino una oportunidad para generar nuevas fuentes de trabajo. “Es un nuevo escenario, un ‘humanismo tecnológico’, el cual implica afrontar el fenómeno tecnológico con una perspectiva de beneficio para las personas”, expresa.
En su ensayo, Fu-Lee vislumbra el mismo camino. Habla ya de un nuevo contrato social en el cual las relaciones interpersonales están atravesadas por una tecnología que constantemente pone a prueba nuestra capacidad de aprendizaje y de toma de decisiones.
A pesar de ello, en el trasfondo quedan latentes dos hechos que la IA no logrará superar (o por lo menos no se ha visto hasta ahora una solución teórica lo suficientemente satisfactoria al respecto): la resolución de conflictos ético-morales y la capacidad de generar lazos emocionales que no sean exclusivamente virtuales.
Sobre el primer punto, el mejor ejemplo proviene de los vehículos autónomos. Si bien su sistema de IA está diseñado para que puedan moverse libremente por las calles sin la necesidad de un conductor, en escenarios como el fallo de los frenos todavía queda en entredicho su inteligencia avanzada. Así lo demostró una investigación del 2016 en la cual los científicos preguntaron a las personas si comprarían un auto que matase a un pasajero con tal de salvar la vida de 10 personas que circulan por la vía. Aunque el algoritmo del bien mayor era el preferido por todos, pocos demostraron interés en adquirir un vehículo potencialmente peligroso para quienes están en su interior.
Sobre el segundo punto, el de los lazos emocionales, para la IA aún resulta casi imposible resolver las cuestiones que atañen a la naturaleza emocional humana. En una época en la que ya aparecen las primeras aplicaciones de parejas virtuales basadas en ‘chatbots’ (programas que chatean con el usuario), las preguntas y respuestas todavía son tan predeterminadas que restan aquella magia implícita en la interacción entre las personas.
No se puede negar que la IA es el gran salto hacia un mundo con avances tecnológicos extremadamente veloces, en el cual una respuesta es el resultado del análisis de todas las variables. Pero incluso en ese extremo de conocerlo todo e intentar resolverlo todo, la AI puede caer en el error de aprender lo malo y ser utilizada con fines éticamente reprochables y que pongan en riesgo a la propia humanidad.