Los sistemas con algoritmos avanzados ayudan a predecir el número de pacientes, pero tienen retos al determinar el consumo de bienes
Una de las herramientas que se convirtió en aliada importante en la lucha contra el nuevo coronavirus es la inteligencia artificial (IA). En Israel, por ejemplo, se la utiliza mediante un algoritmo desarrollado para identificar a quienes sufrirán más gravemente la enfermedad. Este logra analizar una enorme cantidad de datos de salud centralizados.
Maccabi Healthcare Services, una organización sanitaria israelí, y la compañía de inteligencia artificial Medial EarlySign identificaron al 2%, de los 2,4 millones de personas de su base de datos, que tendrá mayor riesgo de sufrir complicaciones graves de covid-19. El sistema se basa en parámetros como la edad, índice de masa corporal, enfermedades previas, y antecedentes hospitalarios.
Para Néstor Torres, ingeniero informático, ese es uno de los límites de la IA: la cantidad de datos confiables que se puede obtener para alimentarla.
Darren Schulte, director de la empresa Apixio, que desarrolla software para analizar datos médicos, dice que se necesita que los distintos sistemas de salud den acceso a los registros de sus pacientes. Esto podría ser complicado porque podría vulnerar la privacidad de las personas.
Torres afirma que los algoritmos solo funcionan en una realidad matemáticamente predecible. Él recuerda que hay circunstancias que requieren improvisación, algo para lo que la inteligencia artificial que tenemos no está preparada. El experto ejemplifica: “para un algoritmo usado en la administración de un inventario no es entendible que se deje de comprar teléfonos móviles de un momento a otro y se adquiera masivamente tintes de pelo”. Y esto ha pasado con relación a los pedidos de mascarillas a escala global.
Jon Kleinberg, profesor de ingeniería informática de la Universidad de Cornell, California, asegura tajantemente que la inteligencia artificial no sirve para ciertas decisiones. El científico precisa que los algoritmos tienen siempre un ‘factor de riesgo’ que es variable, que depende de un programador. Además, según él, estos factores de riesgo no son un sí o un no, sino estimaciones de probabilidades.
“Supongamos que queremos saber si una persona tendrá una enfermedad concreta. Si esta patología es más frecuente en mujeres que en hombres, el algoritmo terminará sobrestimando o subestimando la enfermedad para uno de los dos géneros”.
Para Daron Acemoglu, profesor del Instituto Tecnológico de Massachusetts, con la IA las personas se centran equivocadamente en la automatización y no en convertirla en complemento de la actividad cotidiana. Eso deviene en falta de precisión de los sistemas.