Utilizar la computadora en la cama hasta altas horas de la noche confunde los procesos del sueño en el cerebro, además de convertir el espacio de descanso en una área de estrés. Foto Referencial: Pexels

De acuerdo con el informe elaborado por la firma Incapsula, en el 2016 apenas un 48,2% del tráfico web fue gracias a los humanos. Paralelamente, un 22,9% lo hicieron robots buenos, mientras que un 28,9% provino de robots maliciosos.  Foto Referencial: Pexels

Descrición
¿Te sirvió esta noticia?:
Si (4)
No (0)

TECNOLOGIA

Robots, los más activos en la red

Diego Ortiz
Coordinador (I)
ortizd@elcomercio.com

Los robots son los responsables de más del 50% del tráfico de la Internet a escala global. Y no se trata de autómatas haciendo clics frente a sus computadores (o por lo menos no todavía).

Más bien son sistemas robóticos que analizan constantemente el comportamiento de usuarios humanos, para saber cómo mejorar su experiencia en línea o, del otro lado, para atacar donde son más vulnerables.

De acuerdo con el informe elaborado por la firma Incapsula, en el 2016 apenas un 48,2% del tráfico web fue gracias a los humanos. Paralelamente, un 22,9% lo hicieron robots buenos, mientras que un 28,9% provino de robots maliciosos.

Pedro Manzano, experto en Inge­niería Robótica, explica que desde los orígenes de la Web la presencia de robots ha tenido un gran ­despliegue. Comenta que los picos más altos se dan desde inicios del presente siglo, gracias al arranque de las grandes ­transacciones económicas en línea.

A esto se sumó el ­‘boom’ del correo electrónico y de las redes sociales, las cuales proporcionan datos de las personas como contraseñas, estilos de vida, tarjetas de crédito
y demás particularidades.

Para Incapsula, la facilidad con la que los usuarios dejan su rastro por la Web es la razón principal por la cual los desarrolladores se han preocupado en la creación de sistemas robóticos avanzados.

En principio estaría la necesidad de respaldar la navegación de los humanos durante su estadía en la Red. Asimismo, se encuentra el descuido de personas y compañías, que resultan en oportunidades para crear robots más ágiles en el momento de romper las seguridades y ‘hackear’ sitios web.