Registro  /  Login

Otro sitio más de Gerente.com


Esta herramienta impide a los bots de IA que roben datos de las páginas web: así funciona

Publicado: octubre 27, 2024, 7:58 am

El ‘web scraping’ es una técnica de extracción de información mediante software. Normalmente, estos programas simulan la navegación de un humano en Internet, ya sea utilizando el protocolo HTTP manualmente o incrustando un navegador en una aplicación; no obstante, aunque la información extraída es pública, el ‘scraping’ puede ser utilizado para fines poco éticos, como la competencia desleal, la suplantación, la violación de términos de servicio y la recolección no consentida de datos.

Pero, con el objetivo de evitar estas malas prácticas, la empresa tecnológica Cloudflare posee una herramienta que permite bloquear de forma automática los bots de inteligencia artificial (IA) que ejecutan ‘web scrapping’, a fin de evitar que recopilen datos de los sitios web para entrenar modelos o llevar a cabo interferencias.

Concretamente, dicho servicio bloquea de forma automática todos los bots de IA que se identifican en páginas web, de esta manera, no pueden realizar ninguna extracción de datos. Además, gracias a esta herramienta, se preserva una red segura para los creadores de contenido, ya que se evita que los datos de los sitios web puedan ser recopilados y utilizados para entrenar a la inteligencia artificial.

Cómo funciona la herramienta de Cloudflare

El servicio está disponible para todos los clientes de Cloudflare, incluidos los que dispongan del nivel gratuito de su servicio, como su aplicación 1.1.1.1. o su plataforma SASE & SSE.

Para habilitarlo, basta con entrar en el apartado de ‘Bots‘ dentro del menú de ‘Seguridad‘, activar la opción ‘Raspadores y rastreadores de IA‘, y empezar a bloquear a los bots para que no extraigan contenido para entrenar a modelos de inteligencia artificial.

¿Qué es el scraping?

Lo que llamamos ‘scraping’ consiste en la extracción de datos web por medio de rastreadores o bots. En definitiva, el término se utiliza para el proceso automatizado de recopilar información para crear una base de datos estructurada.

Se estima que casi la mitad de todo el tráfico online está movido por robots y no por personas en la actualidad. Por lo tanto, dicha práctica es más común de lo que cabe esperar y son muchas las empresas se aprovechan de ello sin cometer ninguna ilegalidad.

Related Articles



Advertisement