Iniciativa AI.txt para restringir a las Inteligencias Artificiales en la web

Robots.txt nos permite excluir una web de las búsquedas. Es decir, con un simple archivo en la carpeta de la web le decimos a los “robots araña rastreadores” de Google y compañía que no fisgoneen.

Y siguiendo su estela, en Spawning han propuesto ai.txt, su equivalente para que las IA no puedan utilizar la web a la hora de entrenarse. Hasta tiene un generador ultra sencillo para crear el archivo!

Ojalá se convierta en un estándar… pero me temo que, en cualquier caso, ya habrá llegado demasiado tarde.

«Proxy: sistema que actúa como intermediario entre cliente y servidor en una red»

Este blog pretende cumplir la misma función filtrando las noticias más relevantes para ese grupo de usuarios que no necesita estar todo el día pendiente de la tecnología.
Aquí podrás encontrar enlaces a noticias interesantes sobre todas estas tecnologías, sencillas guías o explicaciones sobre conceptos informáticos útiles…

Archivo mensual