Robots.txt nos permite excluir una web de las búsquedas. Es decir, con un simple archivo en la carpeta de la web le decimos a los “robots araña rastreadores” de Google y compañía que no fisgoneen.
Y siguiendo su estela, en Spawning han propuesto ai.txt, su equivalente para que las IA no puedan utilizar la web a la hora de entrenarse. Hasta tiene un generador ultra sencillo para crear el archivo!
Ojalá se convierta en un estándar… pero me temo que, en cualquier caso, ya habrá llegado demasiado tarde.