
El archivo robots.txt es un clásico surgido en los 90 que permite a los desarrolladores web sugerir límites a los buscadores, evitando que rastreen e indexen directorios privados. Aquí la palabra clave es «sugerir» pues, aunque no sea ético, muchos buscadores han demostrado recientemente no ser muy éticos y respetuosos.
Es importante recordar la alternativa reciente centrada en luchar contra la recolección de datos que realizan indiscriminadamente muchos bots con IA, el archivo AI.txt. Y, aunque me quedo con el artículo de arriba por ser muy sencillo, también me gustaría enlazar otro mucho más completo que puede ser útil llegado el momento de proundizar: