Чиновники попались с поличным
https://www.youtube.com/watch?v=dFLwi0chQ5U Я работал программистом более двадцати лет, в том числе системным программистом. Правда, поменял специальность ещё в 1995 году. Но за новинками в этой сфере стараюсь следить. Полагаю, что Гугл докс действительно работает корректно, но сами пользователи довольно часто пренебрегают мерами защиты. Например, если вы пишите документ, который должен быть потом разослан многим пользователям, то можете полениться перечислять их всех, а вместо этого пометить документ как общедоступный в надежде на то, что в огромном пространстве интернета вряд ли кто-нибудь на него наткнётся случайно. Между тем, поисковые роботы, то есть программы, перемещающиеся по всем интернет-ссылкам и проверяющие их, действительно ухитряются просматривать всё это безмерное море документов. Собственно, файл robots.txt, который есть в большинстве сайтов, как раз и содержит перечень тех документов, которые нельзя просматривать поисковым роботом — отсюда и его название. И в большинстве систем работы с документами в интернете файлы robots.txt генерируются автоматически самой системой на основании...
Ознакомиться с полным текстом статьи можно перейдя по ссылке источника.