у меня у одного гуглопарсер не сохраняет в файл сайты? а только ссылки. если что, то я сообразил костыли: Notepad++, через него идём в поиск->замена, в поле "искать" ищем начало каждой ссылки, я уже не помню что там, лабуда короче до http, в поле "заменить на" нахуй ничего не пишем. так мы сотрем это начало. потом берем прогу YCCY (кстати, она и PR может измерять), в ней жмем "Indexator" -> ну и вставляем там список ссылок, дальше жмем "only host" и "only unic". всё, мы оставлили только урл, причём, уникальные. теперь через ноутпад вырезаем с каждой строчки "http://" и сохраняем файл. дальше берем прогу MyDomainChecker (кстати, она и Alexa умеет проверять). запускаем -> файл -> открыть -> супершлющиешопы.txt и чекаем на whois. это можно сделать, выделив урлы и нажать shift+space. а еще можно выделить урлы -> проверка -> проверить выделенные/все. у меня почему-то все не проверяет за раз. да и все выделенные не проверяет, а только по 10, видимо, из-за незарегистрированной версии. итак, мы прошлись shift+space по всему списку. теперь самое интересное - жмем правой кнопкой мыши на строку, где колонки "дата последнего изменения" итд, выбираем "добавить колонку" -> домен -> дата создания. теперь жмём на колонку "дата создания" и вуаля, все домены построились по-ранжиру. ну а потом упорядоченные недавно зареганные шопы можно скопировать и вставить в алексу чекер, ну или куда вам там надо. и да, понравилось искать запросом "site:markosweb.com купить охуевший стафф"