Перейти к содержимому



RedDragon

Регистрация: 06 дек 2013
Off Активность: апр 09 2024 01:54

#3631 Бесплатный сервис для проверки качества бэклинков.

Написано RedDragon на 23 Декабрь 2013 - 22:50

Проверка обратных ссылок необходима для контроля купленных ссылок, а также для определения нахождения Вашей ссылки на сайтах после прогона.
 
На мой взгляд, нижеописанный сервис предоставляет наиболее полную информацию о нахождении ссылок на сайтах-донорах, чем аналогичные программы или сервисы.
 
Сервис позиционируется как сервис для проверки прогонщиков.
 
Вы заказали прогон, получили отчет с размещенными ссылками, теперь самое время проверить качество прогона.
Для этого переходим по , вводим домен сайта который Вы прогоняли и URL страниц с ссылками на Ваш сайт из отчета о прогоне. Максимальное количество URL которые можно проверить за один раз – 1500 адресов.
Жмем «Запустить проверку» и ожидаем результатов проверки.

 

После проверки Вы получите такую информацию (URL донора, Ваша найденная ссылка, анкор ссылки, процентное соотношение с общим количеством ссылок):
 
- отличные ссылки (прямые индексируемые ссылки)
- nofollow ссылки
- неиндексируемые ссылки (закрыты через robots.txt, редирект, noindex и т.д.)
- нет ссылок (сайты, на которых не обнаружено Вашей ссылке)
- ошибки проверки (ошибки указываются)
В конце отчета Вы увидите сводный отчет проверки.
 

gqda.jpg

 


  • 1


#3630 Youtube Video Rank Checker - Бесплатный парсер выдачи Youtube.

Написано RedDragon на 23 Декабрь 2013 - 22:45

Продвижение на Youtube как и продвижение в поисковых системах требует определенных финансовых и временных затрат, а также постоянного наблюдения за динамикой роста позиций.
Для снятия позиций в поисковых системах существует множество программ и сервисов как платных, так и бесплатных.
Недавно возникла необходимость мониторинга позиций видео на Youtube.
Погуглив обнаружил бесплатную программу, которая позволяет определить позиции Вашего ролика в Youtube выдачи по заданным ключевым словам.
Программа называется Youtube Video Rank Checker.
Запускаем программу, вводим URL видео, позиции которого будем отслеживать, интересующие нас ключи, глубину поиска. Предполагается, что ключевые слова необходимо заключать в кавычки.
Разделителем является пробел (“продвижение сайта” “раскрутка сайта” и т.д.), но как я, ни старался проверить за одну проверку более одного ключевого слова не получилось. Думаю это не критично.
Для примера проверим позиции случайного ролика о влиянии ПФ на продвижение.
 

4r46.jpg

 


  • 3


#2975 Мужская схема 2.0 - Суровый мясонабор [Денис Борисов]

Написано RedDragon на 15 Декабрь 2013 - 16:29

Протеин влияет на сами знаете что , так что сами решайте...


  • -4


#2531 База ключевых слов Пастухова на миллиард слов (октябрь)

Написано RedDragon на 10 Декабрь 2013 - 20:01

вот ссылка на AmazingKeywords

Пользуйтесь на здоровье!


  • 1


#2458 Xenu's Link Sleuth

Написано RedDragon на 09 Декабрь 2013 - 23:16

3d4554a923b001eb728de467b187e8ca.png

Xenu Link Sleuth - проверенная временем и многими SEO специалистами программа. Просто незаменима при осуществлении поиска по сайту ошибок, неправильных путей, битых ссылок, скриптов и прочее. Сама утилита имеет легкий и удобный интерфейс. Функционал программы позволяет выводить отчеты в формате реального времени. К приятным особенностям программы можно отнести умение создавать карту сайта, поддержку прокси серверов. Работает с такими популярными форматами файлов как txt и csv, а также осуществляет поиск по FTP.


  • 3


#2453 Netpeak Spider

Написано RedDragon на 09 Декабрь 2013 - 21:47

netpeak-spider-box.png

Программа «Netpeak Spider» — уникальный инструмент, предназначенный для сканирования и анализа сайта с помощью собственного робота.

  • сканирование сайтов и выгрузка основных SEO-параметров страниц с помощью собственного робота;
  • поиск ошибок, битых ссылок, неправильных редиректов, дубликатов title, description, keywords и т.д.;
  • анализ входящих и исходящих внутренних ссылок для каждой страницы сайта;
  • расчёт внутреннего PageRank;
  • гибкие настройки сканирования и экспорт данных в формате Excel;
  • всё это бесплатно!

Netpeak Spider предназначен для сканирования сайтов и выгрузки основных SEO-параметров страниц с помощью собственного робота. В программе имеется уникальная возможность расчёта внутреннего PageRank и PageRank без учёта сквозных ссылок, а также экспорта полученных результатов в Excel.

Гибкие настройки сканирования позволяют включать/отключать:

  • учёт параметризованных и якорных ссылок, изображений и js-файлов;
  • использование файла robots.txt при сканировании;
  • добавление в таблицу страниц на поддоменах сканируемого сайта.

Список параметров страниц, анализируемых программой «Netpeak Spider»:

URL – адрес страницы.
Глубина – уровень расположения страницы относительно главной.
LinkCanonical – определяется наличие атрибута rel="canonical" и на какой адрес он указывает.
Ответ – код состояния HTTP в ответе сервера (200 OK, 301 Moved Permanently, 302 Moved Temporarily, 404 Not Found, 503 Service Unavailable и т.д.).
Title – тег "title", расположенный в контейнере "head", который определяет заголовок документа.
Description – содержание мета-тега, отвечающего за краткое описание содержимого веб-страницы.
Keywords – содержание мета-тега, отвечающего за ключевые слова, встречаемые на веб-странице.
robots.txt – определяется, разрешена (allowed) или запрещена (disallowed) индексация страницы поисковыми системами в файле robots.txt.
MetaRobots – определяется наличие мета-тега "robots", а также разрешена (index) или запрещена (noindex) индексация страницы поисковыми системами и разрешён (follow) или запрещён (nofollow) переход по ссылкам на данной странице с его помощью.
Редиректы – количество перенаправлений со страницы.
Заголовки (H1) – количество заголовков первого уровня.
Ссылки с этой страницы – количество исходящих ссылок с данной страницы в пределах всего сайта.
Ссылки на эту страницу – количество входящих ссылок на данную страницу в пределах всего сайта.
Внутренние ссылки – количество ссылок с данной страницы на сканируемый сайт.
Внешние ссылки – количество ссылок с данной страницы на другие сайты.
PR – расчёт внутреннего показателя PageRank текущей страницы.
PR (без сквозных ссылок) – расчёт внутреннего показателя PageRank без учёта сквозных ссылок, которые встречаются более чем на 50% страниц сканируемого сайта.
Дубли по Title – определяются группы страниц с дублирующимся тегом "title".
Дубли по Description – определяются группы страниц с дублирующимся мета-тегом "description".
Дубли по Keywords – определяются группы страниц с дублирующимся мета-тегом "keywords".

 

 

ссылка


  • 0


#2442 Fillin - Программа для рассылки новостей на сайты

Написано RedDragon на 09 Декабрь 2013 - 21:27

Fillin - Программа для рассылки новостей на сайты
Филин (от англ. FillIn — заполнять) — универсальный комплекс для рассылки новостей в массы. Существуют другие программы для подобных задач, однако Филин выделяется среди них благодаря следующим особенностям...
1e2d72ae36f2b4f2617ef5f0ede1538b.jpg

В основном программа нацелена на сайты, построенные на движках:

  • Datalife Engine (DLE) - основная цель, ибо большинство новостных сайтов в сети создано именно на нем;

Важно


 
Если при запуске программы в авторизации отказано с ошибкой отсутствия связи с Интернетом, необходимо добавить в файл "Windows > System32 > drivers > etc > hosts" следующие строки:
5.9.136.68 fillin.org.ua
5.9.136.68 item.org.ua
5.9.136.68 1news.org.ua
5.9.136.68 dbox.org.ua
5.9.136.68 vlink.org.ua
 

ссылка 

 


  • 1


#2423 Selka парсер поисковой выдачи

Написано RedDragon на 09 Декабрь 2013 - 20:18

Selka – еще один бесплатный парсер поисковой выдачи Яндекса, Google, Yahoo и Bing.

Для начала работы необходимо добавить ключевые слова, по которым будем парсить выдачу. Ключевые слова можно добавить вручную или импортировать из .txt.

 

9364624ae74a.jpg

 

Далее необходимо выбрать и настроить поисковые системы. Можно одновременно парсить как одну ПС так и несколько. Можно настроить домен ПС, язык, регион, ТОП -50 (100, 200, 300, 500, 1000).

 

bb1debfe5c4b.jpg

 

Жмем «Запустить проект сейчас» и ожидаем завершения работы программы. Ждать долго не придется, парсер работает очень быстро. О завершении парсинга Вас известит звуковой сигнал. На выходе Вы получаете данные по каждой поисковой системе: запрос, домен, url. По двойному клику по url Вы перейдете на сайт в браузере по-умолчанию. Результаты парсинга можно сохранить в .xls и .csv формат.

Некоторые возможности программы:

- поддержка антикапчи

- возможность настроить задержку между запросами для каждой поисковой системы
отдельно

- поддержка прокси

- возможность настроить метод поиска для Яндекса, Google и Bing (прямой поиск, с использованием API)

-многопоточность

- возможность разрешить или запретить дублирование доменов

Одним словом в полку качественных бесплатных парсеров прибыло.

ссылка


  • 1


#2422 Парсер Поисковиков Butterfly 3.2

Написано RedDragon на 09 Декабрь 2013 - 20:14

3b56712d30b0.jpg

Butterfly 3.2 - это мощный и универсальный десктоповый парсер ссылок с любых сайтов и поисковых систем. Парсер имеет простой и интуитивно понятный интерфейс, с которым разберется любой новичок, впервые запустивший программу.

Все найденные программой ссылки могут отсеиваться по фильтру, настроенному под Ваши личные потребности. Программа имеет много готовых настроенных и отлаженных профилей фильтрации и профилей поиска. Имеется возможность сохранять как целые найденные ссылки, так только домены, или ссылки, построенные по маске.
В версии 3.2:

- Изменен алгоритм отбора ссылок
- Реализована возможность сохранять дубликаты ссылок
- Исправлена выдача ссылок Google
- Исправлено отображение кириллических ссылок
- Изменены некоторые значки кнопок для удобства
- Добавлены кнопки открытия папок профилей
- Реализован первичный фильтр профиля поисковика, вместо параметра кеша в профиле
- Добавлена проверка новых версий программы
- Удален профиль поиска Baidu в связи с выставлением ссылок на редирект вместо нормальных ссылок
- Изменены/протестированы все профили
- Добавлены профили поиска: Nigma, Yahoo, Clusty, Aol, Gigablast, Lycos, Teoma, Refer.ru

Доступен релиз 3.2 для Windows и Linux (Debian)
Описание основных изменений

В новой версии реализована возможность сохранять дубликаты ссылок. Чтобы включить опцию, необходимо на вкладке "Дополнительно" отметить соответствующую галочку:

30d3b88dfff7.jpg

Как нам уже известно, Google выдает кучу мусора в своей выдаче. В новой версии программа чистит весь ненужный мусор и выдает нормальные ссылки не только для Google но и для других поисковиков.

Кроме того исправлено отображение кириллических символов в составе ссылки. Теперь вместо непонятных ссылок с прцентами в файле результатов будут присудствовать кириллические фразы, как мы их видим в поисковике. Если же фразу будет невозможно раскодировать - ссылка останется закодированной. Остались проблемы при сохранении ссылок, содержащих иероглифы.

Напротив списков профилей был изменен состав кнопок:

37715b623786.jpg

Кнопка открытия профиля "..." изменила картинку на "шестерня" для удобства понимания, так как некоторые пользователи думали, что это "открыть файл" так и не зная как открыть редактор профиля. Так же была добавлена кнопка открытия папки, где находятся все профили. Теперь не нужно каждый раз искать список профилей, чтобы скопировать/изменить что-либо.

В настройках профиля поисковиков, вместо поля "Кеш" теперь присудствует поле "Первичный фильтр":

9547ec87f2dc.jpg

Изначально данное поле (Кеш) должно было содержать фрагменты текста, которые встречались только в ссылках на закешированные варианты сайтов в поисковой выдаче. Такие ссылки в отборе обычно не нужны и фильтровались. Однако поисковики, помимо ссылок на кеш, имеюте еще много "левых" ссылок на другие сайты, не относящихся к поисковой выдаче. Это какие-то дополнительные сервисы, фейсбуковские лайки, ссылки на другие поисковики (аля попробуйте поищите еще там...) и т. д. Таким образом необходимо исключить из результатов не только ссылки на кеш но и множество других ссылок, которые не имеют ничего общего между собой. В результате поле "Кеш" было переименовано в поле "Первичный фильтр", и добавлена возможность вводить в даное поле через запятые множество фрагментов. Тепер каждая встречающаяся программе ссылка перед тем как предатся проверке выбраному фильтру, будет проверятся, не содержит ли она один из фрагментов первичного фильтра. Если содержит хоть один - сразу отбрасывается. Так как эта проверка осуществляется в самом начале, поле и получило название "первичный фильтр". По сути это аналог старого "кеш'а", только множественный.

В новой версии реализована функция проверки новой версии при запуске программы. Если новая версия доступна - программа будет выдавать соответствующее сообщение.

Так же изменены все профили под новую версию программы. Добавлено много новых профилей поиска. Для некоторых профилей поиска так и не удалось определить страницу капчи. Так что если во время поиска программа будет продолжать работать, но новых ссылок парсить не будет - возможно найдена страница капчи. Тогда остановите поиск, перейдите на вкладку "Лог" и нажмите кнопку "Сохранить HTML-список", и пришлите его нам.

Операционная система: Win 98/ME/2000/XP/2003/Vista/7/Linux (Debian)
Язык интерфейса: Русский, англиский
Год выхода: 2013
Лицензия: Freeware
Размер: Windows: 14.3 Mb.
ссылка 


  • 1


#2421 Парсер YAKA по категориям

Написано RedDragon на 09 Декабрь 2013 - 20:04

Всем привет. Вот рабочий парсер YAKA
Напишу подробную инструкцию по использованию для тех кто летает в облаках

1. Открываем сайт http://awmproxy.com/.../freeproxy.php и вводим капчу

2. Копируем первые 100 прокси
3. Идем на сайт http://hideme.ru/proxy-checker/ , вставляем наш прокси лист и жмем кнопку "Начать проверку"

RfaXcAEs.png

4. Получившийся список копируем, идем в папку с парсером и вставляем прокси в файл "proxy.txt"

2WZVWbUt.png

OUUCPWgV.png

5. Открываем нашу программу. Интерфейс позволит запутаться только если вы пьяны.

wz053r1E.png

6. Открываем яндекс каталог. Выбираем понравившуюся категорию.
Я выбрал "Формула 1" http://yaca.yandex.r....ing/Formula_1/
Копируем часть ссылки, которая стоит после yaca.yandex.ru/yca/cat/
В моем случае это Sports/Auto_Racing/Formula_1/


7. Вставляем в нашу программу то, что скопировали

UwWYJPuU.png

8. Клацаем ВОТ ЭТУ кнопку

tQ957dSE.png

9. Ждем..........

10. Без комментариев

mYtgxPgU.png

11. Идем в папку с нашим парсером и забираем список сайтов в файле "sites.txt"

UG2A51Yp.png

vS57SIWS.png

12. Перед следующим парсингом файл удаляем.

Собственно и всё =)))

Скачать программу можно по 


  • 2


#2261 База Трастовых сайтов YACA V.3

Написано RedDragon на 06 Декабрь 2013 - 21:36

1) база состоит из 318 трастовых сайтов.
2) Сайты не требуют обратных ссылок.
3) Все сайты проверены на отсутствие запрета индексации ссылок (noindex и nofollow).
4) Ссылки размещаются бесплатно.
5) Все сайты проверены на отсутствие запрета (robots.txt).
6) Возможность поставить на некоторых сайтах анкорную ссылку.
7) YACA: 184
8) DMOZ: 138
9) Минимальное тИЦ: 20
10) Максимальное тИЦ: 2900
11) Суммарный тИЦ: 99775
12) Все ресурсы с открытой регистрацией.


ссылка : 


  • 1




×

Зарегистрируйся моментально!