Главная » Записи с тегом "DLE" (Page 2)

Рубрики с меткой ‘DLE’

Список изменений в шаблонах между версиями 9.4 и 9.5

1. Скопируйте файл картинки из стандартного шаблона /templates/Default/dleimages/no_image.jpg в папку вашего шаблона.
2. Скопируйте файлы print.tpl и static_print.tpl из общей папки /templates/ в папку вашего шаблона, например /templates/Default/

3. Откройте файл style/engine.css и в самый низ добавьте: Читать далее »

Восстановление пароля администратора через БД MySQL

Восстановлении пароля администратора на DataLife Engine (DLE) через БД MySQL.

Вариант 1

В управлении БД MySQL заходим в phpMyAdmin находим таблицу со всеми зарегистрированными пользователями. Там вы будете наверняка первым — (`user_id` =1;).

Находим такую строку: Читать далее »

Вредоносные коды в шаблонах для DLE

Часто команда риперов runet team и не только ставят в свои шаблоны dle вредоносные коды, которые зачастую вредят владельцам сайтов, перенаправляя их трафик на разные партнерки, или еще хуже, скрытые ссылки.

Чаще всего для этого используют файл login.tpl

$void = include ($tpl->dir.’/images/ico/kontasa.jpg’);
$get_good = $void;
if (isset($get_good) == true)
{ $login_panel = $void; Читать далее »

Недостаточная фильтрация входящих данных Dle v9.0

Проблема: Недостаточная фильтрация входящих данных.

Ошибка в версии: 9.0 и все более ранние версии

Степень опасности: Высокая

Для исправления откройте файлы engine/modules/search.php и engine/modules/fullsearch.php и найдите:

$count_result = 0; Читать далее »

Как сделать рип сайта , рипнуть сайт (Полное руководство)

Если вам интересно всё подробно расскажу в полной новости.

Если вы не знаете html , вам будет очень трудно , разобраться :)

1. Заходим через ИЕ на сайт который хотите рипать потом нажимаем Страница => Сохранить как...

2. Выбираем Веб-страница полностью и сохраняем. Читать далее »

Серьёзная уязвимость всех версий

Найдена очередная Серьёзная уязвимость всех версий (независимо от автора).Уровень риска: Критическая

Нашёл очередной баг: Lion__

Как пользоваться багом не разглашается в личных целях (ещё целку ломать). баг позволяет выполнять любые действия в том числе sql запросы. Читать далее »

Cтойкость папок скрипта от запуска сторонних скриптов

Дорогие друзья,

в этой небольшой статье мы хотим рассказать вам о том как, как вам можно повысить безопасность вашего сайта. Как известно наибольшую угрозу для сайта представляют собой залитые злоумышленником на сервер PHP шеллы. Что это такое? Это PHP скрипты которые могут выполняться на вашем сервере, соответственно производить какие-либо изменения в файлах доступных для записи или могут, например читать содержимое конфигурационных данных и соответственно получать прямой доступ к базе данных. Каким образом могут попадать данные шеллы на ваш сервер? При обнаружении какой либо уязвимости в скрипте, или сторонних модулях, или вообще при наличии других уязвимых сторонних скриптов на сервере, или серверного ПО. Главная Читать далее »

MySQL — Восстановление данных

Самое важное для владельца сайта — это то, что есть на сайте, тоесть его содержимое. Чтобы небыло беды, например в случае «падения» сервера, нужно сохранять содержимое сайта, а потом, в случае необходимости восстанавливать данные.

Есть два способа сохранения данных:
1. Сделать дамп через shell (ssh (для Windows — клиент Putty));
2. Сгененировать CSV-файл с помощью PHP;
3. Сделать дамп *.sql через phpMyAdmin или Sypex Dumper. Читать далее »

Создаем Robots.txt для DataLife engine

Имея кучу сайтов на DLE, сталкиваешься с одинаковыми проблемами: к примеру, Яндекс проиндексировал печатные версии страниц (url вида print:…), конечно же, Сапа не видит их. А Яндексу они приятнее, так как всякого мусора на них меньше: только контент. Или же Яндекс индексирует ссылки вида “my-dle-site/user/ya-spamer”, на которых куча внешних ссылок в профилях и никакого контента.
Вообще, причины вспомнить о robots.txt могут быть разными, к примеру, в этом заветном файле можно передать Sitemap Google’у и Яндексу не заходя в панель вебмастера.
Читать далее »

Приручаем поисковых роботов

Все пользователи сети интернет любят поисковые системы. Они позволяют им ориентировать огромных пространствах сети, помогают найти именно то что им необходимо. Но для владельцев интернет сайтов они могут также стать и головной болью, т.к. поисковые роботы заходя на сайт, имеют одну единственную цель: проиндексировать ваш сайт как можно быстрее и добавить в свою базу данных. Почему головной болью? Да потому что поисковые роботы делают свою работу достаточно быстро и усердно, скачивая страницы вашего сайта с большой интенсивностью. Если на вашем 5 страниц, то нет проблем, все проходит быстро и безболезненно. А если тысячи, десятки тысяч? На практике это выглядит так: неожиданно в какое то определенное время суток, Читать далее »