Что это
http://www.intel.ru/content/www/ru/ru/nuc/introduction-to-intel-nuc.html
Intel® NUC — это ПК в ультракомпактном форм-факторе размером 10 x 10 см. Intel® NUC размером 10 x 10 см не уступает по производительности и обеспечиваемым возможностям вашему обычному ПК с огромным системным блоком. От домашнего кинотеатра до игр и цифровых музыкальных автоматов, у комплекта Intel® NUC есть все, что нужно для управления всей вашей цифровой жизнью. Просматривайте сайты социальных сетей, проверяйте эл. почту и общайтесь в видеочате с друзьями, и все это, не создавая беспорядка на вашем рабочем столе. Intel® NUC также найдет применение в бизнес-приложениях, таких как цифровые информационные панели и терминалы. Думаете, вы знаете, на что способно компактное решение? Подумайте еще раз.
четверг, 27 февраля 2014 г.
понедельник, 24 февраля 2014 г.
Батареи для ИБП
VRLA - необслуживаемая герметичная аккумуляторная батарея, также часто называемая VRLA батарея, получила название от технологии VRLA (Valve Regulated Lead Acid -“клапанно-регулируемая свинцово-кислотная») или SLA (Sealed Lead Acid “герметизированная свинцово-кислотная»). Также могут встречаться названия: VRLA аккумулятор, SLA аккумулятор, герметичная свинцово-кислотная батарея, герметичный свинцово-кислотный аккумулятор и др. Этот тип аккумуляторных батарей не требует долива воды в течении всего срока службы, также характеризуется отсутствием выделения газов и утечкой электролита.
четверг, 20 февраля 2014 г.
Очерк безопасности SIP
http://habrahabr.ru/company/pt/blog/212839/
А проблема безопасности SIP действительно актуальна, мне например неизвестно про операторов, которые дают SRTP+TLS, в частности телфин - он не умеет даже кодеки высокого качества, что уж говорить про шифрованные разговоры...
Ну и md5, rtp который перехватывается на раз, итд.
А проблема безопасности SIP действительно актуальна, мне например неизвестно про операторов, которые дают SRTP+TLS, в частности телфин - он не умеет даже кодеки высокого качества, что уж говорить про шифрованные разговоры...
Ну и md5, rtp который перехватывается на раз, итд.
среда, 19 февраля 2014 г.
solaris: sppp0 interface - что это?
в ifconfig -a можно обнаружить sppp0
Это DSCP - Domain to Service Processor Communication Protocol
https://blogs.oracle.com/olympus/entry/dscp
http://sysadminhelper.blogspot.ru/2013/07/m5000-server-sppp0-interface-in.html
https://search.oracle.com/search/search?search_p_main_operator=all&group=Blogs&q=dscp
Выключение
svc:/platform/sun4u/dscp:default
/S47pppd stop
как-то так. Но лучше не трогать.
Это DSCP - Domain to Service Processor Communication Protocol
https://blogs.oracle.com/olympus/entry/dscp
http://sysadminhelper.blogspot.ru/2013/07/m5000-server-sppp0-interface-in.html
https://search.oracle.com/search/search?search_p_main_operator=all&group=Blogs&q=dscp
Выключение
svc:/platform/sun4u/dscp:default
/S47pppd stop
как-то так. Но лучше не трогать.
понедельник, 17 февраля 2014 г.
bitrix: Работа с сокетами Ошибка
bitrix Работа с сокетами Ошибка
Проблема актуальна, например когда сервер разработки внутри сети и наружу выставлен только 80 порт, или когда есть http/ntlm авторизация. Проверка пытается подключиться к серверу сокетом, а поскольку что-то мешает, получается ошибка.
Фикс: в /etc/hosts прописываем
127.0.0.1 our.site.ru (указываем то имя, с которого делали проверку)
https://dev.1c-bitrix.ru/community/forums/forum6/topic32139/
Проблема актуальна, например когда сервер разработки внутри сети и наружу выставлен только 80 порт, или когда есть http/ntlm авторизация. Проверка пытается подключиться к серверу сокетом, а поскольку что-то мешает, получается ошибка.
Фикс: в /etc/hosts прописываем
127.0.0.1 our.site.ru (указываем то имя, с которого делали проверку)
https://dev.1c-bitrix.ru/community/forums/forum6/topic32139/
Атака с помощью вашего сервера времени: NTP amplification attack (CVE-2013-5211)
Несколько запоздало, но
http://habrahabr.ru/post/209438/
Проблема до сих пор актуальна, судя по недавней атаке в 400 гбит на cloudflare
http://www.xakep.ru/post/62039/default.asp
https://twitter.com/eastdakota/status/433002992694874112
http://habrahabr.ru/post/209438/
Проблема до сих пор актуальна, судя по недавней атаке в 400 гбит на cloudflare
http://www.xakep.ru/post/62039/default.asp
https://twitter.com/eastdakota/status/433002992694874112
воскресенье, 16 февраля 2014 г.
Xen Cloud Platform = XAPI
http://www.xenproject.org/developers/teams/xapi.html
Note that we never really had a clear name for the XAPI project. The project was initially named after the Xen Cloud Platform, which is essentially a distribution of the Hypervisor, the XAPI toolstack and various other components. Later, the project also delivered packages into Linux distributions. This has created some confusion in the community! To make this clearer, the project team proposes to name the project after the XAPI toolstack. In other words, the project would be named after the codebase instead of one deliverable that the project produces.
Последняя версия Xen Cloud Platform - 1.6, и, насколько я понимаю, сейчас достаточно скачать XenServer и получить XAPI.
Note that we never really had a clear name for the XAPI project. The project was initially named after the Xen Cloud Platform, which is essentially a distribution of the Hypervisor, the XAPI toolstack and various other components. Later, the project also delivered packages into Linux distributions. This has created some confusion in the community! To make this clearer, the project team proposes to name the project after the XAPI toolstack. In other words, the project would be named after the codebase instead of one deliverable that the project produces.
Последняя версия Xen Cloud Platform - 1.6, и, насколько я понимаю, сейчас достаточно скачать XenServer и получить XAPI.
суббота, 15 февраля 2014 г.
AIX: Создание нового volume group
http://aixdoc.wordpress.com/2012/03/05/creating-a-volume-group/
Есть 780p, виртуализация, LPAR. Подключили второй диск, теперь надо его задействовать под базу оракла.
Вкратце:
1) пересканируем систему, чтобы нашло новый диск
cfgmgr
2) делаем volume group
mkvg -y oraclevg hdisk1
3) проверяем
lsvg oraclevg
4) создаём ФС с автомонтированием, точкой монтирования и указанием размера
crfs -v jfs2 -A yes -g oraclevg -m /oradata -a size=10G
чуть подробнее: -A - автомонтирование, остальное понятно по применению.
5) монтируем, проверяем
mount /oradata
df -g /oradata
Есть 780p, виртуализация, LPAR. Подключили второй диск, теперь надо его задействовать под базу оракла.
Вкратце:
1) пересканируем систему, чтобы нашло новый диск
cfgmgr
2) делаем volume group
mkvg -y oraclevg hdisk1
3) проверяем
lsvg oraclevg
4) создаём ФС с автомонтированием, точкой монтирования и указанием размера
crfs -v jfs2 -A yes -g oraclevg -m /oradata -a size=10G
чуть подробнее: -A - автомонтирование, остальное понятно по применению.
5) монтируем, проверяем
mount /oradata
df -g /oradata
понедельник, 10 февраля 2014 г.
ARM и контейнеры
В свете плавного прихода арм-процессоров в серверную инфраструктуру, контейнеры обретают смысл, в том числе для быстрого деплоя и изоляции приложений.
http://www.xbitlabs.com/news/cpu/display/20140131110927_AMD_to_Ship_ARM_Based_Opteron_PCs_to_Software_Makers_This_Quarter.html
как пример.
LXC
http://kb.haeringer.org/virtualization-on-arm-with-lxc/
OpenVZ
http://openvz.org/Porting_the_kernel
OpenVZ kernel supports x86, x86_64, IA64, power64, arm and sparc architectures as of now.
есть набор патчей под 2.6.27 от Kir Kolyshkin, его страницы
http://k001.livejournal.com/611280.html
http://openvz.livejournal.com/24651.html
но с 3 веткой они похоже не работают.
http://www.xbitlabs.com/news/cpu/display/20140131110927_AMD_to_Ship_ARM_Based_Opteron_PCs_to_Software_Makers_This_Quarter.html
как пример.
LXC
http://kb.haeringer.org/virtualization-on-arm-with-lxc/
OpenVZ
http://openvz.org/Porting_the_kernel
OpenVZ kernel supports x86, x86_64, IA64, power64, arm and sparc architectures as of now.
есть набор патчей под 2.6.27 от Kir Kolyshkin, его страницы
http://k001.livejournal.com/611280.html
http://openvz.livejournal.com/24651.html
но с 3 веткой они похоже не работают.
tmpfs, ramfs, ramdisk
tmpfs
Файловая система, размещаемая в памяти, может свопиться, размер выставляется при создании, можно изменить размер при перемонтировании.
Подключаем
# mount -t tmpfs -o size=100m tmpfs /tmp
ramfs
Тоже размещается в памяти, но не может попадать в своп, поэтому актуально для данных, которые должны быть всегда в памяти, например для быстродействия. Не поддаётся ограничению, то есть записав на такой раздел больше, чем есть доступной памяти, сервер ляжет. Не отображается через df, только через mount.
ramdisk
Это устройства вида /dev/ramX. После создания форматируется как обычный диск.
Сложно придумать применение на данный момент, ramfs+tmpfs вполне достаточно.
https://www.kernel.org/doc/Documentation/blockdev/ramdisk.txt
линки
http://rus-linux.net/nlib.php?name=/MyLDP/file-sys/twofs.html
Файловая система, размещаемая в памяти, может свопиться, размер выставляется при создании, можно изменить размер при перемонтировании.
Подключаем
# mount -t tmpfs -o size=100m tmpfs /tmp
в fstab
tmpfs /tmp tmpfs size=2G 0 0
Тоже размещается в памяти, но не может попадать в своп, поэтому актуально для данных, которые должны быть всегда в памяти, например для быстродействия. Не поддаётся ограничению, то есть записав на такой раздел больше, чем есть доступной памяти, сервер ляжет. Не отображается через df, только через mount.
ramdisk
Это устройства вида /dev/ramX. После создания форматируется как обычный диск.
Сложно придумать применение на данный момент, ramfs+tmpfs вполне достаточно.
https://www.kernel.org/doc/Documentation/blockdev/ramdisk.txt
линки
http://rus-linux.net/nlib.php?name=/MyLDP/file-sys/twofs.html
пятница, 7 февраля 2014 г.
Ставим oracle 11 на debian
Для боевой среды это плохая связка, а для тестовой вполне допустимо. И есть много нюансов. Для боевой из бесплатных лучше взять centos
Установка Oracle 11g R2 на Debian Lenny
под squeeze и wheezy алгоритмы примерно те же
HOWTO: Install Oracle 11gR2 on Debian Wheezy
Установка Oracle 11g R2 на Debian Lenny
под squeeze и wheezy алгоритмы примерно те же
HOWTO: Install Oracle 11gR2 on Debian Wheezy
вторник, 4 февраля 2014 г.
nginx: limit_req для POST
Штатно нельзя поставить ограничение на конкретный метод типа POST, только через Ж, увы.
Если просто написать
location /login/ {
if ($request_method = POST) {
limit_req zone=login; #burst=1;
}
то при nginx -t будет ошибка
nginx: [emerg] "limit_req" directive is not allowed here in /etc/nginx/nginx.conf:48
Если просто написать
location /login/ {
if ($request_method = POST) {
limit_req zone=login; #burst=1;
}
nginx: [emerg] "limit_req" directive is not allowed here in /etc/nginx/nginx.conf:48
Вариант через error_page
if( $request_method = "POST")
{
return 402;
}
error_page 402 = @post;
}
location @post
{
limit_req ...
}
Вариант через map
http://nginx.org/ru/docs/http/ngx_http_map_module.html
Основан на том, что если $is_post пуст, то ограничение не применится.
limit_req_zone $is_post zone=login:1m rate=1r/s;
map $request_method $is_post {
POST $binary_remote_addr;
}
server {
...
как-то так (пока не тестировалось, вечером постараюсь).
http://nginx.org/ru/docs/http/ngx_http_map_module.html
Основан на том, что если $is_post пуст, то ограничение не применится.
limit_req_zone $is_post zone=login:1m rate=1r/s;
map $request_method $is_post {
POST $binary_remote_addr;
}
server {
...
limit_req zone=login;
}как-то так (пока не тестировалось, вечером постараюсь).
понедельник, 3 февраля 2014 г.
суббота, 1 февраля 2014 г.
PHP Warning: Unknown: Failed to write session data (memcached). Please verify that the current setting of session.save_path is correct
Есть 2 php модуля: php5-memcache и php5-memcached, но они отличаются по функционалу и использованию. В частности, даже указание, что подключаем, несколько отличается, в случае memcache указывается префикс tcp://, а у memcached - нет.
session.save_handler = memcache
session.save_path="tcp://192.168.1.103:11211"
session.save_handler = memcached
session.save_path="192.168.1.103:11211"
Есть вариант через сокеты
session.save_path="/tmp/memcached.sock"
http://stackoverflow.com/questions/12112319/failed-to-write-session-data-php-and-memcached
и пример просмотра статистики
echo stats | nc -U /tmp/memcached.sock
session.save_handler = memcache
session.save_path="tcp://192.168.1.103:11211"
session.save_handler = memcached
session.save_path="192.168.1.103:11211"
Есть вариант через сокеты
session.save_path="/tmp/memcached.sock"
и пример просмотра статистики
echo stats | nc -U /tmp/memcached.sock
Подписаться на:
Сообщения (Atom)