Перейти к содержимому
Калькуляторы

aoz1

Активный участник
  • Публикации

    212
  • Зарегистрирован

  • Посещение

О aoz1

  • Звание
    Студент
    Студент
  • День рождения 06/15/1961

Контакты

  • Сайт
    Array
  • ICQ
    Array

Город

  • Город
    Array
  1. Пользовали пару месяцев, пока X520 ехала. Все вышеназванное было побеждено. Но не поднялся линк в сторону на Juniper-а на родной sfp+ (разные пробовали и по колесам тоже стучали) Точнее поднялся, но пакеты ходили только в одну сторону без каких либо сообщений в логах обоих девайсов. Так что пока лежит, ждет своего часа. Между нами девочками с теми pcie-2 картами тоже чудеса вначале с софтом были. И ничего сейчас все пользуют. Всему свое время.
  2. Мах 26 Мax 32 то есть на 6 процентов загрузки больше при нагузке остальных камней 26
  3. Не критично но просто интересно X520-DA2 карта в LACP L3+4 драйвер из коробки: # ethtool -i eth3 driver: ixgbe version: 4.0.1-k firmware-version: 0x61c10001 И вот такая штука на output. Причем на обоих портах все в 6 очередь пихает. Я как то это smp_affinity выровнял, но все едино не по феншую. Хочется красивой едной кривой на загрузке камней. Гуглил, man ethtool читал не помогло. Такое ощущение что карта tx queue по dst макам делает, хотя карта там на десяток серверов работает..... # ethtool -S eth3 | grep tx_queue tx_queue_0_packets: 20818 tx_queue_0_bytes: 1384912 tx_queue_0_bp_napi_yield: 0 tx_queue_0_bp_misses: 0 tx_queue_0_bp_cleaned: 0 tx_queue_1_packets: 856 tx_queue_1_bytes: 62285 tx_queue_1_bp_napi_yield: 0 tx_queue_1_bp_misses: 0 tx_queue_1_bp_cleaned: 0 tx_queue_2_packets: 65686 tx_queue_2_bytes: 8098269 tx_queue_2_bp_napi_yield: 0 tx_queue_2_bp_misses: 0 tx_queue_2_bp_cleaned: 0 tx_queue_3_packets: 964 tx_queue_3_bytes: 68760 tx_queue_3_bp_napi_yield: 0 tx_queue_3_bp_misses: 0 tx_queue_3_bp_cleaned: 0 tx_queue_4_packets: 816 tx_queue_4_bytes: 58324 tx_queue_4_bp_napi_yield: 0 tx_queue_4_bp_misses: 0 tx_queue_4_bp_cleaned: 0 tx_queue_5_packets: 1142 tx_queue_5_bytes: 79929 tx_queue_5_bp_napi_yield: 0 tx_queue_5_bp_misses: 0 tx_queue_5_bp_cleaned: 0 tx_queue_6_packets: 318893245294 tx_queue_6_bytes: 218358074464684 tx_queue_6_bp_napi_yield: 0 tx_queue_6_bp_misses: 0 tx_queue_6_bp_cleaned: 0 tx_queue_7_packets: 1058 tx_queue_7_bytes: 72800 tx_queue_7_bp_napi_yield: 0 tx_queue_7_bp_misses: 0 tx_queue_7_bp_cleaned: 0 tx_queue_8_packets: 1080 tx_queue_8_bytes: 77069 tx_queue_8_bp_napi_yield: 0 tx_queue_8_bp_misses: 0 tx_queue_8_bp_cleaned: 0 tx_queue_9_packets: 892 tx_queue_9_bytes: 64127 tx_queue_9_bp_napi_yield: 0 tx_queue_9_bp_misses: 0 tx_queue_9_bp_cleaned: 0 tx_queue_10_packets: 901 tx_queue_10_bytes: 64288 tx_queue_10_bp_napi_yield: 0 tx_queue_10_bp_misses: 0 tx_queue_10_bp_cleaned: 0 tx_queue_11_packets: 1029 tx_queue_11_bytes: 71806 tx_queue_11_bp_napi_yield: 0 tx_queue_11_bp_misses: 0 tx_queue_11_bp_cleaned: 0 tx_queue_12_packets: 3594732 tx_queue_12_bytes: 151007867 tx_queue_12_bp_napi_yield: 0 tx_queue_12_bp_misses: 0 tx_queue_12_bp_cleaned: 0 tx_queue_13_packets: 864 tx_queue_13_bytes: 62131 tx_queue_13_bp_napi_yield: 0 tx_queue_13_bp_misses: 0 tx_queue_13_bp_cleaned: 0 tx_queue_14_packets: 3547 tx_queue_14_bytes: 283836 tx_queue_14_bp_napi_yield: 0 tx_queue_14_bp_misses: 0 tx_queue_14_bp_cleaned: 0 tx_queue_15_packets: 905 tx_queue_15_bytes: 64475 tx_queue_15_bp_napi_yield: 0 tx_queue_15_bp_misses: 0
  4. Через 3 года вспомнил. Бо конденсаторы на муксах вздулись. Причем суцко в пятницу в 17:40 ну как положено.
  5. Имею кеш сервер на SSD дисках к файловому серверу. Контент получается практически не рандомный, поэтому траффик с дисков в два раза меньше траффика с Linux кеша. Но тут вылезает проблема. kswapd0 односредный, однопроцессный как угодно. Поэтому процессор перекашивает очень сильно. Уже к 50% загрузки в пике доходит. Увеличение памяти только усугубило ситуацию. Кто нибудь решал такую проблему? Похоже если его выключить будет лучше. Рекомендации LSI отрубать кеша на RAID контроллерах с SSD не так просто придуманы. Вопрос как его обрубить?
  6. спарка E5-2620 на Supermicro X9DRi-F 32G мозгов а принципиально? Тут вопрос не в посгресе а в линуксе. Посгрес запускает по одному форку на каждую tcp или socket сессию. Так же как апач или php-fcgi или 90% старотипных unix приложений. (уже кинологическая терминология пошла) Вопрос. почему ядро не раскидывает эти форки симметрично по процессорам. Сортировка по last used cpu: # top -b -n1 | grep postgres | awk '{print $12}' | sort -n | uniq -c 109 0 36 1 22 2 8 3 4 4 1 5 8 6 16 7 42 8 9 9 2 11 86 12 10 13 7 14 1 15 2 16 2 18 10 19 6 20 2 21 Тут понятно к irq сетевой карты привязка: # top -b -n1 | grep php-fpm | awk '{print $12}' | sort -n | uniq -c 45 0 48 1 35 2 45 3 38 4 53 5 50 6 41 7 1 8 5 12 4 13 1 18 1 20
  7. После длительного безуспешного шаманства решил обратится к сообшеству. Не могу выровнять загрузку по процессорам Исходные данные Centos 6 ядро 2.6.32 приложения: # ps -Af | grep postgres | wc -l 386 # ps -Af | grep php | wc -l 376 на машине стоят навороченный raid на 2208 чипе. все IRQ разбросанны по процессорам. Как и у сетевой карты. База данных меньше объема памяти так что все практически крутится в памяти. Советы от сюда https://code.google.com/p/pgcookbook/wiki/Database_Server_Configuration перебраны. Эффекта никакого И тем не менн когда смотриш top большинство процессов посгресса висит на 12 процессоре. Как это победить? может кто сталкивался? # cat /proc/interrupts | grep eth1- 115: 462480706 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-TxRx-0 116: 11 460794574 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-TxRx-1 117: 10 0 587859343 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-TxRx-2 118: 10 0 0 875812578 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-TxRx-3 119: 10 0 0 0 466812469 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-TxRx-4 120: 12 0 0 0 0 874452477 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-TxRx-5 121: 10 0 0 0 0 0 987899130 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-TxRx-6 122: 15 0 0 0 0 0 0 462152202 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge eth1-TxRx-7 # cat /proc/interrupts | grep megasas 89: 0 0 0 0 0 0 3016 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 254794502 IR-PCI-MSI-edge megasas 90: 0 0 0 0 0 0 9 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 34696709 0 IR-PCI-MSI-edge megasas 91: 0 0 0 0 0 0 59 0 0 0 0 0 0 0 0 0 0 0 0 0 0 88301573 0 0 IR-PCI-MSI-edge megasas 92: 0 0 0 0 0 0 112 0 0 0 0 0 0 0 0 0 0 0 0 0 16365218 0 0 0 IR-PCI-MSI-edge megasas 93: 0 0 0 0 0 0 28 0 0 0 0 0 0 0 0 0 0 0 0 10562312 0 0 0 0 IR-PCI-MSI-edge megasas 94: 0 0 0 0 0 0 6 0 0 0 0 0 0 0 0 0 0 0 42921162 0 0 0 0 0 IR-PCI-MSI-edge megasas 95: 0 0 0 0 0 0 1797 0 0 0 0 0 0 0 0 0 0 140435348 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 96: 0 0 0 0 0 0 10 0 0 0 0 0 0 0 0 0 24671284 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 97: 0 0 0 0 0 0 2 0 0 0 0 0 0 0 0 8526204 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 98: 0 0 0 0 0 0 0 0 0 0 0 0 0 0 2418468 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 99: 0 0 0 0 0 0 1 0 0 0 0 0 0 2378474 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 100: 0 0 0 0 0 0 0 0 0 0 0 0 4814339 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 101: 0 0 0 0 0 0 47 0 0 0 0 97387612 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 102: 0 0 0 0 0 0 75 0 0 0 12447492 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 103: 0 0 0 0 0 0 24 0 0 3561465 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas 104: 0 0 0 0 0 0 10 0 1711739 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 IR-PCI-MSI-edge megasas #
  8. Крым няш

    По моим ощущениям остальные вообще забили болт и снимают со всех спутников всё что могут. На перефирии где-то так. А в Киеве можно нарватся на абонента в виде члена нацрады и отгрести по полной.
  9. я написал - маленькая, подключено 2 потока максимально что видел - 15 разговоров, не исключаю что было и больше. Воткнули SMG на пол миллиона минут в месяц. Пока как конвертор ОКС-ISDN. Две недели полет нормальный. Понемногу пробую заменить гирлянду из Цисок и Астерисков. PS. Softswitch на kamailio. PPS. Не буду искать тему где предлагали поставить станцию и гирлянду цисок. Так вот я такую схему собрал еще в 2006 году и слава богу ушел от этого ужаса !!!
  10. Первый туннельный брокер IPv6 в UA-IX

    Может хоть форум NOC Netassist-а читает. с вашего блока ipv6 адресов не виден UA-IX. Я там письмо на NOC еще вчера послал.
  11. от 4 до 16-ти потоков Е1 с шагом 4 (от 1 до 4 модулей 4E1) от 128 до 768 каналов IP с шагом 128 (от 1 до 6 модулей VoIP) Телефончик вышеозвученный валидный ? До скольки можно звонить, если по Москве. А то позвонил, и доходит что люди уже спать могут. :)
  12. В рамках оутсорсного проекта зная мою любовь к Snom-ам партнер подарил Snom M3. Как раз вчера дома прикрутил ко всем имеющимся sip account-ам. Цена конечно.. У богатых свои причуды :) Из впечатлений: Негатив: По функционалу рядом со стационарными сномами и рядом не стоит. В первую очередь удручает отсутствие индикации на экране активной линии и переключение между активными линиями в несколько клавиш. Позитив: Очень приятный пластик. Вообще полное ощущение 'Дорогого' телефона. Качество звука относительно домашнего дектового панасика совсем другого класса. Первый раз слышу дект без VAD, Clippping или чего-то подобного. Удобная клипса, не знаю когда сломается, но есть. То биш такой себе сиповский вирту без стразиков. :)
  13. Firmware: Build 2.80.B31 Вот вам и L3 :) Спасибочки. DGS-3612G:admin#config link_aggregation algorithm ? Command: config link_aggregation algorithm Next possible completions: mac_source mac_destination mac_source_dest ip_source ip_destination ip_source_dest
  14. Дома надеюсь не в Севастополе :) Я ковырял DLink по сему поводу. Что то не видел такого. Будет интересно узнать. В принципе на форуме длинка ребята адекватные сидят.