Перейти к содержимому
Калькуляторы

McLaut

Пользователи
  • Публикации

    70
  • Зарегистрирован

  • Посещение

О McLaut

  • Звание
    Абитуриент
    Абитуриент

Контакты

  • Сайт
    Array
  • ICQ
    Array

Город

  • Город
    Array

Посетители профиля

2308 просмотров профиля
  1. На Украине нет официального представительства.....
  2. Денег жалко. Да и нюансы есть и с железными платформами, не меньше чем с софтовыми маршрутизаторами. Беда в том, что производители чаще всего врут о производительности своих железок.
  3. Мда, логично, что правильно поставленный вопрос - половина ответа. Задача проста: - нужен бордер с прокачкой суммарно около 10 Гбит/сек на выходе и 5+5 на входе. Кроме маршрутизации и фаервола других задач нет. Сейчас 2+2=4 работает. Но при большом кол-ве пакетов становится туго. Причем упор именно в сетевых интерфейсах. Используются яндекс драйвера для em карточек.
  4. А что же делать? Вопрос стоит в том, как прокачать через маршрутизатор около 10 Гбит/сек? Неужели натыкивать 5 штук четырехпортовых гигабитных карт и строить транки?
  5. А можно посмотреть top -SP в момент tcpdump -i ix0 ?
  6. Есть ли у кого опыт запуска 10 Гигабитных карт на FreeBSD. Поделитесь опытом плиз. 1 .Интересует производитель карт 2. Насколько глючные дрова? 3. Умеет ли драйвер делиться на процессы?
  7. Не получается. У меня пул на каждом сервере свой и радиус не знает какие у кого айпи выдаются. Соответственно схему можно реализовать только через АП и ДАУН скрипты... Или может есть механизм которого я не знаю?
  8. jab спасибо. Попробую сегодня прикрутить новую обвязку.
  9. Таблицы? Если не сложно - ткните носом как параллелить dummynet?
  10. Скорости шейпинга от 3 Мбит/сек до 10 Мбит/сек, и на тазике до 3К пользователей....
  11. Хм... Спасибо jab. Но все равно мне не понятно, почему новые ксеоны держат до 3К пользователей и не падают, а старые затыкаются.... И что посоветуете в качестве шейпера/полисера? Ведь dummynet тоже живет на одно ядре, или я не прав?
  12. И опять 25.......... discard frame w/o packet header Очень странная ситуация. На серверах с 55-ой серией Ксеонов, проблем нет. На предыдущих модификациях ксеонов - возникает проблема, причем только в связке с яндекс драверами и ng_car. На серверах где нет ng_car - все прекрасно. Может кто-то уже разобрался в проблеме?
  13. Использую решение на 450-х саммитах. Стекируются, 2х10Г, рутят.
  14. в конфиг ядра добавьте: options SMP
  15. Сегодня ночью перешел с Яндекс драйверов на поллинг rc.conf - devd_enable="NO" /etc/sysctl.conf kern.ipc.somaxconn=16384 # ограничивает размер очереди для приема новых TCP соединений net.inet.ip.fw.one_pass=0 # после пайпа опять возвращаться на следующее правило фаервола net.inet.tcp.log_in_vain=0 # писать в логи, когда обращаются к портам без сервисов net.inet.udp.log_in_vain=0 # писать в логи, когда обращаются к портам без сервисов net.inet.udp.blackhole=0 net.inet.tcp.blackhole=0 # если 1, то SYN пакеты пришедшие на порты для которых нет # активных сервисов, остаются без RST ответа, если 2, # то на любые пакеты нет ответа (затрудняет сканирования портов net.inet.tcp.nolocaltimewait=1 # не создания состояния TIME_WAIT для соединений в рамках localhost: net.inet.tcp.sendspace=65535 net.inet.tcp.recvspace=65535 net.inet.ip.fw.autoinc_step=10 net.inet.ip.fastforwarding=1 net.isr.direct=1 net.inet.ip.rtmaxcache=16384 net.inet.ip.portrange.first=1024 net.inet.ip.portrange.last=65535 net.inet.ip.portrange.randomized=0 net.inet.tcp.syncookies=1 net.inet.tcp.nolocaltimewait=1 net.inet.ip.fw.verbose=1 net.inet.ip.fw.verbose_limit=5 net.inet.ip.fw.one_pass=0 net.inet.raw.maxdgram=65535 net.inet.raw.recvspace=65535 net.inet.icmp.icmplim=4000 net.inet.ip.intr_queue_maxlen=16384 net.route.netisr_maxqlen=16384 net.inet.tcp.rfc1323=1 #Polling kern.polling.user_frac=10 kern.polling.idle_poll=1 kern.polling.each_burst=1000 kern.polling.burst_max=1000 dev.em.0.rx_int_delay=600 dev.em.0.tx_int_delay=600 dev.em.0.rx_abs_int_delay=1000 dev.em.0.tx_abs_int_delay=1000 dev.em.0.rx_processing_limit=4096 dev.em.1.rx_int_delay=600 dev.em.1.tx_int_delay=600 dev.em.1.rx_abs_int_delay=1000 dev.em.1.tx_abs_int_delay=1000 dev.em.1.rx_processing_limit=4096 # http://markmail.org/message/wpumnm2phciyhm7x#query:ngctl%3A%20send%20msg%3A%20No%20buffer%20space%20available+page:1+mid:vzjv2nuk3oiqyuqt+state:results kern.ipc.maxsockbuf=8388608 net.graph.maxdgram=4194304 net.graph.recvspace=4194304 /boot/loader.conf kern.maxusers=1024 kern.maxfiles=4096000 kern.maxfilesperproc=200000 ng_car_load="YES" hw.em.rxd=4096 hw.em.txd=4096 kern.ipc.nmbclusters=524288 kernel="kernel.smp.pol" Собственно все. Но на этом сервере присутствует проблема с swi: net 100% загрузки.... Пока разбираюсь.