Перейти к содержимому
Калькуляторы

Zohan

Активный участник
  • Публикации

    136
  • Зарегистрирован

  • Посещение

Все публикации пользователя Zohan


  1. Вам ответили в рассылке: По сути - 8.1 с вырезанным FLOWTABLE очень даже неплох, но арп от пптп течет:( Поэтому ставьте 7.3-RELEASE, накатывайте обязательно p3 и будет вам счастие :)
  2. Ну наконец-то :) http://www.freebsd.org/releases/8.1R/relnotes-detailed.html A bug that proxy ARP entries cannot be added over point-to-point link types has been fixed. A memory alignment issue in the ng_ksocket(4) and ng_ppp(4), Netgraph node drivers have been fixed. This fixes kernel panics due to the misalignment.
  3. http://www.freebsd.org/releases/8.1R/relnotes-detailed.html A bug that proxy ARP entries cannot be added over point-to-point link types has been fixed.
  4. Имеется FreeBSD 7.2-RELEASE ipfw pipe 1000 config bw 4000Kbit/s queue 100 ipfw pipe 2000 config bw 4000Kbit/s queue 100 ipfw add 1000 pipe 1000 ip from 155.55.7.100 to any ipfw add 2000 pipe 2000 ip from any to 155.55.7.100 при таком конфиге скорость на вход и на выход в 2 раза меньше, т.е. 2Мбита вход и 2 Мбита выход почему так, где я ошибся или это фича?:)
  5. В плане совета я имел в виду программную реализацию: ipfw+pipe, ipfw+ng_car, ng_bpf+ng_car или что-то другое? Чем считать трафик: netflow коллектор?
  6. Сейчас 200 Мбит/с, но канал будет постепенно увеличиваться.
  7. Сейчас имеем: ВПН сервера с mpd5.5 который считает трафик и пишет в базу радиуса, шейпит тоже через mpd, т.е. ng_car У всех впн серверов 1 шлюз - это машина главный шлюз с БЖП и 2-мя аплинками. В виду появления клиентов которые хотят подключиться через обычный езернет хотим перенести шейпер на отдельную машину межлу впн серверами и шлюзом. Задача этой машины шейпить реальные айпишники и считать трафик по каждому, причем шейпер должен быть с возможность динамического изменения скорости. Что посоветуете? З.Ы. Фряха наше все и стоит везде :)
  8. у меня такое на разных серверах: с интеловскими картами и без тюнинг минимальный /boot/loader.conf: kern.maxusers=2048
  9. Аналогично подтверждаю - на всех этих версиях кроме 7.2-релиз эта ошибка уже была внесена в код, и как утверждает автор темы приблизительно это случилось в январе. Завтра с утреца, на свежую голову.
  10. Предлагаю создать PR, у меня есть пару дампов с 7.3-RELEASE.
  11. Чистая система была поставлена :(Никто не в курсе сообщили ли разработчикам об этом? У меня есть 7 дампов с такой проблемой - не совпадает длина ip пакета с длиной буфера mbuf
  12. Решилась ли проблема с этим кернел паником в 7.3-STABLE? У меня такое же периодически: Fatal trap 12: page fault while in kernel mode cpuid = 0; apic id = 00 fault virtual address = 0xc fault code = supervisor read, page not present instruction pointer = 0x20:0xc084cfd6 stack pointer = 0x28:0xcba78a50 frame pointer = 0x28:0xcba78a7c code segment = base 0x0, limit 0xfffff, type 0x1b = DPL 0, pres 1, def32 1, gran 1 processor eflags = interrupt enabled, resume, IOPL = 0 current process = 29 (irq26: bge1) trap number = 12 #0 doadump () at pcpu.h:196 #1 0xc07f8c57 in boot (howto=260) at /usr/src/sys/kern/kern_shutdown.c:418 #2 0xc07f8f29 in panic (fmt=Variable "fmt" is not available. ) at /usr/src/sys/kern/kern_shutdown.c:574 #3 0xc0b010dc in trap_fatal (frame=0xcba78a10, eva=12) at /usr/src/sys/i386/i386/trap.c:950 #4 0xc0b01360 in trap_pfault (frame=0xcba78a10, usermode=0, eva=12) at /usr/src/sys/i386/i386/trap.c:863 #5 0xc0b01d55 in trap (frame=0xcba78a10) at /usr/src/sys/i386/i386/trap.c:541 #6 0xc0ae503b in calltrap () at /usr/src/sys/i386/i386/exception.s:166 #7 0xc084cfd6 in m_copym (m=0x0, off0=16380, len=9476, wait=1) at /usr/src/sys/kern/uipc_mbuf.c:539 #8 0xc08e3aa5 in ip_fragment (ip=0xcd7c5010, m_frag=0xcba78b44, mtu=16384, if_hwassist_flags=0, sw_csum=3073) at /usr/src/sys/netinet/ip_output.c:731 #9 0xc08e46d2 in ip_output (m=0xcd8fc300, opt=0x0, ro=0xcba78b7c, flags=1, imo=0x0, inp=0x0) at /usr/src/sys/netinet/ip_output.c:570 #10 0xc08e1554 in ip_forward (m=0xcd8fc300, srcrt=0) at /usr/src/sys/netinet/ip_input.c:1366 #11 0xc08e2b00 in ip_input (m=0xcd8fc300) at /usr/src/sys/netinet/ip_input.c:609 #12 0xc08a78a5 in netisr_dispatch (num=2, m=0xcd8fc300) at /usr/src/sys/net/netisr.c:185 #13 0xc089b551 in ether_demux (ifp=0xcbefd000, m=0xcd8fc300) at /usr/src/sys/net/if_ethersubr.c:834 #14 0xc089b943 in ether_input (ifp=0xcbefd000, m=0xcd8fc300) at /usr/src/sys/net/if_ethersubr.c:692 #15 0xc0589032 in bge_rxeof (sc=0xcbf0b000, rx_prod=514, holdlck=1) at /usr/src/sys/dev/bge/if_bge.c:3392 #16 0xc058b0b2 in bge_intr (xsc=0xcbf0b000) at /usr/src/sys/dev/bge/if_bge.c:3653 #17 0xc07d54ab in ithread_loop (arg=0xcbf037b0) at /usr/src/sys/kern/kern_intr.c:1181 #18 0xc07d1c49 in fork_exit (callout=0xc07d5300 <ithread_loop>, arg=0xcbf037b0, frame=0xcba78d38) at /usr/src/sys/kern/kern_fork.c:811 #19 0xc0ae50b0 in fork_trampoline () at /usr/src/sys/i386/i386/exception.s:271 (kgdb) frame 8 #8 0xc08e3aa5 in ip_fragment (ip=0xcd7c5010, m_frag=0xcba78b44, mtu=16384, if_hwassist_flags=0, sw_csum=3073) at /usr/src/sys/netinet/ip_output.c:731 731 m->m_next = m_copy(m0, off, len); (kgdb) p *ip $1 = {ip_hl = 5, ip_v = 4, ip_tos = 0 '\0', ip_len = 25856, ip_id = 16977, ip_off = 0, ip_ttl = 126 '~', ip_p = 47 '/', ip_sum = 12998, ip_src = {s_addr = 4212129802}, ip_dst = {s_addr = 4210950154}}
  13. Советуете сделать machdep.hyperthreading_allowed=0?
  14. Если выдавали реальные адреса и использовали в mpd proxy-arp, то текла память в lltable и сервер периодически зависал исправили для FreeBSD8-STABLE http://svn.freebsd.org/viewvc/base?view=re...revision=207013 Configurations still affected: with options FLOWTABLE т.е. обязательно отключаем в ядре FLOWTABLE
  15. Задача: сделать приоретизацию исходящего трафика на внешнем интерфейсе Вот что сделал: int_if="re0" ext_if="xl0" set skip on re0 altq on $ext_if priq bandwidth 2000Kb queue { def_out, icmp_out, http_out, ssh_out } queue def_out priq(default) queue icmp_out priority 15 queue http_out priority 14 queue ssh_out priority 13 nat on xl0 from 10.0.0.0/24 to any -> 17*.*.*.** block in on $ext_if all block out on $ext_if all pass in on re0 inet proto tcp from any to any port ssh pass out on $ext_if inet proto { udp icmp } from ($ext_if) to any keep state pass out on $ext_if inet proto tcp from ($ext_if) to any flags S/SA keep state queue def_out pass out on $ext_if inet proto tcp from ($ext_if) to any port 80 queue http_out pass out on $ext_if inet proto tcp from ($ext_if) to any port 22 queue ssh_out Очереди создаются, трафик в них попадает, но канал не ограничивается по ширине :( Канал на xl0 100 Мбит, но нужно создать тестовую платформу в 2 Мбита.
  16. Давно нашел проблему, будьте бдительны, в конфиге по-умолчанию не стоит опция читать файл users при авторизации Необходимо сделать так: authorize{ ... #Read the 'users' file files ... }
  17. svn co http://svn.freebsd.org/base/stable/8/ /usr/src cd /usr/src/ make cleanworld && make cleandir make buildworld make buildkernel KERNCONF=CONFIG make installkernel KERNCONF=CONFIG reboot mergemaster -p make installworld mergemaster reboot cd /usr/src make BATCH_DELETE_OLD_FILES=YES delete-old delete-old-libs reboot
  18. kolovrat, как успехи? Если можно, будем признательны.
  19. Он работает со всеми ядрами, но не параллельно, а по очереди. Так очредность - это что одно ядро?В freebsd почти все процессы так и работают и не только в freebsd кстати с яндекс дровами этот процесс работает точно так же. яндекс дрова его не распараллеливает. конечно же там принцип другой по передаче прерываний, но он не решает проблем с ng, а вот поллинг эти проблемы решает превосходно, распределяя нагрузку ядер равномерно. У вас, простите, в голове каша. Яндексовые дрова параллелятся по нескольким процам, и занимаются обработкой прерываний от сетевушки, передавая пакеты в сетевой стек. swi:net - это внутренний обработчик пакетов чуть более высокого уровня, который работает при net.isr.direct=0. С яндексовскими дровами это дело не дружит. Причем на семерке - swi:net - один процесс, в восьмерке оно уже тоже распараллелено. Именно это я и описываю. Только вот яндекс дрова некоректно распределяют нагрузку в SMPНо несколькими постами выше было описано (не мной), что поллинг работает на одном ядре. Вот это я опровергаю, а не то что как работает данный процесс. Может уже на 7.3-Release перейдем?
  20. mpd5.5 freeradius-mysql-1.1.8 Есть динамический пул адресов и статический. Нужно чтобы тем людям у которых не прописан явно адрес статически в radreply(Framed-IP-Address) выдавался адрес из динамического пула. Вроды бы freeradius такое умеет :) radiusd.conf ippool main_pool { # range-start,range-stop: The start and end ip # addresses for the ip pool range-start = 1**.***.*.1 range-stop = 1**.**.*.254 # netmask: The network mask used for the ip's netmask = 255.255.248.0 # cache-size: The gdbm cache size for the db # files. Should be equal to the number of ip's # available in the ip pool cache-size = 1021 # session-db: The main db file used to allocate ip's to clients session-db = ${raddbdir}/db.ippool # ip-index: Helper db index file used in multilink ip-index = ${raddbdir}/db.ipindex # override: Will this ippool override a Framed-IP-Address already set override = no # maximum-timeout: If not zero specifies the maximum time in seconds an # entry may be active. Default: 0 maximum-timeout = 0 } ... # Return an address to the IP Pool when we see a stop record. main_pool # sqlippool ... post-auth { # Get an address from the IP Pool. main_pool # sqlippool В самом начале users добавил: DEFAULT Pool-Name := main_pool Fall-Through = Yes но все равно после авторизацииб radiusd -X: modcall: entering group post-auth for request 0 rlm_ippool: Could not find Pool-Name attribute. modcall[post-auth]: module "main_pool" returns noop for request 0 Кто делал такое?
  21. Тоже завис, даже на консоль не отвечал, перекомпилировал - ждем-с...
  22. Я тоже об этом думал. Но... Насколько? Или как всегда методом аналитического тыка пальцем в небо? Просто если начать методом угадывания делать то это может затянутся на долго и не дать результата. Увеличь до 1024, на 1000 клиентов хватает.