Перейти к содержимому
Калькуляторы

avegad

Пользователи
  • Публикации

    13
  • Зарегистрирован

  • Посещение

О avegad

  • Звание
    Абитуриент
    Абитуриент

Контакты

  • ICQ
    Array
  1. "Помимо предустановленного антивируса на ПК, предложено в обязательном порядке проверять трафик пользователя. Для этого операторы связи должны будут установить специальный сканер, анализирующий сетевую активность." Мдя...слов нет, один мат. Всё для поддержки "отечественного производителя" после потери рынка в США.
  2. Как будут запрещать VPN

    Опять про простых граждан забыли (( Физику с домашним впн чего делать то, опять вне правового поля,как всегда.
  3. Про перегруженность сетей поверю, а вот про то что никому не нужен полноценный безлимит - нет. Хотя постойте... такой огороженный от всего безлимит может действительно никому и не нужен...
  4. Не могу разобраться с настройкой multicast на коммутаторах HUAWEI Работаю с длинками, там всё проще. Схема такая: Вариант 1. IPTV сервер <-> DGS-3627G(Ядро) <-> Quidway S5300(район) <-> Quidway S2300(доступ) <-> Абоненты Вариант 2.(Типа транк) IPTV сервер <-> DGS-3627G(Ядро) <-> Quidway S5300(район) <-> Quidway S2300(доступ) <-> Quidway S2300(доступ) Во втором варианте абоненты подключены к обеим коммутаторам доступа. VLAN абонентов - 105 Multicast VLAN - 201 В ядре multicast настроен, если подключить к ядру DES-3100-24TG, а к нему DES-3028 всё будет работать: Настройки DLINK'ов 3100: create vlan IPTV_dst tag 201 conf vlan IPTV_dst add tagged 1:(9-24) config multicast filtering_mode 1:10 filter_unregistered_groups enable igmp_snooping config igmp_snooping IPTV_dst state enable 3028: create igmp_snooping multicast_vlan IPTV_dst 201 config igmp_snooping multicast_vlan IPTV_dst state enable config igmp_snooping multicast_vlan IPTV_dst replace_source_ip 192.168.200.200 config igmp_snooping multicast_vlan IPTV_dst add member_port 1-24,27-28 config igmp_snooping multicast_vlan IPTV_dst add source_port 25-26 config igmp_snooping vlan_name IPTV_dst fast_leave enable config multicast port_filtering_mode 25 filter_unregistered_groups enable igmp_snooping enable igmp_snooping multicast_vlan при необходимости могу выложить конфиг DGS-3627G
  5. Ну зачем же так брутально... rmmod (вместе с modprobe/insmod) уже не работают, что ли? ну можно и так
  6. Как вариант, выруби из автозагрузки ip_gre и ребутнись. У меня после этого всё пошло.
  7. Молодой человек, теперь будьте добры прочитать что написано. Прочитал, запустил.VPN сервер работаетТеперь всплыла ещё одна проблема: Зависание сервера при подключении VPN клиента(дело в том что подключение к вышестоящему провайдеру идет тоже по pptp, соответственно на этом сервере мне нужен и vpn сервер и клиент) top - 09:09:24 up 3 min, 1 user, load average: 0.47, 0.22, 0.09 Tasks: 81 total, 2 running, 79 sleeping, 0 stopped, 0 zombie Cpu0 : 1.7%us, 4.9%sy, 0.0%ni, 0.0%id, 0.0%wa, 0.2%hi, 93.2%si, 0.0%st Mem: 1036092k total, 235216k used, 800876k free, 7948k buffers Swap: 1951888k total, 0k used, 1951888k free, 113312k cached PID USER PR NI VIRT RES SHR S %CPU %MEM TIME+ COMMAND 4 root 15 -5 0 0 0 R 86.8 0.0 0:07.38 ksoftirqd/0 Скрипт запуска VPN клиента accel-pptp ./internet2.sh #!/bin.sh pppd debug noauth nobsdcomp nodeflate name compoed remotename PPTP pty "pptp 172.18.1.3 --nolaunchpppd" plugin pptp.so pptp_server 172.18.1.3 sleep 5 route del default; route add -net 172.18.1.0/24 gw 11.0.0.1 eth0; route add default gw 172.18.1.3 ppp0 ----- Экспериментальным путем было выяснено что если запустить сначала pptp-client без plugin pptp.so pptp_server 172.18.1.3, потом закрыть созданное VPN соединение и запустить internet2.sh никаких зависаний нет.
  8. Всё запустилось.Откатился на версию 0.8.2 и вырубил ip_gre теперь осталось тестирование P.S интересно сколько подключений потянет старый Athloh 2600+ c 1 гигом оперативы...
  9. указано правильно. в верхнем посте вообще то pptpd.conf есть
  10. Приветствую всех. Пожалуйста помогите разобраться с accel-pptpd Система: Debian Lenny Linux maniak-gate 2.6.26-2-686 #1 SMP Fri Aug 14 01:27:18 UTC 2009 i686 GNU/Linux accel-pptpd 0.8.3 Собирал по readme make server make server_install запускаю pptpd со следующими параметрами /usr/local/sbin/pptpd -c /etc/pptpd.conf -o /etc/ppp/options.pptpd при запуске в syslog следующее: Sep 10 09:12:27 maniak-gate pptpd[21604]: MGR: Config file not found! Sep 10 09:12:27 maniak-gate pptpd[21604]: MGR: Maximum of 20 connections reduced to 11, not enough IP addresses given Sep 10 09:12:27 maniak-gate pptpd[21604]: accel-pptpd-0.8.3 compiled for pppd-2.4.4, linux-2.6.26 Sep 10 09:12:27 maniak-gate pptpd[21605]: MGR: Manager process started Sep 10 09:12:27 maniak-gate pptpd[21605]: MGR: Maximum of 11 connections available Конфиги: pptpd.conf ppp /usr/sbin/pppd option /etc/ppp/options.pptpd debug connections 20 localip 11.0.2.63 remoteip 192.168.0.200-210 options.pptpd logfile /var/log/ppp/pptp.log ipparam PoPToP lock mtu 1390 mru 1390 ms-dns 192.168.0.2 auth -pap +chap ipcp-accept-local ipcp-accept-remote lcp-echo-failure 30 lcp-echo-interval 5 options #lock при попытке соединения винда пишет "модем или другое устройство связи сообщило об ошибке" в syslog: Sep 10 09:16:50 maniak-gate pptpd[21650]: MGR: Launching /usr/local/sbin/pptpctrl to handle client Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: local address = 11.0.2.63 Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: remote address = 192.168.0.200 Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: pppd options file = /etc/ppp/options.pptpd Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: Client 172.18.1.10 control connection started Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: Received PPTP Control Message (type: 1) Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: Made a START CTRL CONN RPLY packet Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: I wrote 156 bytes to the client. Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: Sent packet to client Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: Received PPTP Control Message (type: 7) Sep 10 09:16:50 maniak-gate pptpd[21650]: CTRL: failed to create PPTP socket (Protocol not supported) Sep 10 09:16:50 maniak-gate pptpd[21605]: MGR: Reaped child 21650 lsmod: Module Size Used by tcp_diag 1472 0 inet_diag 8392 1 tcp_diag ip_gre 9572 0 pptp 9900 0 pppox 3116 1 pptp xt_tcpudp 2816 1 ipt_MASQUERADE 2592 2 ppp_async 7488 1 crc_ccitt 2080 1 ppp_async ppp_generic 20028 7 pptp,pppox,ppp_async slhc 5376 1 ppp_generic ipv6 235364 55 iptable_filter 2624 0 iptable_mangle 2688 0 iptable_nat 4680 1 nf_nat 15544 2 ipt_MASQUERADE,iptable_nat nf_conntrack_ipv4 12268 3 iptable_nat,nf_nat nf_conntrack 55540 4 ipt_MASQUERADE,iptable_nat,nf_nat,nf_conntrack_ipv4 ip_tables 10160 3 iptable_filter,iptable_mangle,iptable_nat x_tables 13284 4 xt_tcpudp,ipt_MASQUERADE,iptable_nat,ip_tables dm_snapshot 14340 0 dm_mirror 15104 0 dm_log 8484 1 dm_mirror dm_mod 46184 3 dm_snapshot,dm_mirror,dm_log 8021q 16064 0 loop 12748 0 radeonfb 91680 1 fb_ddc 2080 1 radeonfb parport_pc 22500 0 parport 30988 1 parport_pc i2c_algo_bit 5188 1 radeonfb snd_pcsp 8576 0 snd_intel8x0 26268 0 snd_ac97_codec 88484 1 snd_intel8x0 ac97_bus 1728 1 snd_ac97_codec shpchp 25528 0 pci_hotplug 23460 1 shpchp snd_pcm 62596 3 snd_pcsp,snd_intel8x0,snd_ac97_codec snd_timer 17800 1 snd_pcm snd 45604 5 snd_pcsp,snd_intel8x0,snd_ac97_codec,snd_pcm,snd_timer soundcore 6368 1 snd snd_page_alloc 7816 2 snd_intel8x0,snd_pcm button 6096 0 i2c_nforce2 5536 0 i2c_core 19828 4 radeonfb,fb_ddc,i2c_algo_bit,i2c_nforce2 nvidia_agp 6108 1 agpgart 28776 1 nvidia_agp evdev 8000 0 ext3 105512 2 jbd 39444 1 ext3 mbcache 7108 1 ext3 ide_cd_mod 27652 0 cdrom 30176 1 ide_cd_mod ide_disk 10496 4 ata_generic 4676 0 tulip 44064 0 libata 140416 1 ata_generic scsi_mod 129324 1 libata dock 8304 1 libata ide_pci_generic 3908 0 [permanent] floppy 47748 0 dmfe 16568 0 amd74xx 7720 0 [permanent] ide_core 96136 4 ide_cd_mod,ide_disk,ide_pci_generic,amd74xx forcedeth 45072 0 ehci_hcd 28396 0 ohci_hcd 18500 0 usbcore 118224 3 ehci_hcd,ohci_hcd thermal 15228 0 processor 32544 1 thermal fan 4164 0 thermal_sys 10856 3 thermal,processor,fan пробовал запустить и accel-pptpd 0.8.2 - те же яйца :(
  11. как я понял это оно net.inet.ip.fw.dyn_buckets: 256 т.е если я его загоню в например в 16384 должно помочь?
  12. :) интересует решение данной проблемы, или мануал в котором про подобные случаи можно прочитать.
  13. Сервер: 2xCORE2QUAD 2Ghz, 8Gb RAM , HDD 2x250Gb в рейде(зеркало) OS: FreeBSD 6.4 x64 Задачи: роутера, VPN сервера, DNS, DHCP, шейпинг трафика пользователей(ipfw dummynet). интерфейс em0(LAN), em1(WAN) В процессе эксплуатации столкнулся со следующими проблемами: 1. Зависание сети(полностью) Периодически зависает сеть, на машину не зайти, пинг тоже не идёт, нагрузка на одно из ядер CPU 100% процесс dummynet при перезагрузке shutdown -r now машина зависает(через раз) Проблема решилась следующим образом: sysctl -w net.inet.ip.intr_queue_maxlen=150 sysctl -w kern.ipc.somaxconn=512 sysctl -w net.inet.ip.fw.dyn_max=4096 sysctl -w net.inet.ip.dummynet.io_fast=1 2. Зависание сети Периодически зависает сеть, на машину не зайти, пинг идёт, нагрузка на одно из ядер CPU 100% процесс swi1: net Проблема решилась следующим образом: sysctl -w net.isr.direct=1 PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 15 root 1 171 52 0K 16K CPU2 2 147:29 98.00% idle: cpu2 10 root 1 171 52 0K 16K CPU7 7 146:46 97.90% idle: cpu7 11 root 1 171 52 0K 16K RUN 6 146:31 97.75% idle: cpu6 12 root 1 171 52 0K 16K CPU5 5 146:56 97.71% idle: cpu5 17 root 1 171 52 0K 16K CPU0 0 129:39 97.51% idle: cpu0 16 root 1 171 52 0K 16K CPU1 1 146:20 96.97% idle: cpu1 13 root 1 171 52 0K 16K CPU4 4 136:27 85.40% idle: cpu4 14 root 1 171 52 0K 16K CPU3 3 116:02 51.76% idle: cpu3 28 root 1 -68 -187 0K 16K WAIT 3 21:00 27.73% irq256: em0 20 root 1 -44 -163 0K 16K WAIT 5 27:39 18.80% swi1: net 29 root 1 -68 -187 0K 16K WAIT 4 6:50 7.32% irq257: em1 44 root 1 -68 0 0K 16K - 0 13:42 4.88% dummynet 916 root 11 20 0 28260K 10384K kserel 0 5:50 0.00% mpd5 --- Появилась проблема №3 Сегодня в 3 часа ночи перестал работать интернет, расследование по горячим следам выявило следующее: DHCP, DNS, ssh, роутинг в LAN работает. Не работает mpd5, хотя процесс запущен, также при пинге любого WAN IP пишет host is down top -S показал полную загрузку одного ядра сетевой картой внешнего интерфейса PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 29 root 1 -68 -187 0K 16K CPU4 4 70:22 99.02% irq257: em1 Это при том что нагрузка на WAN интерфейс em1 в 00:15 не превышала 12% при загрузке канала 30-34 мегабита(канал - 35 мегабит) Нагрузка на em1 в момент падения была 24мегабита VPN подключений - 250 Притом что вчера в период с 20 до 23:30 Нагрузка на em1 была 30 мегабит VPN подключений - 357 Сервер пришлось перезагрузить Текущее состояние: VPN 310 подключений Нагрузка на em1 - 27мегабит systat -vmstat 2 users Load 0.83 0.61 0.58 Feb 23 13:01 Mem:KB REAL VIRTUAL VN PAGER SWAP PAGER Tot Share Tot Share Free in out in out Act 99028 7044 121584 8256 7882832 count All 156632 8020 4557392 9904 pages Proc: Interrupts r p d s w Csw Trp Sys Int Sof Flt 453 cow 25029 total 2 39 33k 1156 3046 27k 13 1071 343 zfod atkbd0 1 336 ozfod fdc0 irq6 1.8%Sys 7.2%Intr 0.2%User 0.0%Nice 90.8%Idle 98%ozfod ata0 irq14 | | | | | | | | | | | daefr 9 uhci1+ 19 =++++ 589 prcfr 2000 cpu0: time 26 dtbuf 1019 totfr 5300 em0 irq256 Namei Name-cache Dir-cache 100000 desvn react 3720 em1 irq257 Calls hits % hits % 719 numvn pdwak 2000 cpu3: time 1683 1635 97 111 frevn pdpgs 2000 cpu1: time intrn 2000 cpu2: time Disks ad4 ad6 88780 wire 2000 cpu5: time KB/t 16.00 0.00 90236 act 2000 cpu7: time tps 4 0 12308 inact 2000 cpu4: time MB/s 0.07 0.00 20 cache 2000 cpu6: time %busy 0 0 7882812 free top -S last pid: 57856; load averages: 0.66, 0.59, 0.58 up 0+02:51:54 13:01:39 97 processes: 9 running, 69 sleeping, 19 waiting CPU: 0.1% user, 0.0% nice, 1.8% system, 6.6% interrupt, 91.5% idle Mem: 88M Active, 12M Inact, 87M Wired, 20K Cache, 33M Buf, 7698M Free Swap: 4096M Total, 4096M Free PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 17 root 1 171 52 0K 16K RUN 0 147:00 98.05% idle: cpu0 11 root 1 171 52 0K 16K CPU6 6 167:33 97.71% idle: cpu6 10 root 1 171 52 0K 16K CPU7 7 167:56 97.22% idle: cpu7 15 root 1 171 52 0K 16K CPU2 2 168:45 97.07% idle: cpu2 12 root 1 171 52 0K 16K CPU5 5 168:07 96.97% idle: cpu5 16 root 1 171 52 0K 16K CPU1 1 167:00 96.68% idle: cpu1 13 root 1 171 52 0K 16K CPU4 4 154:33 85.01% idle: cpu4 14 root 1 171 52 0K 16K RUN 3 129:13 54.20% idle: cpu3 28 root 1 -68 -187 0K 16K WAIT 3 27:34 27.05% irq256: em0 20 root 1 -44 -163 0K 16K WAIT 4 34:35 17.43% swi1: net 29 root 1 -68 -187 0K 16K WAIT 4 8:46 7.91% irq257: em1 44 root 1 -68 0 0K 16K - 4 17:26 4.93% dummynet 916 root 12 20 0 28460K 10600K kserel 5 7:10 0.00% mpd5 18 root 1 -32 -151 0K 16K WAIT 3 2:02 0.00% swi4: clock 652 bind 1 96 0 30900K 27596K select 5 0:47 0.00% named 21 root 1 -16 0 0K 16K - 7 0:19 0.00% yarrow 581 root 1 96 0 3684K 1304K select 7 0:09 0.00% syslogd top -S -P last pid: 58237; load averages: 0.62, 0.58, 0.57 up 0+02:53:00 13:02:45 96 processes: 9 running, 68 sleeping, 19 waiting CPU 0: 0.0% user, 0.0% nice, 2.3% system, 0.8% interrupt, 97.0% idle CPU 1: 0.0% user, 0.0% nice, 0.8% system, 0.4% interrupt, 98.9% idle CPU 2: 0.0% user, 0.0% nice, 1.5% system, 0.4% interrupt, 98.1% idle CPU 3: 0.0% user, 0.0% nice, 6.8% system, 40.6% interrupt, 52.6% idle CPU 4: 0.4% user, 0.0% nice, 0.8% system, 13.2% interrupt, 85.7% idle CPU 5: 0.0% user, 0.0% nice, 1.1% system, 0.8% interrupt, 98.1% idle CPU 6: 0.4% user, 0.0% nice, 1.1% system, 0.4% interrupt, 98.1% idle CPU 7: 0.0% user, 0.0% nice, 0.4% system, 0.8% interrupt, 98.9% idle Mem: 89M Active, 12M Inact, 87M Wired, 20K Cache, 33M Buf, 7697M Free Swap: 4096M Total, 4096M Free PID USERNAME THR PRI NICE SIZE RES STATE C TIME WCPU COMMAND 16 root 1 171 52 0K 16K CPU1 1 168:02 97.51% idle: cpu1 17 root 1 171 52 0K 16K CPU0 0 147:52 97.51% idle: cpu0 12 root 1 171 52 0K 16K CPU5 5 169:11 97.46% idle: cpu5 10 root 1 171 52 0K 16K CPU7 7 169:00 97.46% idle: cpu7 11 root 1 171 52 0K 16K CPU6 6 168:37 97.46% idle: cpu6 15 root 1 171 52 0K 16K RUN 2 169:49 97.12% idle: cpu2 13 root 1 171 52 0K 16K CPU4 4 155:27 84.18% idle: cpu4 14 root 1 171 52 0K 16K CPU3 3 129:53 51.42% idle: cpu3 28 root 1 -68 -187 0K 16K WAIT 3 27:53 29.54% irq256: em0 20 root 1 -44 -163 0K 16K WAIT 3 34:55 17.09% swi1: net 29 root 1 -68 -187 0K 16K WAIT 4 8:52 8.25% irq257: em1 44 root 1 -68 0 0K 16K - 0 17:37 5.08% dummynet 916 root 11 20 0 28520K 10644K kserel 4 7:14 0.00% mpd5 18 root 1 -32 -151 0K 16K WAIT 3 2:03 0.00% swi4: clock 652 bind 1 96 0 31096K 27792K select 5 0:48 0.00% named 21 root 1 -16 0 0K 16K - 1 0:19 0.00% yarrow 581 root 1 96 0 3684K 1304K select 7 0:10 0.00% syslogd 47 root 1 171 52 0K 16K pgzero 0 0:05 0.00% pagezero 20706 root 1 96 0 6932K 2124K select 7 0:04 0.00% top 826 root 1 96 0 48872K 47540K select 2 0:02 0.00% dhcpd --- Подскажите в чем ещё может быть причина?