G.Y.S.
-
Публикации
141 -
Зарегистрирован
-
Посещение
Сообщения, опубликованные пользователем G.Y.S.
-
-
это не так - тестировали на нескольких машинах.чуть не забыл: если давить tcp передачу в несколько потоков, то легко и 100Мбит получить -
Опубликовано · Изменено пользователем G.Y.S. · Жалоба на ответ
Вопрос юристам:
Лицензии на осуществление телевизионного вещания содержат лицензионные условия, среди которых имеется пункт - Способ распространения продукции средства массовой информации, в котором указывается или кабельное вещание или эфирное вещания или проводное вещание. До 1.06.06 данный пункт назывался Вид массовой информации в котором указывалось или эфирное телевидение или кабельное телевидение или спутниковое телевидение.
В праве ли держатель лицензии на осуществление телевизионного вещания, в которой указан способ распространения продукции средства массовой информации - эфирное вещание или спутниковое телевидение, заключать договора с операторами связи на оказание услуг связи для целей кабельного вещания?
Вопрос http://www.ordercom.ru/%D0%92%D0%B5%D1%89%...D0%B5%D1%82.pdf
был почти в тему, однако в ответе Минсвязи нет уточнения относительно вышеуказанного лицензионного условия.
-
Опубликовано · Изменено пользователем G.Y.S. · Жалоба на ответ
Какой чипсет сетевухи? Если сетевая onboard, то еще модель материнской платы.
-
DES-3526 - на каждые 8 портов идет отдельная микросхема. Существует еще центральные проц. При такое архитектуре получается что при выгорании порта, сам коммутатор как правило продолжает работать без проблем и глюков. Теоритически могут выгорить все 8 портов, но такого случая у меня не было.
Статистика за прошлое лето:
50-60 штук DES-3526 - 2-3 сгоревших порта.
20 штук DES-3026 - 5 сгоревших БП, 9-10 сгоревших порта, при этом коммутатор часто переставал работать, а в 2-х случая качал сильно флудить броудкастами, в т.ч. в упр влан!
Везде оптика, все заземлено.
Сейчас dlink смастерил 3028, говорят о улучшенной архитекторе по стравнению с 3026. По наворотам такой же как 3526, но стоит дешевле баксов на 50. Опыта эксплуатации нет.
-
приоретизации не требуется - аплинки толстые.Сложность (фактическая невозможность) приоретизации в туннелях.
Никаких сложностей. Необходимая сеть public ip маршрутизируется в туннель.Сложность (фактическая невозможность) выдачи нескольких IP (для воипа, для сервера).
Первый раз слышу о проблеме с радиусом. Если криво поставить - будут отказы. На заметку: nas может работать с 2-мя радиусами, бд можно реплицировать.Однозначно в-лан. Отказы радиуса для авторизации по пппое это основная причина.Так чем влан лучше то? Интересны обоснованные тех аргументы! )
-
другие мнения, аргументы ?
-
Дано:
ДС где 1 дом - 1 vlan. Топология звезда с большим запасом полосы на аплинках. Авторизация абонентов в вланах через ПППоЕ. Туннели каждого влан терминируется на нескольких роутерах (для резервирования и балансировки нагрузки).
В домах существуют фирмы. Вопрос как их подлючать: отдельный VLAN или soho роурер+PPPoE ?
Наблюдение:
есть даже крупные оператры подлючают фирмы через soho роурер+PPPoE (PPtP) в влане физ лиц.
Рассуждения:
отдельный VLAN
Минус1: ручная работа (при конфигурировании вланов на коммутаторах и роуторе) - как следствие повышается вероятность чел ошибки, которая может сильно снизить аптайм работающей сети.
Минус2: документирование (тратим время)
Плюс1: незначительно надежнее: нет soho роутера (доп звено отказа), зато почти у каждой конторы есть soho свитч. (Что надежнее soho свитч или soho роутер? ))
Плюс2: якобы безопастнее: теоритически в влане может завестись умный хакер, который сумеет перехватить ппп трафик.
-
http://www.dlink.ru/products/prodview.php?type=13&id=659
Отличное решение уровня distribution/core
Цена 80000 руб.
vinpost(AT)yandex.ru
г.Москва
-
Опубликовано · Изменено пользователем G.Y.S. · Жалоба на ответ
продано.
-
Проблема решилась.
В pf-NAT заканчивались states hard limit. Машинка при этом генерила host unreachable.
-
Очень странный глюк.
[14:47][pppoe3][/home/]#uname -a
FreeBSD pppoe3 6.2-RELEASE FreeBSD 6.2-RELEASE #0: Mon Jan 15 11:46:07 UTC 2007 root@:/usr/src/sys/i386/compile/pppoe i386
[14:51][pppoe3][/home/]#mpd4 -v
Version 4.1rc2 (root@pppoe3.test.ru 23:20 9-Feb-2007)
PPPoE клиент конектиться работает, при этом периодически связь с
некоторым хостами (по разным протоколам) отваливается, через
неопределенное время (минута-2-3) восстанавливается
При это в tcpdump ngX :
Pppoe-роутер отвечает клиенту: host Y unreachable
[14:41][pppoe3][/home/]#tcpdump -n -i em0 | grep host | grep unreachable
186.121.77 unreachable, length 36
14:40:36.791698 PPPoE [ses 0x23c4] IP 10.25.0.3 > 10.2.7.221: ICMP host 64.12.164.55 unreachable, length 36
14:40:36.821432 PPPoE [ses 0x240b] IP 10.25.0.3 > 10.2.40.212: ICMP host 66.102.9.99 unreachable, length 36
14:40:36.935716 PPPoE [ses 0x2403] IP 10.25.0.3 > 10.2.8.132: ICMP host 194.67.23.108 unreachable, length 36
14:40:36.983419 PPPoE [ses 0x23c5] IP 10.25.0.3 > 10.2.8.130: ICMP host 152.163.208.121 unreachable, length 36
14:40:37.002120 PPPoE [ses 0x23d1] IP 10.25.0.3 > 10.2.9.106: ICMP host 83.145.214.45 unreachable, length 36
14:40:37.012288 PPPoE [ses 0x23d1] IP 10.25.0.3 > 10.2.9.106: ICMP host 83.145.200.114 unreachable, length 36
На машине запущена зебра кот делает ospf
На нашине есть default route заданный статиком! (пробовал и через kernel и через zebru)
[14:46][pppoe3][/home/]#route get 64.12.164.55
route to: cb-mv01.blue.aol.com
destination: default
mask: default
gateway: 195.186.204.33.test.ru
interface: em0
flags: <UP,GATEWAY,DONE,STATIC>
recvpipe sendpipe ssthresh rtt,msec rttvar hopcount mtu expire
0 0 0 0 0 0 1500 0
[14:46][pppoe3][/home/]#ping 64.12.164.55
PING 64.12.164.55 (64.12.164.55): 56 data bytes
Не пиргуеться, в tcpdumpe только icmp запросы
[14:47][pppoe3][/home/]#route get 66.102.9.99
route to: lm-in-f99.google.com
destination: default
mask: default
gateway: 195.186.204.33.test.ru
interface: em0
flags: <UP,GATEWAY,DONE,STATIC>
recvpipe sendpipe ssthresh rtt,msec rttvar hopcount mtu expire
0 0 0 0 0 0 1500 0
[14:47][pppoe3][/home/]#ping 66.102.9.99
PING 66.102.9.99 (66.102.9.99): 56 data bytes
64 bytes from 66.102.9.99: icmp_seq=0 ttl=238 time=84.925 ms
^C
--- 66.102.9.99 ping statistics ---
1 packets transmtestted, 1 packets received, 0% packet loss
round-trip min/avg/max/stddev = 84.925/84.925/84.925/0.000 ms
В любом случае если у нашаны есть default она не должна говорить host
unreachble!
[14:40][pppoe3][/home/]#ifconfig | grep -2 10.2.9.106
ng89: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1480
inet 10.25.0.3 --> 10.2.9.106 netmask 0xffffffff
[pppoe3][/home/]#ifconfig | grep -2 10.2.8.130
inet 10.25.0.3 --> 10.2.7.221 netmask 0xffffffff
ng92: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1480
inet 10.25.0.3 --> 10.2.8.130 netmask 0xffffffff
ng93: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1466
inet 10.25.0.3 --> 10.2.8.90 netmask 0xffffffff
В какую сторону копать ?
Спасибо!
-
ФСНСС подкидывает =)
-
Опубликовано · Изменено пользователем G.Y.S. · Жалоба на ответ
Здесь 2 Точки присоединения.... в помещениях А и Б.
Думаю, возможно ли присоединение сетей связи без использования маршрутизатора на узле, расположенном в помещении Б (состоящим из L2 ком-ра Опр-ра1 и L2 ком-ра Опр-ра2) ?
Возможно ли организацию VLAN (между СПДа и СПДб) трактовать как предоставление в аренду канала связи (Оператором1), без подписания второго договора о присоединении.
-
Опубликовано · Изменено пользователем G.Y.S. · Жалоба на ответ
Оператор 2 имеет в помещении А присоединение(1) к Оператору 1
Цель присоединения доступ к ССОП СПД(а и б)Оператора 2.
Далее…
Оператор 1 предоставляет Оператору 2 – ”канал связи” (VLAN), для организации межсетевого взаимодействия между СПД(б) и СПД(а) Оператора 2.
Сколько присоединений имеет Оператор2 и почему ?
Спасибо.
P.s.
СПД - сеть передачи данных
Зоны отвественности также определяют принадлежность оборудования.
-
P4 c em0 + Freebsd 5.4 + mpd 3.18 (с один патчем)
Вот он:
mru.patch
--- lcp.c.orig Wed Jul 14 18:02:12 2004
+++ lcp.c Wed Jul 14 18:02:13 2004
@@ -564,8 +564,10 @@
if (!LCP_PEER_REJECTED(lcp, TY_ACCMAP))
cp = FsmConfValue(cp, TY_ACCMAP, -4, &lcp->want_accmap);
}
+/*
if (!LCP_PEER_REJECTED(lcp, TY_MRU))
cp = FsmConfValue(cp, TY_MRU, -2, &lcp->want_mru);
+*/
if (lcp->want_magic && !LCP_PEER_REJECTED(lcp, TY_MAGICNUM))
cp = FsmConfValue(cp, TY_MAGICNUM, -4, &lcp->want_magic);
if (lcp->want_callback && !LCP_PEER_REJECTED(lcp, TY_CALLBACK)) {
Привожу кусок mpd.conf
PPPoE639:
new PPPoE639 PPPoE639
load pppoe_def
pppoe_def:
set bundle disable multilink
set bundle disable round-robin
set bundle enable noretry
set ipcp dns xxx.xxx.xxx.xxx xxx.xxx.xxx.xxx
set ipcp ranges 10.0.0.200/32 10.200.200.254/32
set iface disable on-demand
set iface disable proxy-arp
set iface route default
set link keep-alive 30 90
# set link mtu 1300
# set link mru 1300
set pppoe disable originate
set pppoe enable incoming
set pppoe service "*"
set link enable chap
set link enable chap-md5
set link enable chap-msv1
set link enable chap-msv2
set iface enable tcpmssfix
set link disable passive callback no-orig-auth check-magic
set link enable chap magicnum
log -chat -bund -fsm -phys -pptp
set radius server xxx.xxx.xxx.xxx videomate 1812 1813
set radius timeout 10
set radius config /usr/local/etc/mpd/radius.conf
set radius retries 3
set bundle enable radius-auth
#set bundle enable radius-acct
set ipcp yes radius-ip
set iface up-script "/root/scripts/up-script.pl"
set iface down-script "/root/scripts/down-script.pl"
set ipcp enable vjcomp
Привожу кусок ifconfig
ng100: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1480
inet 10.0.0.200 --> 10.111.6.220 netmask 0xffffffff
ng101: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1492
inet 10.0.0.200 --> 10.111.4.111 netmask 0xffffffff
ng102: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1492
inet 10.0.0.200 --> 10.111.7.149 netmask 0xffffffff
ng103: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1480
inet 10.0.0.200 --> 10.111.6.192 netmask 0xffffffff
ng104: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1480
Скорость у абонентов, кот подлючаются через mpd – очень хорошая - до 10 мегабайт/c
(по протоколу ftp)
Баги:
1) Замечено, что при работе http (открытие сайтов) – сайты открываются с некоторой задержкой. Скажем yandex.ru – может открываться от 2-х до 5 секунд
БЕЗ pppoe – через тот же комп - yandex.ru и другие сайты открывается за 1 секунду!!
Когда стоял set link mtu 1300 – при поднятии ng mtu cтавился 1300, при это некоторые сайты открывались еще большей задержкой (вплоть до 20-30 секунд)
Подскажите где грабли?
2)
пингуем абонента без pppoe (IP)
--- 10.0.0.192 ping statistics ---
1035 packets transmitted, 1035 packets received, 0% packet loss
round-trip min/avg/max/stddev = 0.273/1.048/10.113/0.748 ms
avg = 1.048 ms
пингуем абонента через pppoe (IP)
--- 10.111.6.192 ping statistics ---
1062 packets transmitted, 1061 packets received, 0% packet loss
round-trip min/avg/max/stddev = 0.844/2.409/9.286/0.961 ms
avg = 2.409 ms
это нормально ?
3) нормальный ли приведенный конфиг, может какие нить другие патчи нужно доставить ?
Jab, ты как то говорил про tcpmss patch для mpd - нужно ли его ставить ?
-
Дано: затерминировать 1000-1500 PPPoE соединений, занатить 1000-1500 юзеров (при потоке 70-100 мбит/c наружу), зашейпить (1000-1500 юзеров), затерминировать и сроутить 300-500 vlans. Всего через роутер будет проходить 500-700 мбит/c трафика
Смотрим в сторону 7301. Сплавиться ли железка с данной задачей?
-
up, обращаясь к коллетивному разуму)), неужели никто не сталкивался...
-
все :)
про мар-ты: их глотает только winxp и только со стандартной маской подсети, обычно их по dhcp не выдают
-
а когда используются таблицы и mask в ipfw pipe X config,
где можно задать макс кол-во создаваемых pipes, время их жизни ?
Вопрос соб-но тут
-
${ipfw} add 10 pipe 1 ip from any to table1 in via vlan1
${ipfw} pipe 1 config mask dst-ip 0xffffffff bw 1Mbit/s
${ipfw} add 20 pipe 2 ip from table1 to any out via vlan1
${ipfw} pipe 2 config mask src-ip 0xffffffff bw 1Mbit/s
по данным правилам пакеты попадаеющие под правила 10 и 20 dummynet будет генерить pipes (если они имееют разные dst-ip и src-ip соответственно)
1. параметр pipe - net.inet.ip.dummynet.hash_size - как написано в мане обозначет размер хэш таблицы (1а. что это?) (по умолчанию) 64 (1б. чего?) И как видно, макс. кол-во pipes которые генерит каждый pipe config mask ______ 0xffffffff как раз равно 64. Если pipe config mask ______ 0xffffffff задан параметр buckets, то размер хэш таблицы будет браться оттуда (1в. верно?)
1г. - dynamic pipe, которые мы видим в ipfw show pipe, имееют ли какое нибудь время жизни?
(скажем по pipe-у, который был создан каким нить src-ip уже не ходит трафик, сколько времени он будет жить)
1д. - очередной ip влетая в ${ipfw} add 10 pipe 1 ip from any to table1 in via vlan1 хочет создать pipe. А у нас уже все 64 pipe созданы при этом по всем идет трафик, что будет? как настраивается?
1е. - очередной ip влетая в ${ipfw} add 10 pipe 1 ip from any to table1 in via vlan1 хочет создать pipe. А у нас уже все 64 pipe созданы при этом НЕКОТОРЫМ dynamic pipe ТРАФИК НЕ ХОДИТ, что будет?как настраивается?
2. sysctl net.inet.ip.dummynet.max_chain_len: 16
Target value for the maximum number of pipes/queues in a hash bucket.
(2а. не понял я как раз вижу что maximum number of pipes/queues in a hash bucket задается предыдущим параметром (1)
The product max_chain_len*hash_size is used to determine the threshold over which empty pipes/queues will be expired even when net.inet.ip.dummynet.expire=0.
2б. а как этот threshold может быть достигнут если количество dynamic pipe не может быть больше чем значение hash_size (задаваемое net.inet.ip.dummynet.hash_size )
3. net.inet.ip.fw.dyn_buckets: 256
The number of buckets in the hash table for dynamic rules. Must
be a power of 2, up to 65536. It only takes effect when all
dynamic rules have expired, so you are advised to use a flush
command to make sure that the hash table is resized.
разьясните что значит
4. dynamic pipe - в концепции ipfw - это dynamic rules ?
Спасибо.
-
mpd -v
Version 3.18
ifconfig | less (кусок)
ng309: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1300
inet 10.0.0.254 --> 10.68.17.61 netmask 0xffffffff
ng310: flags=8890<POINTOPOINT,NOARP,SIMPLEX,MULTICAST> mtu 1500
ng311: flags=88d1<UP,POINTOPOINT,RUNNING,NOARP,SIMPLEX,MULTICAST> mtu 1300
ng312: flags=8890<POINTOPOINT,NOARP,SIMPLEX,MULTICAST> mtu 1500
ng309 - видим, что интервес поднят и ПК работает
ng312 - интерфес неактивен и ждем пока к нему подконектяться
ng311 - собственно глюк, если послушать его tcpdump-м
tcpdump -i ng311
22:27:33.479370 IP 10.68.16.184.62922 > xxxx.domain: 20056+ A? d1.c7.be.a0.top.list.ru. (41)
22:27:33.479493 IP 10.68.16.184.62922 > xxxx.domain: 20056+ A? d1.c7.be.a0.top.list.ru. (41)
22:27:33.481048 IP 10.68.16.184.62922 > xxxx.domain: 20056+ A? d1.c7.be.a0.top.list.ru. (41)
22:27:33.481057 IP 10.68.16.184.62922 > xxxx.domain: 20056+ A? d1.c7.be.a0.top.list.ru. (41)
видим что ПК который на нем мифическим образом подключен пытается ломиться в инет. но трафик ходит в одну сторону есс-но
ifconfig | grep 10.68.16.184
пусто (есс-но)
После пары "повторных звонков" с этого ПК -- ng (обычно уже другой) "нормально поднимется".
Проблема возникает переодически на разных ПК и серверах.
Подскажите как побороть ?
-
2 Blackmore - мои вопросы там не обсуждались. Я вот думаю или машинка слабовато или руки кривоваты =)
-
p4-Cel-D 2.8+256mem FreeBSD 6.0 + pf (как нат) ipfw (как firewall)
1000 работающих юзеров в данный момент
[root@]# pfctl -s state | wc -l
6200 (кол-во сопоставлений pf nat)
[root@]# ipfw show | wc -l
3020
[root@]# ipfw show | grep pipe | wc -l
1000
[root@]# top
last pid: 26961; load averages: 0.00, 0.01, 0.00 up 13+13:19:18 17:19:26
46 processes: 1 running, 45 sleeping
CPU states: 4.3% user, 0.0% nice, 0.0% system, 52.2% interrupt, 43.5% idle
Mem: 23M Active, 128M Inact, 69M Wired, 7640K Cache, 34M Buf, 11M Free
Swap: 483M Total, 483M Free
Сетевухи интел 1000baseTX PCI. Драйвер em0. Полинг включен. HZ=1000
[root@]#ping xxx.xxx.xxx.xxx (ближайшую ненагруженную машину в тойже подсети)
ping -i 0.1 xxx.xxx.xxx.xxx
PING xxx.xxx.xxx.xxx (xxx.xxx.xxx.xxx): 56 data bytes
64 bytes from xxx.xxx.xxx.xxx: icmp_seq=0 ttl=63 time=25.439 ms
64 bytes from xxx.xxx.xxx.xxx: icmp_seq=1 ttl=63 time=31.898 ms
64 bytes from xxx.xxx.xxx.xxx: icmp_seq=2 ttl=63 time=32.563 ms
64 bytes from xxx.xxx.xxx.xxx: icmp_seq=3 ttl=63 time=25.775 ms
64 bytes from xxx.xxx.xxx.xxx: icmp_seq=4 ttl=63 time=27.609 ms
64 bytes from xxx.xxx.xxx.xxx: icmp_seq=5 ttl=63 time=30.570 ms
64 bytes from xxx.xxx.xxx.xxx: icmp_seq=6 ttl=63 time=22.836 ms
потери icmp от 1 до 4%
чем выше кол-во сопоставлений pf nat - тем выше дает пинги этот роутер (пинги от/к роутера или от/к юзерам)
отключаю pf nat - пинги падают до 1-2 мс. отключаю часью юзеров - кот. натяться на этом роуторе
pfctl -s state | wc -l падает до 1500-2000 - и пинги падают до 1-2 мс
Как лечить ?
-
на свиче конфигурим два порта: 9 и 17 ( к примеру)
они принадлежат к VLAN5 (как untaged) и vlan14 (taged)
на VLAN5 повешен ip 10.13.13.1/24
к 9 порту подлючена машинка(1), на ней заведен субинтерфейс с VLAN14 и на нем 10.13.13.2/24 (умешленно!)
пинга машинка(1) --- 10.13.13.1 есс-но нет, но!
свич в arp на vlan5! добавил запись 10.13.13.2 -- мак машинки(1)
?
#снифером видно что машинка(1) посылает arp запросы только в vlan14
если на свиче сделать clear arp, подлючить к порту 17 машинку(2) и на ней задать 10.13.13.2/24, то
пинг машинка(2) --- 10.13.13.1 есс-но есть, при этом
свич в arp на vlan5 добавит запись 10.13.13.2 -- мак машинки(2)
начинаем пинговать с машинки(1) - 10.13.13.1 (свич)
пинга не есс-но нет, но!
свич в arp на vlan5! изменил запись 10.13.13.2 -- мак машинки(1!!)
подскажите где грабли...
Mux Oadm
в Активное оборудование Ethernet, IP, MPLS, SDN/NFV...
Опубликовано · Жалоба на ответ
Подскажите что даст меньше затухание. К примеру мультиплексор cwdm 4 канала или 4 последовательных оадм (без коннекторов)? Какие основные конструктивные отличия мультиплексовра и оадм.