route# Опубликовано 30 декабря, 2009 Добрый день. Есть маршрутизатор на FreeBSD 7.2 - Stable: Core 2 Duo 2.2, 2G RAM, 2-x Intel PRO1000 MT - Deskstop Adapter. Трафик ~ 120 мбит. До этого трафик был и больше (150 мбит) Но сейчас появились странные прерывания.. Работает приблизительно 20 минут потом трафик полностью прерывается, буквально на секунд 20 и снова восстанавливается. "Физика" при этом - все ок. Подозреваю что может переполнятся буфер на самой карточке. Пробовал другие карты, тоже самое. Спасибо за помощь. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Dyr Опубликовано 30 декабря, 2009 Диагностика? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
route# Опубликовано 30 декабря, 2009 Диагностика? Хотелось бы услышать какие-то идеи. Спасибо Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
LuckySB Опубликовано 30 декабря, 2009 подземный стук не лечится. гугль в помощь. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SmalleR Опубликовано 31 декабря, 2009 А кто выступает аплинком? Можно в ПМ. У меня похожая ситуация была, но на фре. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
darkagent Опубликовано 31 декабря, 2009 (изменено) дайте угадаю - intel pro 1000 MT Desktop Adapter на PCI (32) шине? дык она сдохнет от пакетной нагрузки. она даже 200k pps не выдержит - шина сдохнет. да и на 100к pps сомнения дикие уже. поприличней карточки воткните, и обязательно на pci-express. да хотя бы те же intel pro 1000 mt server adapter на pci-express. она уже спокойно протащит за 200k pps. если конечно и систему хорошо оттюните. производительность гиговых pci карт, особенно под freebsd, да еще и на базе интела - очень распространенный материал в поисках гоголя. Изменено 31 декабря, 2009 пользователем darkagent Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SmalleR Опубликовано 31 декабря, 2009 дайте угадаю - intel pro 1000 MT Desktop Adapter на PCI (32) шине? дык она сдохнет от пакетной нагрузки. она даже 200k pps не выдержит - шина сдохнет. да и на 100к pps сомнения дикие уже. поприличней карточки воткните, и обязательно на pci-express. да хотя бы те же intel pro 1000 mt server adapter на pci-express. она уже спокойно протащит за 200k pps. если конечно и систему хорошо оттюните. производительность гиговых pci карт, особенно под freebsd, да еще и на базе интела - очень распространенный материал в поисках гоголя. Возможно, Вы правы. Но нужно учитывать: 1. Трафик ~ 120 мбит. До этого трафик был и больше (150 мбит) Но сейчас появились странные прерывания.. 2. Подозреваю что может переполнятся буфер на самой карточке. Пробовал другие карты, тоже самое. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
darkagent Опубликовано 31 декабря, 2009 (изменено) пакетная нагрузка != потоковая нагрузка. если раньше вам давали полноразмерные пакеты (1500байт) и вы кушали 150мбит/с - то это примерно нагрузка в 13-15k pps; если сейчас вам дают мелкими пакетами 100мбит (допустим по 100байт, ддосят) - это уже 130k pps; ход мысли надеюсь понятен.. вы пробовали другие карты на pci или pci-express? пробуйте исключительно второй вариант. сейчас все серверные системы (которые не стыдно использовать), имеют интегрированные гигабитные сетевухи на pci-express. держут они нагрузку такую, какая вам не снилась. у меня би-нат на базе proliant'а 380го с NetXtreme II BCM5708 - держит гигабит спокойно (на линухе правда), как мелкими пакетами так и большими. а вы говорите.. Изменено 31 декабря, 2009 пользователем darkagent Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
jab Опубликовано 31 декабря, 2009 новогодняя история - линузятники лечат подземный стук Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
SmalleR Опубликовано 31 декабря, 2009 пакетная нагрузка != потоковая нагрузка.если раньше вам давали полноразмерные пакеты (1500байт) и вы кушали 150мбит/с - то это примерно нагрузка в 13-15k pps; если сейчас вам дают мелкими пакетами 100мбит (допустим по 100байт, ддосят) - это уже 130k pps; ход мысли надеюсь понятен.. 1. Зачем говорить очевидные вещи? Почему не допустить мысль, что собеседник не дурак? 2. Это не моя тема, но не думаю, что у автора темы внезапно изменился характер трафика. (на вашем языке: Меню не изменилось) вы пробовали другие карты на pci или pci-express? пробуйте исключительно второй вариант. сейчас все серверные системы (которые не стыдно использовать), имеют интегрированные гигабитные сетевухи на pci-express. держут они нагрузку такую, какая вам не снилась. у меня би-нат на базе proliant'а 380го с NetXtreme II BCM5708 - держит гигабит спокойно (на линухе правда), как мелкими пакетами так и большими. а вы говорите.. Эта совешенно определенная тема, а Вы рассказываете, что нужно менять все в корне. Думаю, автор об этом может догадаться и без подсказок, но его волнует немного другое. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
darkagent Опубликовано 31 декабря, 2009 Зачем говорить очевидные вещи? Почему не допустить мысль, что собеседник не дурак?прошу прощения, если мои соображения кого то задели. Это не моя тема, но не думаю, что у автора темы внезапно изменился характер трафика.привык просчитывать всевозможные варианты, потому как на практике доводилось сталкиваться с многим.Эта совешенно определенная тема, а Вы рассказываете, что нужно менять все в корне.я не говорю что нужно менять все в корне, я просто предложил вариант. с подобной проблемой самому доводилось сталкиваться, правда уже очень давно (годов эдак 2-3 назад). Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Lucky SB Опубликовано 31 декабря, 2009 Это не моя тема, но не думаю, что у автора темы внезапно изменился характер трафика.Если все работало и вдруг перестало - надо искать что поменялось. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
Алексей Андриянов Опубликовано 1 января, 2010 У меня были похожие симптомы на одном сервере, когда был конфликт IP-адресов, в те моменты, когда трафик не ходил, на другой стороне в arp-таблице был не тот мак. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
911 Опубликовано 2 января, 2010 новогодняя история - линузятники лечат подземный стуквсе сразу в экстрасенсы и телепаты ударились :)удаленно диагностируют и лечат подземный стук ))) Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
route# Опубликовано 2 января, 2010 Всем спасибо за помощь! Проблема оказалась в аплинке. Приходил кривой влан судя по всему. Сменили влан - все заработало. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
No_name Опубликовано 2 января, 2010 Проблема оказалась в аплинке. Приходил кривой влан судя по всему.Сменили влан - все заработало. Это как так? И как вообще такое могло работать? А у аплинка что за железо стоит? Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
route# Опубликовано 2 января, 2010 Проблема оказалась в аплинке. Приходил кривой влан судя по всему.Сменили влан - все заработало. Это как так? И как вообще такое могло работать? А у аплинка что за железо стоит? Пока непонятно как. С нашей стороны стоит С3560 с ихней - какой-то Zyxel.. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
mikevlz Опубликовано 3 января, 2010 видел непонятные глюки в свое время, когда два vlan между парой железок шли. Один с тегом, другой без. работало через задницу. Когда оба vlan пустили с тегом - все волшебным образом стало хорошо. Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...
boykov Опубликовано 3 января, 2010 новогодняя история - линузятники лечат подземный стукновогодняя история-2: мэтры не читают ни тем ни содержания топиков (это там, где про 7.2) вы бы хоть уровень логов посоветовали сменить, все бы польза была Вставить ник Цитата Ответить с цитированием Поделиться сообщением Ссылка на сообщение Поделиться на других сайтах More sharing options...