Перейти к содержимому
Калькуляторы

IVB

Активный участник
  • Публикации

    175
  • Зарегистрирован

  • Посещение

Все публикации пользователя IVB


  1. Не обновляется прошивка на SXT 2nd r2

    Виртуалка с единственным интерфейсом (я об этом упомянул) Процесс прошивки начинается, но, судя по всему, прошивка на флешке не сохраняется (и об этом я упомянул)
  2. Не обновляется прошивка на SXT 2nd r2

    Возможно причина в этом. Нет, не в этом. И у админов, и у техподдержки - количество сетевух больше одной. В таких конфигурациях ни winbox, ни netinstall не в состоянии найти нужную сетвуху для общения со своим железом. Приходится поднимать виртуалку с единственной сетевухой (чтобы обойти грабли, услужливо подложенные разработчиками Микротик). В виртуалке с единственной сетвухой с исправными Микротиками никогда проблем не было. Кроме .88.0/24 пробовал и .1.0/24. Эффект одинаковый.
  3. Не обновляется прошивка на SXT 2nd r2

    Похожая ситуация. SXT 2nD r2 Какая прошивка стояла изначально - нет данных (обновлял не я) После обновления прошивки (на 6.35.2) - железка не бутится - издаёт один писк, и чего-то ждёт. Попытался воспользоваться Netinstall (в фоне запустил Wireshark - чтобы "видеть", что происходит) Держим Reset, подаём питание, ждём, пока устройство появится в списке в Netinstall (всё выполняется в виртуалке с единственным интерфейсом, сбриджованым на сетевушку, к которой подключён Микротик) В Wireshark от Микротика видны постоянные броадкастные UDP пакеты (видимо, как раз, чтобы его "увидела" Netinstall) Следуя инструкциям - настравиваю Netinstall (Net boot + выбор прошивки), жму кнопку Install - практически мгновенно меняется статус устройства с Ready на Waiting reboot. Жму кнопку Reboot, появившуюся вместо Install - устройство (через непродолжительное время) перегружается, и в Wireshark я вижу обмен пакетами по tftp протоколу между Микротиком и Netinstall. После чего Микротик перегружается (опять только один "пик") - и я снова вижу от него повторяющиеся UDP пакеты, как-будто я его только что сбросил... Это лечится без паяльника? Или возвращать продавцу по гарантии? Или это уже негарантийный случай?
  4. Разобрался. В Gentoo из дистрибутива cyrus-sasl удален патч checkpw.c, как раз отвечающий за хранение в БД хэшей паролей, а не самих паролей. Та версия, в которой он еще остался, "криво" собирается (ошибок нет, но доступа к БД тоже нет) Пришлось делать оверлей, в котором "с помощью молотка, напильника и такой-то матери" накатывается нужный мне патч. Если вдруг кому нужно - вот мой оверлей: https://www.dropbox....verlay.tgz?dl=0
  5. rsync -az8P --delete --stats 6M+ inodes. Должно хватить :) Ядро достаточно свежее - декабрь/январь. Делалась виртуалка для других задач, для почты сделал с нее копию. Только вот в плане fs я, наверное, излишне консервативен, поэтому не ext4, а ext3. Но возникло одно "Но", с которым ковыряюсь уже не первый день :( Не проходит авторизация pop3 клиента к "новому" серверу. К старому проходит, к новому - нет. md5 паролей хранятся в Мускульной базе (база одна и та же, на отдельном сервере) Цирус собирался с одинаковыми ключами на обоих серверах (новом и старом) Уже даже собрал на новом ту же версию, что и на старом - не выходит каменный цветок. Где-то допустил ошибку - теперь ищу...
  6. Не, тут всё в порядке. Одно письмо - один файл. Почти :) Большинство ящиков "мертвые", кроме спама туда ничего не падает. Самописный скриптик раз в неделю проходится по ящикам и прибивает письма старше 30 дней. Долго отрабатывало первое копирование (еще без rsync). Затем прошелся "по верху" уже rsync - отработало за приемлемое время. Про imapsync почитал - для pop3 все письма станут "непрочитанными" (т.е. неполученными). Не хотелось бы пугать тех клиентов, которые еще пользуются почтой (все они используют именно pop3). Поэтому принял решение использовать rsync, и на _все_ файлы, а не только maildir.
  7. На сервере, кроме Cyrus, есть и другие сервисы. Т.е. остановка Cyrus не означает остановки всего сервера. Всё равно вы рассматриваете полный перенос: остановили "старый" Cyrus, перенесли все ящики, запустили "новый" Cyrus. А хочется такого: параллельно "старому" запустили "новый" Cyrus, и порциями переносим ящики с одного на другой. Понятно, что именно в такой формулировке звучит бредово - но вдруг есть какие-то средства, чтобы сделать хотя бы что-то приблизительно похожее?
  8. Доброго времени суток, господа и дамы. Нужно перенести "живой" POP3/IMAP сервер на базе Cyrus IMAP Server (под управлением Gentoo) с физического сервера на виртуальный. Ничего сложного, если бы не один момент: существующие почтовые ящики клиентов, занимающие 40+ Гб (около 1000000 файлов). Пофайловое копирование по сети всей структуры ящиков заняло примерно сутки. Создание tar архива, его копирование и разворачивание - даже если займет в 3-4 раза меньше времени, то всё равно прилично. Поэтому хочу задать вопрос - может быть, есть какие-то варианты плавной миграции ящиков с одного сервера на другой? Наверняка кто-то уже проделывал подобные "переезды" - поделитесь, пожалуйста, опытом.
  9. Буду весьма признателен! Убрал QinQ - загрузка всех процессоров выровнялась.
  10. RSS не работает для PPPoE (и не будет). Для Q-in-Q в чипе заложено пару функций, но в текущем драйвере ixgbe разрабы это не добавили и поэтому RSS тоже не работает. Нужно включить биты IXGBE_DMATXCTL_GDV и IXGBE_CTRL_EXT_EXTENDED_VLAN в регистрах согласно даташиту. Тут http://sourceforge.n...ssage/31896025/ Steve O'Brien писал, что у него вроде заработало. У меня тоже такая проблема возникла, в бою пока не тестировал, в ближайшее время скорее всего будет возможность проверить. А разрабы очень ленивые какие-то - много чего не добавили в драйвер, хотя может очень тщательно все тестируют, но в документации по драйверу все равно нету информации по этим вопросам. Порылся в даташите, но так и не нашел, как это сделать. Даже в исходники драйвера заглянул! IXGBE_DMATXCTL_GDV только определяется (через #define), но нигде в коде не используется. А IXGBE_CTRL_EXT_EXTENDED_VLAN даже нигде не определяется. Наверное, мне будет проще избавиться от Q-in-Q на этом сервере...
  11. Нельзя пренебречь. Для сетевушек разные маршруты? На всех сетевухах висят айпишники из одной подсети или из разных (с необходимостью создания n числа "дефолтных" маршрутов для каждой сетевухи)? Сами сетевушки адресов не имеют. net1-net4 (гигабитные) объединены в bond. На bond и на net5 (10 гиг) висят vlan'ы. Бриджей нет (т.е. на разных интерфейсах - разные vlan'ы). У всех vlan'ов - разные подсети, соответственно, разные IP адреса и разные маршруты. Прерываниями с остальных сетевушек можно пренебречь, т.к. после освобождения CPU0 от обработки прерываний с net5, его загрузка упала почти до нуля. И при наступлении "времени Ч" (т.е. "полка" на одном из CPU) загрузка на CPU0 так и осталась около нуля. Т.е. проблема только в обработке прерываний именно с net5.
  12. Сервер - софт-роутер (пограничный маршрутизатор). Q-in-Q есть, PPPoE нету.
  13. Доброго времени суток, господа и дамы. Столкнулся с непонятной проблемой. Прочесть 44 страницы в теме "Linux softrouter" за разумный период времени невозможно, а быстрый поиск в ней ничего не дал - поэтому решил задать вопрос в отдельной теме. Имеем 4-хядерный Intel Xeon E3-1220, имеем 10G сетевушку Intel 82599ES, имеем Gentoo на ядре 3.10.17. В системе есть и другие сетевушки, но трафик там несущественный, поэтому (как показала практика) тем трафиком можно пренебречь. Сетевушка позволяет распределять прерывания (совмещенные - Tx и Rx) по 64 очередям. В нашем случае очереди распределяются по 4-м прерываниям, каждое из которых "прибито" к своему ядру: 1-я очередь - к CPU0, 2-я - к CPU1, и т.д. Сначала картинка была идеальной - графики загрузки всех 4-х CPU шли практически "точка в точку". Но в один не очень прекрасный момент времени загрузка CPU0 стала превышать загрузку каждого из остальных процессоров примерно в 3 раза. Это произошло довольно давно, поэтому связать произошедшее с какими-либо нашими действиями не представляется возможным. А обратили внимание на это недавно, когда загрузка CPU0 в пиках стала достигать 100% - в эти периоды нагрузка на остальные процы резко падает, и общая пропускная способность сервера заметно снижается. Сначала я грешил на остальные сетевушки (4 Intel 82576, собранные в bond), т.к. на них распределение по очередям практически не сказывается - почти все прерывания попадают в первую очередь, на остальные очереди приходится менее 0.1%. Чтобы разгрузить CPU0, который, как мне казалось, перегружен из-за 82576, я перенастроил 82599ES на 3 очереди вместо четырех, и привязал каждую из 3-х очередей к процессорам от 1 до 3, исключив таким образом CPU0 из обработки прерываний от этой сетевушки. Но, как показала практика, я ошибался. Загрузка CPU0 была вызвана именно обработкой прерываний от 10G сетевушки (точнее, прерываний 1-й очереди), т.к. теперь CPU0 загружен на 1%, а CPU1 (обрабатывающий 1-ю очередь) загружен в 3 с лишним раза больше, чем CPU2 и CPU3. И вот теперь, собственно, вопрос: можно ли что-то сделать, чтобы равномерно распределить прерывания по очередям? Или единственный выход в нашей ситуации - замена 4-хядерного проца на 8-миядерный?
  14. А "поковыряться" в .ibd hex-редактором и "подправить" id возможно? Структура файлов .ibd где-нибудь расписана?
  15. Дамп не делали, т.к. все базы с мастера реплицируются на слейв (т.е. для случая отказа оборудования - бэкап идеальный). Прийдется еще и дамп дополнительно настраивать, чтобы от собственных "кривых рук" защититься (удалял ненужную таблицу и "промахнулся") :(
  16. Доброго времени суток, дамы и господа. Нужно восстановить удаленную (DROP TABLE) InnoDB таблицу. Есть файлы таблица.frm и таблица.ibd (опция file_per_table включена) с данными почти на момент удаления. Попытался создать пустую базу, в ней создать именно эти таблицы, и затем подменить файлы (чтобы получить "нормальный" бэкап). С MyISAM такое проходит "на ура", но InnoDB отказывается видеть файлы таблиц (вплоть до краха Мускуля). Если кто-то уже решал подобные задачи - поделитесь рецептом.
  17. Либо я что-то делаю неправильно, либо я неправильно понимаю смысл отчетов. Все типы RDR разрешены (даже те, которые, с моей точки зрения, никак не относятся к графикам, которы я хочу получить). Получаю график Average Subscriber Bandwidth (01.png) На полученном графике выбираю сначала Audio and Video over HTTP (02.png), затем Non-Encrypted Bittorrent (03.png) Затем пытаюсь получить Average Subscriber Bandwidth per Service - для Audio and Video over HTTP (04.png) и для Non-Encrypted Bittorrent (05.png). На 4-м и 5-м графиках я рассчитывал получить графики, близкие к 2-му и 3-му соответственно. Я же получаю непонятно что. Подскажите, пожалуйста - это правильные графики (тогда как их интерпретировать), или у меня кривые руки и я не могу нормально настроить SCE?
  18. Видимо, нет. Ткните пальцем в доку - где почитать про эти галки.
  19. Там с графиками, которым надо указывать временнОй интервал, вообще косяки какие-то. Сам так и не разобрался, не показывают. Так ведь в примере оба графика строятся по временнОму интервалу (последние 24 часа). 1-й - показывает, 2-й - нет.
  20. По предыдущемей проблеме все работает - все обнаруженные сабскрайберы добавляются с нужной галочкой. Теперь нужна помощь в другом месте. Запускаю Average Subscriber Bandwidth, оставляю галочку только на одном типе трафика (чтобы цвета не угадывать) - вижу нормальный график (03.png) Хочу посмотреть Average Subscriber Bandwidth per Service, для чего в следующем отчете выбираю соответствующий сервис (Audio and Video over HTTP - тот же, который мы наблюдали на предыдущем графике). Должны, по идее, получить картинку, схожую с предыдущей. Но получаем пустой график (04.png) Видимо, где-то что-то еще прописать нужно.
  21. У меня сабскрайберы "вычисляются" по аккаунтингу, поэтому мне проще задать параметр в конфиге и почистить базу сабскрайберов, чтобы она по новой наполнилась, уже с нужной опцией. Спасибо за подсказку!
  22. Я правильно понимаю - это будет только на "новых" сабскрайберов действовать, а на тех, что уже есть в базе - не повлияет? И для того, чтобы это действовало на всех сабскрайберов - базу нужно почистить (чтобы все сабскрайберы добавились заново)?
  23. Чтобы это работало - надо галку поставить, см. пикчу: А как сделать так, чтобы эта галка стояла у всех сабскрайберов? Я ведь их не ручками добавляю.
  24. Хотим для начала настроить сбор статистики. Установил и настроил SM, CM, БД. Версия ПО - 3.8.5. SM установлен под CentOS 6.4 x64 из архива rhl-64. CM установлен под тем же CentOS (естественно, на другой сервер) из архива unbundled. В качестве БД для CM используется MySQL (на том же сервере, что и CM) При помощи Usage Analysis Wisard из SCA BB настроил сбор данных с SCE. И не могу понять, что же у меня происходит. Пробую посмотреть отчет "Top Subscribers" - получаю симпатичный график (см.файл 01.png) Теперь по одному из сабскрайберов с этого графика хочу посмотреть Subscriber Bandwidth per Service - и получаю пустой график (см.файл 02.png) И такая же картина по всем отчетам - где-то данные есть, где-то данных нет. Закономерность я пока не понял. Т.е. либо не все данные собираются, либо не все данные показываются, либо я неправильно всем этим пользуюсь. Я могу привести все конфиги - но это только загромоздит пост. Лучше вы скажете, что нужно показать - я покажу. Кто-нибудь сможет мне помочь?