kerevra

Advanced Member | Редактировать | Профиль | Сообщение | ICQ | Цитировать | Сообщить модератору Приветствую, уважаемые форумчане! Прошу помощи в решении проблемы. Суть в следующем. Есть NAS на Debian 8.1 x64: Код: #uname -r Linux pm-nas-01 3.16.7-ckt11 #1 SMP Fri Jun 12 16:51:00 MSK 2015 x86_64 GNU/Linux | На нем развернут native zfs 0.6.4.1, есть пул "sql": Код: Код: Код: В пуле есть zvol по имени "srv1c": Код: Этот zvol раздается по iSCSI для Hyper-V. На Hyper-V крутится виртуалка со связкой 1С+Postgres база которой лежит на этом томе. Так вот в большинстве своем производительности дисков хватает с лихвой, но в некоторые моменты ФС "виснет" на 5-10 минут. iostat в этот момент показывает очередь дисков на запись >10 (когда в большинстве случаев она составляет <0.1) и текущую запись на каждый из 4х дисков по 300-700КБ/сек. Это при том, что для снижения этого эффекта параметр sync в zfs установлен в disabled (что не есть хорошо). До запуска в продакшн на виртуалке тестировал производительность дисков с помощью iometer из под той же ОС, с теми же ресурсами, выделенными ВМ. Показатели были достойными. По железу (NAS): 1 x Xeon E5-2620v2, 32ГБ RAM, 4 x 200GB OCZ Intrepid 3800, LSI2308 с прошивкой IT. Ранее эти же диски использовались на аналогичной связке (1С+SQL), но в невиртуализванном виде и на mdraid10+Ext4. При большей нагрузке подобных проблем не наблюдалось. В качестве iSCSI Target используется SCST 3.0.1 со включенным nv_cache. Планировщик IO на текущий момент установлен в deadline, ранее работал в CFQ. Заметной разницы нет. Если необходима дополнительная информация, готов делиться. Добавлено: Более того, ранее эта же ВМ размещалась на другом насе, на FreeBSD 10.1, на 6 шт. дешевых SAS дисках в raidz1 с SSD ZIL и L2ARC. В качестве iSCSI Target использовался ctld. Было просто медленно, но без жестких зависаний. В синтетических тестах текущая конфигурация в разы быстрее. | Всего записей: 1192 | Зарегистр. 25-11-2009 | Отправлено: 22:01 16-06-2015 | Исправлено: kerevra, 23:45 16-06-2015 |
|