Top.Mail.Ru
Перейти к содержанию

Рекомендуемые сообщения

Гарантия чуть ли не 4 года. В них тоже SSD. Поспрашивал у друзей кто имел дело с SSD.

Вообще нужно смотреть гарантию конкретного магазина. Я собрал новый компьютер буквально неделю назад,гарантия на мой SSD 1 год.

Купил SSD Samsung 840 Pro. Тупо понравились синтетические тесты на всевозможных ресурсах,что наших,что зарубежных,где он всех обогнал.

В целом конечно я не собираюсь забивать голову лишним...=) Всё будет ок.

Ссылка на комментарий

Вообщем если вам повезло и SSD не сдох в течение полугода, то да, он быстрый и хороший. Но вероятность нарваться на брак безобразно высока.

 

Я тут на работе немного с большими железками имею дело, так вот, в массиве HP Eva 4400 с момента покупки (года три назад) заменили уже больше половины жестких дисков (примерно полсотни). Судя по цене этих дисков, они должны быть не просто собраны вручную элитными японскими девственницами из элитнейших материалов, но к ним еще эти девственницы комплектом должны идти, штук по пять на каждый диск. И тем не менее они сыпятся, и единственный способ не остаться в один прекрасный момент с развалившимся массивом - постоянно продлять платную поддержку и менять, менять, менять эти супернадежные механические диски...

 

Некоторое время назад мы еще и PCI-e SSD прикупили несколько штук, пока полет нормальный, при суммарном объеме суточной записи на них в несколько сотен процентов от их полезной емкости...

 

Домой купил Crucial M4, все ок.

Ссылка на комментарий
Судя по цене этих дисков, они должны быть не просто собраны вручную элитными японскими девственницами из элитнейших материалов, но к ним еще эти девственницы комплектом должны идти, штук по пять на каждый диск.

это обычные диски, хитачи или самсунги, можешь глянуть ради любопытства. Сверху просто FC пришпандорен. А цена обусловлена только маркетингом.

Кстати, уже все вендоры во все массивы, что hi end, что midrange, предлагают SSD и ничуть не парятся. Просто берите качественные и все будет ок.

 

недавно тестили ramsan от IBM (просто JBOD набитый SSD) - мегабалалайка. В БД ожидания I/O просто пропали как класс :)

Ссылка на комментарий

это обычные диски, хитачи или самсунги, можешь глянуть ради любопытства. Сверху просто FC пришпандорен. А цена обусловлена только маркетингом.

недавно тестили ramsan от IBM (просто JBOD набитый SSD) - мегабалалайка. В БД ожидания I/O просто пропали как класс :)

 

Почти угадал, это сигейты. Рамсан какой? Мы к 820-му присматривались, в последний момент руководство пожалело денег. Сейчас кое-как выкрутились наращиванием оперативной памяти под кэш БД, но вообще производительность СХД оставляет желать лучшего. Ева еще кое-как держит нагрузку, а вот MSA можно убить просто запустив копирование файлов в несколько потоков.

 

Если не секрет, какая емкость Рамсана, сколько IOPS и Мб/с текущая нагрузка, какие задержки на чтение и запись? Подключен по оптике? Сколько каналов? Настроили как JBOD?

 

В Еву, кстати, нет смысла ставить SSD, есть существенные ограничения по количеству SSD в одном массиве, ну и цена такая, что рамсан дешевле выйдет.

Ссылка на комментарий

да, 820. Нам его ненадолго давали, как следует не успели затестить. Прицепили две полки к не очень нагруженной рабочей базе в 30ТБ, которая делает около 400МБ/50МБ чтение/запись, ~ 7k иопсов, с такой нагрузкой справился легко. Задержки были меньше 1 ms. Нагрузочное тестирование не делали.

 

В Еву, кстати, нет смысла ставить SSD, есть существенные ограничения по количеству SSD в одном массиве

в любом массиве есть ограничения, т.к. кол-во ssd рассчитывают с учетом возможностей контроллеров, ширины и кол-ва портов и тп. Большим кол-вом ssd массив можно уложить целиком.

Ссылка на комментарий

так попросите сами затестить, в чем проблема? МежДелМаш вроде нормально к этому относятся.

Мы с самого начала серьезно его не рассматривали, т.к. не hi end. Для отказоустойчивости получается нужно две железки брать, в зеркало их на хосте собирать, в общем гемор.

сорри, но awr не могу дать :) Да и толку тебе от него? В целом могу сказать, что чем больше IO делает бизнес-операция, тем лучше ей будет на рамсане. Какие-нибудь отчеты, которые лопатят много данных, которых нет в кэше - само то

Ссылка на комментарий

У нас просто примерно такие же цифры по нагрузке, хотя размер базы меньше... AWR, конечно, хотелось бы посмотреть, в первой части, до Service Statistics, там даже ничего секретного нет, ни названий таблиц, ни SQL-запросов, ни даже сведений об оборудовании... Ну раз не можешь, ладно... Average Read Time в Tablespace IO Stats хоть везде был меньше 1 ms?

 

Избыточность, кстати, можно было и на 1 железке получить, например, собрав RAID-Z (ZFS) поверх JBOD...

Ссылка на комментарий
Average Read Time в Tablespace IO Stats хоть везде был меньше 1 ms?

полез искать awr, но за давностью его уже не осталось. Думаю, что скорее да, у меня и на классической СХД больше 4 ms нет.

 

Избыточность, кстати, можно было и на 1 железке получить, например, собрав RAID-Z (ZFS) поверх JBOD...

я про другое. FAN менять - даунтайм, контроллер у него накернится - даунтайм... А на дисках и обычный RAID5 можно собрать.

Кстати, ZFS под ораклом - боюсь :)

Ссылка на комментарий

полез искать awr, но за давностью его уже не осталось. Думаю, что скорее да, у меня и на классической СХД больше 4 ms нет.

4 ms на часто используемых данных, на редко используемых легко может быть 20-30 мс и больше. Да и для SSD 1 ms это очень много, должно быть на порядок меньше... Кстати, файловый кэш второго уровня на SSD помогает уменьшить latency, у нас снизился с 4 до 2 ms.

 

я про другое. FAN менять - даунтайм, контроллер у него накернится - даунтайм... А на дисках и обычный RAID5 можно собрать.

Кстати, ZFS под ораклом - боюсь :)

Контроллеров там вроде бы два, не помню точно. А при замене даже hot swap деталек мы обычно делаем switchover на стендбай, идентичный по конфигурации, так надежнее будет.

 

Насчет ZFS - есть определенные преимущества, чтение так уж точно будет быстрее в разы, особенно если нет дефицита оперативной памяти. Плюс кэш второго уровня на SSD. Снапшоты очень полезная штука, можно не напрягаясь иметь на стендбае несколько десятков снимков базы за последние n-цать часов. Плюс резко уменьшается вероятность, что при краше системы данные на диске тоже развалятся. А краш иногда все таки случается, например, когда после очередного обновления системы вылезает баг, который никак себя не проявлял на тестовом сервере.

Ссылка на комментарий
Кстати, файловый кэш второго уровня на SSD помогает уменьшить latency, у нас снизился с 4 до 2 ms.

если речь про оракл, то я из лагеря тех, кто резко против любого кэша ФС. :) Он должен быть максимально зарезан, вся свободная память отдана под кэш БД и включен direct io

SSD в 11.2 под соляркой и линуксом можно отдать под flash cache

Ссылка на комментарий

У нас почему то после включения flash cache скорость наоборот упала... direct io работает только под ufs, а это куда менее стабильная fs, лет этак 5 назад приходилось сталкиваться с полностью развалившимся разделом с БД, ну ее нафиг, больше не хочу.

Ссылка на комментарий
после включения flash cache скорость наоборот упала

это странно, может наполнения кэша просто не дождались?

ufs конечно полный шлак, у тебя там спарки? ASM не пробовали?

у нас на больших машинах везде веритас с odm, на мелких линуксах - ASM

Ссылка на комментарий

это странно, может наполнения кэша просто не дождались?

Ни при каком кэше скорость не должна падать, в худшем случае она должна просто не расти.

Не помню точно, сколько ждали, пока кэш прогреется, но не дождались. ASM не пробовали, не знаю, хорошо это или плохо. Железки - M4000.

Ссылка на комментарий
ASM не пробовали

попробуй, оно конечно не так объезжено, как на линуксе, но на суперкластер же они это вкорячили, значит работает.

сорри, что возможно лезу не в свое дело, но я бы не использовал ни zfs, ни ufs, а ASM или на худой конец raw devices (и поменял бы спарк на какой-ть толстый интел)

Ссылка на комментарий
поменял бы спарк на какой-ть толстый интел

Вот это в перспективе и планируется, но пока нет ни бюджета, ни особо острой необходимости, с текущей нагрузкой БД худо-бедно справляется и при сохранении тренда по ее увеличению мощностей хватит минимум на год. Потом может быть начнутся какие то телодвижения...

 

Ну и вобщем, "попробовать" довольно сложно, на тестовом сервере я нужную нагрузку организовать не смогу, а производственные ломать без повода никто не даст.

Ссылка на комментарий
  • 2 месяца спустя...

Раз уж тема про SSD. Могу посоветовать купить PCI EXPRESS SSD, если уж прям быстродействие нужно. Кстати себе подумываю преобрести. А можно такое дело сделать и своими силами, не прибегая к PCI SSD. Каким образом, берём 2 ssd по 60 гигабайт ставим их в Raid 0 получаем 120 в сумме и еще большую скорость по сравнению с SSD. Кто пробывал отпишитесь, очень интересны результаты. Если куплю PCI EXPRESS SSD и попробую отпишусь.Ну и минусы данного рейда вы уж знаете наверное :).

Ссылка на комментарий
.Ну и минусы данного рейда вы уж знаете наверное

А винда поймет что в рейде ssd? Будет использовать соответствующую оптимизацию?

 

страйп
Я думал это и есть RAID 0...
Ссылка на комментарий

А винда поймет что в рейде ssd? Будет использовать соответствующую оптимизацию?

 

 

Да норм все должно быть, единственное нужно смотреть можно ли ставить систему на PSI EXPRESS SSD, уточнять нужно у производителей, изначально он видится как 2 ssd нужно сделать raid 0. А обычные 2 ssd должны без проблем встать в raid 0 ( если мать поддерживает), и норм работать ну и порты sata 3 под каждый диск. А если 1 воткнуть в сата 2, а второй в сата 3, то в сата 2 будут работать.

Ссылка на комментарий

Заархивировано

Эта тема находится в архиве и закрыта для дальнейших ответов.

  • Последние посетители   0 пользователей онлайн

    • Ни одного зарегистрированного пользователя не просматривает данную страницу
×
×
  • Создать...