Top.Mail.Ru
Перейти к публикации

Рекомендованные сообщения

Гарантия чуть ли не 4 года. В них тоже SSD. Поспрашивал у друзей кто имел дело с SSD.

Вообще нужно смотреть гарантию конкретного магазина. Я собрал новый компьютер буквально неделю назад,гарантия на мой SSD 1 год.

Купил SSD Samsung 840 Pro. Тупо понравились синтетические тесты на всевозможных ресурсах,что наших,что зарубежных,где он всех обогнал.

В целом конечно я не собираюсь забивать голову лишним...=) Всё будет ок.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Вообщем если вам повезло и SSD не сдох в течение полугода, то да, он быстрый и хороший. Но вероятность нарваться на брак безобразно высока.

 

Я тут на работе немного с большими железками имею дело, так вот, в массиве HP Eva 4400 с момента покупки (года три назад) заменили уже больше половины жестких дисков (примерно полсотни). Судя по цене этих дисков, они должны быть не просто собраны вручную элитными японскими девственницами из элитнейших материалов, но к ним еще эти девственницы комплектом должны идти, штук по пять на каждый диск. И тем не менее они сыпятся, и единственный способ не остаться в один прекрасный момент с развалившимся массивом - постоянно продлять платную поддержку и менять, менять, менять эти супернадежные механические диски...

 

Некоторое время назад мы еще и PCI-e SSD прикупили несколько штук, пока полет нормальный, при суммарном объеме суточной записи на них в несколько сотен процентов от их полезной емкости...

 

Домой купил Crucial M4, все ок.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
Судя по цене этих дисков, они должны быть не просто собраны вручную элитными японскими девственницами из элитнейших материалов, но к ним еще эти девственницы комплектом должны идти, штук по пять на каждый диск.

это обычные диски, хитачи или самсунги, можешь глянуть ради любопытства. Сверху просто FC пришпандорен. А цена обусловлена только маркетингом.

Кстати, уже все вендоры во все массивы, что hi end, что midrange, предлагают SSD и ничуть не парятся. Просто берите качественные и все будет ок.

 

недавно тестили ramsan от IBM (просто JBOD набитый SSD) - мегабалалайка. В БД ожидания I/O просто пропали как класс :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

это обычные диски, хитачи или самсунги, можешь глянуть ради любопытства. Сверху просто FC пришпандорен. А цена обусловлена только маркетингом.

недавно тестили ramsan от IBM (просто JBOD набитый SSD) - мегабалалайка. В БД ожидания I/O просто пропали как класс :)

 

Почти угадал, это сигейты. Рамсан какой? Мы к 820-му присматривались, в последний момент руководство пожалело денег. Сейчас кое-как выкрутились наращиванием оперативной памяти под кэш БД, но вообще производительность СХД оставляет желать лучшего. Ева еще кое-как держит нагрузку, а вот MSA можно убить просто запустив копирование файлов в несколько потоков.

 

Если не секрет, какая емкость Рамсана, сколько IOPS и Мб/с текущая нагрузка, какие задержки на чтение и запись? Подключен по оптике? Сколько каналов? Настроили как JBOD?

 

В Еву, кстати, нет смысла ставить SSD, есть существенные ограничения по количеству SSD в одном массиве, ну и цена такая, что рамсан дешевле выйдет.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

да, 820. Нам его ненадолго давали, как следует не успели затестить. Прицепили две полки к не очень нагруженной рабочей базе в 30ТБ, которая делает около 400МБ/50МБ чтение/запись, ~ 7k иопсов, с такой нагрузкой справился легко. Задержки были меньше 1 ms. Нагрузочное тестирование не делали.

 

В Еву, кстати, нет смысла ставить SSD, есть существенные ограничения по количеству SSD в одном массиве

в любом массиве есть ограничения, т.к. кол-во ssd рассчитывают с учетом возможностей контроллеров, ширины и кол-ва портов и тп. Большим кол-вом ssd массив можно уложить целиком.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Хреново, что у вас нормальное тестирование не проводили. Оракл? AWR не снимали за время тестирования?

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

так попросите сами затестить, в чем проблема? МежДелМаш вроде нормально к этому относятся.

Мы с самого начала серьезно его не рассматривали, т.к. не hi end. Для отказоустойчивости получается нужно две железки брать, в зеркало их на хосте собирать, в общем гемор.

сорри, но awr не могу дать :) Да и толку тебе от него? В целом могу сказать, что чем больше IO делает бизнес-операция, тем лучше ей будет на рамсане. Какие-нибудь отчеты, которые лопатят много данных, которых нет в кэше - само то

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У нас просто примерно такие же цифры по нагрузке, хотя размер базы меньше... AWR, конечно, хотелось бы посмотреть, в первой части, до Service Statistics, там даже ничего секретного нет, ни названий таблиц, ни SQL-запросов, ни даже сведений об оборудовании... Ну раз не можешь, ладно... Average Read Time в Tablespace IO Stats хоть везде был меньше 1 ms?

 

Избыточность, кстати, можно было и на 1 железке получить, например, собрав RAID-Z (ZFS) поверх JBOD...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
Average Read Time в Tablespace IO Stats хоть везде был меньше 1 ms?

полез искать awr, но за давностью его уже не осталось. Думаю, что скорее да, у меня и на классической СХД больше 4 ms нет.

 

Избыточность, кстати, можно было и на 1 железке получить, например, собрав RAID-Z (ZFS) поверх JBOD...

я про другое. FAN менять - даунтайм, контроллер у него накернится - даунтайм... А на дисках и обычный RAID5 можно собрать.

Кстати, ZFS под ораклом - боюсь :)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

полез искать awr, но за давностью его уже не осталось. Думаю, что скорее да, у меня и на классической СХД больше 4 ms нет.

4 ms на часто используемых данных, на редко используемых легко может быть 20-30 мс и больше. Да и для SSD 1 ms это очень много, должно быть на порядок меньше... Кстати, файловый кэш второго уровня на SSD помогает уменьшить latency, у нас снизился с 4 до 2 ms.

 

я про другое. FAN менять - даунтайм, контроллер у него накернится - даунтайм... А на дисках и обычный RAID5 можно собрать.

Кстати, ZFS под ораклом - боюсь :)

Контроллеров там вроде бы два, не помню точно. А при замене даже hot swap деталек мы обычно делаем switchover на стендбай, идентичный по конфигурации, так надежнее будет.

 

Насчет ZFS - есть определенные преимущества, чтение так уж точно будет быстрее в разы, особенно если нет дефицита оперативной памяти. Плюс кэш второго уровня на SSD. Снапшоты очень полезная штука, можно не напрягаясь иметь на стендбае несколько десятков снимков базы за последние n-цать часов. Плюс резко уменьшается вероятность, что при краше системы данные на диске тоже развалятся. А краш иногда все таки случается, например, когда после очередного обновления системы вылезает баг, который никак себя не проявлял на тестовом сервере.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
Кстати, файловый кэш второго уровня на SSD помогает уменьшить latency, у нас снизился с 4 до 2 ms.

если речь про оракл, то я из лагеря тех, кто резко против любого кэша ФС. :) Он должен быть максимально зарезан, вся свободная память отдана под кэш БД и включен direct io

SSD в 11.2 под соляркой и линуксом можно отдать под flash cache

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

У нас почему то после включения flash cache скорость наоборот упала... direct io работает только под ufs, а это куда менее стабильная fs, лет этак 5 назад приходилось сталкиваться с полностью развалившимся разделом с БД, ну ее нафиг, больше не хочу.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
после включения flash cache скорость наоборот упала

это странно, может наполнения кэша просто не дождались?

ufs конечно полный шлак, у тебя там спарки? ASM не пробовали?

у нас на больших машинах везде веритас с odm, на мелких линуксах - ASM

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

это странно, может наполнения кэша просто не дождались?

Ни при каком кэше скорость не должна падать, в худшем случае она должна просто не расти.

Не помню точно, сколько ждали, пока кэш прогреется, но не дождались. ASM не пробовали, не знаю, хорошо это или плохо. Железки - M4000.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
ASM не пробовали

попробуй, оно конечно не так объезжено, как на линуксе, но на суперкластер же они это вкорячили, значит работает.

сорри, что возможно лезу не в свое дело, но я бы не использовал ни zfs, ни ufs, а ASM или на худой конец raw devices (и поменял бы спарк на какой-ть толстый интел)

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
поменял бы спарк на какой-ть толстый интел

Вот это в перспективе и планируется, но пока нет ни бюджета, ни особо острой необходимости, с текущей нагрузкой БД худо-бедно справляется и при сохранении тренда по ее увеличению мощностей хватит минимум на год. Потом может быть начнутся какие то телодвижения...

 

Ну и вобщем, "попробовать" довольно сложно, на тестовом сервере я нужную нагрузку организовать не смогу, а производственные ломать без повода никто не даст.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Раз уж тема про SSD. Могу посоветовать купить PCI EXPRESS SSD, если уж прям быстродействие нужно. Кстати себе подумываю преобрести. А можно такое дело сделать и своими силами, не прибегая к PCI SSD. Каким образом, берём 2 ssd по 60 гигабайт ставим их в Raid 0 получаем 120 в сумме и еще большую скорость по сравнению с SSD. Кто пробывал отпишитесь, очень интересны результаты. Если куплю PCI EXPRESS SSD и попробую отпишусь.Ну и минусы данного рейда вы уж знаете наверное :).

  • Нравится 1

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
берём 2 ssd по 60 гигабайт ставим их в рейд 1 получаем 120 в сумме

raid 1 - это зеркало, т.е. объем останется таким же - 60ГБ

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

raid 1 - это зеркало, т.е. объем останется таким же - 60ГБ

Правильно, перепутал, RAID 0 нужно спасибо за поправку. Изменил в тексте.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

я только смысла особого не вижу, есть сомнение, что страйп будет сильно быстрее

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
.Ну и минусы данного рейда вы уж знаете наверное

А винда поймет что в рейде ssd? Будет использовать соответствующую оптимизацию?

 

страйп
Я думал это и есть RAID 0...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
Я думал это и есть RAID 0

ну да, raid 0 - это страйп. Zulkarnain ведь его хочет сделать

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

Дороговато получится для дома...

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

А винда поймет что в рейде ssd? Будет использовать соответствующую оптимизацию?

 

 

Да норм все должно быть, единственное нужно смотреть можно ли ставить систему на PSI EXPRESS SSD, уточнять нужно у производителей, изначально он видится как 2 ssd нужно сделать raid 0. А обычные 2 ssd должны без проблем встать в raid 0 ( если мать поддерживает), и норм работать ну и порты sata 3 под каждый диск. А если 1 воткнуть в сата 2, а второй в сата 3, то в сата 2 будут работать.

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах
OCZ RevoDrive 3 PCI Express

согласен с Романом - 240ГБ модель 700 баксов на амазоне. Я лучше подожду лишние 10 сек загрузки

Поделиться сообщением


Ссылка на сообщение
Поделиться на других сайтах

  • Сейчас на странице   0 пользователей

    Нет пользователей, просматривающих эту страницу.

×
×
  • Создать...