s1amdrom Опубликовано 24 сентября, 2013 Поделиться Опубликовано 24 сентября, 2013 Гарантия чуть ли не 4 года. В них тоже SSD. Поспрашивал у друзей кто имел дело с SSD. Вообще нужно смотреть гарантию конкретного магазина. Я собрал новый компьютер буквально неделю назад,гарантия на мой SSD 1 год. Купил SSD Samsung 840 Pro. Тупо понравились синтетические тесты на всевозможных ресурсах,что наших,что зарубежных,где он всех обогнал. В целом конечно я не собираюсь забивать голову лишним...=) Всё будет ок. Ссылка на комментарий
RomanST Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 Вообщем если вам повезло и SSD не сдох в течение полугода, то да, он быстрый и хороший. Но вероятность нарваться на брак безобразно высока. Я тут на работе немного с большими железками имею дело, так вот, в массиве HP Eva 4400 с момента покупки (года три назад) заменили уже больше половины жестких дисков (примерно полсотни). Судя по цене этих дисков, они должны быть не просто собраны вручную элитными японскими девственницами из элитнейших материалов, но к ним еще эти девственницы комплектом должны идти, штук по пять на каждый диск. И тем не менее они сыпятся, и единственный способ не остаться в один прекрасный момент с развалившимся массивом - постоянно продлять платную поддержку и менять, менять, менять эти супернадежные механические диски... Некоторое время назад мы еще и PCI-e SSD прикупили несколько штук, пока полет нормальный, при суммарном объеме суточной записи на них в несколько сотен процентов от их полезной емкости... Домой купил Crucial M4, все ок. Ссылка на комментарий
TOPMO3 Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 Судя по цене этих дисков, они должны быть не просто собраны вручную элитными японскими девственницами из элитнейших материалов, но к ним еще эти девственницы комплектом должны идти, штук по пять на каждый диск. это обычные диски, хитачи или самсунги, можешь глянуть ради любопытства. Сверху просто FC пришпандорен. А цена обусловлена только маркетингом. Кстати, уже все вендоры во все массивы, что hi end, что midrange, предлагают SSD и ничуть не парятся. Просто берите качественные и все будет ок. недавно тестили ramsan от IBM (просто JBOD набитый SSD) - мегабалалайка. В БД ожидания I/O просто пропали как класс :) Ссылка на комментарий
RomanST Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 это обычные диски, хитачи или самсунги, можешь глянуть ради любопытства. Сверху просто FC пришпандорен. А цена обусловлена только маркетингом. недавно тестили ramsan от IBM (просто JBOD набитый SSD) - мегабалалайка. В БД ожидания I/O просто пропали как класс :) Почти угадал, это сигейты. Рамсан какой? Мы к 820-му присматривались, в последний момент руководство пожалело денег. Сейчас кое-как выкрутились наращиванием оперативной памяти под кэш БД, но вообще производительность СХД оставляет желать лучшего. Ева еще кое-как держит нагрузку, а вот MSA можно убить просто запустив копирование файлов в несколько потоков. Если не секрет, какая емкость Рамсана, сколько IOPS и Мб/с текущая нагрузка, какие задержки на чтение и запись? Подключен по оптике? Сколько каналов? Настроили как JBOD? В Еву, кстати, нет смысла ставить SSD, есть существенные ограничения по количеству SSD в одном массиве, ну и цена такая, что рамсан дешевле выйдет. Ссылка на комментарий
TOPMO3 Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 да, 820. Нам его ненадолго давали, как следует не успели затестить. Прицепили две полки к не очень нагруженной рабочей базе в 30ТБ, которая делает около 400МБ/50МБ чтение/запись, ~ 7k иопсов, с такой нагрузкой справился легко. Задержки были меньше 1 ms. Нагрузочное тестирование не делали. В Еву, кстати, нет смысла ставить SSD, есть существенные ограничения по количеству SSD в одном массиве в любом массиве есть ограничения, т.к. кол-во ssd рассчитывают с учетом возможностей контроллеров, ширины и кол-ва портов и тп. Большим кол-вом ssd массив можно уложить целиком. Ссылка на комментарий
RomanST Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 Хреново, что у вас нормальное тестирование не проводили. Оракл? AWR не снимали за время тестирования? Ссылка на комментарий
TOPMO3 Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 так попросите сами затестить, в чем проблема? МежДелМаш вроде нормально к этому относятся. Мы с самого начала серьезно его не рассматривали, т.к. не hi end. Для отказоустойчивости получается нужно две железки брать, в зеркало их на хосте собирать, в общем гемор. сорри, но awr не могу дать :) Да и толку тебе от него? В целом могу сказать, что чем больше IO делает бизнес-операция, тем лучше ей будет на рамсане. Какие-нибудь отчеты, которые лопатят много данных, которых нет в кэше - само то Ссылка на комментарий
RomanST Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 У нас просто примерно такие же цифры по нагрузке, хотя размер базы меньше... AWR, конечно, хотелось бы посмотреть, в первой части, до Service Statistics, там даже ничего секретного нет, ни названий таблиц, ни SQL-запросов, ни даже сведений об оборудовании... Ну раз не можешь, ладно... Average Read Time в Tablespace IO Stats хоть везде был меньше 1 ms? Избыточность, кстати, можно было и на 1 железке получить, например, собрав RAID-Z (ZFS) поверх JBOD... Ссылка на комментарий
TOPMO3 Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 Average Read Time в Tablespace IO Stats хоть везде был меньше 1 ms? полез искать awr, но за давностью его уже не осталось. Думаю, что скорее да, у меня и на классической СХД больше 4 ms нет. Избыточность, кстати, можно было и на 1 железке получить, например, собрав RAID-Z (ZFS) поверх JBOD... я про другое. FAN менять - даунтайм, контроллер у него накернится - даунтайм... А на дисках и обычный RAID5 можно собрать. Кстати, ZFS под ораклом - боюсь :) Ссылка на комментарий
RomanST Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 полез искать awr, но за давностью его уже не осталось. Думаю, что скорее да, у меня и на классической СХД больше 4 ms нет. 4 ms на часто используемых данных, на редко используемых легко может быть 20-30 мс и больше. Да и для SSD 1 ms это очень много, должно быть на порядок меньше... Кстати, файловый кэш второго уровня на SSD помогает уменьшить latency, у нас снизился с 4 до 2 ms. я про другое. FAN менять - даунтайм, контроллер у него накернится - даунтайм... А на дисках и обычный RAID5 можно собрать. Кстати, ZFS под ораклом - боюсь :) Контроллеров там вроде бы два, не помню точно. А при замене даже hot swap деталек мы обычно делаем switchover на стендбай, идентичный по конфигурации, так надежнее будет. Насчет ZFS - есть определенные преимущества, чтение так уж точно будет быстрее в разы, особенно если нет дефицита оперативной памяти. Плюс кэш второго уровня на SSD. Снапшоты очень полезная штука, можно не напрягаясь иметь на стендбае несколько десятков снимков базы за последние n-цать часов. Плюс резко уменьшается вероятность, что при краше системы данные на диске тоже развалятся. А краш иногда все таки случается, например, когда после очередного обновления системы вылезает баг, который никак себя не проявлял на тестовом сервере. Ссылка на комментарий
TOPMO3 Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 Кстати, файловый кэш второго уровня на SSD помогает уменьшить latency, у нас снизился с 4 до 2 ms. если речь про оракл, то я из лагеря тех, кто резко против любого кэша ФС. :) Он должен быть максимально зарезан, вся свободная память отдана под кэш БД и включен direct io SSD в 11.2 под соляркой и линуксом можно отдать под flash cache Ссылка на комментарий
RomanST Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 У нас почему то после включения flash cache скорость наоборот упала... direct io работает только под ufs, а это куда менее стабильная fs, лет этак 5 назад приходилось сталкиваться с полностью развалившимся разделом с БД, ну ее нафиг, больше не хочу. Ссылка на комментарий
TOPMO3 Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 после включения flash cache скорость наоборот упала это странно, может наполнения кэша просто не дождались? ufs конечно полный шлак, у тебя там спарки? ASM не пробовали? у нас на больших машинах везде веритас с odm, на мелких линуксах - ASM Ссылка на комментарий
RomanST Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 это странно, может наполнения кэша просто не дождались? Ни при каком кэше скорость не должна падать, в худшем случае она должна просто не расти. Не помню точно, сколько ждали, пока кэш прогреется, но не дождались. ASM не пробовали, не знаю, хорошо это или плохо. Железки - M4000. Ссылка на комментарий
TOPMO3 Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 ASM не пробовали попробуй, оно конечно не так объезжено, как на линуксе, но на суперкластер же они это вкорячили, значит работает. сорри, что возможно лезу не в свое дело, но я бы не использовал ни zfs, ни ufs, а ASM или на худой конец raw devices (и поменял бы спарк на какой-ть толстый интел) Ссылка на комментарий
RomanST Опубликовано 25 сентября, 2013 Поделиться Опубликовано 25 сентября, 2013 поменял бы спарк на какой-ть толстый интел Вот это в перспективе и планируется, но пока нет ни бюджета, ни особо острой необходимости, с текущей нагрузкой БД худо-бедно справляется и при сохранении тренда по ее увеличению мощностей хватит минимум на год. Потом может быть начнутся какие то телодвижения... Ну и вобщем, "попробовать" довольно сложно, на тестовом сервере я нужную нагрузку организовать не смогу, а производственные ломать без повода никто не даст. Ссылка на комментарий
Zulkarnain Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 Раз уж тема про SSD. Могу посоветовать купить PCI EXPRESS SSD, если уж прям быстродействие нужно. Кстати себе подумываю преобрести. А можно такое дело сделать и своими силами, не прибегая к PCI SSD. Каким образом, берём 2 ssd по 60 гигабайт ставим их в Raid 0 получаем 120 в сумме и еще большую скорость по сравнению с SSD. Кто пробывал отпишитесь, очень интересны результаты. Если куплю PCI EXPRESS SSD и попробую отпишусь.Ну и минусы данного рейда вы уж знаете наверное :). Ссылка на комментарий
TOPMO3 Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 берём 2 ssd по 60 гигабайт ставим их в рейд 1 получаем 120 в сумме raid 1 - это зеркало, т.е. объем останется таким же - 60ГБ Ссылка на комментарий
Zulkarnain Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 raid 1 - это зеркало, т.е. объем останется таким же - 60ГБ Правильно, перепутал, RAID 0 нужно спасибо за поправку. Изменил в тексте. Ссылка на комментарий
TOPMO3 Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 я только смысла особого не вижу, есть сомнение, что страйп будет сильно быстрее Ссылка на комментарий
scarecrow Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 .Ну и минусы данного рейда вы уж знаете наверное А винда поймет что в рейде ssd? Будет использовать соответствующую оптимизацию? страйп Я думал это и есть RAID 0... Ссылка на комментарий
TOPMO3 Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 Я думал это и есть RAID 0 ну да, raid 0 - это страйп. Zulkarnain ведь его хочет сделать Ссылка на комментарий
RomanST Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 Дороговато получится для дома... Ссылка на комментарий
Zulkarnain Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 А винда поймет что в рейде ssd? Будет использовать соответствующую оптимизацию? Да норм все должно быть, единственное нужно смотреть можно ли ставить систему на PSI EXPRESS SSD, уточнять нужно у производителей, изначально он видится как 2 ssd нужно сделать raid 0. А обычные 2 ssd должны без проблем встать в raid 0 ( если мать поддерживает), и норм работать ну и порты sata 3 под каждый диск. А если 1 воткнуть в сата 2, а второй в сата 3, то в сата 2 будут работать. Ссылка на комментарий
TOPMO3 Опубликовано 18 декабря, 2013 Поделиться Опубликовано 18 декабря, 2013 OCZ RevoDrive 3 PCI Express согласен с Романом - 240ГБ модель 700 баксов на амазоне. Я лучше подожду лишние 10 сек загрузки Ссылка на комментарий
Рекомендуемые сообщения
Заархивировано
Эта тема находится в архиве и закрыта для дальнейших ответов.