| 
что могу сказатьстолкнулись с той же проблемой. Нагрузка на базу при начальных условиях была около 3,000,000 транзакций в день.
 Поняли сразу что без кластера и loadbalance'ра не обойтись
 Тестировались PGCluster и slony.
 Первый был очень удобен, синхронизировал всё сам вплоть до создания таблиц и сам же делал балансировку, но как только уронили кластер с 16 млн. записей, система не встала. Минус был в том, что на кластер пришлось затратить, 2 дата ноды, 2 репликатора, 2 failover балансировщика на carp инхерфейсах.
 Сейчас тестируется slony, нагрузка таже. база уже 38 млн. записей. ронялась 2 раза, 1 раз система встала колом на 1 день, мастер обогнал слэйва на 10 млн. записей, после устранения проблемы на слэйве, система заработала на полную через 30 минут. при этом всё транзакции продолжали фиксироваться. Минус как известно в конфигурировании.
 сейчас закупаем оборудование для построения кластера уже на ксеонах.
 Вывод: Мы выбрали слона, как более устойчивую систему от сбоев. Удобство администрирования было отодвинуто на последнее место.
 |