Нашел интересные данные:
Nexenta performance considerations. RAM.
Minimum for evaluation - 2GB.
Production use - 8GB + 1GB per TB raw disks capacity.
Hi-end performance - 8GB + 2GB per TB.
Deduplication - 8GB + 22GB per TB.
Итого на средненький пул в 10 терабайт нужно 230 гигабайт памяти для использования дедупликации без (видимой) потери производительности. Калькуляция примерно такая: на каждый терабайт данных нужно 5GB в таблице дедупликации (DDT), DDT располагается в metadata cache, который может занимать только 25% от общего ARC. Ну охренеть теперь.
Бонусом получается примерно 180 гигабайт блочного кэша, и надо сказать, что такой сетап будет поражать скоростью асинхронных операций, или вообще всех, если отключить ZIL (ибо я так сходу не представлю себе реальную задачу, в которой больше "горячих" данных).