Так, шутки шутками, а я вот прикидываю размер одной переменной для будущей генофермы.

(8 \ 3 \ 2) \ (92000^2 / 2) \ (4+4) = 1.47 Тб

(8 сырых оценок на 3 типа нормализации на 2 алгоритма корреляции) (кол-во пар пользователей) 8 байт на одну структуру

64 ГБ ОЗУ НЕ ХВАТИТ ВСЕМ И КАЖДОМУ! И это только на корреляции пользователей без самих особей

@NokitaKaze, Всего 7500 пользователей помещаются. СССССССССССССССССССССССССССССССУКА

@NokitaKaze, придётся В ОПТИМИЗАЦИЮ

@breif, я на сишечке буду

@NokitaKaze, интересно, сколько там наоптимизировать можно. Смогу ли сократить хотя бы до 20 Гб ОЗУ? Всё равно на дедике будет 64

Сссссука, никак не могу это сделать >_<

Как же мне сократить?

@Fangel, само собой я знаю про ручной швоп. Я не хочу скатываться в i/o, там не SSD будет, а два HDD.

Хранить примерно 300-800 Гб на диске и ЧИТАТЬ ИХ НОНСТОП это хтоническая сотона

@NokitaKaze, а хотя...

(100000^2/2) 4=18 Гб

Обрабатывать сначала один тип, потом другой потом третий?! И между сменой типов грузить 18 Гб с винта? Это идея...

@NokitaKaze, точнее даже (60000^2/2)4=6.7 Гб ОЗУ. Выглядит привлекательно

@Fangel, блин, наверное так и сделаю. 7 Гб считать 48 раз за поколение это не так дорого.

6.7*1024/15=457 секунд на одно считывание = 6 дополнительных часов... на одно поколение. При старой скорости это 22 000 особей. А я хочу делать поколение из 1 000 000 особей. 2.2% дополнительных затрат это копейки по сравнению с выигрышем в памяти

Блин, может всё-таки рейды побыстрее будут чем 15 мегабайт/сек

@Fangel, спасибо

@NokitaKaze, вот хранить 320 гб данных на диске это веселее. Сколько времени это будет писаться при прекомпьютинге?

Дата: 28 ноября 2014, 1:00
You are not logged in