Так, шутки шутками, а я вот прикидываю размер одной переменной для будущей генофермы.
(8 \ 3 \ 2) \ (92000^2 / 2) \ (4+4) = 1.47 Тб
(8 сырых оценок на 3 типа нормализации на 2 алгоритма корреляции) (кол-во пар пользователей) 8 байт на одну структуру
64 ГБ ОЗУ НЕ ХВАТИТ ВСЕМ И КАЖДОМУ! И это только на корреляции пользователей без самих особей
@NokitaKaze, Всего 7500 пользователей помещаются. СССССССССССССССССССССССССССССССУКА
@NokitaKaze, придётся В ОПТИМИЗАЦИЮ
@breif, я на сишечке буду
@NokitaKaze, интересно, сколько там наоптимизировать можно. Смогу ли сократить хотя бы до 20 Гб ОЗУ? Всё равно на дедике будет 64
Сссссука, никак не могу это сделать >_<
Как же мне сократить?
@Fangel, само собой я знаю про ручной швоп. Я не хочу скатываться в i/o, там не SSD будет, а два HDD.
Хранить примерно 300-800 Гб на диске и ЧИТАТЬ ИХ НОНСТОП это хтоническая сотона
@NokitaKaze, а хотя...
(100000^2/2) 4=18 Гб
Обрабатывать сначала один тип, потом другой потом третий?! И между сменой типов грузить 18 Гб с винта? Это идея...
@NokitaKaze, точнее даже (60000^2/2)4=6.7 Гб ОЗУ. Выглядит привлекательно
@Fangel, блин, наверное так и сделаю. 7 Гб считать 48 раз за поколение это не так дорого.
6.7*1024/15=457 секунд на одно считывание = 6 дополнительных часов... на одно поколение. При старой скорости это 22 000 особей. А я хочу делать поколение из 1 000 000 особей. 2.2% дополнительных затрат это копейки по сравнению с выигрышем в памяти
Блин, может всё-таки рейды побыстрее будут чем 15 мегабайт/сек
@Fangel, спасибо
@NokitaKaze, вот хранить 320 гб данных на диске это веселее. Сколько времени это будет писаться при прекомпьютинге?
Дата: 28 ноября 2014, 1:00