Какова взаимосвязь между скоростью работы RCO for BackOffice и конфигурацией сервера?
В описании продукта RCO for BackOffice по поводу производительности указано "... на машине с CPU 1.3GHz составляет около 17 тысяч слов в секунду ..." Можете ли Вы дать характеристику рекомендуемых конфигураций сервера (CPU, ОП) в зависимости от размеров full-text каталогов?
Плешко Владимир
27.01.05, 20:04
re: Какова взаимосвязь между скоростью работы RCO for BackOffice и конфигурацией сервера?
Прежде всего хочу отметить, что RCO for BackOffice - это не поисковая машина, а лингвистическое обеспечение к поисковой машине mssearch. Грубо говоря, это несколько компонент, которые "понимают" русский язык и вызываются из mssearch в процессе построения индекса и поиска.
>В описании продукта RCO for BackOffice по поводу производительности указано "... на машине с CPU 1.3GHz составляет около 17 тысяч слов в секунду ..."
Это число однословных поисковых запросов может обслужить в секунду наш компонент (для каждого слова выдать все его словоформы). Может ли столько обработать mssearch?
>Можете ли Вы дать характеристику рекомендуемых конфигураций сервера (CPU, ОП) в зависимости от размеров full-text каталогов?
Вы не указали еще два параметра задачи: число поисковых запросов в секунду и желаемое время отклика.
Такие замеры должны проводить производители поисковых машин. Однако я подобных публикаций не встречал. Проблема, видимо, в том, что для задач информационного поиска отсуствуют общепризнанные тесты производительности, такие как для вычислительных систем или СУБД.
Если речь идет о сайте с несколькими сотнями посетителей в день и до 100 Мб текстового контента, то c большим запасом хватит чего-нибудь типа PIV-3GHz, RAM-512Mb, IDE-80Gb.
Посмотрите также обсуждение "Производительность RCO for BackOffice" от 30.01.04 http://www.rco.ru/product.asp?tmpl=thread&part=forum&ob_no1=&ob_no=111&m_no=71
re: re: Какова взаимосвязь между скоростью работы RCO for BackOffice и конфигурацией сервера?
>>Можете ли Вы дать характеристику рекомендуемых конфигураций сервера (CPU, ОП) в зависимости от размеров full-text каталогов?
>Вы не указали еще два параметра задачи: число поисковых запросов в секунду и желаемое время отклика.Такие замеры должны проводить производители поисковых машин. Однако я подобных публикаций не встречал. Проблема, видимо, в том, что для задач информационного поиска отсуствуют общепризнанные тесты производительности, такие как для вычислительных систем или СУБД. >Если речь идет о сайте с несколькими сотнями посетителей в день и до 100 Мб текстового контента, то c большим запасом хватит чего-нибудь типа PIV-3GHz, RAM-512Mb, IDE-80Gb.
Проясню ситуацию - в базе MS SQL Server 2004 у нас, помимо всего прочего, хранятся документы. Разрастание тестового контента (я понимаю это как объем текста в файлах) составляет приблизительно 100-500 Мб в год. Настроен полнотекстовый поиск. В качестве средства для обеспечения морфологического поиска в русском языке мы решили выбрать RCO for BackOffice. Работать с поиском будут одновременно не более 30-50 человек. Желаемое время отклика не более 3-5 сек. Возник вопрос - как будет влиять увеличение контента на характеристики поиска. Да, с обнаружением тестов по производительности поиска есть проблемы… Потому и решила обратиться за советом к вам. Интересна была именно зависимость, чтобы на основании нее хотя бы приблизительно вычислить конфигурацию сервера для конкретно нашего случая (общий размер базы, кол-во пользователей). Можете ли подсказать еще чего-нибудь?
>Посмотрите также обсуждение >"Производительность RCO for BackOffice" от 30.01.04 >http://www.rco.ru/product.asp?tmpl=thread&part=forum&ob_no1=&ob_no=111&m_no=71
Обсуждение это видела уже, к сожалению, не помогло :)
re: re: re: Какова взаимосвязь между скоростью работы RCO for BackOffice и конфигурацией сервера?
>Проясню ситуацию - в базе MS SQL Server 2004 у нас...
Извините - описка, конечно же MS SQL Server 2000.
Плешко Владимир
28.01.05, 18:11
re: re: re: re: Какова взаимосвязь между скоростью работы RCO for BackOffice и конфигурацией сервера?
Я бы поставил следующий эксперимент. Выбрал бы сервер, аналигочиный по конфигурации целевому. Построил бы тестовую плошадку, эмулирующую несколько запросов в секунду и сохраняющую время отклика. Набор запросов можно взять из журнала вашей системы. Затем загружал бы в базу по 100Мб текста и производил бы последовательные замеры. Как только время отклика станет приближаться к критическому, нужно остановиться и запомнить полученный объем (я думаю, это будет 1-2Gb). В реальной ситуации нужно будет по достижении этого объема заводить новый сервер, и использовать механизм распределенных запросов от MS SQL. Если мне не изменяет память, так работает один из публичных электронных архивов. Там, по-моему, на сервер приходится 2Gb текста. Если разделение на архив(ы) по годам и оперативные данные является естественным для вашей системы, то данный подход даже ускорит время отклика системы при запросах за определенный временной интервал.