В первом посте указано, что ТС интересует перевод ОДНОГО слова.И в результате для перевода коротенькой статьи в 1000 знаков оно будет делать порядка 150-200 селектов к базе. По-твоему это рациональное использование ресурсов? Или приемлемая скорость работы?
К сожалению, ТС не уточнил с какими целями ему скрипт перевода. Если допустить, что это онлайновый сервис по переводу слова - то в таком случае на 10 конектов от разных юзеров будет 10 копий скрипта в памяти. 10 копий полностью считанного словаря. Против одной базы на мускуле - смотрится очень невыгодно.А вот тут я вообще запутался. Словарь же не модифицируется вроде. Зачем его копировать? Один раз от памяти отожрать 900кб - никто и не пикнет.
Снова вынужден отослать к первому посту. ТС спрашивал как лучше сделать, по сравнению с полным считыванием в память. Я объяснил возможные варианты. А в приведенной тут цитате ты предлагаешь как раз оставить как есть. Твой подход имеет право на существование, хотя если честно, я это все же считаю разбазариванием ресурсов. Но ТС, судя по всему, такой подход перестал устраивать - от этого и отталкиваемся.Один раз от памяти отожрать 900кб - никто и не пикнет. Даже если 900 метров словарь будет весить, т.е. в тысячу раз больше, чем сейчас - все равно на современных серваках с 4Gb оперативы он все еще влезет в память, и str_replace() нормально отработает.