Я один раз с такой штукой сталкивался. Оказалось, что размер dbf файлов в этой проблеме практически не имеет значения, но имеет значение количество записей какого нибудь dbf файла. В моем случае это был файл 1saccsel.dbf (Отбор счетов). Причем даже не количество физических записей файла, а количество записей с учетом определенных для таблицы индексов. То есть, в памяти создается некое адресное пространство, в котором адресуется каждая запись таблицы плюс комбинаторные наборы, соответствующие индексам. То есть, если мы даже имеем dbf с 1000 записей, но в нем много полей и для него определено 40 индексов, то в итоге мы будем иметь гораздо больше 1000 элементов данных из за индексации, которая нам позволяет выборки этих записей делать более быстро. В общем, ограничение составляет 32млн. записей, мой 1saccsel.dbf имел 17млн записей, а с учетом 3-х индесков, видимо как раз происходило переполнение.<br>Методы решения проблемы:<br>1. Свертка базы. Проблема - свертка может и не состояться, так как процедура свертки подразумевает создание новых операций, которые в свою очередь будут пытаться увеличивать количество записей в проблемном файле и система просто обругает нас так же и все. Проблема №2 - база, в которой возникла такая беда имеет жуткое количество оборотов, поэтому процесс пометки на удаление документов, которые надо при свертке выкинуть да еще и с откатом их движений и постоянным перерасчетом бухитогов займет огромное количество времени.<br>2. Перевод базы в вариант MS SQL Server. Наиболее простой с технической стороны способ решить проблему. Выгрузка, загрузка = 4+4=8 часов в моем случае. Но требует денежных затрат, связанных с приобретением нужного легального софта.<br><br>p.s. внятного объяснения почему существует ограничение и почему именно 32кк. - не нашел, но такая цифра несколько раз по форумам мелькала. Если кто то найдет более толковую информацию об этом, напишите, хоть знать будем