Массовый импорт Laravel-Excel

Итак, у меня есть файл excel с 28k строк.
Я хочу загрузить его, а затем вставить в базу данных, но он просто остановился. (пустое пространство)
Я попытался сократить до 5k данных, и он сработал, но слишком медленный
Я также попытался использовать chunk , имея только 5k данных, но получил «Максимальное время выполнения 300 секунд».
вот код

Excel::filter('chunk')->load(storage_path('excel/exports/').$fileName)->chunk(1000, function($results) { foreach($results as $key) { // even nothing to do } }); 

Является ли 5k-строка действительно такой большой?
Или я делаю это неправильно?
Благодарю.

Вы делаете это по книге. (Например, с помощью патрона)
Но 28k строк – это много данных для обработки.

Вы можете отредактировать максимальное время выполнения.
см .: http://php.net/manual/en/function.set-time-limit.php

 bool set_time_limit ( int $seconds ) 

Надеюсь, это поможет.

Использование chunk отлично подходит для предотвращения излишней памяти, но это замедлит ваше время выполнения.

Увеличьте количество фрагментов, если вы хотите быстрее, но будьте осторожны с этим.

Заметка. Каждый конец фрагмента, ваше приложение снова прочитает файл, и это займет время.