-Подписка по e-mail

 

 -Поиск по дневнику

Поиск сообщений в web_development

 -Статистика

Статистика LiveInternet.ru: показано количество хитов и посетителей
Создан: 09.03.2005
Записей:
Комментариев:
Написано: 418


Как средствами php будет наиболее оптимально

Воскресенье, 26 Июня 2005 г. 18:49 + в цитатник
rum все записи автора Как средствами php будет наиболее оптимально забрать удалённый файл?

Например, можно обычной функцией file(), но уже при 7-мегабайтном файле (у меня было так) файл не успевает скачаться до наступления тайм-аута у скрипта.

Есть методы более экономично забирать удаленные файлы? Протокол расположения файлов - http.

Infant_terrible   обратиться по имени Воскресенье, 26 Июня 2005 г. 19:35 (ссылка)
ну дык какими бы функциями ни забирать удаленный файл, если канал узкий и таймаут маленький - не заберешь никак :)
это к вопросу о таймауте.


Ответить С цитатой В цитатник
Dimonuch   обратиться по имени Воскресенье, 26 Июня 2005 г. 21:00 (ссылка)
для начала, забудьте вы о ф-ции file()
ЗАЧЕМ вам файл построчно в массиве? Есть же нормальная ф-ция file_get_contents() которая вертает содержимое в строке.
Далее, наступление таймлимита можно обломать используя вызов
set_time_limit(0);
который, правда, не работает в safe mode :)
Теперь насчет более экономичных методов.
Впринципе ПХП поддерживает вплоть до работы с сокетами. Только будет ли это экономичнее? Я сомневаюсь.
Дело в том, что вызывая file_get_contents() и передавая ему УРЛу в адресе ты "отдаешь управление" на компилированные и (надеюсь) отлаженные модули, которые работают в разы быстрее, что интерпритируемый скрипт.
У тебя затык ведь не в скрипте скорее всего идет, а в канале передачи ...
Потому либо отключай тайм лимит, либо придумывай другое решение ...
Ответить С цитатой В цитатник
Kristinka_nobody   обратиться по имени Четверг, 30 Июня 2005 г. 20:30 (ссылка)
А почему бы и посимвольно его не прочитать? Может я немного совсем не понимаю (ну не приходилось ещё так перекачивать), но сначала скачать скажем первый миллион байт, записать в файл. Затем второй миллион (ну типа не с начала файл читать). Когда все семь кусков будут, собрать их в один. Может всё и поглючится, либо вообще работать не будет, но вот так я думаю...
Ответить С цитатой В цитатник
Комментировать К дневнику Страницы: [1] [Новые]
 

Добавить комментарий:
Текст комментария: смайлики

Проверка орфографии: (найти ошибки)

Прикрепить картинку:

 Переводить URL в ссылку
 Подписаться на комментарии
 Подписать картинку