Я пытаюсь загрузить / массовую загрузку с localhost (xampp) в мой ведро S3 . Кажется, что работает около 6 элементов, после чего появляется сообщение об ошибке: Ошибка cURL говорит о Failed sending network data. от http://curl.haxx.se/libcurl/c/libcurl-errors.html Fatal error: Uncaught exception 'cURL_Multi_Exception' with message 'cURL resource: Resource id #34; cURL error: SSL_write() returned SYSCALL, errno = […]
Я использую plupload 1.4.2 для загрузки файлов непосредственно в ведро Amazon S3. Вопрос в том, как я могу загрузить их в подпапку напрямую? Какие параметры следует настроить в конфигурации политики или plupload?
У меня очень странная проблема с загрузкой файлов размером более 6 ГБ. Мой процесс работает следующим образом: Файлы загружаются через Ajax в php-скрипт. Сценарий загрузки PHP принимает $ _FILE и копирует его в кусках, как в этом ответе на местоположение tmp. Расположение файла хранится в db Сценарий cron выведет файл на s3 позднее, снова используя […]
Это мой первый проект PHP, поэтому я действительно не знаю PHP вообще. То, что я пытаюсь сделать, это загрузить файл в ведро S3 с использованием класса PHP S3. Примерный фрагмент кода работал вчера, но когда я снова начал работать с ним сегодня, почти тот же самый код переставал работать. Теперь я просто получаю следующую ошибку, […]
У меня есть код, который загружает видеофайл на YouTube: $yt = new Zend_Gdata_YouTube($httpClient); // create a new VideoEntry object $myVideoEntry = new Zend_Gdata_YouTube_VideoEntry(); // create a new Zend_Gdata_App_MediaFileSource object $filesource = $yt->newMediaFileSource('file.mov'); $filesource->setContentType('video/quicktime'); // set slug header $filesource->setSlug('file.mov'); У меня есть видео в S3, и я хочу загрузить их на YouTube. Видео в нашей учетной […]
Мы создаем веб-сайт, ориентированный на СМИ, который требует от наших пользователей отправлять очень большие видеофайлы качества видео по Интернету. Мы хотим сократить проблемы с пропускной способностью, исключив использование нашего производственного сервера (там, где есть веб-сайт), и просто создаем соединение между пользователем и учетной записью s3. Чтобы сделать вещи еще более увлекательными, наш хостинг-сервис позволяет только […]
Каков наилучший способ загрузки PHP-классов в EC2 в следующем сценарии (#s для иллюстративных целей)? -> 100 экземпляров EC2 с apache и APC -> 100 php классов, загружаемых за запрос (через __autoload) -> 100 изменений кода в день между классами (многие из классов содержат автоматически сгенерированный код, который периодически обновляется через cron). Из того, что я […]
Я разрабатываю новое веб-приложение, которое использует серверы Amazon S3 в качестве системы хранения, а Codeiginter – как фреймворк PHP. Мне нужно заставить файл загружаться при нажатии ссылки. Исходный URL-адрес выглядит следующим образом: http://img.ruphp.com/php/1.jpg который генерирует временный подписанный URL-адрес фактическому файлу на серверах Amazon S3 следующим образом: http://main_bucket.s3.amazonaws.com/post/1/1.jpg?AWSAccessKeyId=AKIAJEOQKYPKC3CCU5RA&Expires=1305395426&Signature=iuzCdA22gImLK192%2BMAhk8OkAY8%3D Мне нужно, чтобы файл начал загружаться с реального […]
Я хочу создать одноразовую ссылку для загрузки в файл amazon s3. Эта ссылка истекает после загрузки файла. Я хочу, чтобы этот файл все еще был размещен, но посетитель может загрузить файл только один раз. Мне нужен сценарий: у меня есть сайт загрузки файлов, где пользователи платят за файл. Я хочу, чтобы пользователь мог только загрузить […]
(Я новичок в Amazon AWS / S3, поэтому, пожалуйста, несите меня) Моя конечная цель – позволить моим пользователям загружать файлы на S3 с помощью своего веб-браузера, моими требованиями являются: Я должен обрабатывать большие файлы (2 ГБ +) Я должен поддерживать паузу / резюме с индикатором прогресса (Необязательно, но желательно!) Возможность возобновить загрузку, если соединение временно […]