На любых языках Могу ли я захватить веб-страницу и сохранить ее файл изображения? (нет установки, нет activeX)

Я слышал, что можно захватить веб-страницы, используя PHP (возможно, выше 6.0) на сервере Windows.

Я получил образец кода и протестировал его. но нет кода для правильной работы.

Если вы знаете правильные способы захвата веб-страницы, сохраните файл изображения в веб-приложениях?

Пожалуйста, научите меня.

Related of "На любых языках Могу ли я захватить веб-страницу и сохранить ее файл изображения? (нет установки, нет activeX)"

вы можете использовать браузеры api http://browsershots.org/

с интерфейсом xml-rpc вы действительно можете использовать практически любой язык для доступа к нему.

http://api.browsershots.org/xmlrpc/

Хотя вы просили PHP-решение, я хотел бы поделиться еще одним решением с Perl. WWW :: Механизировать вместе с LWP :: UserAgent и HTML :: Parser может помочь в очистке экрана.

Некоторые документы для справки:

  • Веб-соскабливание с помощью WWW :: Механизация
  • Скребок экрана с помощью WWW :: Механизировать

Загрузка html веб-страницы обычно известна как скребок экрана. Это может быть полезно, если вы хотите, чтобы программа извлекала данные с данной страницы. Самый простой способ запросить ресурсы HTTP – использовать вызов инструмента cURL . cURL поставляется как самостоятельный инструмент unix, но есть библиотеки, которые можно использовать в каждом языке программирования. Чтобы захватить эту страницу из командной строки Unix:

curl http://stackoverflow.com/questions/1077970/in-any-languages-can-i-capture-a-webpageno-install-no-activex-if-i-can-plz 

В PHP вы можете сделать то же самое:

 <?php $ch = curl_init() or die(curl_error()); curl_setopt($ch, CURLOPT_URL,"http://stackoverflow.com/questions/1077970/in-any-languages-can-i-capture-a-webpageno-install-no-activex-if-i-can-plz"); curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); $data1=curl_exec($ch) or die(curl_error()); echo "<font color=black face=verdana size=3>".$data1."</font>"; echo curl_error($ch); curl_close($ch); ?> 

Теперь перед копированием всего веб-сайта вы должны проверить файл robots.txt, чтобы определить, разрешают ли роботы размещать свой сайт, и вы можете проверить, есть ли доступный API, который позволяет извлекать данные без HTML.