Я слышал, что можно захватить веб-страницы, используя PHP (возможно, выше 6.0) на сервере Windows.
Я получил образец кода и протестировал его. но нет кода для правильной работы.
Если вы знаете правильные способы захвата веб-страницы, сохраните файл изображения в веб-приложениях?
Пожалуйста, научите меня.
вы можете использовать браузеры api http://browsershots.org/
с интерфейсом xml-rpc вы действительно можете использовать практически любой язык для доступа к нему.
Хотя вы просили PHP-решение, я хотел бы поделиться еще одним решением с Perl. WWW :: Механизировать вместе с LWP :: UserAgent и HTML :: Parser может помочь в очистке экрана.
Некоторые документы для справки:
Загрузка html веб-страницы обычно известна как скребок экрана. Это может быть полезно, если вы хотите, чтобы программа извлекала данные с данной страницы. Самый простой способ запросить ресурсы HTTP – использовать вызов инструмента cURL . cURL поставляется как самостоятельный инструмент unix, но есть библиотеки, которые можно использовать в каждом языке программирования. Чтобы захватить эту страницу из командной строки Unix:
curl http://stackoverflow.com/questions/1077970/in-any-languages-can-i-capture-a-webpageno-install-no-activex-if-i-can-plz
В PHP вы можете сделать то же самое:
<?php $ch = curl_init() or die(curl_error()); curl_setopt($ch, CURLOPT_URL,"http://stackoverflow.com/questions/1077970/in-any-languages-can-i-capture-a-webpageno-install-no-activex-if-i-can-plz"); curl_setopt($ch, CURLOPT_RETURNTRANSFER, 1); $data1=curl_exec($ch) or die(curl_error()); echo "<font color=black face=verdana size=3>".$data1."</font>"; echo curl_error($ch); curl_close($ch); ?>
Теперь перед копированием всего веб-сайта вы должны проверить файл robots.txt, чтобы определить, разрешают ли роботы размещать свой сайт, и вы можете проверить, есть ли доступный API, который позволяет извлекать данные без HTML.