网络机器人

王朝other·作者佚名  2008-05-18
窄屏简体版  字體: |||超大  

下面的代码可以自动检索本地网页中的连接,如果加以修改你也可以把它做成一个网络上的web爬虫

use HTTP::Request;

use LWP::UserAgent;

$content= getContent('http://127.0.0.1/index.htm');

#保存页面

#open(HTML,">C:\temp\index.htm");

#print HTML $content;

#close HTML;

@html=split(/n/, $content);

for ( @html ) {

#得到页面中所有链接

do{

$2 and push (@link,$2);

} while m{

< s*

A s+ HREF s* = s* (["']) (.*?) 1

s* >

}gsix;

}

print "本页面中所有的链接为:n" ;

for ( @link ) {

print $_,"n";

}

print "访问本页面中所有的本地链接:n" ;

for ( @link ) {

if ( !(m~^http://~) ) {

$url='http://127.0.0.1/'.$_;

$content=getContent($url);

print <<"EOF";

$url的内容是:

$content

EOF

}

if ((m~^http://127.0.0.1~) or (m~^http://localhost~) ) {

$content=getContent($_);

print <<"EOF";

$url的内容是:

$content

EOF

}

}

############################################################################

sub getContent #8/8/00 1:45PM

############################################################################

{

my $url=shift;

my $ua=new LWP::UserAgent();

my $request = new HTTP::Request('GET', "$url");

my $response = $ua->request($request);

my $content= $response->content;

return $content;

} ##getContent

 
 
 
免责声明:本文为网络用户发布,其观点仅代表作者个人观点,与本站无关,本站仅提供信息存储服务。文中陈述内容未经本站证实,其真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。
 
 
© 2005- 王朝網路 版權所有 導航