亚洲av成人无遮挡网站在线观看,少妇性bbb搡bbb爽爽爽,亚洲av日韩精品久久久久久,兔费看少妇性l交大片免费,无码少妇一区二区三区

Chinaunix

標(biāo)題: LWP::UserAgent獲取網(wǎng)頁頭信息報out of memory,求指導(dǎo) [打印本頁]

作者: zhuochong    時間: 2014-12-18 14:56
標(biāo)題: LWP::UserAgent獲取網(wǎng)頁頭信息報out of memory,求指導(dǎo)
my $ua = new LWP::UserAgent;
my $url="xxx";  #這個是一個URL,發(fā)帖提示不能寫URL鏈接,這里用XXX代替
my $res = $ua->request(new HTTP::Request(GET=>$url));
my $tmp_name=($res->header_field_names)[8];
my $filename=$res->header($tmp_name);
print $filename,"\n";

批量處理讀取URL的頭信息,前面處理URL的文件比較小的時候都能正常讀取,后面到某個URL的文件大小超過500M就會報out of memory,
我只是想獲取頭信息的文件名,怎么感覺header是把這個文件臨時存儲下來才能讀??

是不是有更好的實現(xiàn)方式?求高手指導(dǎo),萬分感謝,在線等。!

上面貼的這個是我單獨讀取那個URL文件比較大的,能夠正常打印,批量處理的時候前面URL的文件小的打印正常,每次都在這個超過500M的報out of memory。。
作者: zhuochong    時間: 2014-12-18 16:27
求高手指導(dǎo),謝謝!
作者: zhuochong    時間: 2014-12-18 17:55
在線等指導(dǎo)
作者: py    時間: 2014-12-19 11:30
試試http://search.cpan.org/~mlehmann/AnyEvent-HTTP-2.21/HTTP.pm的on_header callback
作者: as710054    時間: 2014-12-27 17:15
my $res = $ua->request(new HTTP::Request(GET=>$url));  修改為 my $res = $ua->request(new HTTP::Request(HEAD=>$url));




歡迎光臨 Chinaunix (http://www.72891.cn/) Powered by Discuz! X3.2