当前位置:首页 > 开发 > 编程语言 > 蜘蛛爬虫 > 正文

Java中使用代理IP获取网址内容(防IP被封,做数据爬虫)

发表于: 2015-03-29   作者:mcj8089   来源:转载   浏览:
摘要: 推荐两个代理IP网站:   1. 全网代理IP:http://proxy.goubanjia.com/   2. 敲代码免费IP:http://ip.qiaodm.com/   Java语言有两种方式使用代理IP访问网址并获取内容,   方式一,设置System系统属性   // 设置代理IP System.getProper

推荐两个代理IP网站:

 

1. 全网代理IP:http://proxy.goubanjia.com/

 

2. 敲代码免费IP:http://ip.qiaodm.com/

 

Java语言有两种方式使用代理IP访问网址并获取内容,

 

方式一,设置System系统属性

 

// 设置代理IP
System.getProperties().setProperty("proxySet", "true"); 	
System.getProperties().setProperty("http.proxyHost", "218.26.204.66");
System.getProperties().setProperty("http.proxyPort", "8080");

HttpUrlConnection connection = (HttpUrlConnection)new URL("http://www.baidu.com/").openConnection();
connection.setConnectTimeout(6000); // 6s
connection.setReadTimeout(6000);
connection.setUseCaches(false);

if(connection.getResponseCode == 200){
  System.out.println("使用代理IP连接网络成功");
}

 

方式二,使用java.net.Proxy类

 

// 使用java.net.Proxy类设置代理IP
Proxy proxy = new Proxy(Proxy.Type.HTTP, new InetSocketAddress("123.22.43.3", 8080);       HttpUrlConnection connection = (HttpUrlConnection)new URL("http://www.baidu.com/").openConnection(proxy);
connection.setConnectTimeout(6000); // 6s
connection.setReadTimeout(6000);
connection.setUseCaches(false);

if(connection.getResponseCode == 200){
  System.out.println("使用代理IP连接网络成功");
}

 

Java中使用代理IP获取网址内容(防IP被封,做数据爬虫)

  • 0

    开心

    开心

  • 0

    板砖

    板砖

  • 0

    感动

    感动

  • 0

    有用

    有用

  • 0

    疑问

    疑问

  • 0

    难过

    难过

  • 0

    无聊

    无聊

  • 0

    震惊

    震惊

推荐文章
编辑推荐
版权所有 IT知识库 CopyRight © 2009-2015 IT知识库 IT610.com , All Rights Reserved. 京ICP备09083238号