使用jsoup解析到這個(gè)url就行,dom結(jié)構(gòu)如下:
成都創(chuàng)新互聯(lián)專注于興賓網(wǎng)站建設(shè)服務(wù)及定制,我們擁有豐富的企業(yè)做網(wǎng)站經(jīng)驗(yàn)。 熱誠(chéng)為您提供興賓營(yíng)銷型網(wǎng)站建設(shè),興賓網(wǎng)站制作、興賓網(wǎng)頁設(shè)計(jì)、興賓網(wǎng)站官網(wǎng)定制、微信小程序服務(wù),打造興賓網(wǎng)絡(luò)公司原創(chuàng)品牌,更為您提供興賓網(wǎng)站排名全網(wǎng)營(yíng)銷落地服務(wù)。
look-inside-cover類只有一個(gè),所以直接找到這個(gè)img元素,獲取src屬性,就可以獲取到圖片路徑。
代碼實(shí)現(xiàn)如下:
Document?doc?=?Jsoup.connect("").get();
Elements?imgs?=?doc.select(".look-inside-cover");
String?imgUrl?=?imgs.get(0).attr("src");
jsoup的jar包分享給你:
實(shí)現(xiàn)思路:一次性讀取選中的統(tǒng)一路徑下的多張圖片,實(shí)現(xiàn)整體復(fù)制。
//復(fù)制文件夾
package com.cdd.util;
import java.io.*;
public class FileUtil {
private static void copy(File[] files, File d) {
if (!d.exists()) //如果指定目錄不存在
d.mkdir(); //創(chuàng)建目錄
for (int i = 0; i files.length; i++) { //循環(huán)遍歷要復(fù)制的文件夾
if (files[i].isFile()) { //如果文件夾中是文件
try {
FileInputStream fis = new FileInputStream(files[i]); //創(chuàng)建FileInputStream對(duì)象
FileOutputStream out = new FileOutputStream(new File(d
.getPath()
+ File.separator + files[i].getName())); //復(fù)制后文件的保存路徑
int count = fis.available();
byte[] data = new byte[count];
while ((str = bre.readLine())!= null) //讀取文件通過readline方法可以有效的避免亂碼
out.write(str ); //將讀取的信息寫入文件中
}
out.close(); //關(guān)閉流
fis.close();
} catch (Exception e) {
e.printStackTrace();
}
}
if (files[i].isDirectory()) { //如果文件夾中是一個(gè)路徑
File des = new File(d.getPath() + File.separator
+ files[i].getName()); //在復(fù)制后路徑中創(chuàng)建子文件夾
des.mkdir();
copy(files[i].listFiles(), des); //再次調(diào)用本方法
}
}
System.out.println("文件夾復(fù)制成功");
}
import java.awt.*;
import java.awt.event.*;
import java.io.*;
import java.net.*;
import java.util.*;
import java.util.regex.*;
import javax.swing.*;
import javax.swing.table.*;//一個(gè)Web的爬行者(注:爬行在這里的意思與抓取,捕獲相同)
public class SearchCrawler extends JFrame{
//最大URL保存值
private static final String[] MAX_URLS={"50","100","500","1000"};
//緩存robot禁止爬行列表
private HashMap disallowListCache=new HashMap();
//搜索GUI控件
private JTextField startTextField;
private JComboBox maxComboBox;
private JCheckBox limitCheckBox;
private JTextField logTextField;
private JTextField searchTextField;
private JCheckBox caseCheckBox;
private JButton searchButton;
//搜索狀態(tài)GUI控件
private JLabel crawlingLabel2;
private JLabel crawledLabel2;
private JLabel toCrawlLabel2;
private JProgressBar progressBar;
private JLabel matchesLabel2;
//搜索匹配項(xiàng)表格列表
private JTable table;
//標(biāo)記爬行機(jī)器是否正在爬行
private boolean crawling;
//寫日志匹配文件的引用
private PrintWriter logFileWriter;
//網(wǎng)絡(luò)爬行者的構(gòu)造函數(shù)
public SearchCrawler(){
//設(shè)置應(yīng)用程序標(biāo)題欄
setTitle("搜索爬行者");
//設(shè)置窗體大小
setSize(600,600);
//處理窗體關(guān)閉事件
addWindowListener(new WindowAdapter(){
public void windowClosing(WindowEvent e){
actionExit();
}
});
//設(shè)置文件菜單
JMenuBar menuBar=new JMenuBar();
JMenu fileMenu=new JMenu("文件");
fileMenu.setMnemonic(KeyEvent.VK_F);
JMenuItem fileExitMenuItem=new JMenuItem("退出",KeyEvent.VK_X);
fileExitMenuItem.addActionListener(new ActionListener(){
public void actionPerformed(ActionEvent e){
actionExit();
}
});
fileMenu.add(fileExitMenuItem);
menuBar.add(fileMenu);
setJMenuBar(menuBar);
通過httpclient來爬取網(wǎng)站內(nèi)容,分析當(dāng)前內(nèi)容頁中的圖片‘規(guī)則’
抓取一般都是模擬瀏覽器訪問目標(biāo)網(wǎng)頁,通過返回的頁面html代碼進(jìn)行分析自己需要的數(shù)據(jù)
查找規(guī)則,例如你爬取的網(wǎng)頁 ,看到當(dāng)前頁面顯示的圖片格式如下img src=""
通過解析爬取的網(wǎng)頁源代碼(html)進(jìn)行字符串的操作即可,現(xiàn)在有相應(yīng)的第三方j(luò)ar包可以幫你更快的完成這部分工作,例如htmlpaser,獲取到對(duì)應(yīng)的地址,然后進(jìn)行保存或下載。
你可以搜索,java爬蟲(httpclient)和htmlpaser做更多的了解。
當(dāng)前題目:java爬蟲多張圖片代碼,java爬蟲爬取圖片
網(wǎng)頁路徑:http://chinadenli.net/article26/heehcg.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供網(wǎng)站建設(shè)、響應(yīng)式網(wǎng)站、網(wǎng)站設(shè)計(jì)、軟件開發(fā)、網(wǎng)站營(yíng)銷、網(wǎng)站排名
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請(qǐng)盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場(chǎng),如需處理請(qǐng)聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)
營(yíng)銷型網(wǎng)站建設(shè)知識(shí)