一个色的导航资源精品在线观看|手机看片在线精品视频|伊人亚洲成人电影|亚洲欧美在线男女|无码无码在线观看五月精品视频在线|超碰日韩欧美在线|午夜精品蜜桃一区二区久久久|91欧美动态国产精品女主播|色欲色香天天天综合网在线观看免费|伊人春色在线伊人

java怎么寫爬蟲?

時間:2024-10-13 01:46 人氣:0 編輯:招聘街

一、java怎么寫爬蟲?

寫爬蟲你一定要關(guān)注以下5個方面:

1.如何抽象整個互聯(lián)網(wǎng)

抽象為一個無向圖,網(wǎng)頁為節(jié)點,網(wǎng)頁中的鏈接為有向邊。

2.抓取算法

采用優(yōu)先隊列調(diào)度,區(qū)別于單純的BFS,對于每個網(wǎng)頁設(shè)定一定的抓取權(quán)重,優(yōu)先抓取權(quán)重較高的網(wǎng)頁。對于權(quán)重的設(shè)定,考慮的因素有:1. 是否屬于一個比較熱門的網(wǎng)站 2. 鏈接長度 3. link到該網(wǎng)頁的網(wǎng)頁的權(quán)重 4. 該網(wǎng)頁被指向的次數(shù) 等等。

進一步考慮,對于熱門的網(wǎng)站,不能無限制的抓取,所以需要進行二級調(diào)度。首先調(diào)度抓取哪個網(wǎng)站,然后選中了要抓取的網(wǎng)站之后,調(diào)度在該網(wǎng)站中抓取哪些網(wǎng)頁。這樣做的好處是,非常禮貌的對單個網(wǎng)站的抓取有一定的限制,也給其他網(wǎng)站的網(wǎng)頁抓取一些機會。

3.網(wǎng)絡(luò)模型

分別考慮單機抓取和分布式抓取的情況。對于Windows的單機,可以使用IOCP完成端口進行異步抓取,該種網(wǎng)絡(luò)訪問的方式可以最大程度的利用閑散資源。因為網(wǎng)絡(luò)訪問是需要等待的,如果簡單的同時開多個線程,計算機用于線程間切換的耗費會非常大,這種用于處理抓取結(jié)果的時間就會非常少。IOCP可以做到使用幾個線程就完成幾十個線程同步抓取的效果。對于多機的抓取,需要考慮機器的分布,如抓取亞洲的站點,則用在亞洲范圍內(nèi)的計算機等等。

4.實時性

新聞網(wǎng)頁的抓取一般來說是利用單獨的爬蟲來完成。新聞網(wǎng)頁抓取的爬蟲的權(quán)重設(shè)置與普通爬蟲會有所區(qū)別。首先需要進行新聞源的篩選,這里有兩種方式,一種是人工設(shè)置新聞源,如新浪首頁,第二種方式是通過機器學(xué)習(xí)的方法。新聞源可以定義鏈接數(shù)非常多,鏈接內(nèi)容經(jīng)常變化的網(wǎng)頁。從新聞源網(wǎng)頁出發(fā)往下抓取給定層級限制的網(wǎng)頁所得到,再根據(jù)網(wǎng)頁中的時間戳信息判斷,就可以加入新聞網(wǎng)頁。

5.網(wǎng)頁更新

網(wǎng)頁如果被抓下來以后,有的網(wǎng)頁會持續(xù)變化,有的不會。這里就需要對網(wǎng)頁的抓取設(shè)置一些生命力信息。當(dāng)一個新的網(wǎng)頁鏈接被發(fā)現(xiàn)以后,他的生命力時間戳信息應(yīng)該是被發(fā)現(xiàn)的時間,表示馬上需要被抓取,當(dāng)一個網(wǎng)頁被抓取之后,他的生命力時間戳信息可以被設(shè)置為x分鐘以后,那么,等到x分鐘以后,這個網(wǎng)頁就可以根據(jù)這個時間戳來判斷出,他需要被馬上再抓取一次了。一個網(wǎng)頁被第二次抓取以后,需要和之前的內(nèi)容進行對比,如果內(nèi)容一致,則延長下一次抓取的時間,如設(shè)為2x分鐘后再抓取,直到達到一個限制長度如半年或者三個月(這個數(shù)值取決于你爬蟲的能力)。如果被更新了,則需要縮短時間,如,x/2分鐘之后再抓取法:

1.

下載選擇并使用網(wǎng)絡(luò)工具包;

2.

提交請求,使用get/post的方式提交請求;

3.

使用代理IP,對目標(biāo)要求的各種必要參數(shù)源進行分析

二、java適合做爬蟲嗎?

JAVA也可以實現(xiàn)爬蟲,比如jsoup包,一個非常方便解析html的工具呢。不過相對來說,java語言笨重,稍微有些麻煩。

三、java常見面試題?

Java 最常見的 208 道面試題:第一模塊答案

Java 最常見的 208 道面試題:第二模塊答案

Java 最常見的 208 道面試題:第三模塊答案

Java 最常見的 208 道面試題:第四模塊和第五模塊答案

Java 最常見的 208 道面試題:第六模塊答案

Java 最常見的 208 道面試題:第七模塊答案

Java 最常見的 208 道面試題:第八模塊答案

Java 最常見的 208 道面試題:第九模塊和第十模塊答案

Java 最常見的 208 道面試題:第十一模塊答案

Java 最常見的 208 道面試題:第十二模塊答案

Java 最常見的 208 道面試題:第十三模塊答案

Java 最常見的 208 道面試題:第十四模塊答案

Java 最常見的 208 道面試題:第十五模塊答案

Java 最常見的 208 道面試題:第十六模塊答案

Java 最常見的 208 道面試題:第十七模塊答案

Java 最常見的 208 道面試題:第十八模塊答案

Java 最常見的 208 道面試題:第十九模塊答案

四、爬蟲框架 java

爬蟲框架 Java 在網(wǎng)絡(luò)數(shù)據(jù)爬取中的應(yīng)用

爬蟲框架在網(wǎng)絡(luò)數(shù)據(jù)爬取中扮演著至關(guān)重要的角色,特別是在 Java 開發(fā)領(lǐng)域。Java 作為一種強大且流行的編程語言,其爬蟲框架的應(yīng)用極大地促進了互聯(lián)網(wǎng)信息的獲取和分析。本文將探討爬蟲框架在 Java 環(huán)境下的應(yīng)用及其對數(shù)據(jù)收集過程的影響。

爬蟲框架的定義與功能

爬蟲框架是一種用于從網(wǎng)頁上抓取數(shù)據(jù)的工具,能夠自動化地瀏覽網(wǎng)頁、解析內(nèi)容并提取所需信息。在 Java 開發(fā)中,有許多強大的爬蟲框架可供選擇,如 Jsoup、WebMagic 等,它們?yōu)殚_發(fā)人員提供了快速高效地構(gòu)建爬蟲程序的能力。

Java 爬蟲框架的優(yōu)勢

相比于其他編程語言,Java 在爬蟲開發(fā)中具有諸多優(yōu)勢。首先,Java 作為一種跨平臺語言,可以在各種操作系統(tǒng)上運行,為爬蟲程序的部署提供了方便。其次,Java 社區(qū)龐大活躍,擁有豐富的資源和庫,使得開發(fā)人員能夠快速解決問題、獲取支持。此外,Java 的穩(wěn)定性和性能也使其成為開發(fā)大規(guī)模爬蟲系統(tǒng)的理想選擇。

常見的 Java 爬蟲框架

  • Jsoup:Jsoup 是一款用于解析 文檔的 Java 庫,能夠方便地操作 DOM、定位元素并抓取所需數(shù)據(jù),是許多 Java 爬蟲程序的首選。
  • WebMagic:WebMagic 是一個開源的 Java 網(wǎng)絡(luò)爬蟲框架,支持多線程抓取和分布式部署,為開發(fā)者提供了簡潔而強大的爬蟲開發(fā)工具。
  • HttpClient:HttpClient 是 Apache Software Foundation 的開源項目,提供了豐富的 HTTP 客戶端功能,適用于構(gòu)建更復(fù)雜、定制化的爬蟲程序。

使用 Java 爬蟲框架的注意事項

在使用 Java 爬蟲框架時,開發(fā)人員需要注意以下幾點:

  1. 尊重網(wǎng)站規(guī)則:在抓取數(shù)據(jù)時,遵守網(wǎng)站的 robots.txt 規(guī)范,避免對網(wǎng)站造成不必要的壓力。
  2. 異常處理:在爬取過程中可能會遇到網(wǎng)絡(luò)異常、頁面結(jié)構(gòu)變化等情況,開發(fā)人員需合理處理異常情況,保證程序的穩(wěn)定性。
  3. 定制化配置:根據(jù)需求對爬蟲程序進行配置優(yōu)化,如設(shè)置抓取頻率、代理、User-Agent 等,以提高效率和效果。

Java 爬蟲框架的應(yīng)用案例

Java 爬蟲框架在各個領(lǐng)域都有著廣泛的應(yīng)用,比如:

  • 搜索引擎數(shù)據(jù)抓?。号老x框架可用于搜索引擎的爬取和索引,幫助用戶快速獲取相關(guān)信息。
  • 輿情監(jiān)控分析:通過爬蟲框架可以獲取網(wǎng)絡(luò)媒體、社交媒體等平臺上的輿情信息,用于輿情監(jiān)控和分析。
  • 商品信息采集:電商領(lǐng)域利用爬蟲框架可以抓取各大電商平臺上的商品信息,幫助企業(yè)進行競品分析和市場調(diào)研。

結(jié)語

總的來說,爬蟲框架 Java在網(wǎng)絡(luò)數(shù)據(jù)爬取的過程中起著不可替代的作用。隨著互聯(lián)網(wǎng)信息的不斷增長和碎片化,開發(fā)者需要依靠強大的爬蟲工具來幫助收集、整合和分析數(shù)據(jù),從而為業(yè)務(wù)決策提供有力支持。因此,掌握 Java 爬蟲框架的使用方法和技巧,將對開發(fā)者在數(shù)據(jù)獲取領(lǐng)域具有重要意義。

五、寫爬蟲和用Java寫爬蟲的區(qū)別是什么?

沒得區(qū)別的,用Java寫爬蟲代碼

public class DownMM {

public static void main(String[] args) throws Exception {

//out為輸出的路徑,注意要以\\結(jié)尾

String out = "D:\\JSP\\pic\\java\\";

try{

File f = new File(out);

if(! f.exists()) {

f.mkdirs();

}

}catch(Exception e){

System.out.println("no");

}

String url = "http://www.mzitu.com/share/comment-page-";

Pattern reg = Pattern.compile("<img src=\"(.*?)\"");

for(int j=0, i=1; i<=10; i++){

URL uu = new URL(url+i);

URLConnection conn = uu.openConnection();

conn.setRequestProperty("User-Agent", "Mozilla/5.0 (Windows NT 6.3; WOW64; Trident/7.0; rv:11.0) like Gecko");

Scanner sc = new Scanner(conn.getInputStream());

Matcher m = reg.matcher(sc.useDelimiter("\\A").next());

while(m.find()){

Files.copy(new URL(m.group(1)).openStream(), Paths.get(out + UUID.randomUUID() + ".jpg"));

System.out.println("已下載:"+j++);

}

}

}

}

六、java爬蟲豆瓣電影

Java爬蟲豆瓣電影

在當(dāng)今信息爆炸的時代,數(shù)據(jù)獲取變得愈發(fā)重要。而豆瓣電影作為一個集合了大量電影信息的平臺,對于電影愛好者和研究者來說是一個極具價值的數(shù)據(jù)源。本文將介紹如何利用Java編寫爬蟲來獲取豆瓣電影信息,從而實現(xiàn)對電影數(shù)據(jù)的有效利用和分析。

一、爬蟲技術(shù)概述

爬蟲技術(shù)是指編寫程序來自動獲取互聯(lián)網(wǎng)信息的技術(shù)。在本例中,我們將使用Java語言來實現(xiàn)豆瓣電影信息的爬取。Java作為一種功能強大且廣泛使用的編程語言,提供了豐富的庫和工具,適合用于網(wǎng)絡(luò)爬蟲的開發(fā)。

二、豆瓣電影數(shù)據(jù)結(jié)構(gòu)分析

在開始編寫爬蟲之前,我們首先需要了解豆瓣電影網(wǎng)頁的結(jié)構(gòu)。豆瓣電影網(wǎng)頁包含了電影的名稱、評分、演員、導(dǎo)演等信息。這些信息通常被包裹在特定的標(biāo)簽中,通過解析HTML文檔,我們可以提取出所需的數(shù)據(jù)。

三、爬蟲實現(xiàn)過程

編寫爬蟲的過程可以分為以下幾個步驟:

  1. 發(fā)送HTTP請求:使用Java的網(wǎng)絡(luò)庫發(fā)送HTTP請求到豆瓣電影網(wǎng)站。
  2. 接收響應(yīng):獲取網(wǎng)站返回的HTML頁面內(nèi)容。
  3. 解析HTML:利用HTML解析器提取出電影信息。
  4. 存儲數(shù)據(jù):將提取出的數(shù)據(jù)存儲到數(shù)據(jù)庫或文件中。

通過以上步驟,我們可以完成對豆瓣電影網(wǎng)頁數(shù)據(jù)的抓取和處理。

四、代碼示例

以下是一個簡單的Java爬蟲代碼示例,用于獲取豆瓣電影的名稱和評分:

import org.jsoup.Jsoup; import org.jsoup.nodes.Document; import org.jsoup.nodes.Element; public class DoubanMovieCrawler { public static void main(String[] args) { try { String url = "top250"; Document doc = Jsoup.connect(url).get(); for (Element element : doc.select("div.item")) { String title = element.select("span.title").text(); String rating = element.select("span.rating_num").text(); System.out.println("電影名稱:" + title + ",評分:" + rating); } } catch (Exception e) { e.printStackTrace(); } } }

五、數(shù)據(jù)處理與分析

通過爬取豆瓣電影數(shù)據(jù),我們可以進行各種有趣的數(shù)據(jù)處理和分析。例如,可以統(tǒng)計不同類型電影的平均評分、查找評分最高的電影等。這些分析結(jié)果可以幫助我們更好地了解電影市場和觀眾喜好。

六、結(jié)語

本文介紹了使用Java編寫爬蟲來獲取豆瓣電影信息的方法,希望可以幫助讀者更好地理解爬蟲技術(shù)和數(shù)據(jù)處理的過程。通過合理的數(shù)據(jù)處理和分析,我們可以發(fā)現(xiàn)更多有意義的信息,為電影行業(yè)的發(fā)展和研究提供有力支持。

七、網(wǎng)絡(luò)爬蟲 java 對比

網(wǎng)絡(luò)爬蟲Java:一場探討與對比

隨著互聯(lián)網(wǎng)的不斷發(fā)展,網(wǎng)絡(luò)爬蟲作為一種重要的信息獲取方式在各行各業(yè)都得到了廣泛應(yīng)用。而在< strong>Java作為一門優(yōu)秀的編程語言的帶領(lǐng)下,各種高效且功能強大的< strong>網(wǎng)絡(luò)爬蟲工具也應(yīng)運而生。本文將圍繞< strong>網(wǎng)絡(luò)爬蟲與< strong>Java之間的關(guān)系展開討論,并進行深入的對比分析。

什么是< strong>網(wǎng)絡(luò)爬蟲?

網(wǎng)絡(luò)爬蟲,又稱為網(wǎng)絡(luò)爬蟲機器人、蜘蛛等,是一種模擬人的行為來瀏覽網(wǎng)頁,按照一定的規(guī)則自動獲取網(wǎng)頁信息的程序。它可以自動采集網(wǎng)頁中的文字、鏈接、圖片等數(shù)據(jù),并將這些數(shù)據(jù)進行整理處理,用于各種用途。在互聯(lián)網(wǎng)搜索、 strong>大數(shù)據(jù)分析、信息監(jiān)控等方面都有著廣泛的應(yīng)用。

為什么選擇< strong>Java編程語言?

作為一門跨平臺、高性能的編程語言,Java具有許多優(yōu)點,這也是為什么許多< strong>網(wǎng)絡(luò)爬蟲工具選擇< strong>Java作為開發(fā)語言的原因。首先,< strong>Java具有良好的跨平臺性,可以在多種操作系統(tǒng)上運行,開發(fā)者無需為不同平臺編寫不同的代碼。其次,< strong>Java的生態(tài)系統(tǒng)非常豐富,擁有大量的開源庫和框架,能夠極大地提高開發(fā)效率和程序穩(wěn)定性。此外,< strong>Java是一門靜態(tài)類型語言,能夠在編譯時捕獲錯誤,有助于提高代碼質(zhì)量。

< strong>網(wǎng)絡(luò)爬蟲工具< strong>Java版對比

目前市面上有許多優(yōu)秀的< strong>網(wǎng)絡(luò)爬蟲工具基于< strong>Java開發(fā),例如Jsoup、WebMagic、Crawler4j等。這些工具各有特點,適用于不同的場景。下面將對這些< strong>網(wǎng)絡(luò)爬蟲工具進行簡要對比。

Jsoup

Jsoup是一款精簡、易用的< strong>Java庫,專門用于解析文檔。它提供了類似于< strong>JQuery的API,能夠方便快捷地提取網(wǎng)頁中的各種元素。< strong>Jsoup操作簡單,適合快速開發(fā)一些簡單的< strong>網(wǎng)絡(luò)爬蟲應(yīng)用。

WebMagic

WebMagic是一款基于< strong>Java的高級< strong>網(wǎng)絡(luò)爬蟲框架,具有強大的功能和靈活的擴展性。它支持分布式爬取、模擬登錄、代理等功能,能夠應(yīng)對各種復(fù)雜的爬蟲場景。< strong>WebMagic是一個成熟穩(wěn)定的< strong>網(wǎng)絡(luò)爬蟲框架,在大規(guī)模數(shù)據(jù)采集和處理方面有著顯著的優(yōu)勢。

Crawler4j

Crawler4j是一個基于< strong>Java的開源< strong>網(wǎng)絡(luò)爬蟲工具,它基于< strong>Apache的< strong>Nutch框架構(gòu)建。< strong>Crawler4j具有良好的性能和可擴展性,能夠快速高效地爬取大量數(shù)據(jù)。它支持多線程、斷點續(xù)爬等功能,適合用于大規(guī)模< strong>網(wǎng)絡(luò)爬蟲任務(wù)。

結(jié)語

綜上所述,網(wǎng)絡(luò)爬蟲是一項重要的技術(shù),而< strong>Java作為一門強大的編程語言為< strong>網(wǎng)絡(luò)爬蟲工具的開發(fā)提供了良好的支持。不同的< strong>網(wǎng)絡(luò)爬蟲工具在功能和性能上各有特點,開發(fā)者可以根據(jù)自身需求選擇合適的工具進行開發(fā)。希望本文對你對< strong>網(wǎng)絡(luò)爬蟲與< strong>Java的關(guān)系有所幫助。

八、java中爬蟲框架

在當(dāng)前數(shù)字化時代,互聯(lián)網(wǎng)上的信息爆炸式增長,網(wǎng)頁數(shù)據(jù)是最為豐富和實時的信息來源之一。對于許多企業(yè)和個人來說,獲取并分析網(wǎng)絡(luò)數(shù)據(jù)是至關(guān)重要的。而爬蟲技術(shù)就是一種強大的工具,能夠幫助用戶從互聯(lián)網(wǎng)上抓取和解析數(shù)據(jù)。

Java中爬蟲框架的重要性

Java中爬蟲框架在爬蟲技術(shù)中扮演著至關(guān)重要的角色。作為一種強大而靈活的編程語言,Java廣泛用于開發(fā)各類應(yīng)用程序,其中就包括爬蟲工具。使用Java語言編寫的爬蟲框架具有穩(wěn)定性高、效率高、易擴展等諸多優(yōu)點。

爬蟲框架的選擇直接影響著爬蟲的性能和功能,因此在Java中選擇一個合適的爬蟲框架至關(guān)重要。下面將介紹幾個在Java開發(fā)中常用的爬蟲框架。

常用的Java爬蟲框架

1. Jsoup:Jsoup是一款開源的Java 解析庫,專門用于從HTML文檔中提取和操作數(shù)據(jù)。它提供了類似于jQuery的API,非常適合用于解析和操作HTML頁面,是寫爬蟲程序的好幫手。

2. WebMagic:WebMagic是一個開源的Java爬蟲框架,它的設(shè)計靈活且功能強大。通過WebMagic,用戶可以定制爬蟲的各個處理過程,包括頁面下載、頁面解析、數(shù)據(jù)存儲等,是一個非常適合定制化需求的爬蟲框架。

3. HttpClient:HttpClient是Apache Jakarta Common項目的子項目,是一個功能強大的HTTP客戶端庫,支持HTTP協(xié)議的多種方法和多種編碼。在爬蟲開發(fā)中,HttpClient可以用于發(fā)送HTTP請求,獲取頁面內(nèi)容等操作。

4. WebCollector:WebCollector是一款基于WebMagic開發(fā)的Java爬蟲框架,提供了更加便捷的API和更加智能的數(shù)據(jù)提取能力。它支持分布式爬取、增量式爬取等功能,是一個非常實用的爬蟲框架。

如何選擇合適的Java爬蟲框架

在選擇Java爬蟲框架時,需要綜合考慮自身項目的需求和技術(shù)棧,以及爬蟲框架的穩(wěn)定性、功能完善性、擴展性等方面。同時,還需要注意該爬蟲框架的性能、文檔完善程度、社區(qū)活躍度等因素。

如果是初學(xué)者或者對爬蟲開發(fā)不是很熟悉的開發(fā)者,建議選擇易上手、文檔完善、社區(qū)活躍的爬蟲框架,如Jsoup等;如果項目對爬蟲的性能、擴展性有較高要求,可以選擇WebMagic等靈活性較強的框架。

總的來說,選擇合適的Java爬蟲框架需要根據(jù)具體情況來決定,重要的是根據(jù)項目需求來權(quán)衡各個框架的優(yōu)缺點,以及考慮未來項目的拓展和維護。

結(jié)語

Java中爬蟲框架作為爬蟲技術(shù)的重要組成部分,對于數(shù)據(jù)獲取和處理起著關(guān)鍵作用。選擇合適的爬蟲框架可以提高爬蟲程序的效率和性能,幫助用戶更好地完成數(shù)據(jù)獲取和分析工作。

無論是初學(xué)者還是有經(jīng)驗的開發(fā)者,在選擇Java爬蟲框架時都應(yīng)該仔細評估各個框架的特點,并根據(jù)實際情況進行選擇。希望本文能夠幫助讀者更好地了解Java中爬蟲框架的重要性和選擇方法。

九、Java爬蟲框架:詳解Java語言編寫的網(wǎng)絡(luò)爬蟲工具

什么是Java爬蟲框架?

Java爬蟲框架是指使用Java語言編寫的一種工具,用于在網(wǎng)頁上自動獲取信息并進行相應(yīng)的處理和分析。它可以模擬用戶瀏覽網(wǎng)頁的行為,獲取網(wǎng)頁上的數(shù)據(jù),并將數(shù)據(jù)存儲或用于其他用途。

Java爬蟲框架的特點

  • 靈活性: Java語言本身具有較高的靈活性,因此使用Java編寫的爬蟲框架通常也具備靈活性較強的特點。
  • 擴展性: Java擁有豐富的第三方庫和開發(fā)工具,使得爬蟲框架在功能擴展方面具有較大優(yōu)勢。
  • 穩(wěn)定性: Java語言的穩(wěn)定性較高,編寫的爬蟲框架在長時間運行時表現(xiàn)出較好的穩(wěn)定性。

常見的Java爬蟲框架

目前,市面上有許多成熟的Java爬蟲框架,比較常用的包括Jsoup、WebMagic、HttpClient等。

如何選擇Java爬蟲框架?

在選擇Java爬蟲框架時,需要根據(jù)實際需求考慮框架的功能性、易用性、以及社區(qū)支持度等因素。比如,如果只需要簡單的頁面抓取和解析,可以選擇Jsoup;如果需要更強大的功能和擴展性,WebMagic可能會是一個更好的選擇。

Java爬蟲框架的應(yīng)用場景

Java爬蟲框架廣泛應(yīng)用于數(shù)據(jù)采集、搜索引擎建設(shè)、網(wǎng)絡(luò)數(shù)據(jù)分析、輿情監(jiān)控等領(lǐng)域。通過爬蟲框架,可以實現(xiàn)自動化地獲取和處理網(wǎng)絡(luò)數(shù)據(jù),為相關(guān)行業(yè)的決策和分析提供支持。

感謝您閱讀本文,希望本文能幫助您更好地了解Java爬蟲框架,以及在實際應(yīng)用中如何選擇和使用合適的爬蟲工具。

十、用python寫爬蟲和用Java寫爬蟲的區(qū)別是什么?

Python與Java相比,代碼更為簡潔。而且python的http類庫更為豐富,但是速度沒有java快。

相關(guān)資訊
熱門頻道

Copyright © 2024 招聘街 滇ICP備2024020316號-38