如何進(jìn)行spark-shell的學(xué)習(xí),針對這個(gè)問題,這篇文章詳細(xì)介紹了相對應(yīng)的分析和解答,希望可以幫助更多想解決這個(gè)問題的小伙伴找到更簡單易行的方法。
創(chuàng)新互聯(lián)是一家專注于網(wǎng)站建設(shè)、網(wǎng)站制作與策劃設(shè)計(jì),濟(jì)寧網(wǎng)站建設(shè)哪家好?創(chuàng)新互聯(lián)做網(wǎng)站,專注于網(wǎng)站建設(shè)10多年,網(wǎng)設(shè)計(jì)領(lǐng)域的專業(yè)建站公司;建站業(yè)務(wù)涵蓋:濟(jì)寧等地區(qū)。濟(jì)寧做網(wǎng)站價(jià)格咨詢:028-86922220
今天我就給大家介紹一下spark-shell的的應(yīng)用
spark-shell是spark的一種運(yùn)行腳本。它已經(jīng)初始化了sparkContext(sc)和SparkSesssion(Spark)
大家可以到spark的安裝路徑下
bin/spark-shell
出現(xiàn)上圖就說明正確。下面就可以操作spark了
注意spark用的是scala語言
val text = sc.textFile("/usr/wordcount.txt")
text.count()
運(yùn)行結(jié)果如果所示。注意這里我們是加載的本地文件,不是hdfs文件
下面我們對hdfs文件進(jìn)行操作。寫出wordcount程序
首先,先上傳文件到hdfs
./hdfs dfs -put /usr/a.txt /user/spark
然后對數(shù)據(jù)進(jìn)行操作
val text = sc.textFile("hdfs://192.168.153.11:9000/user/spark/a.txt")
val counts = text.flatMap(line => line.split(" ")).map(word => (word, 1)).reduceByKey(_ + _)
counts.saveAsTextFile("hdfs://192.168.153.11:9000/user/spark/wordcount")
下面一個(gè)也是計(jì)算PI的demo
關(guān)于如何進(jìn)行spark-shell的學(xué)習(xí)問題的解答就分享到這里了,希望以上內(nèi)容可以對大家有一定的幫助,如果你還有很多疑惑沒有解開,可以關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道了解更多相關(guān)知識(shí)。
文章標(biāo)題:如何進(jìn)行spark-shell的學(xué)習(xí)
瀏覽地址:http://chinadenli.net/article38/gioisp.html
成都網(wǎng)站建設(shè)公司_創(chuàng)新互聯(lián),為您提供域名注冊、靜態(tài)網(wǎng)站、動(dòng)態(tài)網(wǎng)站、網(wǎng)站導(dǎo)航、定制開發(fā)、小程序開發(fā)
聲明:本網(wǎng)站發(fā)布的內(nèi)容(圖片、視頻和文字)以用戶投稿、用戶轉(zhuǎn)載內(nèi)容為主,如果涉及侵權(quán)請盡快告知,我們將會(huì)在第一時(shí)間刪除。文章觀點(diǎn)不代表本網(wǎng)站立場,如需處理請聯(lián)系客服。電話:028-86922220;郵箱:631063699@qq.com。內(nèi)容未經(jīng)允許不得轉(zhuǎn)載,或轉(zhuǎn)載時(shí)需注明來源: 創(chuàng)新互聯(lián)