Spark介紹
按照官方的定義,Spark 是一個通用,快速,適用于大規(guī)模數(shù)據(jù)的處理引擎。
通用性:我們可以使用Spark SQL來執(zhí)行常規(guī)分析, Spark Streaming 來流數(shù)據(jù)處理, 以及用Mlib來執(zhí)行機器學習等。Java,python,scala及R語言的支持也是其通用性的表現(xiàn)之一。
快速: 這個可能是Spark成功的最初原因之一,主要歸功于其基于內(nèi)存的運算方式。當需要處理的數(shù)據(jù)需要反復迭代時,Spark可以直接在內(nèi)存中暫存數(shù)據(jù),而無需像Map Reduce一樣需要把數(shù)據(jù)寫回磁盤。官方的數(shù)據(jù)表明:它可以比傳統(tǒng)的Map Reduce快上100倍。
大規(guī)模:原生支持HDFS,并且其計算節(jié)點支持彈性擴展,利用大量廉價計算資源并發(fā)的特點來支持大規(guī)模數(shù)據(jù)處理。
環(huán)境準備
mongodb下載
解壓安裝
啟動mongodb服務
$MONGODB_HOME/bin/mongod --fork --dbpath=/root/data/mongodb/ --logpath=/root/data/log/mongodb/mongodb.log
pom依賴
dependency>
groupId>org.mongodb.spark/groupId>
artifactId>mongo-spark-connector_2.11/artifactId>
version>${spark.version}/version>
/dependency>
實例代碼
object ConnAppTest {
def main(args: Array[String]): Unit = {
val spark = SparkSession.builder()
.master("local[2]")
.appName("ConnAppTest")
.config("spark.mongodb.input.uri", "mongodb://192.168.31.136/testDB.testCollection") // 指定mongodb輸入
.config("spark.mongodb.output.uri", "mongodb://192.168.31.136/testDB.testCollection") // 指定mongodb輸出
.getOrCreate()
// 生成測試數(shù)據(jù)
val documents = spark.sparkContext.parallelize((1 to 10).map(i => Document.parse(s"{test: $i}")))
// 存儲數(shù)據(jù)到mongodb
MongoSpark.save(documents)
// 加載數(shù)據(jù)
val rdd = MongoSpark.load(spark)
// 打印輸出
rdd.show
}
}
總結
以上所述是小編給大家介紹的Spark整合Mongodb的方法,希望對大家有所幫助,如果大家有任何疑問請給我留言,小編會及時回復大家的。在此也非常感謝大家對腳本之家網(wǎng)站的支持!
您可能感興趣的文章:- linux環(huán)境不使用hadoop安裝單機版spark的方法
- 淺談七種常見的Hadoop和Spark項目案例
- Python搭建Spark分布式集群環(huán)境
- 使用docker快速搭建Spark集群的方法教程
- centOS7下Spark安裝配置教程詳解
- Spark學習筆記(一)Spark初識【特性、組成、應用】
- 初識Spark入門
- 詳解Java編寫并運行spark應用程序的方法
- java 中Spark中將對象序列化存儲到hdfs
- Spark學習筆記 (二)Spark2.3 HA集群的分布式安裝圖文詳解