spark性能優(yōu)化要注意哪幾點,很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。
信州網(wǎng)站制作公司哪家好,找創(chuàng)新互聯(lián)!從網(wǎng)頁設(shè)計、網(wǎng)站建設(shè)、微信開發(fā)、APP開發(fā)、成都響應(yīng)式網(wǎng)站建設(shè)公司等網(wǎng)站項目制作,到程序開發(fā),運營維護。創(chuàng)新互聯(lián)2013年至今到現(xiàn)在10年的時間,我們擁有了豐富的建站經(jīng)驗和運維經(jīng)驗,來保證我們的工作的順利進行。專注于網(wǎng)站建設(shè)就選創(chuàng)新互聯(lián)。
默認用的是java序列化,但是會很慢,第二種很快,但是不一定能實現(xiàn)所有序列化 第二種,有些自定義類你需要在代碼中注冊(Kryo)
def main(args: Array[String]) { val sparkConf = new SparkConf() val sc = new SparkContext(sparkConf) val names = Array[String]("G304","G305","G306") val genders = Array[String]("male","female") val addresses = Array[String]("beijing","shenzhen","wenzhou","hangzhou") val infos = new ArrayBuffer[Info]() for (i<-1 to 1000000){ val name = names(Random.nextInt(3)) val gender = genders(Random.nextInt(2)) val address = addresses((Random.nextInt(4))) infos += Info(name, gender, address) } val rdd = sc.parallelize(infos) rdd.persist(StorageLevel.MEMORY_ONLY_SER) rdd.count() // rdd.persist(StorageLevel.MEMORY_ONLY) sc.stop() } case class Info(name:String, gender:String, address:String) }
def main(args: Array[String]) { val sparkConf = new SparkConf() sparkConf.registerKryoClasses(Array(classOf[Info])) val sc = new SparkContext(sparkConf) val names = Array[String]("G304","G305","G306") val genders = Array[String]("male","female") val addresses = Array[String]("beijing","shenzhen","wenzhou","hangzhou") val infos = new ArrayBuffer[Info]() for (i<-1 to 1000000){ val name = names(Random.nextInt(3)) val gender = genders(Random.nextInt(2)) val address = addresses((Random.nextInt(4))) infos += Info(name, gender, address) } val rdd = sc.parallelize(infos) rdd.persist(StorageLevel.MEMORY_ONLY_SER) rdd.count() // rdd.persist(StorageLevel.MEMORY_ONLY_SER) sc.stop()
sparkConf.registerKryoClasses(Array(classOf[Info]))
看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進一步的了解或閱讀更多相關(guān)文章,請關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道,感謝您對創(chuàng)新互聯(lián)的支持。