這篇文章主要介紹spark mllib中如何實現(xiàn)基于ALS計算,文中介紹的非常詳細(xì),具有一定的參考價值,感興趣的小伙伴們一定要看完!
創(chuàng)新互聯(lián)公司專業(yè)為企業(yè)提供潞州網(wǎng)站建設(shè)、潞州做網(wǎng)站、潞州網(wǎng)站設(shè)計、潞州網(wǎng)站制作等企業(yè)網(wǎng)站建設(shè)、網(wǎng)頁設(shè)計與制作、潞州企業(yè)網(wǎng)站模板建站服務(wù),10年潞州做網(wǎng)站經(jīng)驗,不只是建網(wǎng)站,更提供有價值的思路和整體網(wǎng)絡(luò)服務(wù)。
/** * 協(xié)同過濾算法,基于 (交替最小二乘法) ALS 計算 * 人以群分,物以類聚, * ALS是統(tǒng)計分析中最常用的一種逼近計算算法. * 輸入數(shù)據(jù)集 Ratings 是 ALS 固定輸入格式, * Ratings [Int, Int, Double] 即[用戶名,物品名,評分] */ package spark.collaborativeFiltering import org.apache.spark.mllib.recommendation.{ALS, Rating} import org.apache.spark.{SparkConf, SparkContext} object sparkALS { def main(args: Array[String]) { val conf = new SparkConf().setAppName("ALS").setMaster("local") val sc= new SparkContext(conf) val data = sc.textFile("./src/main/spark/collaborativeFiltering/ul.txt") val ratings = data.map(_.split(" ") match { case Array(user, item, rate) => Rating(user.toInt, item.toInt, rate.toDouble)//將數(shù)據(jù)集轉(zhuǎn)化為專用的 Rating }) val rank = 2 // 模型中隱藏因子數(shù) val numInterations = 5 //算法迭代次數(shù) val model = ALS.train(ratings, rank, numInterations, 0.01) // 進(jìn)行模型訓(xùn)練 val result = model.recommendProducts(2, 1)//為用戶 2 推薦一個商品 result.foreach(println) //Rating(2,15,3.9713808775549495),為用戶 2 推薦一個編號 15 的商品,預(yù)測評分 3.97 與實際的 4 接近. } }
1 11 2 1 12 3 1 13 1 1 14 0 1 15 1 2 11 1 2 12 2 2 13 2 2 14 1 2 15 4 3 11 2 3 12 3 3 13 1 3 14 0 3 15 1 4 11 1 4 12 2 4 13 2 4 14 1 4 15 4 5 11 1 5 12 2 5 13 2 5 14 1 5 15 4
以上是“spark mllib中如何實現(xiàn)基于ALS計算”這篇文章的所有內(nèi)容,感謝各位的閱讀!希望分享的內(nèi)容對大家有幫助,更多相關(guān)知識,歡迎關(guān)注創(chuàng)新互聯(lián)行業(yè)資訊頻道!