Linux 下運(yùn)行spark localbind on port 0. Attempting port 1 問(wèn)題
成都創(chuàng)新互聯(lián)公司長(zhǎng)期為超過(guò)千家客戶(hù)提供的網(wǎng)站建設(shè)服務(wù),團(tuán)隊(duì)從業(yè)經(jīng)驗(yàn)10年,關(guān)注不同地域、不同群體,并針對(duì)不同對(duì)象提供差異化的產(chǎn)品和服務(wù);打造開(kāi)放共贏平臺(tái),與合作伙伴共同營(yíng)造健康的互聯(lián)網(wǎng)生態(tài)環(huán)境。為茄子河企業(yè)提供專(zhuān)業(yè)的網(wǎng)站建設(shè)、成都網(wǎng)站建設(shè),茄子河網(wǎng)站改版等技術(shù)服務(wù)。擁有十年豐富建站經(jīng)驗(yàn)和眾多成功案例,為您定制開(kāi)發(fā)。
2016-11-01 16:04:56 [org.apache.spark.util.Utils]-[WARN] - Service 'sparkDriver' could not bind on port 0. Attempting port 1.
2016-11-01 16:04:56 [org.apache.spark.SparkContext]-[ERROR] - Error initializing SparkContext.
java.net.BindException: Can't assign requested address: Service 'sparkDriver' failed after 16 retries! Consider explicitly setting the appropriate port for the service 'sparkDriver' (for example spark.ui.port for SparkUI) to an available port or increasing spark.port.maxRetries.
原因是找不到主機(jī)對(duì)應(yīng)的ip地址,而不是端口綁定不正確引起的。
在hosts中加入如下代碼
127.0.0.1 hostname
這里的用戶(hù)名根據(jù)實(shí)際情況來(lái)寫(xiě),這樣,spark local 就能找到本地對(duì)應(yīng)的ip了,啟動(dòng)成功