小編給大家分享一下Hadoop中WordCount如何實現,相信大部分人都還不怎么了解,因此分享這篇文章給大家參考一下,希望大家閱讀完這篇文章后大有收獲,下面讓我們一起去了解一下吧!
創(chuàng)新互聯(lián)建站自2013年創(chuàng)立以來,是專業(yè)互聯(lián)網技術服務公司,擁有項目成都網站設計、網站制作網站策劃,項目實施與項目整合能力。我們以讓每一個夢想脫穎而出為使命,1280元溫宿做網站,已為上家服務,為溫宿各地企業(yè)和個人服務,聯(lián)系電話:028-86922220
WordCount 是 Hadoop 應用最經典的例子。
使用 hadoop-2.6.0 版本,需要引入的包目錄位于 hadoop-2.6.0/share/hadoop/common/lib
。
import java.io.IOException; import java.util.StringTokenizer; import org.apache.hadoop.conf.Configuration; import org.apache.hadoop.fs.Path; import org.apache.hadoop.io.IntWritable; import org.apache.hadoop.io.Text; import org.apache.hadoop.mapreduce.Job; import org.apache.hadoop.mapreduce.Mapper; import org.apache.hadoop.mapreduce.Reducer; import org.apache.hadoop.mapreduce.lib.input.FileInputFormat; import org.apache.hadoop.mapreduce.lib.output.FileOutputFormat; import org.apache.hadoop.mapreduce.lib.input.TextInputFormat; import org.apache.hadoop.mapreduce.lib.output.TextOutputFormat; public class WordCount { public static class WordCountMap extends Mapper
Mapper 的輸入類型為文本,鍵用 Object
代替,值為文本 (Text)。
Mapper 的輸出類型為文本,鍵為 Text,值為 IntWritable,相當于java中Integer整型變量。將分割后的字符串形成鍵值對 <單詞,1>。
對于每一行輸入文本,都會調用一次 map 方法,對輸入的行進行切分。
while (tokenizer.hasMoreTokens()){ word.set(tokenizer.nextToken()); context.write(word, one); }
將一行文本變?yōu)?單詞,出現次數>這樣的鍵值對。
對于每個鍵,都會調用一次 reduce 方法,對鍵出現次數進行求和。
用 eclipse 導出 WordCount 的 Runable jar 包,放到目錄 hadoop-2.6.0/bin
。
在目錄 hadoop-2.6.0/bin
下新建 input 文件夾,并新建文件 file1, file2。
file1 內容為 one titus two titus three titus
file2 內容為 one huangyi two huangyi
. ├── container-executor ├── hadoop ├── hadoop.cmd ├── hdfs ├── hdfs.cmd ├── input │ ├── file1.txt │ └── file2.txt ├── mapred ├── mapred.cmd ├── rcc ├── test-container-executor ├── wordcount.jar ├── yarn └── yarn.cmd
運行 ./hadoop jar wordcount.jar input output
會生成 output 目錄和結果。
huangyi 2 one 2 three 1 titus 3 two 2
以上是“Hadoop中WordCount如何實現”這篇文章的所有內容,感謝各位的閱讀!相信大家都有了一定的了解,希望分享的內容對大家有所幫助,如果還想學習更多知識,歡迎關注創(chuàng)新互聯(lián)行業(yè)資訊頻道!