創(chuàng)新互聯(lián)www.cdcxhl.cn八線動態(tài)BGP香港云服務(wù)器提供商,新人活動買多久送多久,劃算不套路!
成都創(chuàng)新互聯(lián)主營太谷網(wǎng)站建設(shè)的網(wǎng)絡(luò)公司,主營網(wǎng)站建設(shè)方案,app軟件開發(fā)公司,太谷h5小程序定制開發(fā)搭建,太谷網(wǎng)站營銷推廣歡迎太谷等地區(qū)企業(yè)咨詢有哪些大數(shù)據(jù)開發(fā)常用的工具?很多新手對此不是很清楚,為了幫助大家解決這個難題,下面小編將為大家詳細(xì)講解,有這方面需求的人可以來學(xué)習(xí)下,希望你能有所收獲。
Java語言和 Linux操作系統(tǒng),它們是學(xué)習(xí)大數(shù)據(jù)的基礎(chǔ)。
java:只需了解一些基本知識,不需要用很深的Java技術(shù)來做大數(shù)據(jù),學(xué)習(xí) java SE等于學(xué)習(xí)大數(shù)據(jù)基礎(chǔ)。
Linux:因為與大數(shù)據(jù)有關(guān)的軟件都在 Linux上運(yùn)行,所以 Linux要學(xué)扎實一點(diǎn),學(xué)好Linux對你快速掌握與大數(shù)據(jù)有關(guān)的技術(shù),能讓你更好地了解 hadoop, hive, hbase, spark等大數(shù)據(jù)軟件的運(yùn)行環(huán)境和網(wǎng)絡(luò)環(huán)境配置,能少走很多彎路,學(xué)會 shell可以更輕松地理解和配置大數(shù)據(jù)集群。同時也可以讓你更快地了解到未來大數(shù)據(jù)技術(shù)的發(fā)展。
hadoop:這是一個流行的大數(shù)據(jù)處理平臺,它幾乎成了大數(shù)據(jù)的代名詞,所以一定要學(xué)習(xí)它。在Hadoop中包含了HDFS、MapReduce和 YARN這三個組件, HDFS就像我們電腦硬盤上的文件一樣存儲在這些文件中, MapReduce用來處理數(shù)據(jù),而 MapReduce用來計算數(shù)據(jù),它的一個特點(diǎn)是,不管數(shù)據(jù)多大,只要給它時間, MapReduce就可以運(yùn)行數(shù)據(jù),但時間可能不會太快,因此它稱之為數(shù)據(jù)的批量處理。
Zookeeper:這是一個萬金油,當(dāng)你安裝 Hadoop的 HA時就可以使用它,Hbase以后也可以使用。該軟件通常用于存儲一些相互協(xié)作的信息,這些信息一般不會超過1 M,所有使用該軟件的軟件都依賴于此,對于我們個人來說,只需正確安裝該軟件,使其正常運(yùn)行即可。
mysql:我們學(xué)習(xí)了大數(shù)據(jù)處理,然后學(xué)習(xí)了 mysql數(shù)據(jù)庫處理小數(shù)據(jù)的工具,因為現(xiàn)在還在使用 mysql, mysql需要掌握多少層那?您可以在 Linux上安裝、運(yùn)行它,配置簡單的權(quán)限、修改 root密碼、創(chuàng)建數(shù)據(jù)庫。在這里,我們主要學(xué)習(xí) SQL的語法,因為 hive的語法非常類似于此。
sqoop:此文件用于從 Mysql導(dǎo)入數(shù)據(jù)到 Hadoop。同樣的,您也可以不用它,直接將 Mysql數(shù)據(jù)表導(dǎo)出為文件放入 HDFS,當(dāng)然,在生產(chǎn)環(huán)境中使用 Mysql時也要小心。
Hive:這是一款非常適合使用 SQL語法的工具,可以使您輕松地處理大量數(shù)據(jù),并且無需編寫 MapReduce程序。有人說皮格是嗎?跟 Pig差不多掌握其中一項。
現(xiàn)在你已經(jīng)學(xué)會了 Hive,我相信你一定需要這款軟件,它可以幫助你管理 Hive或 MapReduce,Spark腳本,還可以檢查你的程序是否正確運(yùn)行,如果出現(xiàn)錯誤,向你發(fā)送警報并重新嘗試程序,最重要的是,它還可以幫助你配置任務(wù)的依賴性。你肯定會喜歡它的,否則你就會看著一大堆腳本,密密麻麻地寫著 crond。
hbase:這是 Hadoop生態(tài)系統(tǒng)中的 NOSQL數(shù)據(jù)庫,他的數(shù)據(jù)以 key和 value的形式存儲, key是惟一的,因此它可以用于數(shù)據(jù)的重排,與 MYSQL相比,它可以存儲大量的數(shù)據(jù)。因此,他經(jīng)常在處理完大數(shù)據(jù)后用于存儲目的地。
Kafka:這是一個更好的隊列工具,為什么要使用隊列呢?更多的數(shù)據(jù)也同樣需要排隊,例如,數(shù)百G文件如何處理,當(dāng)您將數(shù)據(jù)逐個放到隊列中時,您可以將其逐個取出,當(dāng)然,您還可以使用該工具對在線實時數(shù)據(jù)進(jìn)行入庫或加入 HDFS,此時您可以與一個名為 Flume的工具協(xié)作,該工具專門用于提供對數(shù)據(jù)的簡單處理,并將其寫入各種數(shù)據(jù)接收者(如 Kafka)。
Spark:它用來彌補(bǔ)基于 MapReduce的數(shù)據(jù)處理速度的不足,它的特點(diǎn)是將數(shù)據(jù)裝入內(nèi)存中進(jìn)行計算,而不是去讀慢的、會導(dǎo)致死機(jī)的、進(jìn)化也特別慢的硬盤。尤其適用于迭代運(yùn)算,其中算法的優(yōu)化是核心。JAVA或 Scala都能操縱它。
看完上述內(nèi)容是否對您有幫助呢?如果還想對相關(guān)知識有進(jìn)一步的了解或閱讀更多相關(guān)文章,請關(guān)注創(chuàng)新互聯(lián)-成都網(wǎng)站建設(shè)公司行業(yè)資訊頻道,感謝您對創(chuàng)新互聯(lián)的支持。