這篇文章給大家介紹如何進(jìn)行delta lake 的curd操作,內(nèi)容非常詳細(xì),感興趣的小伙伴們可以參考借鑒,希望對(duì)大家能有所幫助。
公司主營(yíng)業(yè)務(wù):成都網(wǎng)站設(shè)計(jì)、做網(wǎng)站、移動(dòng)網(wǎng)站開(kāi)發(fā)等業(yè)務(wù)。幫助企業(yè)客戶真正實(shí)現(xiàn)互聯(lián)網(wǎng)宣傳,提高企業(yè)的競(jìng)爭(zhēng)能力。創(chuàng)新互聯(lián)公司是一支青春激揚(yáng)、勤奮敬業(yè)、活力青春激揚(yáng)、勤奮敬業(yè)、活力澎湃、和諧高效的團(tuán)隊(duì)。公司秉承以“開(kāi)放、自由、嚴(yán)謹(jǐn)、自律”為核心的企業(yè)文化,感謝他們對(duì)我們的高要求,感謝他們從不同領(lǐng)域給我們帶來(lái)的挑戰(zhàn),讓我們激情的團(tuán)隊(duì)有機(jī)會(huì)用頭腦與智慧不斷的給客戶帶來(lái)驚喜。創(chuàng)新互聯(lián)公司推出日照免費(fèi)做網(wǎng)站回饋大家。
delta lake 的表支持刪除和更新數(shù)據(jù)的語(yǔ)法,下面主要是從sql和scala兩個(gè)語(yǔ)法說(shuō)起吧。
1. 刪除delta 表數(shù)據(jù)
可以根據(jù)查詢條件,從delta表中刪除數(shù)據(jù),比如刪除日期在2017年之前的數(shù)據(jù),sql和scala的表達(dá)語(yǔ)法如下。
sql
DELETE FROM events WHERE date < '2017-01-01'
DELETE FROM delta.`/data/events/` WHERE date < '2017-01-01'
scala
import io.delta.tables._
val deltaTable = DeltaTable.forPath(spark, "/data/events/")
deltaTable.delete("date < '2017-01-01'") // predicate using SQL formatted string
import org.apache.spark.sql.functions._
import spark.implicits._
deltaTable.delete(col("date") < "2017-01-01") // predicate using Spark SQL functions and implicits
請(qǐng)注意,delete操作會(huì)將數(shù)據(jù)從delta 表的最新版本中刪除,但其實(shí)只有到歷史版本直接被vacuum清空的時(shí)候,才會(huì)從物理存儲(chǔ)中刪除數(shù)據(jù)。
2. 更新表
可以更新滿足條件的表。比如想更新eventType的字段字符串的編寫(xiě)失誤,可以使用下面的表達(dá),sql和scala的表達(dá)分別如下:
sql
UPDATE events SET eventType = 'click' WHERE eventType = 'clck'UPDATE delta.`/data/events/` SET eventType = 'click' WHERE eventType = 'clck'
scala
import io.delta.tables._
val deltaTable = DeltaTable.forPath(spark, "/data/events/")
deltaTable.updateExpr( // predicate and update expressions using SQL formatted string
"eventType = 'clck'",
Map("eventType" -> "'click'")
import org.apache.spark.sql.functions._
import spark.implicits._
deltaTable.update( // predicate using Spark SQL functions and implicits
col("eventType") === "clck",
Map("eventType" -> lit("click")));
3.merge算子實(shí)現(xiàn)upsert操作
使用merge操作可以將source表,view,dataframe中的數(shù)據(jù)upsert到目標(biāo)的delta lake表中。該操作很像傳統(tǒng)數(shù)據(jù)庫(kù)的merge into操作,但是額外的支持刪除操作,和更新,插入和刪除的額外條件。
假設(shè)你計(jì)算過(guò)程中生成了一個(gè)dataframe,元素是events,包含eventId。而且該dataframe中數(shù)據(jù)部分?jǐn)?shù)據(jù)的eventId已經(jīng)在events表中存在了。這個(gè)時(shí)候就可以使用merge into實(shí)現(xiàn),eventId存在的話就更新其對(duì)應(yīng)的值,不存在就插入其對(duì)應(yīng)的值。實(shí)現(xiàn)表達(dá)式如下:
sql
MERGE INTO eventsUSING updatesON events.eventId = updates.eventIdWHEN MATCHED THEN UPDATE SET events.data = updates.dataWHEN NOT MATCHED THEN INSERT (date, eventId, data) VALUES (date, eventId, data)
scala
import io.delta.tables._
import org.apache.spark.sql.functions._
val updatesDF = ... // define the updates DataFrame[date, eventId, data]
DeltaTable.forPath(spark, "/data/events/")
.as("events")
.merge(
updatesDF.as("updates"),
"events.eventId = updates.eventId")
.whenMatched
.updateExpr(
Map("data" -> "updates.data"))
.whenNotMatched
.insertExpr(
Map(
"date" -> "updates.date",
"eventId" -> "updates.eventId",
"data" -> "updates.data"))
.execute()
關(guān)于如何進(jìn)行delta lake 的curd操作就分享到這里了,希望以上內(nèi)容可以對(duì)大家有一定的幫助,可以學(xué)到更多知識(shí)。如果覺(jué)得文章不錯(cuò),可以把它分享出去讓更多的人看到。