華為云物聯(lián)網(wǎng)數(shù)據(jù)分析服務已與物聯(lián)網(wǎng)接入服務無縫集成,設(shè)備一旦通過接入服務接入華為云,并授權(quán)數(shù)據(jù)分析服務訪問數(shù)據(jù),即可獲得常見設(shè)備運營分析相關(guān)的數(shù)據(jù)集,無需數(shù)據(jù)開發(fā)人員進行開發(fā)。因此通過物聯(lián)網(wǎng)數(shù)據(jù)分析服務,可以使得物聯(lián)網(wǎng)設(shè)備運營相關(guān)的數(shù)據(jù)開發(fā)周期從數(shù)周縮短至幾分鐘 企業(yè)OT數(shù)據(jù)治理: 業(yè)務挑戰(zhàn)
實時流計算CS已與數(shù)據(jù)湖探索DLI進行了合并,同SPU資源下 數(shù)據(jù)湖探索DLI 價格下降30%,請前往體驗> 進入DLI控制臺 立即購買 [退市通知] 華為云實時流計算服務于2020年11月1日00:00:00(北京時間)退市,原有功能已合并到DLI [進入DLI] 數(shù)據(jù)湖探索DLI主頁 [退市通知]
邏輯集群,支持一套集群容納數(shù)據(jù)集市、數(shù)據(jù)倉庫 搭配使用 數(shù)據(jù)接入服務 DIS 云數(shù)據(jù)遷移 CDM 數(shù)據(jù)湖治理中心 DataArts Studio 一站式BI解決方案 一站式BI解決方案 企業(yè)積累的海量數(shù)據(jù)及各種數(shù)據(jù)資產(chǎn),體量龐大,需高性能大數(shù)據(jù)平臺支撐進行全量數(shù)據(jù)分析和挖掘。依托DW
03 連接集群 支持多種連接方式,包括JDBC/ODBC,Python,gsql客戶端,WebSQL界面工具DAS、Data Studio。 04 導入數(shù)據(jù) 支持多種數(shù)據(jù)源和導入工具完成數(shù)據(jù)入庫:支持OBS外表、GDS外表導入;支持CDM、DRS、DLI實時入庫;支持訪問遠端MRS
搭配使用 數(shù)據(jù)湖探索 DLI 云數(shù)據(jù)遷移 CDM 消息日志類數(shù)據(jù)存儲和查詢 消息日志類數(shù)據(jù)存儲和查詢 CloudTable(HBase)滿足消息或日志類數(shù)據(jù)的高速查詢后展現(xiàn)或者返回到應用。適用于以下等場景:消息數(shù)據(jù)、報表數(shù)據(jù)、推薦類數(shù)據(jù)、風控類數(shù)據(jù)、日志數(shù)據(jù)、訂單數(shù)據(jù)等結(jié)構(gòu)化、半
安全可靠 DWS支持數(shù)據(jù)透明加密,同時支持與數(shù)據(jù)庫安全服務DBSS集成,保證云上數(shù)據(jù)安全。同時DWS支持自動數(shù)據(jù)全量、增量備份,提升數(shù)據(jù)可靠性 建議搭配使用 數(shù)據(jù)接入服務 DIS 云數(shù)據(jù)遷移 CDM 數(shù)據(jù)湖治理中心 DGC 數(shù)據(jù)湖分析 整合數(shù)據(jù)資源,構(gòu)建大數(shù)據(jù)平臺,發(fā)現(xiàn)數(shù)據(jù)價值,成為企業(yè)經(jīng)營的新趨勢和迫切訴求。DWS
同時支持各種結(jié)構(gòu)化/半結(jié)構(gòu)化/非結(jié)構(gòu)化數(shù)據(jù)計算處理,輕松遷移傳統(tǒng)數(shù)倉數(shù)據(jù),實現(xiàn)跨源數(shù)據(jù)探索分析。 場景適用服務 MapReduce服務 MRS 對象存儲服務 OBS 云數(shù)據(jù)庫 RDS for MySQL 游戲行業(yè) 游戲 游戲日志數(shù)據(jù)通過Kafka/Flume實時接入,利用SparkStreaming實
配,外接觸控屏體驗書寫協(xié)作的暢快 聯(lián)接時空 改變未來 CloudLink Board CloudLink Bar CloudLink Box CloudLink Board CloudLink Bar CloudLink Box 購買咨詢熱線: 4000-955-988或950808按1轉(zhuǎn)1
的分布式數(shù)據(jù)庫,兼容Cassandra/HBase協(xié)議的云原生NoSQL數(shù)據(jù)庫,支持類SQL語法CQL GeminiDB Cassandra接口是一款基于華為自研的計算存儲分離架構(gòu)的分布式數(shù)據(jù)庫,兼容Cassandra/HBase協(xié)議的云原生NoSQL數(shù)據(jù)庫,支持類SQL語法CQL
51CloudLink(彈性混合云專線),基于銳速全球骨干傳輸網(wǎng),連接企業(yè)與大規(guī)模公有云,為客戶提供的高速專線服務。1、用于搭建企業(yè)自有計算環(huán)境到公有云用戶計算環(huán)境的高速、穩(wěn)定、安全的專屬通道。用戶可使用專線接入服務將本地數(shù)據(jù)中心的計算機與云上的云服務器或托管主機實現(xiàn)私網(wǎng)相連,充
通過對接企業(yè)的各種系統(tǒng)數(shù)據(jù)源,以獨有的行業(yè)算法模型進行數(shù)據(jù)整合與多樣化深度分析,自動生成可視化圖表結(jié)果,供用戶在電腦、手機、大屏查看。幫助企業(yè)高管掌握數(shù)據(jù)狀況,輔助管理決策。 企業(yè)數(shù)據(jù)分析及決策支持系統(tǒng)通過搭建強大算法引擎,建模提煉企業(yè)系統(tǒng)數(shù)據(jù),為企業(yè)高管提供實時的企業(yè)運營
修改密碼,刪除,限制FTP空間大小 6 mysql用戶管理,可建獨立mysql數(shù)據(jù)庫,密碼修改,刪除等.可以限制mysql使用大小,更多的功能,可使用phpmyadmin 7 后臺整合phpmyadmin,更好地管理mysql 8 支持網(wǎng)站,數(shù)據(jù)庫,FTP在線打包備份 在線文件管理器 1
server 腳本啟動:/usr/local/terarksql-4.8-bmi2-0/terarksql.server start關(guān)閉:/usr/local/terarksql-4.8-bmi2-0/terarksql.server stop重啟:/usr/local/terarksql-4
本產(chǎn)品針對紙券發(fā)放場景存在的人工效率低、信息準確率差等問題,簡化紙券填寫流程,實現(xiàn)紙券自定義快速打印,減少收費員人工操作環(huán)節(jié),提高車輛通行效率及紙券收費準確性,提升用戶體驗感。本產(chǎn)品針對紙券發(fā)放場景存在的人工效率低、信息準確率差等問題,簡化紙券填寫流程,實現(xiàn)紙券自定義快速打印,減
源碼安裝的PostgreSQL10.3此鏡像商品為源碼編譯安裝的PostgreSQL數(shù)據(jù)庫,作為配合乘數(shù)科技Clup高可用軟件數(shù)據(jù)庫使用,也可單獨做為數(shù)據(jù)庫使用null
遼寧拓云基于華為云WeLink的支持服務,提供產(chǎn)品演示、使用咨詢、后臺設(shè)置、功能指導等服務。商品說明 交付方式: 人工服務適用于: Windows/Linux/Android/iOS 遼寧拓云提供基于華為云WeLink的支持服務,提供產(chǎn)品演示、使用咨詢、案例講解、后臺設(shè)置、功能指導等服務。服務內(nèi)容: (
武漢德發(fā)提供基于華為云WeLink的支持服務,提供產(chǎn)品演示、使用咨詢、后臺設(shè)置、功能指導等服務【基礎(chǔ)版】 服務價格: 1人天上門服務,單價2500元/套。 服務內(nèi)容: (1)上門服務:1對1指導部署,產(chǎn)品操作演示方案講解;幫助設(shè)置考勤、審批等常用應用;分享同行優(yōu)秀管理案例; (2) 遠程支持:管理員后臺配置修改;使用咨詢。
功能指導等服務。服務價格基礎(chǔ)版:1人天上門——2500/套;白銀版:5人天上門+全年遠程支持——10000/套年黃金版:10人天上門+全年遠程支持——18000/套年鉑金版:15人天上門+全年遠程支持——22500/套年全年人員外包模式——1500/人天基礎(chǔ)版上門支持:1、WeL
創(chuàng)建并提交Spark SQL作業(yè) 使用DLI提交SQL作業(yè)查詢RDS MySQL數(shù)據(jù) 本例以SQL作業(yè)訪問RDS數(shù)據(jù)庫表為例,介紹DLI服務提交SQL作業(yè)訪問外部數(shù)據(jù)源數(shù)據(jù)的操作步驟。 本例以SQL作業(yè)訪問RDS數(shù)據(jù)庫表為例,介紹DLI服務提交SQL作業(yè)訪問外部數(shù)據(jù)源數(shù)據(jù)的操作步驟。 使用DLI提交SQL作業(yè)查詢RDS
使用DLI進行電商實時業(yè)務數(shù)據(jù)分析 數(shù)據(jù)湖探索優(yōu)勢 支持SQL操作: DLI提供標準SQL接口,用戶僅需使用SQL便可實現(xiàn)海量數(shù)據(jù)查詢分析。SQL語法全兼容標準ANSI SQL 2003。 跨源分析: 支持多種數(shù)據(jù)格式,云上多種數(shù)據(jù)源、ECS自建數(shù)據(jù)庫以及線下數(shù)據(jù)庫,數(shù)據(jù)無需搬遷
通過創(chuàng)建PostgreSQL CDC來監(jiān)控Postgres的數(shù)據(jù)變化,并將數(shù)據(jù)信息插入到DWS數(shù)據(jù)庫中。 PostgreSQL CDC讀取數(shù)據(jù)寫入到DWS JDBC或ODBC提交Spark SQL作業(yè) 通過創(chuàng)建MySQL CDC源表來監(jiān)控MySQL的數(shù)據(jù)變化,并將變化的數(shù)據(jù)信息插入到DWS數(shù)據(jù)庫中。
跨源連接的特點與用途 DLI支持原生Spark的跨源連接能力,并在其基礎(chǔ)上進行了擴展,能夠通過SQL語句、Spark作業(yè)或者Flink作業(yè)訪問其他數(shù)據(jù)存儲服務并導入、查詢、分析處理其中的數(shù)據(jù),數(shù)據(jù)湖探索跨源連接的功能是打通數(shù)據(jù)源之間的網(wǎng)絡(luò)連接。 數(shù)據(jù)湖探索跨源連接的功能是打通數(shù)據(jù)源之間的網(wǎng)絡(luò)
。 代金券和現(xiàn)金券的使用方法一樣,支付訂單時,系統(tǒng)會自動獲取所有滿足條件的代金券和現(xiàn)金券,您可以直接選擇使用;抵扣按需費用時,系統(tǒng)會自動選擇使用代金券和現(xiàn)金券。 代金券和現(xiàn)金券的使用規(guī)則區(qū)別如下: 1、現(xiàn)金券可以與其他券疊加使用?,F(xiàn)金券和代金券疊加使用時,優(yōu)先抵扣代金券;現(xiàn)金券和
華為認證優(yōu)惠券申請 華為認證優(yōu)惠券是代金券和折扣券的統(tǒng)稱,是指華為云提供給客戶的優(yōu)惠憑證。本專題主要為用戶提供了怎樣申請華為認證優(yōu)惠券、怎樣領(lǐng)取通用優(yōu)惠券、什么是華為充值優(yōu)惠券、華為充值優(yōu)惠券使用限制以及華為認證優(yōu)惠券申請相關(guān)文章推薦等內(nèi)容。 華為認證優(yōu)惠券是代金券和折扣券的統(tǒng)稱,是
代金券和現(xiàn)金券有什么區(qū)別? 代金券和現(xiàn)金券的使用方法一樣,支付訂單時,系統(tǒng)會自動獲取所有滿足條件的代金券和現(xiàn)金券,您可以直接選擇使用;抵扣按需費用時,系統(tǒng)會自動選擇使用代金券和現(xiàn)金券。 代金券和現(xiàn)金券的使用規(guī)則區(qū)別如下: 現(xiàn)金券可以與其他券疊加使用。現(xiàn)金券和代金券疊加使用時,優(yōu)先抵扣代金券;現(xiàn)金券和折扣券
領(lǐng)取的華為云優(yōu)惠券使用時的注意事項: 優(yōu)惠券包括代金券、折扣券和現(xiàn)金券。 折扣券使用注意事項: 1、一次支付只能使用一張折扣券。 2、折扣券僅適用于華為云包年/包月產(chǎn)品,按需產(chǎn)品不支持使用折扣券。 3、折扣券使用后不可退。 現(xiàn)金券使用注意事項: 1、現(xiàn)金券僅適用于華為云產(chǎn)品和云市場嚴選商品,不適用于云市場普通商品,具體以現(xiàn)金券適用說明為準。
華為代金券_代金券使用說明_?活動代金券_代金券怎么用 云服務器代金券_華為云服務器代金券領(lǐng)取 云市場服務商如何發(fā)布代金券 云市場服務商如何作廢代金券 云市場服務商如何查看代金券 華為云折扣券 免費獲取華為支付優(yōu)惠券_華為云的優(yōu)惠券可以支付套餐嗎 域名優(yōu)惠券_華為云域名優(yōu)惠券_華為域名續(xù)費優(yōu)惠券
DLI支持券SQL數(shù)據(jù)分析嗎
功能描述
DLI支持將Flink作業(yè)數(shù)據(jù)輸出到ClickHouse 數(shù)據(jù)庫 中,表類型僅支持結(jié)果表。
ClickHouse是面向聯(lián)機分析處理的列式數(shù)據(jù)庫,支持SQL查詢,且查詢性能好,特別是基于大寬表的聚合分析查詢性能非常優(yōu)異,比其他分析型數(shù)據(jù)庫速度快一個數(shù)量級。詳細請參考ClickHouse組件操作。
|
類別 |
詳情 |
|---|---|
|
支持表類型 |
結(jié)果表 |
前提條件
注意事項
- 創(chuàng)建Flink OpenSource SQL作業(yè)時,在作業(yè)編輯界面的“運行參數(shù)”處,“Flink版本”需要選擇“1.15”,勾選“保存作業(yè)日志”并設(shè)置保存作業(yè)日志的 OBS 桶,方便后續(xù)查看作業(yè)日志。
- 認證用的username和password等硬編碼到代碼中或者明文存儲都有很大的安全風險,建議使用 DEW 管理憑證。配置文件或者環(huán)境變量中密文存放,使用時解密,確保安全。Flink Opensource SQL使用DEW管理訪問憑據(jù)
- 創(chuàng)建 MRS 的ClickHouse集群,集群版本選擇MRS 3.1.0及以上版本。
- ClickHouse結(jié)果表不支持刪除表數(shù)據(jù)操作。
- Flink中支持字段類型范圍為:string、tinyint、smallint、int、bigint、float、double、date、timestamp、decimal以及Array。
語法格式
123456789 |
create table clickhouseSink ( attr_name attr_type (',' attr_name attr_type)* )with ( 'type' = 'clickhouse', 'url' = '', 'table-name' = ''); |
參數(shù)說明
|
參數(shù) |
是否必選 |
默認值 |
數(shù)據(jù)類型 |
說明 |
|---|---|---|---|---|
|
connector |
是 |
無 |
String |
固定為:clickhouse |
|
url |
是 |
無 |
String |
ClickHouse的url。 參數(shù)格式為:jdbc:clickhouse://ClickHouseBalancer實例業(yè)務IP1:ClickHouseBalancer端口,ClickHouseBalancer實例業(yè)務IP2:ClickHouseBalancer端口/數(shù)據(jù)庫名
|
|
table-name |
是 |
無 |
String |
ClickHouse的表名。 |
|
driver |
否 |
ru.yandex.clickhouse.ClickHouseDriver |
String |
連接數(shù)據(jù)庫所需要的驅(qū)動。若未配置,則會自動通過URL提取,默認為ru.yandex.clickhouse.ClickHouseDriver。 |
|
username |
否 |
無 |
String |
訪問ClickHouse數(shù)據(jù)庫的賬號名,MRS集群開啟Kerberos認證時需要填寫。 |
|
password |
否 |
無 |
String |
訪問ClickHouse數(shù)據(jù)庫賬號的密碼,MRS集群開啟Kerberos認證時需要填寫。 |
|
sink.buffer-flush.max-rows |
否 |
100 |
Integer |
寫數(shù)據(jù)時刷新數(shù)據(jù)的最大行數(shù),默認值為100。 |
|
sink.buffer-flush.interval |
否 |
1s |
Duration |
刷新數(shù)據(jù)的時間間隔,單位可以為ms、milli、millisecond/s、sec、second/min、minute等,默認值為1s。設(shè)置為0則表示不根據(jù)時間刷新。 |
|
sink.max-retries |
否 |
3 |
Integer |
寫數(shù)據(jù)失敗時的最大嘗試次數(shù),默認值為3。 |
示例
- 示例1:從Kafka中讀取數(shù)據(jù),并將數(shù)據(jù)插入ClickHouse中(ClickHouse版本為MRS的21.3.4.25,且MRS集群未開啟Kerberos認證):
- 參考增強型跨源連接,在DLI上根據(jù)ClickHouse和Kafka集群所在的虛擬 私有云 和子網(wǎng)分別創(chuàng)建跨源連接,并綁定所要使用的Flink彈性資源池。
- 設(shè)置ClickHouse和Kafka集群安全組的入向規(guī)則,使其對當前將要使用的Flink作業(yè)隊列網(wǎng)段放通。參考測試地址連通性根據(jù)ClickHouse和Kafka的地址測試隊列連通性。如果能連通,則表示跨源已經(jīng)綁定成功,否則表示未成功。
- 使用ClickHouse客戶端連接到ClickHouse服務端,并使用以下命令查詢集群標識符cluster等其他環(huán)境參數(shù)信息。
詳細操作請參考從零開始使用ClickHouse。
select cluster,shard_num,replica_num,host_name from system.clusters;
其返回信息如下圖:┌─cluster────┬────┬─shard_num─┐│ default_cluster │ 1 │ 1 ││ default_cluster │ 1 │ 2 │└──────── ┴────┴────── ┘
根據(jù)獲取到的集群標識符cluster,例如當前為default_cluster ,使用以下命令在ClickHouse的default_cluster集群節(jié)點上創(chuàng)建數(shù)據(jù)庫flink。
CREATE DATAB AS E flink ON CLUSTER default_cluster;
- 使用以下命令在default_cluster集群節(jié)點上和flink數(shù)據(jù)庫下創(chuàng)建表名為order的ReplicatedMergeTree表。
CREATE TABLE flink.order ON CLUSTER default_cluster(order_id String,order_channel String,order_time String,pay_amount Float64,real_pay Float64,pay_time String,user_id String,user_name String,area_id String) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/flink/order', '{replica}')ORDER BY order_id; - 參考創(chuàng)建Flink OpenSource作業(yè),創(chuàng)建flink opensource sql作業(yè),輸入以下作業(yè)腳本,并提交運行。該作業(yè)腳本將DMS Kafka作為數(shù)據(jù)源,ClickHouse作業(yè)結(jié)果表。
如下腳本中的加粗參數(shù)請根據(jù)實際環(huán)境修改。
create table orders ( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string) WITH ( 'connector' = 'kafka', 'topic' = 'KafkaTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'properties.group.id' = 'GroupId', 'scan.startup.mode' = 'latest-offset', 'format' = 'json');create table clickhouseSink( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string) with ( 'connector' = 'clickhouse', 'url' = 'jdbc:clickhouse://ClickhouseAddress1:ClickhousePort,ClickhouseAddress2:ClickhousePort/flink', 'username' = 'username', 'password' = 'password', 'table-name' = 'order', 'sink.buffer-flush.max-rows' = '10', 'sink.buffer-flush.interval' = '3s');insert into clickhouseSink select * from orders;
- 連接Kafka集群,向DMS Kafka中插入以下測試數(shù)據(jù):
{"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}{"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}{"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"} - 使用ClickHouse客戶端連接到ClickHouse,執(zhí)行以下查詢命令,查詢寫入flink數(shù)據(jù)庫下order表中的數(shù)據(jù)。
select * from flink.order;
查詢結(jié)果參考如下:
202103241000000001 webShop 2021-03-24 10:00:00 100 100 2021-03-24 10:02:03 0001 Alice 330106202103241606060001 appShop 2021-03-24 16:06:06 200 180 2021-03-24 16:10:06 0001 Alice 330106 202103251202020001 miniAppShop 2021-03-25 12:02:02 60 60 2021-03-25 12:03:00 0002 Bob 330110
- 示例2:從Kafka中讀取數(shù)據(jù),并將數(shù)據(jù)插入ClickHouse中(ClickHouse版本為MRS的21.3.4.25,且MRS集群開啟Kerberos認證)
- 參考增強型跨源連接,在DLI上根據(jù)ClickHouse和Kafka集群所在的虛擬私有云和子網(wǎng)分別創(chuàng)建跨源連接,并綁定所要使用的Flink彈性資源池。
- 設(shè)置ClickHouse和Kafka集群安全組的入向規(guī)則,使其對當前將要使用的Flink作業(yè)隊列網(wǎng)段放通。參考測試地址連通性根據(jù)ClickHouse和Kafka的地址測試隊列連通性。如果能連通,則表示跨源已經(jīng)綁定成功,否則表示未成功。
- 使用ClickHouse客戶端連接到ClickHouse服務端,并使用以下命令查詢集群標識符cluster等其他環(huán)境參數(shù)信息。
select cluster,shard_num,replica_num,host_name from system.clusters;
其返回信息如下圖:┌─cluster────┬────┬─shard_num─┐│ default_cluster │ 1 │ 1 ││ default_cluster │ 1 │ 2 │└──────── ┴────┴────── ┘
根據(jù)獲取到的集群標識符cluster,例如當前為default_cluster ,使用以下命令在ClickHouse的default_cluster集群節(jié)點上創(chuàng)建數(shù)據(jù)庫flink。
CREATE DATABASE flink ON CLUSTER default_cluster;
- 使用以下命令在default_cluster集群節(jié)點上和flink數(shù)據(jù)庫下創(chuàng)建表名為order的ReplicatedMergeTree表。
CREATE TABLE flink.order ON CLUSTER default_cluster(order_id String,order_channel String,order_time String,pay_amount Float64,real_pay Float64,pay_time String,user_id String,user_name String,area_id String) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/flink/order', '{replica}')ORDER BY order_id; - 參考創(chuàng)建Flink OpenSource作業(yè),創(chuàng)建flink opensource sql作業(yè),輸入以下作業(yè)腳本,并提交運行。該作業(yè)腳本將Kafka作為數(shù)據(jù)源,ClickHouse作業(yè)結(jié)果表。
如下腳本中的加粗參數(shù)請根據(jù)實際環(huán)境修改。
create table orders ( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string) WITH ( 'connector' = 'kafka', 'topic' = 'KafkaTopic', 'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort', 'properties.group.id' = 'GroupId', 'scan.startup.mode' = 'latest-offset', 'format' = 'json');create table clickhouseSink( order_id string, order_channel string, order_time string, pay_amount double, real_pay double, pay_time string, user_id string, user_name string, area_id string) with ( 'connector' = 'clickhouse', 'url' = 'jdbc:clickhouse://ClickhouseAddress1:ClickhousePort,ClickhouseAddress2:ClickhousePort/flink?ssl=true&sslmode=none', 'table-name' = 'order', 'username' = 'username', 'password' = 'password', --DEW憑據(jù)中的key 'sink.buffer-flush.max-rows' = '10', 'sink.buffer-flush.interval' = '3s', 'dew.endpoint'='kms.xx.xx.com', --使用的DEW服務所在的endpoint信息 'dew.csms.secretName'='xx', --DEW服務通用憑據(jù)的憑據(jù)名稱 'dew.csms.decrypt.fields'='password', --password字段值需要利用DEW憑證管理,進行解密替換 'dew.csms.version'='v1');insert into clickhouseSink select * from orders;
- 連接Kafka集群,向Kafka中插入以下測試數(shù)據(jù):
{"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}{"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}{"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"} - 使用ClickHouse客戶端連接到ClickHouse,執(zhí)行以下查詢命令,查詢寫入flink數(shù)據(jù)庫下order表中的數(shù)據(jù)。
select * from flink.order;
查詢結(jié)果參考如下:
202103241000000001 webShop 2021-03-24 10:00:00 100 100 2021-03-24 10:02:03 0001 Alice 330106202103241606060001 appShop 2021-03-24 16:06:06 200 180 2021-03-24 16:10:06 0001 Alice 330106 202103251202020001 miniAppShop 2021-03-25 12:02:02 60 60 2021-03-25 12:03:00 0002 Bob 330110
DLI支持券SQL數(shù)據(jù)分析嗎常見問題
更多常見問題 >>-
DLI在開源Spark基礎(chǔ)上進行了大量的性能優(yōu)化與服務化改造,不僅兼容Apache Spark生態(tài)和接口,性能較開源提升了2.5倍,在小時級即可實現(xiàn)EB級數(shù)據(jù)查詢分析。
-
數(shù)據(jù)湖探索(Data Lake Insight,簡稱DLI)是完全兼容Apache Spark和Apache Flink生態(tài), 實現(xiàn)批流一體的Serverless大數(shù)據(jù)計算分析服務。DLI支持多模引擎,企業(yè)僅需使用SQL或程序就可輕松完成異構(gòu)數(shù)據(jù)源的批處理、流處理等,挖掘和探索數(shù)據(jù)價值
-
DLI用戶可以通過可視化界面、Restful API、JDBC、ODBC、Beeline等多種接入方式對云上CloudTable、RDS和DWS等異構(gòu)數(shù)據(jù)源進行查詢分析,數(shù)據(jù)格式兼容CSV、JSON、Parquet和ORC主流數(shù)據(jù)格式。
-
DLI表表示數(shù)據(jù)存儲在數(shù)據(jù)湖探索(DLI)內(nèi)部的表。查詢性能更好,適用于對時延敏感類的業(yè)務,如交互類的查詢等。
-
數(shù)據(jù)湖探索(Data Lake Insight,簡稱DLI)是完全兼容Apache Spark和Apache Flink生態(tài), 實現(xiàn)批流一體的Serverless大數(shù)據(jù)計算分析服務。DLI支持多模引擎,企業(yè)僅需使用SQL或程序就可輕松完成異構(gòu)數(shù)據(jù)源的批處理、流處理等,挖掘和探索數(shù)據(jù)價值
-
Flink是一款分布式的計算引擎,可以用來做批處理,即處理靜態(tài)的數(shù)據(jù)集、歷史的數(shù)據(jù)集;也可以用來做流處理,即實時地處理一些實時數(shù)據(jù)流,實時地產(chǎn)生數(shù)據(jù)的結(jié)果。DLI在開源Flink基礎(chǔ)上進行了特性增強和安全增強,提供了數(shù)據(jù)處理所必須的Stream SQL特性。
DLI支持券SQL數(shù)據(jù)分析嗎教程視頻
最佳實踐視頻幫助您快速了解搭建流程 了解更多
-
數(shù)據(jù)湖探索產(chǎn)品介紹
數(shù)據(jù)湖探索是完全托管的大數(shù)據(jù)處理分析服務,無需ETL,使用SQL和Spark程序就可以對華為云上多源異構(gòu)數(shù)據(jù)進行探索。該視頻向您通俗易懂地展示了DLI服務解決的問題及特點。 -
OCR文字識別的SQLite數(shù)據(jù)分析
華為云MDG技術(shù)社區(qū)重慶站首秀直播,同時基于華為云AI實戰(zhàn)營內(nèi)容,利用華為云ModelArts平臺,展示自主創(chuàng)新的《基于ModelArts OCR文字識別的SQLite數(shù)據(jù)分析》項目 -
數(shù)據(jù)湖探索SQL作業(yè)入門指導
讓您了解數(shù)據(jù)湖探索管理控制臺中SQL作業(yè)的基本操作。
更多相關(guān)專題
增值電信業(yè)務經(jīng)營許可證:B1.B2-20200593 | 域名注冊服務機構(gòu)許可:黔D3-20230001 | 代理域名注冊服務機構(gòu):新網(wǎng)、西數(shù)