五月婷婷丁香性爱|j久久一级免费片|久久美女福利视频|中文观看在线观看|加勒比四区三区二|亚洲裸女视频网站|超碰97AV在线69网站免费观看|有码在线免费视频|久久青青日本视频|亚洲国产AAAA

[快速入門]DLI支持券SQL數(shù)據(jù)分析嗎
IoT數(shù)據(jù)分析

華為云物聯(lián)網(wǎng)數(shù)據(jù)分析服務已與物聯(lián)網(wǎng)接入服務無縫集成,設(shè)備一旦通過接入服務接入華為云,并授權(quán)數(shù)據(jù)分析服務訪問數(shù)據(jù),即可獲得常見設(shè)備運營分析相關(guān)的數(shù)據(jù)集,無需數(shù)據(jù)開發(fā)人員進行開發(fā)。因此通過物聯(lián)網(wǎng)數(shù)據(jù)分析服務,可以使得物聯(lián)網(wǎng)設(shè)備運營相關(guān)的數(shù)據(jù)開發(fā)周期從數(shù)周縮短至幾分鐘 企業(yè)OT數(shù)據(jù)治理: 業(yè)務挑戰(zhàn)

實時流計算服務

實時流計算CS已與數(shù)據(jù)湖探索DLI進行了合并,同SPU資源下 數(shù)據(jù)湖探索DLI 價格下降30%,請前往體驗> 進入DLI控制臺 立即購買 [退市通知] 華為云實時流計算服務于2020年11月1日00:00:00(北京時間)退市,原有功能已合并到DLI [進入DLI] 數(shù)據(jù)湖探索DLI主頁 [退市通知]

數(shù)據(jù)倉庫服務 DWS

邏輯集群,支持一套集群容納數(shù)據(jù)集市、數(shù)據(jù)倉庫 搭配使用 數(shù)據(jù)接入服務 DIS 云數(shù)據(jù)遷移 CDM 數(shù)據(jù)湖治理中心 DataArts Studio 一站式BI解決方案 一站式BI解決方案 企業(yè)積累的海量數(shù)據(jù)及各種數(shù)據(jù)資產(chǎn),體量龐大,需高性能大數(shù)據(jù)平臺支撐進行全量數(shù)據(jù)分析和挖掘。依托DW

數(shù)據(jù)倉庫服務 DWS入門

03 連接集群 支持多種連接方式,包括JDBC/ODBC,Python,gsql客戶端,WebSQL界面工具DAS、Data Studio。 04 導入數(shù)據(jù) 支持多種數(shù)據(jù)源和導入工具完成數(shù)據(jù)入庫:支持OBS外表、GDS外表導入;支持CDM、DRS、DLI實時入庫;支持訪問遠端MRS

表格存儲服務

搭配使用 數(shù)據(jù)湖探索 DLI數(shù)據(jù)遷移 CDM 消息日志類數(shù)據(jù)存儲和查詢 消息日志類數(shù)據(jù)存儲和查詢 CloudTable(HBase)滿足消息或日志類數(shù)據(jù)的高速查詢后展現(xiàn)或者返回到應用。適用于以下等場景:消息數(shù)據(jù)、報表數(shù)據(jù)、推薦類數(shù)據(jù)、風控類數(shù)據(jù)、日志數(shù)據(jù)、訂單數(shù)據(jù)等結(jié)構(gòu)化、半

數(shù)據(jù)倉庫服務應用場景_數(shù)據(jù)倉庫服務客戶案例_GaussDB(DWS)

安全可靠 DWS支持數(shù)據(jù)透明加密,同時支持數(shù)據(jù)庫安全服務DBSS集成,保證云上數(shù)據(jù)安全。同時DWS支持自動數(shù)據(jù)全量、增量備份,提升數(shù)據(jù)可靠性 建議搭配使用 數(shù)據(jù)接入服務 DIS 云數(shù)據(jù)遷移 CDM 數(shù)據(jù)湖治理中心 DGC 數(shù)據(jù)湖分析 整合數(shù)據(jù)資源,構(gòu)建大數(shù)據(jù)平臺,發(fā)現(xiàn)數(shù)據(jù)價值,成為企業(yè)經(jīng)營的新趨勢和迫切訴求。DWS

MapReduce服務

同時支持各種結(jié)構(gòu)化/半結(jié)構(gòu)化/非結(jié)構(gòu)化數(shù)據(jù)計算處理,輕松遷移傳統(tǒng)數(shù)倉數(shù)據(jù),實現(xiàn)跨源數(shù)據(jù)探索分析。 場景適用服務 MapReduce服務 MRS 對象存儲服務 OBS 云數(shù)據(jù)庫 RDS for MySQL 游戲行業(yè) 游戲 游戲日志數(shù)據(jù)通過Kafka/Flume實時接入,利用SparkStreaming實

CloudLink 協(xié)作智真系列

配,外接觸控屏體驗書寫協(xié)作的暢快 聯(lián)接時空 改變未來 CloudLink Board CloudLink Bar CloudLink Box CloudLink Board CloudLink Bar CloudLink Box 購買咨詢熱線: 4000-955-988或950808按1轉(zhuǎn)1

GeminiDB Cassandra 接口

的分布式數(shù)據(jù)庫,兼容Cassandra/HBase協(xié)議的云原生NoSQL數(shù)據(jù)庫,支持SQL語法CQL GeminiDB Cassandra接口是一款基于華為自研的計算存儲分離架構(gòu)的分布式數(shù)據(jù)庫,兼容Cassandra/HBase協(xié)議的云原生NoSQL數(shù)據(jù)庫,支持SQL語法CQL

[相關(guān)產(chǎn)品]DLI支持券SQL數(shù)據(jù)分析嗎
51cloudlink

51CloudLink(彈性混合云專線),基于銳速全球骨干傳輸網(wǎng),連接企業(yè)與大規(guī)模公有云,為客戶提供的高速專線服務。1、用于搭建企業(yè)自有計算環(huán)境到公有云用戶計算環(huán)境的高速、穩(wěn)定、安全的專屬通道。用戶可使用專線接入服務將本地數(shù)據(jù)中心的計算機與云上的云服務器或托管主機實現(xiàn)私網(wǎng)相連,充

募優(yōu)BI-企業(yè)數(shù)據(jù)分析及決策支持系統(tǒng)

通過對接企業(yè)的各種系統(tǒng)數(shù)據(jù)源,以獨有的行業(yè)算法模型進行數(shù)據(jù)整合與多樣化深度分析,自動生成可視化圖表結(jié)果,供用戶在電腦、手機、大屏查看。幫助企業(yè)高管掌握數(shù)據(jù)狀況,輔助管理決策。    企業(yè)數(shù)據(jù)分析及決策支持系統(tǒng)通過搭建強大算法引擎,建模提煉企業(yè)系統(tǒng)數(shù)據(jù),為企業(yè)高管提供實時的企業(yè)運營

WDCP管理面板

修改密碼,刪除,限制FTP空間大小 6 mysql用戶管理,可建獨立mysql數(shù)據(jù)庫,密碼修改,刪除等.可以限制mysql使用大小,更多的功能,可使用phpmyadmin 7 后臺整合phpmyadmin,更好地管理mysql 8 支持網(wǎng)站,數(shù)據(jù)庫,FTP在線打包備份 在線文件管理器 1

TerarkSQL

server  腳本啟動:/usr/local/terarksql-4.8-bmi2-0/terarksql.server start關(guān)閉:/usr/local/terarksql-4.8-bmi2-0/terarksql.server stop重啟:/usr/local/terarksql-4

速印通-高速紙券打印機

本產(chǎn)品針對紙發(fā)放場景存在的人工效率低、信息準確率差等問題,簡化紙填寫流程,實現(xiàn)紙自定義快速打印,減少收費員人工操作環(huán)節(jié),提高車輛通行效率及紙收費準確性,提升用戶體驗感。本產(chǎn)品針對紙發(fā)放場景存在的人工效率低、信息準確率差等問題,簡化紙填寫流程,實現(xiàn)紙自定義快速打印,減

PostgreSQL

源碼安裝的PostgreSQL10.3此鏡像商品為源碼編譯安裝的PostgreSQL數(shù)據(jù)庫,作為配合乘數(shù)科技Clup高可用軟件數(shù)據(jù)庫使用,也可單獨做為數(shù)據(jù)庫使用null

WeLink支持服務

遼寧拓云基于華為云WeLink的支持服務,提供產(chǎn)品演示、使用咨詢、后臺設(shè)置、功能指導等服務。商品說明 交付方式: 人工服務適用于: Windows/Linux/Android/iOS 遼寧拓云提供基于華為云WeLink的支持服務,提供產(chǎn)品演示、使用咨詢、案例講解、后臺設(shè)置、功能指導等服務。服務內(nèi)容: (

WeLink支持服務

武漢德發(fā)提供基于華為云WeLink的支持服務,提供產(chǎn)品演示、使用咨詢、后臺設(shè)置、功能指導等服務【基礎(chǔ)版】 服務價格: 1人天上門服務,單價2500元/套。 服務內(nèi)容: (1)上門服務:1對1指導部署,產(chǎn)品操作演示方案講解;幫助設(shè)置考勤、審批等常用應用;分享同行優(yōu)秀管理案例; (2) 遠程支持:管理員后臺配置修改;使用咨詢。

WeLink支持服務

功能指導等服務。服務價格基礎(chǔ)版:1人天上門——2500/套;白銀版:5人天上門+全年遠程支持——10000/套年黃金版:10人天上門+全年遠程支持——18000/套年鉑金版:15人天上門+全年遠程支持——22500/套年全年人員外包模式——1500/人天基礎(chǔ)版上門支持:1、WeL

[相似文章]DLI支持券SQL數(shù)據(jù)分析嗎
什么是Spark SQL作業(yè)_數(shù)據(jù)湖探索DLISpark SQL作業(yè)

創(chuàng)建并提交Spark SQL作業(yè) 使用DLI提交SQL作業(yè)查詢RDS MySQL數(shù)據(jù) 本例以SQL作業(yè)訪問RDS數(shù)據(jù)庫表為例,介紹DLI服務提交SQL作業(yè)訪問外部數(shù)據(jù)數(shù)據(jù)的操作步驟。 本例以SQL作業(yè)訪問RDS數(shù)據(jù)庫表為例,介紹DLI服務提交SQL作業(yè)訪問外部數(shù)據(jù)數(shù)據(jù)的操作步驟。 使用DLI提交SQL作業(yè)查詢RDS

什么是數(shù)據(jù)湖探索服務_數(shù)據(jù)湖探索DLI用途與特點

使用DLI進行電商實時業(yè)務數(shù)據(jù)分析 數(shù)據(jù)湖探索優(yōu)勢 支持SQL操作: DLI提供標準SQL接口,用戶僅需使用SQL便可實現(xiàn)海量數(shù)據(jù)查詢分析。SQL語法全兼容標準ANSI SQL 2003。 跨源分析: 支持多種數(shù)據(jù)格式,云上多種數(shù)據(jù)源、ECS自建數(shù)據(jù)庫以及線下數(shù)據(jù)庫,數(shù)據(jù)無需搬遷

什么是Flink OpenSource SQL_數(shù)據(jù)湖探索_Flink OpenSource SQL

通過創(chuàng)建PostgreSQL CDC來監(jiān)控Postgres的數(shù)據(jù)變化,并將數(shù)據(jù)信息插入到DWS數(shù)據(jù)庫中。 PostgreSQL CDC讀取數(shù)據(jù)寫入到DWS JDBC或ODBC提交Spark SQL作業(yè) 通過創(chuàng)建MySQL CDC源表來監(jiān)控MySQL數(shù)據(jù)變化,并將變化的數(shù)據(jù)信息插入到DWS數(shù)據(jù)庫中。

什么是跨源連接-數(shù)據(jù)湖探索DLI跨源連接

跨源連接的特點與用途 DLI支持原生Spark的跨源連接能力,并在其基礎(chǔ)上進行了擴展,能夠通過SQL語句、Spark作業(yè)或者Flink作業(yè)訪問其他數(shù)據(jù)存儲服務并導入、查詢、分析處理其中的數(shù)據(jù),數(shù)據(jù)湖探索跨源連接的功能是打通數(shù)據(jù)源之間的網(wǎng)絡(luò)連接。 數(shù)據(jù)湖探索跨源連接的功能是打通數(shù)據(jù)源之間的網(wǎng)絡(luò)

華為優(yōu)惠券_爆款優(yōu)惠券_華為云券

。 代金和現(xiàn)金的使用方法一樣,支付訂單時,系統(tǒng)會自動獲取所有滿足條件的代金和現(xiàn)金,您可以直接選擇使用;抵扣按需費用時,系統(tǒng)會自動選擇使用代金和現(xiàn)金。 代金和現(xiàn)金的使用規(guī)則區(qū)別如下: 1、現(xiàn)金可以與其他疊加使用?,F(xiàn)金和代金疊加使用時,優(yōu)先抵扣代金;現(xiàn)金券和

免費優(yōu)惠券領(lǐng)取_專享優(yōu)惠券_服務器優(yōu)惠券

華為認證優(yōu)惠申請 華為認證優(yōu)惠是代金和折扣的統(tǒng)稱,是指華為云提供給客戶的優(yōu)惠憑證。本專題主要為用戶提供了怎樣申請華為認證優(yōu)惠、怎樣領(lǐng)取通用優(yōu)惠、什么是華為充值優(yōu)惠、華為充值優(yōu)惠使用限制以及華為認證優(yōu)惠申請相關(guān)文章推薦等內(nèi)容。 華為認證優(yōu)惠是代金和折扣的統(tǒng)稱,是

代金券和優(yōu)惠券有什么區(qū)別_優(yōu)惠券現(xiàn)金券

代金券和現(xiàn)金券有什么區(qū)別? 代金和現(xiàn)金的使用方法一樣,支付訂單時,系統(tǒng)會自動獲取所有滿足條件的代金和現(xiàn)金,您可以直接選擇使用;抵扣按需費用時,系統(tǒng)會自動選擇使用代金和現(xiàn)金。 代金和現(xiàn)金的使用規(guī)則區(qū)別如下: 現(xiàn)金可以與其他疊加使用。現(xiàn)金和代金疊加使用時,優(yōu)先抵扣代金;現(xiàn)金和折扣券

華為云優(yōu)惠券_優(yōu)惠券領(lǐng)取入口_怎么領(lǐng)取優(yōu)惠券

領(lǐng)取的華為云優(yōu)惠券使用時的注意事項: 優(yōu)惠包括代金、折扣和現(xiàn)金。 折扣使用注意事項: 1、一次支付只能使用一張折扣。 2、折扣僅適用于華為云包年/包月產(chǎn)品,按需產(chǎn)品不支持使用折扣。 3、折扣使用后不可退。 現(xiàn)金使用注意事項: 1、現(xiàn)金僅適用于華為云產(chǎn)品和云市場嚴選商品,不適用于云市場普通商品,具體以現(xiàn)金券適用說明為準。

華為云優(yōu)惠券_專屬優(yōu)惠券_華為云代金券

華為代金_代金使用說明_?活動代金_代金怎么用 云服務器代金_華為云服務器代金領(lǐng)取 云市場服務商如何發(fā)布代金 云市場服務商如何作廢代金 云市場服務商如何查看代金 華為云折扣 免費獲取華為支付優(yōu)惠_華為云的優(yōu)惠可以支付套餐嗎 域名優(yōu)惠_華為云域名優(yōu)惠_華為域名續(xù)費優(yōu)惠券

DLI支持券SQL數(shù)據(jù)分析嗎

功能描述

DLI支持將Flink作業(yè)數(shù)據(jù)輸出到ClickHouse 數(shù)據(jù)庫 中,表類型僅支持結(jié)果表。

ClickHouse是面向聯(lián)機分析處理的列式數(shù)據(jù)庫,支持SQL查詢,且查詢性能好,特別是基于大寬表的聚合分析查詢性能非常優(yōu)異,比其他分析型數(shù)據(jù)庫速度快一個數(shù)量級。詳細請參考ClickHouse組件操作

表1 支持類別

類別

詳情

支持表類型

結(jié)果表

前提條件

  • 該場景作業(yè)需要運行在DLI的獨享隊列上。
  • 該場景需要與ClickHouse建立增強型跨源連接,并根據(jù)實際情況設(shè)置ClickHouse集群所在安全組規(guī)則中的端口。

    如何建立增強型跨源連接,請參考《數(shù)據(jù)湖探索用戶指南》中增強型跨源連接章節(jié)。

    如何設(shè)置安全組規(guī)則,請參見 虛擬私有云 用戶指南》中“安全組”章節(jié)。

注意事項

  • 創(chuàng)建Flink OpenSource SQL作業(yè)時,在作業(yè)編輯界面的“運行參數(shù)”處,“Flink版本”需要選擇“1.15”,勾選“保存作業(yè)日志”并設(shè)置保存作業(yè)日志的 OBS 桶,方便后續(xù)查看作業(yè)日志。
  • 認證用的username和password等硬編碼到代碼中或者明文存儲都有很大的安全風險,建議使用 DEW 管理憑證。配置文件或者環(huán)境變量中密文存放,使用時解密,確保安全。Flink Opensource SQL使用DEW管理訪問憑據(jù)
  • 創(chuàng)建 MRS 的ClickHouse集群,集群版本選擇MRS 3.1.0及以上版本。
  • ClickHouse結(jié)果表不支持刪除表數(shù)據(jù)操作。
  • Flink中支持字段類型范圍為:string、tinyint、smallint、int、bigint、float、double、date、timestamp、decimal以及Array。

    其中Array中的數(shù)據(jù)類型僅支持int、bigint、string、float、double。

語法格式

123456789
create table clickhouseSink (  attr_name attr_type   (',' attr_name attr_type)* )with (  'type' = 'clickhouse',  'url' = '',  'table-name' = '');

參數(shù)說明

表2 參數(shù)說明

參數(shù)

是否必選

默認值

數(shù)據(jù)類型

說明

connector

String

固定為:clickhouse

url

String

ClickHouse的url。

參數(shù)格式為:jdbc:clickhouse://ClickHouseBalancer實例業(yè)務IP1:ClickHouseBalancer端口,ClickHouseBalancer實例業(yè)務IP2:ClickHouseBalancer端口/數(shù)據(jù)庫名

  • ClickHouseBalancer實例的IP地址:

    登錄MRS管理控制臺,選擇“集群名稱 > 組件管理 > ClickHouse > 實例”,獲取ClickHouseBalancer實例的業(yè)務IP。

  • ClickHouseBalancer端口:

    登錄MRS管理控制臺,選擇“集群名稱 > 組件管理 > ClickHouse > 服務配置”,角色選擇“ClickHouseBalancer”。當MRS集群未開啟Kerberos認證時,搜索“l(fā)b_http_port”配置參數(shù)值,默認值為21425;當開啟Kerberos認證時,搜索“l(fā)b_https_port”配置參數(shù)值,默認值為21426。

  • 數(shù)據(jù)庫名為ClickHouse集群創(chuàng)建的數(shù)據(jù)庫名稱。如果數(shù)據(jù)庫名不存在,則不需要填寫。
  • 建議配置多個ClickHouseBalancer實例IP以避免ClickHouseBalancer實例單點故障。
  • MRS集群開啟開啟Kerberos認證時,還需要在url中加上ssl、sslmode請求參數(shù),將ssl設(shè)為true,sslmode設(shè)為none,示例見示例2。

table-name

String

ClickHouse的表名。

driver

ru.yandex.clickhouse.ClickHouseDriver

String

連接數(shù)據(jù)庫所需要的驅(qū)動。若未配置,則會自動通過URL提取,默認為ru.yandex.clickhouse.ClickHouseDriver。

username

String

訪問ClickHouse數(shù)據(jù)庫的賬號名,MRS集群開啟Kerberos認證時需要填寫。

password

String

訪問ClickHouse數(shù)據(jù)庫賬號的密碼,MRS集群開啟Kerberos認證時需要填寫。

sink.buffer-flush.max-rows

100

Integer

寫數(shù)據(jù)時刷新數(shù)據(jù)的最大行數(shù),默認值為100。

sink.buffer-flush.interval

1s

Duration

刷新數(shù)據(jù)的時間間隔,單位可以為ms、milli、millisecond/s、sec、second/min、minute等,默認值為1s。設(shè)置為0則表示不根據(jù)時間刷新。

sink.max-retries

3

Integer

寫數(shù)據(jù)失敗時的最大嘗試次數(shù),默認值為3。

示例

  • 示例1:從Kafka中讀取數(shù)據(jù),并將數(shù)據(jù)插入ClickHouse中(ClickHouse版本為MRS的21.3.4.25,且MRS集群未開啟Kerberos認證):
    1. 參考增強型跨源連接,在DLI上根據(jù)ClickHouse和Kafka集群所在的虛擬 私有云 和子網(wǎng)分別創(chuàng)建跨源連接,并綁定所要使用的Flink彈性資源池。
    2. 設(shè)置ClickHouse和Kafka集群安全組的入向規(guī)則,使其對當前將要使用的Flink作業(yè)隊列網(wǎng)段放通。參考測試地址連通性根據(jù)ClickHouse和Kafka的地址測試隊列連通性。如果能連通,則表示跨源已經(jīng)綁定成功,否則表示未成功。
    3. 使用ClickHouse客戶端連接到ClickHouse服務端,并使用以下命令查詢集群標識符cluster等其他環(huán)境參數(shù)信息。

      詳細操作請參考從零開始使用ClickHouse。

      select cluster,shard_num,replica_num,host_name from system.clusters;
      其返回信息如下圖:
      ┌─cluster────┬────┬─shard_num─┐│ default_cluster │    1   │           1 ││ default_cluster │    1   │           2 │└──────── ┴────┴────── ┘

      根據(jù)獲取到的集群標識符cluster,例如當前為default_cluster ,使用以下命令在ClickHouse的default_cluster集群節(jié)點上創(chuàng)建數(shù)據(jù)庫flink。

      CREATE DATAB AS E flink ON CLUSTER default_cluster;
    4. 使用以下命令在default_cluster集群節(jié)點上和flink數(shù)據(jù)庫下創(chuàng)建表名為order的ReplicatedMergeTree表。
      CREATE TABLE flink.order ON CLUSTER default_cluster(order_id String,order_channel String,order_time String,pay_amount Float64,real_pay Float64,pay_time String,user_id String,user_name String,area_id String) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/flink/order', '{replica}')ORDER BY order_id;
    5. 參考創(chuàng)建Flink OpenSource作業(yè),創(chuàng)建flink opensource sql作業(yè),輸入以下作業(yè)腳本,并提交運行。該作業(yè)腳本將DMS Kafka作為數(shù)據(jù)源,ClickHouse作業(yè)結(jié)果表。

      如下腳本中的加粗參數(shù)請根據(jù)實際環(huán)境修改。

      create table orders (  order_id string,  order_channel string,  order_time string,  pay_amount double,  real_pay double,  pay_time string,  user_id string,  user_name string,  area_id string) WITH (  'connector' = 'kafka',  'topic' = 'KafkaTopic',  'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort',  'properties.group.id' = 'GroupId',  'scan.startup.mode' = 'latest-offset',  'format' = 'json');create table clickhouseSink(  order_id string,  order_channel string,  order_time string,  pay_amount double,  real_pay double,  pay_time string,  user_id string,  user_name string,  area_id string) with (  'connector' = 'clickhouse',  'url' = 'jdbc:clickhouse://ClickhouseAddress1:ClickhousePort,ClickhouseAddress2:ClickhousePort/flink',  'username' = 'username',  'password' = 'password',  'table-name' = 'order',  'sink.buffer-flush.max-rows' = '10',  'sink.buffer-flush.interval' = '3s');insert into clickhouseSink select * from orders;
    6. 連接Kafka集群,向DMS Kafka中插入以下測試數(shù)據(jù):
      {"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}{"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}{"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"}
    7. 使用ClickHouse客戶端連接到ClickHouse,執(zhí)行以下查詢命令,查詢寫入flink數(shù)據(jù)庫下order表中的數(shù)據(jù)。
      select * from flink.order;

      查詢結(jié)果參考如下:

      202103241000000001 webShop 2021-03-24 10:00:00 100 100 2021-03-24 10:02:03 0001 Alice 330106202103241606060001 appShop 2021-03-24 16:06:06 200 180 2021-03-24 16:10:06 0001 Alice 330106 202103251202020001 miniAppShop 2021-03-25 12:02:02 60 60 2021-03-25 12:03:00 0002 Bob 330110 
  • 示例2:從Kafka中讀取數(shù)據(jù),并將數(shù)據(jù)插入ClickHouse中(ClickHouse版本為MRS的21.3.4.25,且MRS集群開啟Kerberos認證)
    1. 參考增強型跨源連接,在DLI上根據(jù)ClickHouse和Kafka集群所在的虛擬私有云和子網(wǎng)分別創(chuàng)建跨源連接,并綁定所要使用的Flink彈性資源池。
    2. 設(shè)置ClickHouse和Kafka集群安全組的入向規(guī)則,使其對當前將要使用的Flink作業(yè)隊列網(wǎng)段放通。參考測試地址連通性根據(jù)ClickHouse和Kafka的地址測試隊列連通性。如果能連通,則表示跨源已經(jīng)綁定成功,否則表示未成功。
    3. 使用ClickHouse客戶端連接到ClickHouse服務端,并使用以下命令查詢集群標識符cluster等其他環(huán)境參數(shù)信息。

      參考從零開始使用ClickHouse。

      select cluster,shard_num,replica_num,host_name from system.clusters;
      其返回信息如下圖:
      ┌─cluster────┬────┬─shard_num─┐│ default_cluster │    1   │           1 ││ default_cluster │    1   │           2 │└──────── ┴────┴────── ┘

      根據(jù)獲取到的集群標識符cluster,例如當前為default_cluster ,使用以下命令在ClickHouse的default_cluster集群節(jié)點上創(chuàng)建數(shù)據(jù)庫flink。

      CREATE DATABASE flink ON CLUSTER default_cluster;
    4. 使用以下命令在default_cluster集群節(jié)點上和flink數(shù)據(jù)庫下創(chuàng)建表名為order的ReplicatedMergeTree表。
      CREATE TABLE flink.order ON CLUSTER default_cluster(order_id String,order_channel String,order_time String,pay_amount Float64,real_pay Float64,pay_time String,user_id String,user_name String,area_id String) ENGINE = ReplicatedMergeTree('/clickhouse/tables/{shard}/flink/order', '{replica}')ORDER BY order_id;
    5. 參考創(chuàng)建Flink OpenSource作業(yè),創(chuàng)建flink opensource sql作業(yè),輸入以下作業(yè)腳本,并提交運行。該作業(yè)腳本將Kafka作為數(shù)據(jù)源,ClickHouse作業(yè)結(jié)果表。

      如下腳本中的加粗參數(shù)請根據(jù)實際環(huán)境修改。

      create table orders (  order_id string,  order_channel string,  order_time string,  pay_amount double,  real_pay double,  pay_time string,  user_id string,  user_name string,  area_id string) WITH (  'connector' = 'kafka',  'topic' = 'KafkaTopic',  'properties.bootstrap.servers' = 'KafkaAddress1:KafkaPort,KafkaAddress2:KafkaPort',  'properties.group.id' = 'GroupId',  'scan.startup.mode' = 'latest-offset',  'format' = 'json');create table clickhouseSink(  order_id string,  order_channel string,  order_time string,  pay_amount double,  real_pay double,  pay_time string,  user_id string,  user_name string,  area_id string) with (  'connector' = 'clickhouse',  'url' = 'jdbc:clickhouse://ClickhouseAddress1:ClickhousePort,ClickhouseAddress2:ClickhousePort/flink?ssl=true&sslmode=none',  'table-name' = 'order',  'username' = 'username',  'password' = 'password', --DEW憑據(jù)中的key  'sink.buffer-flush.max-rows' = '10',  'sink.buffer-flush.interval' = '3s',  'dew.endpoint'='kms.xx.xx.com', --使用的DEW服務所在的endpoint信息  'dew.csms.secretName'='xx', --DEW服務通用憑據(jù)的憑據(jù)名稱  'dew.csms.decrypt.fields'='password', --password字段值需要利用DEW憑證管理,進行解密替換  'dew.csms.version'='v1');insert into clickhouseSink select * from orders;
    6. 連接Kafka集群,向Kafka中插入以下測試數(shù)據(jù):
      {"order_id":"202103241000000001", "order_channel":"webShop", "order_time":"2021-03-24 10:00:00", "pay_amount":"100.00", "real_pay":"100.00", "pay_time":"2021-03-24 10:02:03", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}{"order_id":"202103241606060001", "order_channel":"appShop", "order_time":"2021-03-24 16:06:06", "pay_amount":"200.00", "real_pay":"180.00", "pay_time":"2021-03-24 16:10:06", "user_id":"0001", "user_name":"Alice", "area_id":"330106"}{"order_id":"202103251202020001", "order_channel":"miniAppShop", "order_time":"2021-03-25 12:02:02", "pay_amount":"60.00", "real_pay":"60.00", "pay_time":"2021-03-25 12:03:00", "user_id":"0002", "user_name":"Bob", "area_id":"330110"}
    7. 使用ClickHouse客戶端連接到ClickHouse,執(zhí)行以下查詢命令,查詢寫入flink數(shù)據(jù)庫下order表中的數(shù)據(jù)。
      select * from flink.order;

      查詢結(jié)果參考如下:

      202103241000000001 webShop 2021-03-24 10:00:00 100 100 2021-03-24 10:02:03 0001 Alice 330106202103241606060001 appShop 2021-03-24 16:06:06 200 180 2021-03-24 16:10:06 0001 Alice 330106 202103251202020001 miniAppShop 2021-03-25 12:02:02 60 60 2021-03-25 12:03:00 0002 Bob 330110 

DLI支持券SQL數(shù)據(jù)分析嗎常見問題

更多常見問題 >>
  • DLI在開源Spark基礎(chǔ)上進行了大量的性能優(yōu)化與服務化改造,不僅兼容Apache Spark生態(tài)和接口,性能較開源提升了2.5倍,在小時級即可實現(xiàn)EB級數(shù)據(jù)查詢分析。

  • 數(shù)據(jù)湖探索(Data Lake Insight,簡稱DLI)是完全兼容Apache Spark和Apache Flink生態(tài), 實現(xiàn)批流一體的Serverless大數(shù)據(jù)計算分析服務。DLI支持多模引擎,企業(yè)僅需使用SQL或程序就可輕松完成異構(gòu)數(shù)據(jù)源的批處理、流處理等,挖掘和探索數(shù)據(jù)價值

  • DLI用戶可以通過可視化界面、Restful API、JDBC、ODBC、Beeline等多種接入方式對云上CloudTable、RDS和DWS等異構(gòu)數(shù)據(jù)源進行查詢分析,數(shù)據(jù)格式兼容CSV、JSON、Parquet和ORC主流數(shù)據(jù)格式。

  • DLI表表示數(shù)據(jù)存儲在數(shù)據(jù)湖探索(DLI)內(nèi)部的表。查詢性能更好,適用于對時延敏感類的業(yè)務,如交互類的查詢等。

  • 數(shù)據(jù)湖探索(Data Lake Insight,簡稱DLI)是完全兼容Apache Spark和Apache Flink生態(tài), 實現(xiàn)批流一體的Serverless大數(shù)據(jù)計算分析服務。DLI支持多模引擎,企業(yè)僅需使用SQL或程序就可輕松完成異構(gòu)數(shù)據(jù)源的批處理、流處理等,挖掘和探索數(shù)據(jù)價值

  • Flink是一款分布式的計算引擎,可以用來做批處理,即處理靜態(tài)的數(shù)據(jù)集、歷史的數(shù)據(jù)集;也可以用來做流處理,即實時地處理一些實時數(shù)據(jù)流,實時地產(chǎn)生數(shù)據(jù)的結(jié)果。DLI在開源Flink基礎(chǔ)上進行了特性增強和安全增強,提供了數(shù)據(jù)處理所必須的Stream SQL特性。