AzureBlobStorage 表引擎
该引擎提供与 Azure Blob Storage 生态系统的集成。
创建表
引擎参数
endpoint— AzureBlobStorage 端点 URL,包含容器和前缀。可选地可以包含 account_name,如果所使用的身份验证方法需要它。(http://azurite1:{port}/[account_name]{container_name}/{data_prefix}),或者这些参数可以单独提供,使用 storage_account_url、account_name 和 container。用于指定前缀时,应使用 endpoint。endpoint_contains_account_name- 此标志用于指定端点是否包含 account_name,因为它仅在某些身份验证方法中需要。(默认值:true)connection_string|storage_account_url— connection_string 包含帐户名称和密钥(创建连接字符串),或者您也可以在这里提供存储帐户 URL,并将帐户名称和帐户密钥作为单独的参数提供(请参见参数 account_name 和 account_key)。container_name- 容器名称blobpath- 文件路径。在只读模式下支持以下通配符:*、**、?、{abc,def}和{N..M},其中N、M— 数字,'abc'、'def'— 字符串。account_name- 如果使用 storage_account_url,则可以在此指定帐户名称。account_key- 如果使用 storage_account_url,则可以在此指定帐户密钥。format— 文件的 格式。compression— 支持的值:none、gzip/gz、brotli/br、xz/LZMA、zstd/zst。默认情况下,它将通过文件扩展名自动检测压缩。(与设置为auto的效果相同)。partition_strategy– 选项:WILDCARD或HIVE。WILDCARD需要在路径中包含{_partition_id},该值将替换为分区键。HIVE不允许通配符,假设路径是表根,并生成 Hive 风格的分区目录,使用 Snowflake ID 作为文件名,并将文件格式作为扩展名。默认值为WILDCARD。partition_columns_in_data_file- 仅与HIVE分区策略一起使用。告诉 ClickHouse 是否期望在数据文件中写入分区列。默认值为false。extra_credentials- 使用client_id和tenant_id进行身份验证。如果提供了 extra_credentials,则优先于account_name和account_key。
示例
用户可以使用 Azurite 模拟器进行本地 Azure 存储开发。更多详细信息请 点击这里。如果使用本地 Azurite 实例,用户可能需要将以下命令中的 http://azurite1:10000 替换为 http://localhost:10000,假设 Azurite 在主机 azurite1 上可用。
虚拟列
_path— 文件的路径。类型:LowCardinality(String)。_file— 文件名。类型:LowCardinality(String)。_size— 文件大小(以字节为单位)。类型:Nullable(UInt64)。如果大小未知,则值为NULL。_time— 文件的最后修改时间。类型:Nullable(DateTime)。如果时间未知,则值为NULL。
身份验证
目前有 3 种身份验证方式:
Managed Identity- 通过提供endpoint、connection_string或storage_account_url来使用。SAS Token- 通过提供endpoint、connection_string或storage_account_url来使用。通过 URL 中的 '?' 来识别。请参见 azureBlobStorage 以获取示例。Workload Identity- 通过提供endpoint或storage_account_url来使用。如果配置中设置了use_workload_identity参数,(workload identity) 则用于身份验证。
数据缓存
Azure 表引擎支持在本地磁盘上进行数据缓存。
有关文件系统缓存配置选项和使用方式,请参见 此部分。
缓存取决于存储对象的路径和 ETag,因此 ClickHouse 不会读取过时的缓存版本。
要启用缓存,请使用设置 filesystem_cache_name = '<name>' 和 enable_filesystem_cache = 1。
- 向 ClickHouse 配置文件添加以下部分:
- 从 ClickHouse 的
storage_configuration部分重用缓存配置(因此缓存存储),在此处描述。
按分区
PARTITION BY — 可选。在大多数情况下,您不需要分区键,如果需要,通常不需要比按月更细粒度的分区。分区不会加速查询(与 ORDER BY 表达式相反)。您不应使用过于细粒度的分区。不要按客户端标识符或名称对数据进行分区(相反,确保客户端标识符或名称是 ORDER BY 表达式中的第一列)。
按月分区时,使用 toYYYYMM(date_column) 表达式,其中 date_column 是类型为 Date 的日期列。这里的分区名称采用 "YYYYMM" 格式。
分区策略
WILDCARD(默认):将文件路径中的 {_partition_id} 通配符替换为实际的分区键。不支持读取。
HIVE 实现 Hive 风格的分区以进行读取和写入。读取使用递归的 glob 模式进行实现。写入生成的文件格式为:<prefix>/<key1=val1/key2=val2...>/<snowflakeid>.<toLower(file_format)>。
注意:使用 HIVE 分区策略时,use_hive_partitioning 设置没有效果。
HIVE 分区策略的示例: