积分充值
 首页
前端开发
AngularDartElectronFlutterHTML/CSSJavaScriptReactSvelteTypeScriptVue.js构建工具
后端开发
.NetC#C++C语言DenoffmpegGoIdrisJavaJuliaKotlinLeanMakefilenimNode.jsPascalPHPPythonRISC-VRubyRustSwiftUML其它语言区块链开发测试微服务敏捷开发架构设计汇编语言
数据库
Apache DorisApache HBaseCassandraClickHouseFirebirdGreenplumMongoDBMySQLPieCloudDBPostgreSQLRedisSQLSQLiteTiDBVitess数据库中间件数据库工具数据库设计
系统运维
AndroidDevOpshttpdJenkinsLinuxPrometheusTraefikZabbix存储网络与安全
云计算&大数据
Apache APISIXApache FlinkApache KarafApache KyuubiApache OzonedaprDockerHadoopHarborIstioKubernetesOpenShiftPandasrancherRocketMQServerlessService MeshVirtualBoxVMWare云原生CNCF机器学习边缘计算
综合其他
BlenderGIMPKiCadKritaWeblate产品与服务人工智能亿图数据可视化版本控制笔试面试
文库资料
前端
AngularAnt DesignBabelBootstrapChart.jsCSS3EchartsElectronHighchartsHTML/CSSHTML5JavaScriptJerryScriptJestReactSassTypeScriptVue前端工具小程序
后端
.NETApacheC/C++C#CMakeCrystalDartDenoDjangoDubboErlangFastifyFlaskGinGoGoFrameGuzzleIrisJavaJuliaLispLLVMLuaMatplotlibMicronautnimNode.jsPerlPHPPythonQtRPCRubyRustR语言ScalaShellVlangwasmYewZephirZig算法
移动端
AndroidAPP工具FlutterFramework7HarmonyHippyIoniciOSkotlinNativeObject-CPWAReactSwiftuni-appWeex
数据库
ApacheArangoDBCassandraClickHouseCouchDBCrateDBDB2DocumentDBDorisDragonflyDBEdgeDBetcdFirebirdGaussDBGraphGreenPlumHStreamDBHugeGraphimmudbIndexedDBInfluxDBIoTDBKey-ValueKitDBLevelDBM3DBMatrixOneMilvusMongoDBMySQLNavicatNebulaNewSQLNoSQLOceanBaseOpenTSDBOracleOrientDBPostgreSQLPrestoDBQuestDBRedisRocksDBSequoiaDBServerSkytableSQLSQLiteTiDBTiKVTimescaleDBYugabyteDB关系型数据库数据库数据库ORM数据库中间件数据库工具时序数据库
云计算&大数据
ActiveMQAerakiAgentAlluxioAntreaApacheApache APISIXAPISIXBFEBitBookKeeperChaosChoerodonCiliumCloudStackConsulDaprDataEaseDC/OSDockerDrillDruidElasticJobElasticSearchEnvoyErdaFlinkFluentGrafanaHadoopHarborHelmHudiInLongKafkaKnativeKongKubeCubeKubeEdgeKubeflowKubeOperatorKubernetesKubeSphereKubeVelaKumaKylinLibcloudLinkerdLonghornMeiliSearchMeshNacosNATSOKDOpenOpenEBSOpenKruiseOpenPitrixOpenSearchOpenStackOpenTracingOzonePaddlePaddlePolicyPulsarPyTorchRainbondRancherRediSearchScikit-learnServerlessShardingSphereShenYuSparkStormSupersetXuperChainZadig云原生CNCF人工智能区块链数据挖掘机器学习深度学习算法工程边缘计算
UI&美工&设计
BlenderKritaSketchUI设计
网络&系统&运维
AnsibleApacheAWKCeleryCephCI/CDCurveDevOpsGoCDHAProxyIstioJenkinsJumpServerLinuxMacNginxOpenRestyPrometheusServertraefikTrafficUnixWindowsZabbixZipkin安全防护系统内核网络运维监控
综合其它
文章资讯
 上传文档  发布文章  登录账户
IT文库
  • 综合
  • 文档
  • 文章

无数据

分类

全部数据库(32)TiDB(32)

语言

全部英语(16)中文(简体)(16)

格式

全部PDF文档 PDF(32)
 
本次搜索耗时 0.753 秒,为您找到相关结果约 32 个.
  • 全部
  • 数据库
  • TiDB
  • 全部
  • 英语
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 TiDB v5.4 Documentation

    3 TiFlash 3 • CPU: Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz, 40 cores • Memory: 189 GB • Disks: NVMe 3TB * 2 2.5.3.2.2 Software version Service type Software version TiDB 5.4 Greenplum 6.15.0 Apache using an additional master node. Each segment server contains 8 segments, which means 4 segments per NVMe SSD. So there are 24 segments in total. The storage format is append-only/column-oriented storage system consists of three nodes. Each node has two assigned NVMe SSD disks as the data disks. The Spark cluster is deployed in standalone mode, using NVMe SSD disks as the local directory of spark.local.dir to
    0 码力 | 3650 页 | 52.72 MB | 1 年前
    3
  • pdf文档 TiDB v5.3 Documentation

    count: 3 70 • CPU: Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz, 40 cores • Memory: 189 GB • Disks: NVMe 3TB * 2 2.5.3.2.2 Software version Service type Software version TiDB 5.3 Greenplum 6.15.0 Apache using an additional master node. Each segment server contains 8 segments, which means 4 segments per NVMe SSD. So there are 24 segments in total. The storage format is append-only/column-oriented storage consists of three nodes. Each node has two assigned NVMe 71 SSD disks as the data disks. The Spark cluster is deployed in standalone mode, using NVMe SSD disks as the local directory of spark.local.dir
    0 码力 | 2996 页 | 49.30 MB | 1 年前
    3
  • pdf文档 TiDB v5.4 中文手册

    TiDB 1 TiKV 3 TiFlash 3 • CPU:Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz,40 核 • 内存:189 GB • 磁盘:NVMe 3TB * 2 2.5.3.2.2 软件版本 服务类型 软件版本 TiDB 5.4 Greenplum 6.15.0 Apache Spark 3.1.1 2.5.3.2.3 配置参数 = 10 << 30; Greenplum 配置 Greenplum 集群使用额外的一台 Master 节点部署(共四台),每台 Segment Server 部署 8 Segments(每个 NVMe SSD 各 4 个),总共 24 Segments。存储格式为 append-only / 列式存储,分区键为主键。 log_statement = all gp_autostats_mode Apache Spark 测试使用 Apache Parquet 作为存储格式,数据存储在 HDFS 上。HDFS 为三节点,为每个节点指定两 块 NVMe SSD 盘作为数据盘。通过 Standalone 方式启动 Spark 集群,使用 NVMe SSD 盘作为 spark.local.dir 本地 目录以借助快速盘加速 Shuffle Spill 过程,无额外分区和索引。 --driver-memory
    0 码力 | 2852 页 | 52.59 MB | 1 年前
    3
  • pdf文档 TiDB v6.1 Documentation

    to guarantee the correctness of the test result. • For the TiKV server, it is recommended to use NVMe SSDs to ensure faster reads and writes. • If you only want to test and verify the features, follow options on the target machines that deploy TiKV For production deployments, it is recommended to use NVMe SSD of EXT4 filesystem to store TiKV data. This configuration is the best practice, whose reliability running the umount /dev/nvme0n1p1 com- mand, skip directly to the fifth step below to edit the /etc/fstab file, and add the options again to the filesystem. Take the /dev/nvme0n1 data disk as an example:
    0 码力 | 4487 页 | 84.44 MB | 1 年前
    3
  • pdf文档 TiDB v5.3 中文手册

    3.2.1 硬件配置 56 • 节点数量:3 • CPU:Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz,40 核 • 内存:189 GB • 磁盘:NVMe 3TB * 2 2.5.3.2.2 软件版本 服务类型 软件版本 TiDB 5.3 Greenplum 6.15.0 Apache Spark 3.1.1 2.5.3.2.3 配置参数 = 10 << 30; Greenplum 配置 Greenplum 集群使用额外的一台 Master 节点部署(共四台),每台 Segment Server 部署 8 Segments(每个 NVMe SSD 各 4 个),总共 24 Segments。存储格式为 append-only / 列式存储,分区键为主键。 log_statement = all gp_autostats_mode Apache Spark 测试使用 Apache Parquet 作为存储格式,数据存储在 HDFS 上。HDFS 为三节点,为每个节点指定两 块 NVMe SSD 盘作为数据盘。通过 Standalone 方式启动 Spark 集群,使用 NVMe SSD 盘作为 spark.local.dir 本地 目录以借助快速盘加速 Shuffle Spill 过程,无额外分区和索引。 --driver-memory
    0 码力 | 2374 页 | 49.52 MB | 1 年前
    3
  • pdf文档 TiDB中文技术文档

    命令卸载,从编辑 /etc/fstab 文件步骤开始执行,添加挂载参数重新挂载 即可。 1. # umount /dev/nvme0n1 下面以 /dev/nvme0n1 数据盘为例: 查看数据盘 1. # fdisk -l 2. Disk /dev/nvme0n1: 1000 GB 创建分区表 在部署目标机器上安装 NTP 服务 在部署目标机器上添加数据盘 ext4 文件系统挂载参数 Ansible 书栈(BookStack.CN) 构建 1. # parted -s -a optimal /dev/nvme0n1 mklabel gpt -- mkpart primary ext4 1 -1 格式化文件系统 1. # mkfs.ext4 /dev/nvme0n1 查看数据盘分区 UUID,本例中 nvme0n1 的 UUID 为 c51eb23b-195c-4061-92a9-3fad812cc12f。 f414c5c0-f823-4bb1-8fdf-e531173a72ed 6. └─sda3 ext4 547909c1-398d-4696-94c6-03e43e317b60 / 7. sr0 8. nvme0n1 ext4 c51eb23b-195c-4061-92a9-3fad812cc12f 编辑 /etc/fstab 文件,添加 nodelalloc 挂载参数 1.
    0 码力 | 444 页 | 4.89 MB | 5 月前
    3
  • pdf文档 TiDB v5.1 Documentation

    Node count: 3 • CPU: Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz, 40 cores • Memory: 189 GB • Disks: NVMe 3TB * 2 2.5.3.2.2 Software version Service type Software version TiDB 5.1 Greenplum 6.15.0 Apache using an additional master node. Each segment server contains 8 segments, which means 4 segments per NVMe SSD. So there are 24 segments in total. The storage format is append-only/column-oriented storage system consists of three nodes. Each node has two assigned NVMe SSD disks as the data disks. The Spark cluster is deployed in standalone mode, using NVMe SSD disks as the local directory of spark.local.dir to
    0 码力 | 2745 页 | 47.65 MB | 1 年前
    3
  • pdf文档 TiDB v5.2 Documentation

    Node count: 3 • CPU: Intel(R) Xeon(R) CPU E5-2630 v4 @ 2.20GHz, 40 cores • Memory: 189 GB • Disks: NVMe 3TB * 2 2.5.3.2.2 Software version Service type Software version TiDB 5.2 Greenplum 6.15.0 Apache using an additional master node. Each segment server contains 8 segments, which means 4 segments per NVMe SSD. So there are 24 segments in total. The storage format is append-only/column-oriented storage system consists of three nodes. Each node has two assigned NVMe SSD disks as the data disks. The Spark cluster is deployed in standalone mode, using NVMe SSD disks as the local directory of spark.local.dir to
    0 码力 | 2848 页 | 47.90 MB | 1 年前
    3
  • pdf文档 TiDB v6.1 中文手册

    验证测试环境中的 TiDB 和 PD 可以部署在同一台服务器上。 • 如进行性能相关的测试,避免采用低性能存储和网络硬件配置,防止对测试结果的正确 性产生干扰。 • TiKV 的 SSD 盘推荐使用 NVME 接口以保证读写更快。 • 如果仅验证功能,建议使用TiDB 数据库快速上手指南进行单机功能测试。 • TiDB 对于磁盘的使用以存放日志为主,因此在测试环境中对于磁盘类型和容量并无特殊 要求。 TiDB 前的环境检查操作,以下各项操作按优先级排序。 448 5.2.1 在 TiKV 部署目标机器上添加数据盘 EXT4 文件系统挂载参数 生产环境部署,建议使用 EXT4 类型文件系统的 NVME 类型的 SSD 磁盘存储 TiKV 数据文件。这个配置方案为最 佳实施方案,其可靠性、安全性、稳定性已经在大量线上场景中得到证实。 使用 root 用户登录目标机器,将部署目标机器数据盘格式化成 umount /dev/nvme0n1p1 命令卸 载,从编辑 /etc/fstab 文件步骤开始执行,添加挂载参数重新挂载即可。 以 /dev/nvme0n1 数据盘为例,具体操作步骤如下: 1. 查看数据盘。 fdisk -l Disk /dev/nvme0n1: 1000 GB 2. 创建分区。 parted -s -a optimal /dev/nvme0n1 mklabel gpt
    0 码力 | 3572 页 | 84.36 MB | 1 年前
    3
  • pdf文档 TiDB v6.5 Documentation

    to guarantee the correctness of the test result. • For the TiKV server, it is recommended to use NVMe SSDs to ensure faster reads and writes. • If you only want to test and verify the features, follow options on the target machines that deploy TiKV For production deployments, it is recommended to use NVMe SSD of EXT4 filesystem to store TiKV data. This configuration is the best practice, whose reliability running the umount /dev/nvme0n1p1 com- mand, skip directly to the fifth step below to edit the /etc/fstab file, and add the options again to the filesystem. Take the /dev/nvme0n1 data disk as an example:
    0 码力 | 5282 页 | 99.69 MB | 1 年前
    3
共 32 条
  • 1
  • 2
  • 3
  • 4
前往
页
相关搜索词
TiDBv5Documentation中文手册v6技术文档
IT文库
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传或本站整理自互联网,不以营利为目的,供所有人免费下载和学习使用。如侵犯您的权益,请联系我们进行删除。
IT文库 ©1024 - 2025 | 站点地图
Powered By MOREDOC AI v3.3.0-beta.70
  • 关注我们的公众号【刻舟求荐】,给您不一样的精彩
    关注我们的公众号【刻舟求荐】,给您不一样的精彩