博客
关于我
DM达梦数据库表空间管理
阅读量:553 次
发布时间:2019-03-09

本文共 2131 字,大约阅读时间需要 7 分钟。

1、DM表空间介绍

达梦数据库的系统表空间有哪些?

select tablespace_name from dba_tablespaces;select name from v$tablespace;
SQL> select name from v$tablespace;LINEID     NAME  ---------- ------1          SYSTEM2          ROLL3          TEMP4          MAIN
  • System表空间:数据字典和全局的系统数据。

  • ROLL:存放了数据库运行过程中产生的回滚记录。

    UNDO_RETENTION: 单位是秒。

    Sp_set_para_double_value(2,’UNDO_RETENTION’,2400)

  • TEMP:临时表空间, 临时段,临时表默认都存放在临时表空间上。

  • MAIN: 数据库默认的表空间,创建数据对象时,如果不指定存储位置,默认存放到该表空间。

  • HMAIN: huge 表空间

2、表空间规划及相关案例

案例1:创建表空间

SQL> create tablespace tbs1 datafile '/dm7/data/DAMENG/tbs1_01.dbf' size 31;

用上述语句创建表空间会报错,如:

在这里插入图片描述
因为添加的数据文件大小最小为 4096页大小,如页大小为 8K,则可添加的文件最小值为 40968k=32M
所以应该改成:
在这里插入图片描述

案例2:创建一个表空间,初始大小50M,最大100M

SQL> create tablespace tbs2 datafile '/dm7/data/DAMENG/tbs2_01.dbf' size 50 autoextend on maxsize 100;

在这里插入图片描述

案例3:创建一个表空间,初始50M,每次扩展1M,最大100M

SQL> create tablespace tbs3 datafile '/dm7/data/DAMENG/tbs3_01.dbf' size 50 autoextend on next 1 maxsize 100;

在这里插入图片描述

案例4:创建一个表空间,初始50M,表空间由2个数据文件组成,分别存储到不同的磁盘上,每次扩展1m,每个数据文件最大100M

SQL> create tablespace tbs4 datafile '/dm7/data/DAMENG/tbs4_01.dbf' size 50 autoextend on next 1 maxsize 100,'/dm7/data/tbs4_02.dbf' size 50 autoextend on next 1 maxsize 100;

在这里插入图片描述

3、维护表空间

表空间不足的时候,如何去维护表空间:

  • 创建大表空间,数据导出,导入。
  • Resize 数据文件大小。
  • 增加数据文件。
SQL> alter tablespace tbs2 add datafile '/dm7/data/DAMENG/tbs2_02.dbf' size 50 autoextend on maxsize 100;

在这里插入图片描述

更换存储位置:
达梦表空间的状态:
0------ Online
1-------offline;

SQL> select TABLESPACE_NAME,STATUS from dba_tablespaces;

在这里插入图片描述

注意:system,roll,temp 不能offline;

–更换存储位置例子:

更换TBS1的存储位置。
1、表空间 offline;

SQL> alter tablespace tbs1 offline;

2、修改存储位置

SQL> alter tablespace tbs1 rename datafile '/dm7/data/DAMENG/tbs1_01.dbf' to '/dm7/data/tbs1_01.dbf';

在这里插入图片描述

3、表空间online

SQL> alter tablespace tbs1 online;

至此,表空间存储位置修改完成!

4、删除表空间

SQL> drop tablespace tbs1;

注意:如果表空间存数据,不允许直接删除!

5、HUGE表空间管理

huge表空间创建:

这里不同的是:huge表空间创建时需要指定一个空的目录,而不是数据文件。

SQL> create huge tablespace H1 path '/opt/dm/dmdbms/data/DAMENG/H1';executed successfully

在huge表空间中建表:

SQL> create huge table huge_t1(id int,name varchar) storage (on H1);executed successfully

删除huge表空间:

需要先删除表空间中对象。

SQL> drop table huge_t1 purge;executed successfullySQL> drop huge tablespace H1;executed successfully

转载地址:http://fdcpz.baihongyu.com/

你可能感兴趣的文章
Nginx:NginxConfig可视化配置工具安装
查看>>
Nginx:现代Web服务器的瑞士军刀 | 文章末尾送典藏书籍
查看>>
ngModelController
查看>>
ngrok | 内网穿透,支持 HTTPS、国内访问、静态域名
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
ngrok内网穿透可以实现资源共享吗?快解析更加简洁
查看>>
NHibernate学习[1]
查看>>
NHibernate异常:No persister for的解决办法
查看>>
Nhibernate的第一个实例
查看>>
NHibernate示例
查看>>
nid修改oracle11gR2数据库名
查看>>
NIFI1.21.0/NIFI1.22.0/NIFI1.24.0/NIFI1.26.0_2024-06-11最新版本安装_采用HTTP方式_搭建集群_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0_java.net.SocketException:_Too many open files 打开的文件太多_实际操作---大数据之Nifi工作笔记0051
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_日期类型_以及null数据同步处理补充---大数据之Nifi工作笔记0057
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_插入时如果目标表中已存在该数据则自动改为更新数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0058
查看>>
NIFI1.21.0_Mysql到Mysql增量CDC同步中_补充_更新时如果目标表中不存在记录就改为插入数据_Postgresql_Hbase也适用---大数据之Nifi工作笔记0059
查看>>
NIFI1.21.0_NIFI和hadoop蹦了_200G集群磁盘又满了_Jps看不到进程了_Unable to write in /tmp. Aborting----大数据之Nifi工作笔记0052
查看>>
NIFI1.21.0_Postgresql和Mysql同时指定库_指定多表_全量同步到Mysql数据库以及Hbase数据库中---大数据之Nifi工作笔记0060
查看>>
NIFI1.21.0最新版本安装_连接phoenix_单机版_Https登录_什么都没改换了最新版本的NIFI可以连接了_气人_实现插入数据到Hbase_实际操作---大数据之Nifi工作笔记0050
查看>>
NIFI1.21.0最新版本安装_配置使用HTTP登录_默认是用HTTPS登录的_Https登录需要输入用户名密码_HTTP不需要---大数据之Nifi工作笔记0051
查看>>