首页 > 开发 > 综合 > 正文

探讨数据库的数据导入方法

2024-07-21 02:13:15
字体:
来源:转载
供稿:网友

最大的网站源码资源下载站,

每个数据库管理员都会面临数据导入的问题,这有可能发生在数据库的新老移植过程中,或者是在数据库崩溃后的恢复重建过程中,还有可能是在创建测试数据库的模拟环境过程中,总之作为一名合格的数据库管理员,你应该做好接受各种数据导入请求的技术储备,同时还要尽量满足人本能的对导入速度的苛求。本文仅针对 oracle 数据库所提供的加速数据导入的各种特性和技术进行探讨,其中的一些方法也可以转化应用于其他数据库。以下七种数据导入方法哪个最适用需要针对具体情况具体分析,我也附带列举了影响导入速度的各种因素供斟酌。为了比较各种数据导入方法的效果,我创建了示例表和数据集,并用各种方法导入示例数据集来计算总体导入时间和导入进程占用 cpu 时间,这里得出的时间仅供参考。需要说明的是,建议你使用 oracle 9i 企业版数据库,当然你也可以尝试使用 oracle 7.3 以上的标准版数据库。本文使用的机器配置为:cpu intel p4,内存 256m,数据库 oracle 9i 企业版。

    示例表结构和数据集

    为了演示和比较各种数据导入方法,我假定数据导入任务是将外部文件数据导入到 oracle 数据库的calls表中,外部数据文件包含十万条呼叫中心记录,将近 6mb 的文件大小,具体的数据示例如下:

823022843842003-04-18:13:18:585001投诉手机三包维修质量
823022843852003-04-18:13:18:593352咨询供水热线的号码
823022843862003-04-18:13:19:013142建议增设公交线路

    接受导入数据的表名是 calls,表结构如下:

namenull?typecomment
call_id not nullnumberprimary key
call_datenot nulldatenon-unique index
emp_idnot nullnumber 
call_typenot nullvarchar2(12) 
detailsnot nullvarchar2(25) 

    逐条数据插入insert

    数据导入的最简单方法就是编写 insert 语句,将数据逐条插入数据库。这种方法只适合导入少量数据,如 sql*plus 脚本创建某个表的种子数据。该方法的最大缺点就是导入速度缓慢,占用了大量的 cpu 处理时间,不适合大批量数据的导入;而其主要优点就是导入构思简单又有修改完善的弹性,不需要多做其它的准备就可以使用。如果你有很多时间没法打发,又想折磨一下数据库和 cpu,那这种方法正适合你。:)

    为了与其它方法做比较,现将十万条记录通过此方法导入到 calls 表中,总共消耗 172 秒,其中导入进程占用 cpu 时间为 52 秒。

    逐条数据插入 insert,表暂无索引

    为什么上一种方法占用了较多的 cpu 处理时间,关键是 calls 表中已创建了索引,当一条数据插入到表中时,oracle 需要判别新数据与老数据在索引方面是否有冲突,同时要更新表中的所有索引,重复更新索引会消耗一定的时间。因此提高导入速度的好办法就是在创建表时先不创建索引或者在导入数据之前删除所有索引,在外部文件数据逐条插入到表中后再统一创建表的索引。这样导入速度会提高,同时创建的索引也很紧凑而有效,这一原则同样适用于位图索引(bitmap index)。对于主要的和唯一的关键约束(key constraints),可以使之先暂时失效(disabling)或者删除约束来获得同样的效果,当然这些做法会对已经存在的表的外键约束产生相关的影响,在删除前需要通盘斟酌。

    需要说明的是,这种方法在表中已存在很多数据的情况下不太合适。例如表中已有九千万条数据,而此时需要追加插入一千万条数据,实际导入数据节省的时间将会被重新创建一亿条数据的索引所消耗殆尽,这是我们不希望得到的结果。但是,如果要导入数据的表是空的或导入的数据量比已有的数据量要大得多,那么导入数据节省的时间将会少量用于重新创建索引,这时该方法才可以考虑使用。

    加快索引创建是另一个需要考虑的问题。为了减少索引创建中排序的工作时间,可以在当前会话中增加 sort_area_size 参数的大小,该参数允许当前会话在内存的索引创建过程中执行更多的排序操作。同样还可以使用 nologging 关键字来减少因创建索引而生成的 redo 日志量,nologging 关键字会对数据库的恢复和 standby 备用数据库产生明显的影响,所以在使用之前要仔细斟酌,到底是速度优先还是稳定优先。

    运用这种方法,先删除 calls 表的主键和不唯一的索引,然后逐条导入数据,完成后重新创建索引( 表在导入数据前是空的)。该方法总共消耗 130 秒,包括重建索引的时间,其中导入进程占用 cpu 时间为 35秒。

    这种方法的优点是可以加快导入的速度并使索引更加紧凑有效;缺点是缺乏通用性,当你对表增加新的复杂的模式元素(索引、外键等)时你需要添加代码、修改导入执行程序。另外针对 7*24 在线要求的数据库在线导入操作时,删除表的索引会对在线用户的查询有很大的性能影响,同时也要考虑,主要或唯一的关键约束条件的删除或失效可能会影响到引用它们的外键的使用。

    批量插入,表暂无索引

    在oracle v6 中 oci 编程接口加入了数组接口特性。数组操作允许导入程序读取外部文件数据并解析后,向数据库提交sql语句,批量插入 sql 语句检索出的数据。oracle 仅需要执行一次 sql 语句,然后在内存中批量解析提供的数据。批量导入操作比逐行插入重复操作更有效率,这是因为只需一次解析 sql 语句,一些数据绑订操作以及程序与数据库之间来回的操作都显著减少,而且数据库对每一条数据的操作都是重复可知的,这给数据库提供了优化执行的可能。其优点是数据导入的总体时间明显减少,特别是进程占用 cpu 的时间。

    需要提醒的是,通过 oci 接口确实可以执行数据批量导入操作,但是许多工具和脚本语言却不支持使用此功能。如果要使用该方法,需要研究你所使用的开发工具是否支持 oci 批量操作功能。导入程序需要进行复杂的编码并可能存在错误的风险,缺乏一定的弹性。

    运用上述方法,程序将外部数据提取到内存中的数组里,并执行批量插入操作(100行/次),保留了表的删除/重建索引操作,总的导入时间下降到 14 秒,而进程占用 cpu 的时间下降到7秒,可见实际导入数据所花费的时间显著下降了 95%。

    create table as select,使用oracle9i的external table

    oracle 9i 的一项新特性就是 external table,它就象通常的数据库表一样,拥有字段和数据类型约束,并且可以查询,但是表中的数据却不存储在数据库中,而是在与数据库相关联的普通外部文件里。当你查询 external table 时,oracle 将解析该文件并返回符合条件的数据,就象该数据存储在数据库表中一样。

    需要注意的是,你可以在查询语句中将 external table 与数据库中其他表进行连接(join),但是不能给 external table 加上索引,并且不能插入/更新/删除数据,毕竟它不是真正的数据库表。另外,如果与数据库相关联的外部文件被改变或者被删除,这会影响到 external table 返回查询结果,所以在变动前要先跟数据库打招呼。

 这种方法为导入数据打开了新的一扇门。你可以很容易的将外部文件与数据库相关联,并且在数据库中创建对应的 external table,然后就可以立即查询数据,就象外部数据已经导入到数据库表中一样。唯一的不足需要明确,数据并未真正导入到数据库中,当外部文件被删除或覆盖时,数据库将不能访问 external table 里的数据,而且索引没有被创建,访问数据速度将有所缓慢。创建 calls_external(external table表)如下,使之与外部数据文件关联:

create table calls_external (call_id number, call_date date, emp_id number, call_type varchar2(12), details varchar2(25)) organization external ( type oracle_loader default directory extract_files_dir access parameters ( records delimited by newline fields terminated by ',' missing field values are null ( call_id, call_date char date_format date mask "yyyy-mm-dd:hh24:mi:ss", emp_id, call_type, details ) ) location ('calls.dat') );
发表评论 共有条评论
用户名: 密码:
验证码: 匿名发表