最近公司打算集中梳理几大业务系统的数据,希望将各个业务系统中的数据集中到数据仓库中。总共有5000多张数据表,但是好在业务数据量没有像电商那么庞大,也就几十个G。
其实这个需求很简单,就是把这5000多张不同数据库中的表放到一个地方。需要注意的有以下几点:1、数据来自各种不同类型的数据库,有SQL Server,MySQL和Oracle2、表的数据量较多,一个一个写查询代码肯定不现实3、后续数据仓库的维护
由于数据量不是很大,我打算用DBLINK来实现从不同的库中抽取数据到数据仓库中。
1、创建不同的DBLINK
数据仓库我们目前使用的是SQL Server的服务器,整体性能还可以。但是业务系统的数据库类型不一,在新建DBLINK时有不同的要求:a、针对SQL Server的业务数据库可以直接在服务器上新建

b、针对MySQL和Oracle的业务数据库需要先使用ODBC作用中间组件来配置。


2、查询数据库中的所有表表名
每个业务数据库都是全库抽取,那么首先需要找到这些数据库中的所有表。这里我们以SQL Server为例来查找数据库中的所有表。
上面的代码就可以把当前库中的所有表的表名都给查询出来,我这里在家里电脑测试了一下,给大家看下截图:

大家也可以在自己的电脑上试一试就知道了。
Oracle获取用户表表名的代码如下:
MySQL获取用户表表名的代码如下:

3、循环抽取数据
我们在完成上面两步后,就可以开始循环抽取各业务系统的数据了。这里我们需要写一个游标来循环执行。具体代码如下:
目前只是测试代码,后续在性能上还可以继续优化。
4、设置定时任务
代码写好了,肯定不可能每天手动去执行,这时候我们可以使用数据库的定时任务,这个我在以前的文章中有提到过。《数据库任务自动化其实很简单,JOB的简单介绍》

我们把代码放到定时任务里面,让它每天凌晨1点执行即可。
这个办法在处理数据量不多的情况下是可行的,如果数据量较大,性能上会存在较大风险。
下面我们回顾一下做了哪些内容:
1、创建不同数据库的DBLINK
2、查询到每个数据库的所有表名
3、使用游标循环插入到数据仓库
4、设置定时任务执行上面的游标

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容,请联系我们,一经查实,本站将立刻删除。
如需转载请保留出处:https://51itzy.com/kjqy/195840.html