MongoDB是一个面向文档的数据库,目前由10gen开发并维护,它的功能丰富,齐全,完全可以替代MySQL。在使用MongoDB做产品原型的过程中,我们总结了MonogDB的一些亮点: 使用JSON风格语法,易于掌握和理解:MongoDB使用JSON的变种BSON作为内部存储的格式和语法。针对MongoDB的操作都使用JSON风格语法,客户端提交或接收的数据都使用JSON形式来展现。相对于SQL来说,更加直观,容易理解和掌握。 Schema-less,支持嵌入子文档:MongoDB是一个Schema-free的文档数据库。一个数据库可以有多个Collection, 每个Collection是Documents的集合。Collection和Document和传统数据库的Table和Row并不对等。无需事先定义 Collection,随时可以创建。
Linux是一套自由使用(一般可以免费使用)和自由传播的类Unix操作系统 。GNU是一个自由软件工程项目,允许人们自由使用也可修改源码为社区做贡献。Linux创作于芬兰一位名叫Linus Torvalds的学生之手; 基于了linux内核,有众多发行版本;redhat linux(企业用户首选收费),centos(redhat社区版 优点稳定),fedora(redhat支持的倾向于桌面版linux),debian、ubuntu、suse(德国,后被novell公司收购),gentoo、中科红旗linux等等。
EI产品线数据库高效编程指南
Hive什么是Hivehive和pig等语言类似,只是一个shell,一个包装了mapreduce的shell,他使得编写m/r程序更加的方便入手,使得步入云计算的程序员门槛更低。Hive的数据存储在HDFS中,大部分的查询由MapReduce完成Hive体系结构用户接口用户接口主要有三个:CLI,Client和WUI。其中最常用的是CLI,Cli启动的时候,会同时启动一个Hive副本。Client是Hive的客户端,用户连接至HiveServer。在启动Client模式的时候,需要指出HiveServer所在节点,并且在该节点启动HiveServer。WUI是通过浏览器访问Hive。元数据Hive将元数据存储在数据库中,如mysql、derby。Hive中的元数据包括表的名字,表的列和分区及其属性,表的属性(是否为外部表等),表的数据所在目录等。内核解释器、编译器、优化器完成HQL查询语句从词法分析、语法分析、编译、优化以及查询计划的生成。生成的查询计划存储在HDFS中,并在随后有MapReduce调用执行。HQLHQL是一个类SQL的查询语言。它模仿SQL语法来创建表,读表到数据,并查询表。HQL也允许用户嵌入他们自定义的map-reduce脚本。
50种方法巧妙优化你的SQLServer数据库查询速度慢的原因很多,常见如下几种:1、没有索引或者没有用到索引(这是查询慢最常见的问题,是程序设计的缺陷) 2、I/O吞吐量小,形成了瓶颈效应。 3、没有创建计算列导致查询不优化。 4、内存不足 5、网络速度慢 6、查询出的数据量过大(可以采用多次查询,其他的方法降低数据量)7、锁或者死锁(这也是查询慢最常见的问题,是程序设计的缺陷) 8、sp_lock,sp_who,活动的用户查看,原因是读写竞争资源。
什么是事务?如何Oracle使用事务。在Java中使用事务。什么是锁?演示更新丢失的问题。锁的分类。阻塞与死锁。深入浅出Oracle主讲:邹振兴什么是事务什么是事务?事务是一种机制,这种机制能保证在事务内的DML(数据操作语句)做为一个不可分割的单元进行执行。
Oracle数据是当前主流数据当中功能最强大,速度最快,市场占有率最高的一款产品。在工作中,使用频率非常高。S1数据库主要学使用,S2数据库主要学业务逻辑,Y2数据库主要学习优化查询速度。整个课程将分为二个部分,前4次课讲解Oracle数据库的基本应用(权限、建表、增、删、查、改),后4次课讲解Oracle的高级应用(事务、索引、视图、触发器、过程)。
ETL的基本概念一功能:ETL负责将分布的、异构数据源中的数据如关系数据、平面数据文件等抽取到临时中间层后进行清洗、转换、集成,最后加载到数据仓库或数据集市中,成为联机分析处理(OLAP)、数据挖掘(DM)的基础。特点:一、数据同步。不是一次性数据倒完就拉到,它是经常性的活动,按照固定周期运行的。甚至现在还有人提出了实时ETL的概念。二、数据量大。一般来说,数据量都是巨大的,值得我们将数据流动的过程拆分成E、T、L的过程。三、速度快。现在ETL的最高装载记录是4TB/h(Greenplum)。在日常运用中,根据我的经验,装载峰值大概在1–5万rows/s。速度跟T的逻辑复杂度是密切相关的。