优化mysql使用的方法以及使用到的工具和命令

3/7/2017来源:SQL技巧人气:1082

优化MySQL使用的方法以及使用到的工具和命令 1.使用pgcc(pentium gcc)编译器 该编译器(http://www.goof.com/pcg/)针对运行在奔腾处理器系统上的程序进行优化,用pgcc编译mysql源代码,总体性能可提高10%。当然如果你的服务器不是用奔腾处理器,就不必用它了,因为它是专为奔腾系统设计的。 2.仅使用你想使用的字符集编译mysql mysql目前提供多达24种不同的字符集,为全球用户以他们自己的语言插入或查看表中的数据。却省情况下,mysql安装所有者这些字符集,热然而,最好的选择是指选择一种你需要的。如,禁止除latin1字符集以外的所有其它字符集:  %>./configure -with-extra-charsets=none [--other-configuration-options] 3.将mysqld编译成静态执行文件 将mysqld编译成静态执行文件而无需共享库也能获得更好的性能。通过在配置时指定下列选项,可静态编译mysqld。 %>./configure -with-mysqld-ldflags=-all-static [--other-configuration-options] 4.配置样本 下列配置命令常用于提高性能:  %>cflags="-o6 -mpentiumPRo -fomit-frame-pointer" cxx=gcc cxxflags="-o6 -mpentiumpro -fomit-frame-pointer -felide-constructors -fno-exceptions -fno-rtti" ./configure --prefix=/usr/local --enable-assembler --with-mysqld-ldflags=-all-static --disable-shared 5.确保运用正确的编译固然重要,但这只是成功的第一步,配置众多的mysql变量同样对服务器的正常运行起关键作用。你可以将这些变量的赋值存在一个配置文件中,以确保它们在每次启动mysql时均起作用,这个配置文件就是my.cnf文件。 mysql已经提供了几个my.cnf文件的样本,可在/usr/local/mysqld/share/mysql/目录下找到。这些文件分别命名为my-small.cnf、 my-medium.cnf、my-large.cnf和my-huge.cnf,规模说明可在描述配置文件适用的系统类型标题中找到。如果在只有相当少内存的系统上运行mysql,而且只是偶尔的用一下,那么my-small.cnf会比较理想,因为它命令mysqld只使用最少的资源。类似地,如果你计划构建电子商务超市,而且系统拥有2g内存,那么你可能要用到mysql-huge.cnf文件了。 为了利用这些文件中的一个,你需要复制一个最适合需求的文件,改名为my.cnf。你可以选择使用配置文件三种作用范围的一种: global:将my.cnf文件复制到服务器的/etc目录下,这使得配置文件中的变量作用于全局,即对所有服务器上的mysql数据库服务器有效。  local:将my.cnf文件复制到[mysql-install-dir]/var/目录下,使得my.cnf作用于特定的服务器。[mysql-install-dir]表示mysql安装目录。  user:你可以再限制作用于特定的用户,将my.cnf复制到用户的根目录下。 究竟如何设置my.cnf中的这些变量呢?更进一步说,你可以设置哪一个变量。虽然所用变量对mysql服务器相对通用,每一个变量与mysql的的某些组件有更特定的关系。如变量max_connects归在mysqld类别下。执行下列命令即可知道: %>/usr/local/mysql/libexec/mysqld--help 它显示大量的选项及与mysqld相关的变量。 你可以很容易地在该行文字之下找出变量: possible variables for option --set-variable (-o) are 然后你可以如下设置my.cnf中的那些变量: set-variable = max_connections=100 它设置mysql服务器的最大并发连接数为100。要确保在my.cnf文件中的[mysqld]标题下插入变量设置。 事务安全 dbd berkeley db(dbd)表是支持事务处理的表,由sleepycat软件公司(http://www.sleepycat.com)开发。它提供mysql用户期待已久的功能-事务控制。 事务控制在任何数据库系统中都是一个极有价值的功能,因为它们确保一组命令能成功地执行。  非事务安全 heap heap表是mysql中存取数据最快的表。这是因为他们使用存储在动态内存中的一个哈希索引。另一个要点是如果mysql或服务器崩溃,数据将丢失。    isam isam表是早期mysql版本的缺省表类型,直到myiasm开发出来。建议不要再使用它。    merge merge是一个有趣的新类型,在3.23.25之后出现。一个merge表实际上是一个相同myisam表的集合,合并成一个表,主要是为了效率原因。这样可以提高速度、搜索效率、修复效率并节省磁盘空间。    myiasm 这是mysql的缺省表类型。它基于iasm代码,但有很多有用的扩展。myiasm比较好的原因: myiasm表小于iasm表,所以使用较少资源。 myiasm表在不同的平台上二进制层可移植。 更大的键码尺寸,更大的键码上限。  指定表类型 你可在创建表时指定表的类型。下例创建一个heap表:  mysql>create table email_addresses type=heap ( ->email char(55) not null, ->name char(30) not null, ->primary key(email) );  bdb表需要一些配置工作,参见http://www.mysql.com/doc/b/d/bdb_overview.html。  更多的表类型 为了使mysql管理工作更有趣,即将发布的mysql 4.0将提供两种新的表类型,称为innobase和gemeni。  show 你可能有兴趣知道mysql服务器究竟更了什么,下列命令给出一个总结: 、 mysql>show status;  它给出了一个相当长的状态变量及其值的列表。有些变量包含了异常终止客户的数量、异常终止连接的数量、连接尝试的次数、最大并发连接数和大量其他有用的信息。这些信息对找出系统问题和低效极具价值。 show还能做更多的事情。它可以显示关于日志文件、特定数据库、表、索引、进程和权限表中有价值的信息。详见mysql手册。  explain 当你面对select语句时,explain解释select命令如何被处理。这不仅对决定是否应该增加一个索引,而且对决定一个复杂的join如何被mysql处理都是有帮助的。  optimize optimize语句允许你恢复空间和合并数据文件碎片,对包含变长行的表进行了大量更新和删除后,这样做特别重要。optimize目前只工作于myiasm和bdb表。 3. 一张mysql大数据表有几千万数据,但有一自增id字段,且为主键,要遍历此表的所有数据,写出有效的方法和sql(禁止使用limit n,m)。 答: 案例分析:数据表 collect ( id, title ,info ,vtype) 就这4个字段,其中 title 用定长,info 用text, id 是逐渐,vtype是tinyint,vtype是索引。10万数据的效果。 select id,title from collect limit 1000,10; 基本上0.01秒就OK select id,title from collect limit 90000,10;                8-9秒完成 select id from collect order by id limit 90000,10;  0.04秒就OK。 为什么?因为用了id主键做索引当然快。 改进方法:select id,title from collect where id>=(select id from collect order by id limit 90000,1) limit 10;; select id from collect where vtype=1 order by id limit 90000,10; 很慢,用了8-9秒! vtype 做了索引了啊?怎么会慢呢?vtype做了索引是不错,你直接 select id from collect where vtype=1 limit 1000,10; 是很快的,基本上0.05秒,可是提高90倍,从9万开始,那就是0.05*90=4.5秒的速度了。 分表的方法: 建一个索引表: t (id,title,vtype) 并设置成定长,然后做分页,分页出结果再到 collect 里面去找info 。 是否可行呢?实验下就知道了。 10万条记录到 t(id,title,vtype) 里,数据表大小20M左右。用select id from t where vtype=1 order by id limit 90000,10; 很快了。基本上0.1-0.2秒可以跑完。 其实这样做还是全表扫描,只是因为数据量小,只有10万才快。OK, 来个疯狂的实验,加到100万条,测试性能。 加了10倍的数据,马上t表就到了200多M,而且是定长。还是刚才的查询语句,时间是0.1-0.2秒完成!分表性能没问题?错!因为我们的limit还是9万,所以快。给个大的,90万开始select id from t where vtype=1 order by id limit 900000,10; 看看结果,时间是1-2秒! 怪不得有人说 discuz到了100万条记录就会很慢,我相信这是真的,这个和数据库设计有关! 开始测试结论是: 30万数据,用分表法可行,超过30万他的速度会慢道你无法忍受!当然如果用分表+我这种方法,那是绝对完美的。但是用了我这种方法后,不用分表也可以完美解决! 不分表的方法: 复合索引!search(vtype,id) 这样的索引 select id from collect where vtype=1 limit 90000,10; 非常快!0.04秒完成! 再测试: select id ,title from collect where vtype=1 limit 90000,10; 非常遗憾,8-9秒,没走search索引! 再测试:search(id,vtype),还是select id 这个语句,也非常遗憾,0.5秒。 综上:如果对于有where 条件,又想走索引用limit的,必须设计一个索引,将where 放第一位,limit用到的主键放第2位,而且只能select 主键! http://blog.csdn.net/zqtsx/article/details/8929625