全表扫描的成本计算公式 如下:
Cost = (#SRds * sreadtim +#MRds * mreadtim +CPUCycles / cpuspeed) / sreadtim
全表扫描的时候,单块读次数=0,#SRds表示单块读次数。全表扫描的成本里面,CPU消耗其实非常少,可以忽略不计,所以全表扫描的公式可以改写为:
Cost = #MRds * mreadtim / sreadtim
#MRds 表示多块读io次数
mreadtim 表示一次多块读耗费时间
sreadtim 表示一次单块读耗费时间
全表扫描的COST意思其实就是 多块读io次数 * 多块读时间 / 单块读时间
那么为什么 全表扫描成本公式里面要除以 sreadtim呢? 我们来看一下 索引扫描的成本计算公式:
cost = blevel + celiling(leaf_blocks *effective index selectivity) + celiling(clustering_factor * effective table selectivity)
blevel 是 扫描索引 的 root到branch ---单块读
celiling(leaf_blocks *effective index selectivity) 是扫描的 也在块的个数 ---单块读
ceiling(clustering_factor*effective table selectivity) 是 通过索引的rowid回表的次数 ---单块读
那么 索引扫描的成本公式的本质含义 其实就是 单块读的 io次数
对于单表访问(什么是单表访问? 就是只select一个表),要么走全表扫描,要么走索引扫描,当然了还可以走物化视图(这个不考虑)
ORACLE 究竟是走全表扫描还是走索引扫描呢? 它是计算全表扫描的COST,计算索引扫描的COST 哪个COST消耗少就走哪个。
问题来了,为啥ORACLE计算COST能准确的判断走哪个是最优的呢? 现在我们来比较一下 全表扫描的 COST 与 索引扫描的COST
全表扫描COST 多块读io次数 * 多块读时间 / 单块读时间
索引扫描COST 单块读io次数
那么现在 我们都对 全表扫描 COST , 都对 索引扫描 COST 乘以一个 单块读时间
全表扫描COST* 单块读时间 = 多块读io次数*多块读时间 = 总的耗费时间
索引扫描COST* 单块读时间 = 单块读io次数*单块读时间 = 总的耗费时间
说白了,就是比较全表扫描与索引扫描谁 总的耗费的时间最少,就选谁。
到这里你应该看懂了吧。 不得不佩服ORACLE 设计 人员的头脑,真是牛逼。