当前位置: 代码迷 >> 综合 >> Staring into the Abyss: An Evaluation of Concurrency Control with One Thousand Cores 论文阅读笔记
  详细解决方案

Staring into the Abyss: An Evaluation of Concurrency Control with One Thousand Cores 论文阅读笔记

热度:40   发布时间:2023-12-21 12:16:50.0

Staring into the Abyss: An Evaluation of Concurrency Control with One Thousand Cores 论文阅读笔记

Concurrency Control Scheme

OLTP txns workload:

  • short-lived
  • small subset of data using index look-ups
  • repetitive with different input

在这里插入图片描述

测试 Isolation level 是 serializable(因此一些 concurrency control 与通常有些差异)

2PL

  • deadlock detection:检查 wait-for 图,并且选择合适的 txn abort
  • non-waiting deadlock prevention:在 growing phase,如果拿锁失败(不等待),立即 abort
  • wait-and-die deadlock prevention:允许较早的 txn 等待 之后的 txn 释放资源;如果较新的 txn 请求资源,abort 并在某些延迟后重启,序号不变。

Timestamp Ordering

分类标准:1. 检查冲突的粒度(tuple, partition);2. 检查冲突的时间(事务中还是结束时)

  • TimeStamp:每次操作检查 ts,如果落后,就 abort;读操作 copy,为了 repeatable。(有些实现在一个 tuple 上有 read ts 和 write ts)
  • MVCC:读操作不阻塞
  • OCC:写操作在 private workspace;validation phase:read set 是否与其他 txns 的 write set 交集
  • H-Store

Design Choices and Optimization

造成 overhead 的几个方面

  • lock thrashing
  • ts allocation
  • memory allocation / copy

2PL Optimization

  • deadlock detection:把 wait-for graph 从多线程共享数据结构分解为比较独

2PL 最大的 bottleneck 是 lock thrashing

在这里插入图片描述

theta 从 0 到 0.8 表示对某一部分的 hotspot data 的访问频率增加。(就是 theta 越大,越针对某一个热点区域)

在这里插入图片描述

当 timeout 较小时,abort rate 较大,某种程度上减少了 lock thrashing
当 timeout 较大时,abort rate 较小,lock thrashing 严重,吞吐量低
要达到高吞吐量,既需要执行更多的 txns,还需要降低 lock thrashing

TimeStamp Ordering Optimization

TimeStamp allocation
  • batching atomic addition
  • CPU clock
  • hardware counter

在这里插入图片描述

Figure 6 是只测试多线程获取 ts 的性能
atomic 下降的原因是 the cache coherence traffic from writing back and invalidating the last copy of the corresponding cache line for every timestamp.
batch 方法会遇到 contention

 
在这里插入图片描述

Figure 7 测试 real workloads
在 contention 下,batching atomic 方法是低效的,因为如果 abort,那么从这个 batch 中再挑一个 ts 还是落后于冲突 txn ts,这样一个 txn 会不断 abort 和 restart,直到一个 batch 的 ts 被耗尽。

这个问题其实可以解决,比如一个 batch=8,那么分配 x 代表可以获得以下8个:x, x+8, …, x+56。不过这样需要counter在每隔8个就要跳跃一下:x, x+1, …, x+7, x+64。伪代码如下:

static std::atomic_flag lock = ATOMIC_FLAG_INIT;
static uint32_t help_cnt = 0;
static uint32_t cnt = 0;uint32_t get_ts() {
    while (lock.test_and_set(std::memory_order_acquire)) ;uint32_t ts = cnt;help_cnt++;help_cnt &= 0x7;cnt++;unsigned int overflow = (~help_cnt) >> 31;cnt += (overflow << 6) - (overflow << 3);lock.clear(std::memory_order_release);return ts;
}

实验分析

  • scalability: 增加 core
  • sensitivity: 改变某个测试参数(比如热点访问)

参数 theta

  • 0: 所有 tuple 以相同频率访问
  • 0.6: 10% 的热点数据被 40% 的 txns 访问
  • 0.8: 10% 的热点数据被 60% 的 txns 访问

Read-Only Workload

在这里插入图片描述

  • deadlock detection 和 No_Wait 都没有 contention,所以不会 abort,效率高。(话说 shared mutex 在多核下性能不知道怎么样,毕竟是系统调用)
  • Wait_Die 和 MVCC 因为 ts allocation 导致性能下降
  • OCC 和 TS 因为要 copy read set 保证 repeatable read,所以性能低

Write-Intensive Workload

在这里插入图片描述

  • deadlock detection 要做大量的 wait-for graph 检测工作,持有锁时间较长,引发大量的 lock thrashing
  • No_Wait 和 Wait_Die 在 growing phase 就判断是否 abort(实验中 abort 和 restart 开销较小)
  • 与 TO,OCC 相比,MVCC 表现较好,因为不影响 read
  • OCC 效果差因为即使会在 validation phase 检测出冲突,也会把整个 txn 做完

 
在这里插入图片描述

  • No_Wait 大量时间用于 abort 和 restart,持有锁时间较短,所以性能好一点(实验中 abort 和 restart 开销较小)
  • OCC 在多核下性能平稳,因为 validation phase 总能保证至少一个 txn commit

 
在这里插入图片描述

  • 随着 data contention 增加,所有算法的性能都下降

Working Set Size

在这里插入图片描述

  • 这幅图的斜率是 milion txn/s
  • deadlock detection 和 No_Wait 的性能随着锁持有时间增长而下降

Read/Write Mixture

在这里插入图片描述

  • TO 和 OCC 要 copy
  • MVCC 在 write request 较少时性能较高,因为不阻塞读操作

关于多核性能的讨论

在这里插入图片描述

需要 software-hardware co-design

Reference

  • CMU Advanced Database Systems - 02 Transaction Models & In-Memory Concurrency Control (Spring 2019) start from 1h 05min -> 1h 25min
  相关解决方案