这是上一篇的续作,对于这个算法,其中可以同时进行的部分有
- 拆分后对每一个块的排序可以同时进行
- 合并时的不同范围之间可以同时进行,例如拆分为10个小块,那么1-5小块的合并跟6-10小块的合并过程可以同时进行
- 合并的不同阶段之间不可以同时进行,因为不同阶段之间有先后顺序
- 不存在对同一条数据的修改,所以无需进行并发控制
线程池
this.threadPoolExecutor = new ThreadPoolExecutor(8, 8, 10L, TimeUnit.SECONDS,
new LinkedBlockingQueue<>(8),
new CustomizableThreadFactory("fileSorterTPE-"),
new ThreadPoolExecutor.CallerRunsPolicy());
线程池消费拆分任务
List<Future<Chunk>> splitFutureList = new ArrayList<>();
while (true){
line = br.readLine();
if(line != null){
chunkRows.add(line);
}
if(line == null || chunkRows.size() >= initialChunkSize){
if(chunkRows.size() > 0){
final int rn = rowNum;
final List<String> cr = chunkRows;
rowNum += chunkRows.size();
chunkRows = new ArrayList<>();
Future<Chunk> chunk = threadPoolExecutor.submit(() -> {
cr.sort(comparator);
return initialChunk(rn, cr, file);
});
splitFutureList.add(chunk);
}
}
if(line == null){
break;
}
}
chunkList = splitFutureList.stream().map(this::get).collect(Collectors.toList());
线程池消费合并任务
int currentLevel = INITIAL_CHUNK_LEVEL;
List<Future<Chunk>> mergeFutureList = new ArrayList<>();
while (true) {
//从队列中获取一组chunk
List<Chunk> pollChunks = pollChunks(chunkQueue, currentLevel);
//未取到同级chunk, 表示此级别应合并完成
if (CollectionUtils.isEmpty(pollChunks)) {
mergeFutureList.stream().map(this::get).forEach(chunkQueue::add);
mergeFutureList.clear();
//chunkQueue 中只有一个元素,表示此次合并是最终合并
if (chunkQueue.size() == 1) {
break;
} else {
currentLevel++;
continue;
}
}
Future<Chunk> chunk = threadPoolExecutor.submit(() -> merge(pollChunks, original));
mergeFutureList.add(chunk);
}
可以看到合并任务与拆分任务有些不同,拆分任务是在循环退出后才执行Future.get
,因为拆分不用考虑先后;
而合并任务在每次获取当前阶段的chunk结束时执行Future.get
,这样才能避免不同的阶段之间产生混乱。
测试
在上一篇中,使用单线程,1千万条数据排序耗时13秒; 在同一台电脑上,使用多线程后,耗时6秒,时间减少了一半。
在拆分过程中,每个线程都要在内存中进行排序, 在拆分和合并过程中,每个线程都要持有自己的读写缓冲区,这无疑会增大内存的使用量。
究竟消耗了多少内存,我们可以使用Java Mission Control
来观察,jdk8的bin目录下jmc.exe
即为此工具。