最近在做BOPS搜索排序项目二期,主要是性能优化。根据分析,一期的主要性能消耗在异步计算第P页的"前面有N条"的N值,因为需要遍历前P-1页,并且计算某个公司的产品数。通过测试,这是一个NIO密集型,而不是CPU密集型。对于NIO的优化,主要有本地缓存,但是由于key的变化性(客户随意输入),缓存的hit概率太低,不适合。因此考虑通过并发访问来缩短时间,前提是任务可以进行相对独立的划分。设计如下:
在第P页计算"前面有N条",如果P<60,那么采用单线程足以,因为前60页每一页的加载时间大概为150ms, 150ms * 60 = 9s,这个是完全可以接受的。
如果P>60,那么根据越往后面越慢的规律(前60页每页大概150ms;60-100页,每页大概180ms;100-150每页大概330ms,150-200每页大概450ms,200-260每页大概600ms)。
采用如下线程分配机制:(保证所有的线程大概同时完成(控制在10s内),避免木桶原理)。
线程1:负责前60页
线程2:负责前61-XX(具体数字需要进一步的测试)
线程3:负责前XX-XX
...
线程N:负责前XX-XX (N<=12)
每个线程查询之后,各自进行计算,并将计算结果存放在一个公用的Map中。以company_id为key,以count为value。由于并非问题,将使用ConcurrentMap保证共享数据的一致性。
备注:考虑到由于并发加锁和解锁可能导致性能变差,可以采用每个线程有自己的Map,当所有子线程都计算完成之后,主线程进行合并。
补记:其实没有必要做这样的划分,将每一页的请求作为一个job放入任务池,让所有子线程去执行就可以了。
根据这个设计,笔者对ConcurrentMap和SynchronizedMap分别进行了测试。结果发现了一些问题。
首先测试ConcurrentMap:
package alibaba.b2b.forrest;
import java.util.concurrent.ConcurrentHashMap;
import java.util.concurrent.ConcurrentMap;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.concurrent.TimeUnit;
public class ConcurrentMapTest {
public static void main(String args[]) throws InterruptedException {
long begin = System.currentTimeMillis();
ConcurrentMap<String, Integer> map = new ConcurrentHashMap<String, Integer>();
ExecutorService exec = Executors.newFixedThreadPool(10);
for (int index = 0; index < 1000; index++) {
Runnable run = new Runner(index, map);
exec.execute(run);
}
exec.shutdown();
while (true) {
try {
boolean finish = exec.awaitTermination(600, TimeUnit.SECONDS);
if (finish) {
long end = System.currentTimeMillis();
System.err.println("execute time: " + (end - begin) + " milliseconds");
System.out.println(map);
break;
}
} catch (InterruptedException e) {
}
}
}
}
class Runner implements Runnable {
ConcurrentMap<String, Integer> map;
int index = 0;
public Runner(int index, ConcurrentMap<String, Integer> map) {
this.map = map;
this.index = index;
}
@Override
public void run() {
System.out.println("线程名:" + Thread.currentThread().getName() + "(目标对象" + index + ")");
Integer count = map.putIfAbsent("key", 1);
if (count != null && !map.replace("key", count, count + 1)) {
System.err.println("replace failed!");
}
}
}
如果正常的话,map中的最终结果应该是key=1000,但是运行多次却发现有时候不是:
线程名:pool-1-thread-2(目标对象1)
线程名:pool-1-thread-3(目标对象2)
线程名:pool-1-thread-1(目标对象0)
线程名:pool-1-thread-3(目标对象11)
线程名:pool-1-thread-10(目标对象9)
replace failed!
线程名:pool-1-thread-2(目标对象20)
线程名:pool-1-thread-2(目标对象21)
线程名:pool-1-thread-2(目标对象602)
线程名:pool-1-thread-5(目标对象592)
线程名:pool-1-thread-5(目标对象604)
replace failed!
线程名:pool-1-thread-5(目标对象605)
线程名:pool-1-thread-5(目标对象606)
线程名:pool-1-thread-5(目标对象607)
线程名:pool-1-thread-5(目标对象642)
线程名:pool-1-thread-5(目标对象643)
线程名:pool-1-thread-5(目标对象644)
线程名:pool-1-thread-5(目标对象645)replace failed!
线程名:pool-1-thread-5(目标对象647)
线程名:pool-1-thread-5(目标对象648)
线程名:pool-1-thread-8(目标对象620)
线程名:pool-1-thread-3(目标对象617)
线程名:pool-1-thread-10(目标对象611)
线程名:pool-1-thread-2(目标对象603)
线程名:pool-1-thread-5(目标对象654)
{key=997}
execute time: 94 milliseconds
看到有三条是插入失败的。所以最终结果是997条,而不是1000条。
原因在于ConcurrentMap采用的是类似于CSMA的冲突检测方式(确切地说,是ConcurrentMap提供了冲突检查接口),而不是锁机制(锁是一种类似于令牌网的方式)。这可以提高并发性,但是同时也不能保证一定会成功。我们这里使用
boolean java.util.concurrent.ConcurrentMap.replace(String key, Integer oldValue, Integer newValue);接口就是这种防御式更新方式。这个在人工翻译项目中对数据库的更性也采用了类似的处理方式。但是由于oldValue由于其他线程更新导致已经不一致时,这个更新(插入)操作就会失败。解决方式是像CSMA一样,随机等待一段时间再重试。
或者简单的一直重试:
class Runner implements Runnable {
ConcurrentMap<String, Integer> map;
int index = 0;
public Runner(int index, ConcurrentMap<String, Integer> map) {
this.map = map;
this.index = index;
}
@Override
public void run() {
System.out.println("线程名:" + Thread.currentThread().getName() + "(目标对象" + index + ")");
Integer count = map.putIfAbsent("key", 1);
while (count != null && !map.replace("key", count, count + 1)) {
System.err.println(">>>>>>>>>>>>>Conflict!<<<<<<<<<<<<<<<<");
count = map.get("key");
}
}
}
线程名:pool-1-thread-4(目标对象3)
线程名:pool-1-thread-7(目标对象6)
线程名:pool-1-thread-6(目标对象5)
线程名:pool-1-thread-3(目标对象2)
线程名:pool-1-thread-5(目标对象4)
线程名:pool-1-thread-2(目标对象1)
线程名:pool-1-thread-1(目标对象0)
线程名:pool-1-thread-8(目标对象7)
线程名:pool-1-thread-1(目标对象794)
线程名:pool-1-thread-1(目标对象795)
>>>>>>>>>>>>>Conflict!<<<<<<<<<<<<<<<<
>>>>>>>>>>>>>Conflict!<<<<<<<<<<<<<<<<
线程名:pool-1-thread-1(目标对象796)
线程名:pool-1-thread-1(目标对象797)
线程名:pool-1-thread-1(目标对象798)
线程名:pool-1-thread-1(目标对象998)
线程名:pool-1-thread-1(目标对象999)
execute time: 128 milliseconds
线程名:pool-1-thread-10(目标对象408)
线程名:pool-1-thread-5(目标对象551)
线程名:pool-1-thread-3(目标对象534)
线程名:pool-1-thread-7(目标对象526)
线程名:pool-1-thread-6(目标对象519)
线程名:pool-1-thread-9(目标对象550)
线程名:pool-1-thread-8(目标对象549)
线程名:pool-1-thread-4(目标对象456)
线程名:pool-1-thread-2(目标对象470)
{key=1000}
再来看看SynchronizedMap:
package alibaba.b2b.forrest;
import java.util.Collections;
import java.util.HashMap;
import java.util.Map;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
import java.util.concurrent.TimeUnit;
public class SynchronizedMapTest {
public static void main(String args[]) throws InterruptedException {
long begin = System.currentTimeMillis();
Map<String, Integer> m = new HashMap<String, Integer>();
Map<String, Integer> map = Collections.synchronizedMap(m);
ExecutorService exec = Executors.newFixedThreadPool(10);
for (int index = 0; index < 1000; index++) {
Runnable run = new Runner(index, map);
exec.execute(run);
}
exec.shutdown();
while (true) {
try {
boolean finish = exec.awaitTermination(600, TimeUnit.SECONDS);
if (finish) {
long end = System.currentTimeMillis();
System.err.println("execute time: " + (end - begin) + " milliseconds");
System.out.println(map);
break;
}
} catch (InterruptedException e) {
}
}
}
}
class Runner implements Runnable {
Map<String, Integer> map;
int index = 0;
public Runner(int index, Map<String, Integer> map) {
this.map = map;
this.index = index;
}
@Override
public void run() {
System.out.println("线程名:" + Thread.currentThread().getName() + "(目标对象" + index + ")");
Integer count = map.get("key");
if (count != null) {
Integer oldCount = map.put("key", count + 1);
if (!oldCount.equals(count)) {
System.err.println(">>>>>>>>>>not Consistent!<<<<<<<<<<<");
}
} else {
Integer oldCount = map.put("key", 1);
if (oldCount != null) {
System.err.println(">>>>>>>>>>Oops!<<<<<<<<<<<");
}
}
}
}
运行结果更糟糕:
线程名:pool-1-thread-2(目标对象1)
线程名:pool-1-thread-3(目标对象2)
线程名:pool-1-thread-4(目标对象3)
线程名:pool-1-thread-5(目标对象4)
线程名:pool-1-thread-6(目标对象5)
线程名:pool-1-thread-10(目标对象938)
线程名:pool-1-thread-9(目标对象937)
线程名:pool-1-thread-3(目标对象936)
线程名:pool-1-thread-4(目标对象935)
线程名:pool-1-thread-5(目标对象934)
线程名:pool-1-thread-1(目标对象673)
线程名:pool-1-thread-6(目标对象671)
{key=999}
>>>>>>>>>>not Consistent!<<<<<<<<<<<
execute time: 94 milliseconds
线程名:pool-1-thread-1(目标对象0)
线程名:pool-1-thread-3(目标对象2)
线程名:pool-1-thread-2(目标对象1)
>>>>>>>>>>Oops!<<<<<<<<<<<
>>>>>>>>>>Oops!<<<<<<<<<<<
线程名:pool-1-thread-4(目标对象3)
线程名:pool-1-thread-5(目标对象4)
线程名:pool-1-thread-6(目标对象5)
线程名:pool-1-thread-7(目标对象6)
线程名:pool-1-thread-7(目标对象378)
线程名:pool-1-thread-6(目标对象377)
线程名:pool-1-thread-5(目标对象376)
线程名:pool-1-thread-4(目标对象375)
线程名:pool-1-thread-2(目标对象374)
线程名:pool-1-thread-10(目标对象79)
execute time: 83 milliseconds
{key=998}
两种情况都可能发生,说明Integer count = map.get("key");取得key之后并没有加锁,看一下JDK的实现就知道了:
public V get(Object key) {
synchronized(mutex) {return m.get(key);}
}
public V put(K key, V value) {
synchronized(mutex) {return m.put(key, value);}
}
所以千万不要以为SyncronizedMap带着个Syncronized定语就真的是同步的。
解决方法:
1. 将对公共Map的代码块放在一个Syncronized方法块中,保证同步。
2. 使用页码作为key,Map<String, Integer>作为value,这样不用的线程根据各自的key存取公共map的东西,就不会有冲突的问题了。
3. 主线程为每个子线程创建一个新的map传递给子线程。
相关推荐
微信公众号:放开我我还能学 分享知识,共同进步! 看你简历里写了 HashMap,那你说说它存在什么缺点? 线程不安全 迭代时无法修改值 那你有用过线程安全的 Map 吗?...同步包装器 SynchronizedMap
多线程 第4章-多线程 Синхронные и асинхронные операции Синхронизация ресурсов - блок кода "synchronized" ...ConcurrentMap<K>
Synchronized 同步容器 Concurrent 并发容器: Map/List/Queue 阻塞队列 JUC锁: CountDownLatch 闭锁 AQS 锁的公共类 20180514 String, 部分Character 20180508 除 Set 外, 常用的 Collection 都已经分析完毕 简化...
2.多线程并发编程,现在并发几乎是写服务端程序必须的技术,那对Java中的多线程就要有足够的熟悉,包括对象锁机制、synchronized关键字,concurrent包都要非常熟悉,这部分推荐你看看《Java并发编程实践》这本书,...
synchronized关键字 Java String Java Arrays Java Collections Java 泛型 Java NIO Buffer Channel Selector Java 8 Features 源码解读 String源码系列 List源码系列 ArrayList LinkedList CopyOnWriteArrayList ...
77、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 18 78、abstract class Name { private String name; public abstract boolean isStupidName(String name) {}}这有何错误? 18 79、public class ...
Map 在使用过程中不断的往里面存放数据,当数量达到了 16 * 0.75 = 12 就需要将当前 16 的容量进行扩容,而扩容这个过程涉及到 rehash、复制数据等操作,所以非常消耗性能。 因此通常建议能提前预估 HashMap 的大小...
leetcode题库 请访问: 欢迎star,fork,pr 剑指offer刷题说明 刷题地址: 需要找到最优解法:参考学习牛客网左程云视频、牛客网算法讨论、...java.util.concurrent(JUC):CountDownLatch / Semaphore / CyclicBarrier
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 56、子线程循环10次,接着主线程循环100,接着又回到子线程...
HashMap是Hashtable的轻量级实现(非线程安全的实现),他们都完成了Map接口,主要区别在于HashMap允许空(null)键值(key),由于非线程安全,效率上可能高于Hashtable。 HashMap允许将null作为一个entry的key或者...
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 34 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 36 56、子线程循环10次,接着主线程循环100,接着又回到...
此数组元素数大于实际存储的数据以便增加和插入元素,它们都允许直接按序号索引元素,但是插入元素要涉及数组元素移动等内存操作,所以索引数据快而插入数据慢,Vector由于使用了synchronized方法(线程安全),...
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 34 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 36 56、子线程循环10次,接着主线程循环100,接着又回到...
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 56、子线程循环10次,接着主线程循环100,接着又回到子线程...
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 34 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 36 56、子线程循环10次,接着主线程循环100,接着又回到...
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 34 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 36 56、子线程循环10次,接着主线程循环100,接着又回到...
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 38 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 40 56、子线程循环10次,接着主线程循环100,接着又回到...
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 34 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 36 56、子线程循环10次,接着主线程循环100,接着又回到...
54、简述synchronized和java.util.concurrent.locks.Lock的异同 ? 34 55、设计4个线程,其中两个线程每次对j增加1,另外两个线程对j每次减少1。写出程序。 36 56、子线程循环10次,接着主线程循环100,接着又回到...