2015-07-16 13:04 13265人阅读
有一个场景:一个抢购的项目,假设有5件商品,谁先抢到谁可以买,但是如果此时此刻(这里的此时此刻假设是相同的时间),有100人去抢这个商品,如果使用平时的方法会出现什么情况呢?你懂的,这里所说是就是有关并发的问题。
平时我们去超市购物去结账的时候就是排队,这里我们先让抢购人排好队,按时间,谁先点击的抢购按钮谁就排在前面,这样就形成了一个队列,然后我们再对这个队列处理,这样就不会出现并发的问题了。(至少可以处理这样简单的并发,这里不讨论太复杂的并发)
案例:
要求:有一个发布文章的接口,每发布一篇文章,调用一下接口。(这里不用批量发布,为了讲解这个)
建立一个这样的处理程序类,BusinessInfoHelper.cs
- namespace MyNameSpace
-
- {
-
- public class QueueInfo
- {
- public string medias { get; set; }
- public string proids { get; set; }
- public string host { get; set; }
- public string userid { get; set; }
- public string feedid { get; set; }
- }
-
- public class BusinessInfoHelper
- {
- #region 解决发布时含有优质媒体时,前台页面卡住的现象
-
-
- public readonly static BusinessInfoHelper Instance = new BusinessInfoHelper();
- private BusinessInfoHelper()
- { }
-
- private Queue<QueueInfo> ListQueue = new Queue<QueueInfo>();
-
- public void AddQueue(string medias, string proids, string host, string userid, string feedid)
- {
- QueueInfo queueinfo = new QueueInfo();
-
- queueinfo.medias = medias;
- queueinfo.proids = proids;
- queueinfo.host = host;
- queueinfo.userid = userid;
- queueinfo.feedid = feedid;
- ListQueue.Enqueue(queueinfo);
- }
-
- public void Start()
- {
- Thread thread = new Thread(threadStart);
- thread.IsBackground = true;
- thread.Start();
- }
-
- private void threadStart()
- {
- while (true)
- {
- if (ListQueue.Count > 0)
- {
- try
- {
- ScanQueue();
- }
- catch (Exception ex)
- {
- LO_LogInfo.WLlog(ex.ToString());
- }
- }
- else
- {
-
- Thread.Sleep(3000);
- }
- }
- }
-
-
- private void ScanQueue()
- {
- while (ListQueue.Count > 0)
- {
- try
- {
-
- QueueInfo queueinfo = ListQueue.Dequeue();
-
-
-
-
-
- }
- catch (Exception ex)
- {
- throw;
- }
- }
- }
-
-
- #endregion
- }
- }
以上页面写好后,在程序开始运行时就得启动这个线程去不停的处理任务,那么我们在Global的Application_Start里可以这样写:
- MyNameSpace.BusinessInfoHelper.Instance.Start();
有一个问题出来了,如果我处理完队列中的一条记录后,想返回这条记录的ID,这个程序好像不能完成,我就使用了另一个方法 Lock方法 ,把方法锁定,具体的如下,
在页面中定义全局的锁:
- private static object lockObject= new Object();
在方法 中这样调用:
如果不使用第二种方法的全局锁,不知各位大侠有没有好的解决办法,如果有,可以跟贴,非常感谢!