日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網(wǎng)為廣大站長提供免費(fèi)收錄網(wǎng)站服務(wù),提交前請做好本站友鏈:【 網(wǎng)站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(wù)(50元/站),

點(diǎn)擊這里在線咨詢客服
新站提交
  • 網(wǎng)站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

原文:
https://blog.51cto.com/nxlhero/2515849

作者:nxlhero

文章內(nèi)容結(jié)構(gòu)

第一部分介紹生產(chǎn)上出現(xiàn)Dubbo服務(wù)擁堵的情況,以及Dubbo官方對于單個(gè)長連接的使用建議。

第二部分介紹Dubbo在特定配置下的通信過程,輔以代碼。

第三部分介紹整個(gè)調(diào)用過程中與性能相關(guān)的一些參數(shù)。

第四部分通過調(diào)整連接數(shù)和TCP緩沖區(qū)觀察Dubbo的性能。

一、背景

生產(chǎn)擁堵回顧

近期在一次生產(chǎn)發(fā)布過程中,因?yàn)橥话l(fā)的流量,出現(xiàn)了擁堵。系統(tǒng)的部署圖如下,客戶端通過Http協(xié)議訪問到Dubbo的消費(fèi)者,消費(fèi)者通過Dubbo協(xié)議訪問服務(wù)提供者。這是單個(gè)機(jī)房,8個(gè)消費(fèi)者3個(gè)提供者,共兩個(gè)機(jī)房對外服務(wù)。

一次Dubbo擁堵的分析

 

在發(fā)布的過程中,摘掉一個(gè)機(jī)房,讓另一個(gè)機(jī)房對外服務(wù),然后摘掉的機(jī)房發(fā)布新版本,然后再互換,最終兩個(gè)機(jī)房都以新版本對外服務(wù)。問題就出現(xiàn)單機(jī)房對外服務(wù)的時(shí)候,這時(shí)候單機(jī)房還是老版本應(yīng)用。以前不知道晚上會有一個(gè)高峰,結(jié)果當(dāng)晚的高峰和早上的高峰差不多了,單機(jī)房扛不住這么大的流量,出現(xiàn)了擁堵。這些流量的特點(diǎn)是并發(fā)比較高,個(gè)別交易返回報(bào)文較大,因?yàn)槭且粋€(gè)產(chǎn)品列表頁,點(diǎn)擊后會發(fā)送多個(gè)交易到后臺。

在問題發(fā)生時(shí),因?yàn)椴磺宄顟B(tài),先切到另外一個(gè)機(jī)房,結(jié)果也擁堵了,最后整體回退,折騰了一段時(shí)間沒有問題了。當(dāng)時(shí)有一些現(xiàn)象:

(1)提供者的CPU內(nèi)存等都不高,第一個(gè)機(jī)房的最高CPU 66%(8核虛擬機(jī)),第二個(gè)機(jī)房的最高CPU 40%(16核虛擬機(jī))。消費(fèi)者的最高CPU只有30%多(兩個(gè)消費(fèi)者結(jié)點(diǎn)位于同一臺虛擬機(jī)上)

(2)在擁堵的時(shí)候,服務(wù)提供者的Dubbo業(yè)務(wù)線程池(下面會詳細(xì)介紹這個(gè)線程池)并沒滿,最多到了300,最大值是500。但是把這個(gè)機(jī)房摘下后,也就是沒有外部的流量了,線程池反而滿了,而且好幾分鐘才把堆積的請求處理完。

(3)通過監(jiān)控工具統(tǒng)計(jì)的每秒進(jìn)入Dubbo業(yè)務(wù)線程池的請求數(shù),在擁堵時(shí),時(shí)而是0,時(shí)而特別大,在日間正常的時(shí)候,這個(gè)值不存在為0的時(shí)候。

事故原因猜測

當(dāng)時(shí)其他指標(biāo)沒有檢測到異常,也沒有打Dump,我們通過分析這些現(xiàn)象以及我們的Dubbo配置,猜測是在網(wǎng)絡(luò)上發(fā)生了擁堵,而影響擁堵的關(guān)鍵參數(shù)就是Dubbo協(xié)議的連接數(shù),我們默認(rèn)使用了單個(gè)連接,但是消費(fèi)者數(shù)量較少,沒能充分把網(wǎng)絡(luò)資源利用起來。

默認(rèn)的情況下,每個(gè)Dubbo消費(fèi)者與Dubbo提供者建立一個(gè)長連接,Dubbo官方對此的建議是:

Dubbo 缺省協(xié)議采用單一長連接和 NIO 異步通訊,適合于小數(shù)據(jù)量大并發(fā)的服務(wù)調(diào)用,以及服務(wù)消費(fèi)者機(jī)器數(shù)遠(yuǎn)大于服務(wù)提供者機(jī)器數(shù)的情況。

反之,Dubbo 缺省協(xié)議不適合傳送大數(shù)據(jù)量的服務(wù),比如傳文件,傳視頻等,除非請求量很低。

(http://dubbo.Apache.org/zh-cn/docs/user/references/protocol/dubbo.html)

以下也是Dubbo官方提供的一些常見問題回答:

為什么要消費(fèi)者比提供者個(gè)數(shù)多?

因 dubbo 協(xié)議采用單一長連接,假設(shè)網(wǎng)絡(luò)為千兆網(wǎng)卡,根據(jù)測試經(jīng)驗(yàn)數(shù)據(jù)每條連接最多只能壓滿 7MByte(不同的環(huán)境可能不一樣,供參考),理論上 1 個(gè)服務(wù)提供者需要 20 個(gè)服務(wù)消費(fèi)者才能壓滿網(wǎng)卡。

為什么不能傳大包?

因 dubbo 協(xié)議采用單一長連接,如果每次請求的數(shù)據(jù)包大小為 500KByte,假設(shè)網(wǎng)絡(luò)為千兆網(wǎng)卡,每條連接最大 7MByte(不同的環(huán)境可能不一樣,供參考),單個(gè)服務(wù)提供者的 TPS(每秒處理事務(wù)數(shù))最大為:128MByte / 500KByte = 262。單個(gè)消費(fèi)者調(diào)用單個(gè)服務(wù)提供者的 TPS(每秒處理事務(wù)數(shù))最大為:7MByte / 500KByte = 14。如果能接受,可以考慮使用,否則網(wǎng)絡(luò)將成為瓶頸。

為什么采用異步單一長連接?

因?yàn)榉?wù)的現(xiàn)狀大都是服務(wù)提供者少,通常只有幾臺機(jī)器,而服務(wù)的消費(fèi)者多,可能整個(gè)網(wǎng)站都在訪問該服務(wù),比如 Morgan 的提供者只有 6 臺提供者,卻有上百臺消費(fèi)者,每天有 1.5 億次調(diào)用,如果采用常規(guī)的 hessian 服務(wù),服務(wù)提供者很容易就被壓跨,通過單一連接,保證單一消費(fèi)者不會壓死提供者,長連接,減少連接握手驗(yàn)證等,并使用異步 IO,復(fù)用線程池,防止 C10K 問題。

因?yàn)槲覀兊南M(fèi)者數(shù)量和提供者數(shù)量都不多,所以很可能是連接數(shù)不夠,導(dǎo)致網(wǎng)絡(luò)傳輸出現(xiàn)了瓶頸。以下我們通過詳細(xì)分析Dubbo協(xié)議和一些實(shí)驗(yàn)來驗(yàn)證我們的猜測。

二、Dubbo通信流程詳解

我們用的Dubbo版本比較老,是2.5.x的,它使用的netty版本是3.2.5,最新版的Dubbo在線程模型上有一些修改,我們以下的分析是以2.5.10為例。

以圖和部分代碼說明Dubbo協(xié)議的調(diào)用過程,代碼只寫了一些關(guān)鍵部分,使用的是netty3,dubbo線程池?zé)o隊(duì)列,同步調(diào)用,以下代碼包含了Dubbo和Netty的代碼。

整個(gè)Dubbo一次調(diào)用過程如下:

一次Dubbo擁堵的分析

 

1.請求入隊(duì)

我們通過Dubbo調(diào)用一個(gè)rpc服務(wù),調(diào)用線程其實(shí)是把這個(gè)請求封裝后放入了一個(gè)隊(duì)列里。這個(gè)隊(duì)列是netty的一個(gè)隊(duì)列,這個(gè)隊(duì)列的定義如下,是一個(gè)Linked隊(duì)列,不限長度。

class NioWorker implements Runnable {
    ...
    private final Queue<Runnable> writeTaskQueue = new LinkedTransferQueue<Runnable>();
    ...
}
1.2.3.4.5.

主線程經(jīng)過一系列調(diào)用,最終通過NioClientSocketPipelineSink類里的方法把請求放入這個(gè)隊(duì)列,放入隊(duì)列的請求,包含了一個(gè)請求ID,這個(gè)ID很重要。

2.調(diào)用線程等待

入隊(duì)后,netty會返回給調(diào)用線程一個(gè)Future,然后調(diào)用線程等待在Future上。這個(gè)Future是Dubbo定義的,名字叫DefaultFuture,主調(diào)用線程調(diào)用DefaultFuture.get(timeout),等待通知,所以我們看與Dubbo相關(guān)的ThreadDump,經(jīng)常會看到線程停在這,這就是在等后臺返回。

public class DubboInvoker<T> extends AbstractInvoker<T> {
    ...
   @Override
    protected Result doInvoke(final Invocation invocation) throws Throwable {
         ...   
         return (Result) currentClient.request(inv, timeout).get(); //currentClient.request(inv, timeout)返回了一個(gè)DefaultFuture
    }
    ...
}
1.2.3.4.5.6.7.8.9.

我們可以看一下這個(gè)DefaultFuture的實(shí)現(xiàn),

public class DefaultFuture implements ResponseFuture {

    private static final Map<Long, Channel> CHANNELS = new ConcurrentHashMap<Long, Channel>();
    private static final Map<Long, DefaultFuture> FUTURES = new ConcurrentHashMap<Long, DefaultFuture>();

    // invoke id.
    private final long id;      //Dubbo請求的id,每個(gè)消費(fèi)者都是一個(gè)從0開始的long類型
    private final Channel channel;
    private final Request request;
    private final int timeout;
    private final Lock lock = new ReentrantLock();
    private final Condition done = lock.newCondition();
    private final long start = System.currentTimeMillis();
    private volatile long sent;
    private volatile Response response;
    private volatile ResponseCallback callback;
    public DefaultFuture(Channel channel, Request request, int timeout) {
        this.channel = channel;
        this.request = request;
        this.id = request.getId();
        this.timeout = timeout > 0 ? timeout : channel.getUrl().getPositiveParameter(Constants.TIMEOUT_KEY, Constants.DEFAULT_TIMEOUT);
        // put into waiting map.
        FUTURES.put(id, this);    //等待時(shí)以id為key把Future放入全局的Future Map中,這樣回復(fù)數(shù)據(jù)回來了可以根據(jù)id找到對應(yīng)的Future通知主線程
        CHANNELS.put(id, channel);
    }
1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.

3.IO線程讀取隊(duì)列里的數(shù)據(jù)

這個(gè)工作是由netty的IO線程池完成的,也就是NioWorker,對應(yīng)的類叫NioWorker。它會死循環(huán)的執(zhí)行select,在select中,會一次性把隊(duì)列中的寫請求處理完,select的邏輯如下:

   public void run() {
        for (;;) {
           ....
                SelectorUtil.select(selector);

                proce***egisterTaskQueue(); 
                processWriteTaskQueue(); //先處理隊(duì)列里的寫請求
                processSelectedKeys(selector.selectedKeys()); //再處理select事件,讀寫都可能有
           ....
        }
    }
    private void processWriteTaskQueue() throws IOException {
        for (;;) {
            final Runnable task = writeTaskQueue.poll();//這個(gè)隊(duì)列就是調(diào)用線程把請求放進(jìn)去的隊(duì)列
            if (task == null) {
                break;
            }
            task.run(); //寫數(shù)據(jù)
            cleanUpCancelledKeys();
        }
    }
1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.

4.IO線程把數(shù)據(jù)寫到Socket緩沖區(qū)

這一步很重要,跟我們遇到的性能問題相關(guān),還是NioWorker,也就是上一步的task.run(),它的實(shí)現(xiàn)如下:

    void writeFromTaskLoop(final NIOSocketChannel ch) {
        if (!ch.writeSuspended) { //這個(gè)地方很重要,如果writeSuspended了,那么就直接跳過這次寫
            write0(ch);
        }
    }
    private void write0(NioSocketChannel channel) {
        ......
        final int writeSpinCount = channel.getConfig().getWriteSpinCount(); //netty可配置的一個(gè)參數(shù),默認(rèn)是16
        synchronized (channel.writeLock) {
            channel.inWriteNowLoop = true;
            for (;;) {
             
                    for (int i = writeSpinCount; i > 0; i --) { //每次最多嘗試16次
                        localWrittenBytes = buf.transferTo(ch);
                        if (localWrittenBytes != 0) {
                            writtenBytes += localWrittenBytes;
                            break;
                        }
                        if (buf.finished()) {
                            break;
                        }
                    }

                    if (buf.finished()) {
                        // Successful write - proceed to the next message.
                        buf.release();
                        channel.currentWriteEvent = null;
                        channel.currentWriteBuffer = null;
                        evt = null;
                        buf = null;
                        future.setSuccess();
                    } else {
                        // Not written fully - perhaps the kernel buffer is full. 
                        //重點(diǎn)在這,如果寫16次還沒寫完,可能是內(nèi)核緩沖區(qū)滿了,writeSuspended被設(shè)置為true
                        addOpWrite = true;
                        channel.writeSuspended = true;
                        ......
                    }
            ......
            if (open) {
                if (addOpWrite) {
                    setOpWrite(channel);
                } else if (removeOpWrite) {
                    clearOpWrite(channel);
                }
            }
            ......
        }

        fireWriteComplete(channel, writtenBytes);
    }
1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.31.32.33.34.35.36.37.38.39.40.41.42.43.44.45.46.47.48.49.50.51.

正常情況下,隊(duì)列中的寫請求要通過processWriteTaskQueue處理掉,但是這些寫請求也同時(shí)注冊到了selector上,如果processWriteTaskQueue寫成功,就會刪掉selector上的寫請求。如果Socket的寫緩沖區(qū)滿了,對于NIO,會立刻返回,對于BIO,會一直等待。Netty使用的是NIO,它嘗試16次后,還是不能寫成功,它就把writeSuspended設(shè)置為true,這樣接下來的所有寫請求都會被跳過。那什么時(shí)候會再寫呢?這時(shí)候就得靠selector了,它如果發(fā)現(xiàn)socket可寫,就把這些數(shù)據(jù)寫進(jìn)去。

下面是processSelectedKeys里寫的過程,因?yàn)樗前l(fā)現(xiàn)socket可寫才會寫,所以直接把writeSuspended設(shè)為false。

    void writeFromSelectorLoop(final SelectionKey k) {
        NioSocketChannel ch = (NioSocketChannel) k.attachment();
        ch.writeSuspended = false;
        write0(ch);
    }
1.2.3.4.5.

5.數(shù)據(jù)從消費(fèi)者的socket發(fā)送緩沖區(qū)傳輸?shù)教峁┱叩慕邮站彌_區(qū)

這個(gè)是操作系統(tǒng)和網(wǎng)卡實(shí)現(xiàn)的,應(yīng)用層的write寫成功了,并不代表對面能收到,當(dāng)然tcp會通過重傳能機(jī)制盡量保證對端收到。

6.服務(wù)端IO線程從緩沖區(qū)讀取請求數(shù)據(jù)

這個(gè)是服務(wù)端的NIO線程實(shí)現(xiàn)的,在processSelectedKeys中。

   public void run() {
        for (;;) {
           ....
                SelectorUtil.select(selector);

                proce***egisterTaskQueue(); 
                processWriteTaskQueue(); 
                processSelectedKeys(selector.selectedKeys()); //再處理select事件,讀寫都可能有
           ....
        }
    }
    private void processSelectedKeys(Set<SelectionKey> selectedKeys) throws IOException {
        for (Iterator<SelectionKey> i = selectedKeys.iterator(); i.hasNext();) {
            SelectionKey k = i.next();
            i.remove();
            try {
                int readyOps = k.readyOps();
                if ((readyOps & SelectionKey.OP_READ) != 0 || readyOps == 0) {
                    if (!read(k)) {
                        // Connection already closed - no need to handle write.
                        continue;
                    }
                }
                if ((readyOps & SelectionKey.OP_WRITE) != 0) {
                    writeFromSelectorLoop(k);
                }
            } catch (CancelledKeyException e) {
                close(k);
            }

            if (cleanUpCancelledKeys()) {
                break; // break the loop to avoid ConcurrentModificationException
            }
        }
    }
    private boolean read(SelectionKey k) {
       ......

            // Fire the event.
            fireMessageReceived(channel, buffer);  //讀取完后,最終會調(diào)用這個(gè)函數(shù),發(fā)送一個(gè)收到信息的事件
       ......

    }

1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.31.32.33.34.35.36.37.38.39.40.41.42.43.44.

7.IO線程把請求交給Dubbo線程池

按配置不同,走的Handler不同,配置dispatch為all,走的handler如下。下面IO線程直接交給一個(gè)ExecutorService來處理這個(gè)請求,出現(xiàn)了熟悉的報(bào)錯(cuò)“Threadpool is exhausted",業(yè)務(wù)線程池滿時(shí),如果沒有隊(duì)列,就會報(bào)這個(gè)錯(cuò)。

public class AllChannelHandler extends WrAppedChannelHandler {
    ......
    public void received(Channel channel, Object message) throws RemotingException {
        ExecutorService cexecutor = getExecutorService();
        try {
            cexecutor.execute(new ChannelEventRunnable(channel, handler, ChannelState.RECEIVED, message));
        } catch (Throwable t) {
            //TODO A temporary solution to the problem that the exception information can not be sent to the opposite end after the thread pool is full. Need a refactoring
            //fix The thread pool is full, refuses to call, does not return, and causes the consumer to wait for time out
        	if(message instanceof Request && t instanceof RejectedExecutionException){
        		Request request = (Request)message;
        		if(request.isTwoWay()){
        			String msg = "Server side(" + url.getIp() + "," + url.getPort() + ") threadpool is exhausted ,detail msg:" + t.getMessage();
        			Response response = new Response(request.getId(), request.getVersion());
        			response.setStatus(Response.SERVER_THREADPOOL_EXHAUSTED_ERROR);
        			response.setErrorMessage(msg);
        			channel.send(response);
        			return;
        		}
        	}
            throw new ExecutionException(message, channel, getClass() + " error when process received event .", t);
        }
    }
    ......
}
1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.

8.服務(wù)端Dubbo線程池處理完請求后,把返回報(bào)文放入隊(duì)列

線程池會調(diào)起下面的函數(shù)

    
public class HeaderExchangeHandler implements ChannelHandlerDelegate {
    ......
    Response handleRequest(ExchangeChannel channel, Request req) throws RemotingException {
        Response res = new Response(req.getId(), req.getVersion());
        ......
        // find handler by message class.
        Object msg = req.getData();
        try {
            // handle data.
            Object result = handler.reply(channel, msg);   //真正的業(yè)務(wù)邏輯類
            res.setStatus(Response.OK);
            res.setResult(result);
        } catch (Throwable e) {
            res.setStatus(Response.SERVICE_ERROR);
            res.setErrorMessage(StringUtils.toString(e));
        }
        return res;
    }

 

    public void received(Channel channel, Object message) throws RemotingException {
       ......
     
            if (message instanceof Request) {
                // handle request.
                Request request = (Request) message;
             
                    if (request.isTwoWay()) {
                        Response response = handleRequest(exchangeChannel, request); //處理業(yè)務(wù)邏輯,得到一個(gè)Response
                        channel.send(response);  //回寫response
                    } 
            }
       ......

 }
1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.24.25.26.27.28.29.30.31.32.33.34.35.36.37.

channel.send(response)最終調(diào)用了NioServerSocketPipelineSink里的方法把返回報(bào)文放入隊(duì)列。

9.服務(wù)端IO線程從隊(duì)列中取出數(shù)據(jù)

與流程3一樣

10.服務(wù)端IO線程把回復(fù)數(shù)據(jù)寫入Socket發(fā)送緩沖區(qū)

IO線程寫數(shù)據(jù)的時(shí)候,寫入到TCP緩沖區(qū)就算成功了。但是如果緩沖區(qū)滿了,會寫不進(jìn)去。對于阻塞和非阻塞IO,返回結(jié)果不一樣,阻塞IO會一直等,而非阻塞IO會立刻失敗,讓調(diào)用者選擇策略。

Netty的策略是嘗試最多寫16次,如果不成功,則暫時(shí)停掉IO線程的寫操作,等待連接可寫時(shí)再寫,writeSpinCount默認(rèn)是16,可以通過參數(shù)調(diào)整。

			for (int i = writeSpinCount; i > 0; i --) {
                        localWrittenBytes = buf.transferTo(ch);
                        if (localWrittenBytes != 0) {
                            writtenBytes += localWrittenBytes;
                            break;
                        }
                        if (buf.finished()) {
                            break;
                        }
                    }

                    if (buf.finished()) {
                        // Successful write - proceed to the next message.
                        buf.release();
                        channel.currentWriteEvent = null;
                        channel.currentWriteBuffer = null;
                        evt = null;
                        buf = null;
                        future.setSuccess();
                    } else {
                        // Not written fully - perhaps the kernel buffer is full.
                        addOpWrite = true;
                        channel.writeSuspended = true;
1.2.3.4.5.6.7.8.9.10.11.12.13.14.15.16.17.18.19.20.21.22.23.

11.數(shù)據(jù)傳輸

數(shù)據(jù)在網(wǎng)絡(luò)上傳輸主要取決于帶寬和網(wǎng)絡(luò)環(huán)境。

12.客戶端IO線程把數(shù)據(jù)從緩沖區(qū)讀出

這個(gè)過程跟流程6是一樣的

13.IO線程把數(shù)據(jù)交給Dubbo業(yè)務(wù)線程池

這一步與流程7是一樣的,這個(gè)線程池名字為DubboClientHandler。

14.業(yè)務(wù)線程池根據(jù)消息ID通知主線程

先通過HeaderExchangeHandler的received函數(shù)得知是Response,然后調(diào)用handleResponse,

public class HeaderExchangeHandler implements ChannelHandlerDelegate {
    static void handleResponse(Channel channel, Response response) throws RemotingException {
        if (response != null && !response.isHeartbeat()) {
            DefaultFuture.received(channel, response);
        }
    }
    public void received(Channel channel, Object message) throws RemotingException {
        ......
        if (message instanceof Response) {
                handleResponse(channel, (Response) message);
        }
        ......
}
1.2.3.4.5.6.7.8.9.10.11.12.13.

DefaultFuture根據(jù)ID獲取Future,通知調(diào)用線程

    public static void received(Channel channel, Response response) {
         ......
         DefaultFuture future = FUTURES.remove(response.getId());
         if (future != null) {
            future.doReceived(response);
         }
         ......
    }
1.2.3.4.5.6.7.8.

至此,主線程獲取了返回?cái)?shù)據(jù),調(diào)用結(jié)束。

三、影響上述流程的關(guān)鍵參數(shù)

協(xié)議參數(shù)

我們在使用Dubbo時(shí),需要在服務(wù)端配置協(xié)議,例如

<dubbo:protocol name="dubbo" port="20880" dispatcher="all" threadpool="fixed" threads="2000" />
1.

下面是協(xié)議中與性能相關(guān)的一些參數(shù),在我們的使用場景中,線程池選用了fixed,大小是500,隊(duì)列為0,其他都是默認(rèn)值。

屬性

對應(yīng)URL參數(shù)

類型

是否必填

缺省值

作用

描述

name

<protocol>

string

必填

dubbo

性能調(diào)優(yōu)

協(xié)議名稱

threadpool

threadpool

string

可選

fixed

性能調(diào)優(yōu)

線程池類型,可選:fixed/cached。

threads

threads

int

可選

200

性能調(diào)優(yōu)

服務(wù)線程池大小(固定大小)

queues

queues

int

可選

0

性能調(diào)優(yōu)

線程池隊(duì)列大小,當(dāng)線程池滿時(shí),排隊(duì)等待執(zhí)行的隊(duì)列大小,建議不要設(shè)置,當(dāng)線程池滿時(shí)應(yīng)立即失敗,重試其它服務(wù)提供機(jī)器,而不是排隊(duì),除非有特殊需求。

iothreads

iothreads

int

可選

cpu個(gè)數(shù)+1

性能調(diào)優(yōu)

io線程池大小(固定大小)

accepts

accepts

int

可選

0

性能調(diào)優(yōu)

服務(wù)提供方最大可接受連接數(shù),這個(gè)是整個(gè)服務(wù)端可以建的最大連接數(shù),比如設(shè)置成2000,如果已經(jīng)建立了2000個(gè)連接,新來的會被拒絕,是為了保護(hù)服務(wù)提供方。

dispatcher

dispatcher

string

可選

dubbo協(xié)議缺省為all

性能調(diào)優(yōu)

協(xié)議的消息派發(fā)方式,用于指定線程模型,比如:dubbo協(xié)議的all, direct, message, execution, connection等。 這個(gè)主要牽涉到IO線程池和業(yè)務(wù)線程池的分工問題,一般情況下,讓業(yè)務(wù)線程池處理建立連接、心跳等,不會有太大影響。

payload

payload

int

可選

8388608(=8M)

性能調(diào)優(yōu)

請求及響應(yīng)數(shù)據(jù)包大小限制,單位:字節(jié)。 這個(gè)是單個(gè)報(bào)文允許的最大長度,Dubbo不適合報(bào)文很長的請求,所以加了限制。

buffer

buffer

int

可選

8192

性能調(diào)優(yōu)

網(wǎng)絡(luò)讀寫緩沖區(qū)大小。注意這個(gè)不是TCP緩沖區(qū),這個(gè)是在讀寫網(wǎng)絡(luò)報(bào)文時(shí),應(yīng)用層的Buffer。

codec

codec

string

可選

dubbo

性能調(diào)優(yōu)

協(xié)議編碼方式

serialization

serialization

string

可選

dubbo協(xié)議缺省為hessian2,rmi協(xié)議缺省為JAVA,http協(xié)議缺省為json

性能調(diào)優(yōu)

協(xié)議序列化方式,當(dāng)協(xié)議支持多種序列化方式時(shí)使用,比如:dubbo協(xié)議的dubbo,hessian2,java,compactedjava,以及http協(xié)議的json等

transporter

transporter

string

可選

dubbo協(xié)議缺省為netty

性能調(diào)優(yōu)

協(xié)議的服務(wù)端和客戶端實(shí)現(xiàn)類型,比如:dubbo協(xié)議的mina,netty等,可以分拆為server和client配置

server

server

string

可選

dubbo協(xié)議缺省為netty,http協(xié)議缺省為servlet

性能調(diào)優(yōu)

協(xié)議的服務(wù)器端實(shí)現(xiàn)類型,比如:dubbo協(xié)議的mina,netty等,http協(xié)議的jetty,servlet等

client

client

string

可選

dubbo協(xié)議缺省為netty

性能調(diào)優(yōu)

協(xié)議的客戶端實(shí)現(xiàn)類型,比如:dubbo協(xié)議的mina,netty等

charset

charset

string

可選

UTF-8

性能調(diào)優(yōu)

序列化編碼

heartbeat

heartbeat

int

可選

0

性能調(diào)優(yōu)

心跳間隔,對于長連接,當(dāng)物理層斷開時(shí),比如拔網(wǎng)線,TCP的FIN消息來不及發(fā)送,對方收不到斷開事件,此時(shí)需要心跳來幫助檢查連接是否已斷開

服務(wù)參數(shù)

針對每個(gè)Dubbo服務(wù),都會有一個(gè)配置,全部的參數(shù)配置在這:http://dubbo.apache.org/zh-cn/docs/user/references/xml/dubbo-service.html。

我們關(guān)注幾個(gè)與性能相關(guān)的。在我們的使用場景中,重試次數(shù)設(shè)置成了0,集群方式用的failfast,其他是默認(rèn)值。

屬性

對應(yīng)URL參數(shù)

類型

是否必填

缺省值

作用

描述

兼容性

delay

delay

int

可選

0

性能調(diào)優(yōu)

延遲注冊服務(wù)時(shí)間(毫秒) ,設(shè)為-1時(shí),表示延遲到Spring容器初始化完成時(shí)暴露服務(wù)

1.0.14以上版本

timeout

timeout

int

可選

1000

性能調(diào)優(yōu)

遠(yuǎn)程服務(wù)調(diào)用超時(shí)時(shí)間(毫秒)

2.0.0以上版本

retries

retries

int

可選

2

性能調(diào)優(yōu)

遠(yuǎn)程服務(wù)調(diào)用重試次數(shù),不包括第一次調(diào)用,不需要重試請?jiān)O(shè)為0

2.0.0以上版本

connections

connections

int

可選

1

性能調(diào)優(yōu)

對每個(gè)提供者的最大連接數(shù),rmi、http、hessian等短連接協(xié)議表示限制連接數(shù),dubbo等長連接協(xié)表示建立的長連接個(gè)數(shù)

2.0.0以上版本

loadbalance

loadbalance

string

可選

random

性能調(diào)優(yōu)

負(fù)載均衡策略,可選值:random,roundrobin,leastactive,分別表示:隨機(jī),輪詢,最少活躍調(diào)用

2.0.0以上版本

async

async

boolean

可選

false

性能調(diào)優(yōu)

是否缺省異步執(zhí)行,不可靠異步,只是忽略返回值,不阻塞執(zhí)行線程

2.0.0以上版本

weight

weight

int

可選

 

性能調(diào)優(yōu)

服務(wù)權(quán)重

2.0.5以上版本

executes

executes

int

可選

0

性能調(diào)優(yōu)

服務(wù)提供者每服務(wù)每方法最大可并行執(zhí)行請求數(shù)

2.0.5以上版本

proxy

proxy

string

可選

javassist

性能調(diào)優(yōu)

生成動態(tài)代理方式,可選:jdk/javassist

2.0.5以上版本

cluster

cluster

string

可選

failover

性能調(diào)優(yōu)

集群方式,可選:
failover/failfast/failsafe/failback/forking

2.0.5以上版本

這次擁堵的主要原因,應(yīng)該就是服務(wù)的connections設(shè)置的太小,dubbo不提供全局的連接數(shù)配置,只能針對某一個(gè)交易做個(gè)性化的連接數(shù)配置。

四、連接數(shù)與Socket緩沖區(qū)對性能影響的實(shí)驗(yàn)

通過簡單的Dubbo服務(wù),驗(yàn)證一下連接數(shù)與緩沖區(qū)大小對傳輸性能的影響。

我們可以通過修改系統(tǒng)參數(shù),調(diào)節(jié)TCP緩沖區(qū)的大小。

在 /etc/sysctl.conf 修改如下內(nèi)容, tcp_rmem是發(fā)送緩沖區(qū),tcp_wmem是接收緩沖區(qū),三個(gè)數(shù)值表示最小值,默認(rèn)值和最大值,我們可以都設(shè)置成一樣。

net.ipv4.tcp_rmem = 4096 873800 16777216
net.ipv4.tcp_wmem = 4096 873800 16777216
1.2.

然后執(zhí)行sysctl –p 使之生效。

服務(wù)端代碼如下,接受一個(gè)報(bào)文,然后返回兩倍的報(bào)文長度,隨機(jī)sleep 0-300ms,所以均值應(yīng)該是150ms。服務(wù)端每10s打印一次tps和響應(yīng)時(shí)間,這里的tps是指完成函數(shù)調(diào)用的tps,而不涉及傳輸,響應(yīng)時(shí)間也是這個(gè)函數(shù)的時(shí)間。

   //服務(wù)端實(shí)現(xiàn)
   public String sayHello(String name) {    
		counter.getAndIncrement();
		long start = System.currentTimeMillis();
		try {
			Thread.sleep(rand.nextInt(300));
		} catch (InterruptedException e) {		
		}
    	String result = "Hello " + name + name  + ", response form provider: " + RpcContext.getContext().getLocalAddress();
    	long end = System.currentTimeMillis();
    	timer.getAndAdd(end-start);
    	return result;
    }
1.2.3.4.5.6.7.8.9.10.11.12.13.

客戶端起N個(gè)線程,每個(gè)線程不停的調(diào)用Dubbo服務(wù),每10s打印一次qps和響應(yīng)時(shí)間,這個(gè)qps和響應(yīng)時(shí)間是包含了網(wǎng)絡(luò)傳輸時(shí)間的。

    	for(int i = 0; i < N; i ++) {
    		threads[i] = new Thread(new Runnable() {
				@Override
				public void run() {
					while(true) {
						Long start = System.currentTimeMillis();
						String hello = service.sayHello(z); 
						Long end = System.currentTimeMillis();
						totalTime.getAndAdd(end-start);
						counter.getAndIncrement();
					}
				}});
    		threads[i].start();
    	}
1.2.3.4.5.6.7.8.9.10.11.12.13.14.

通過ss -it命令可以看當(dāng)前tcp socket的詳細(xì)信息,包含待對端回復(fù)ack的數(shù)據(jù)Send-Q,最大窗口cwnd,rtt(round trip time)等。

(base) niuxinli@ubuntu:~$ ss -it
State                            Recv-Q                        Send-Q                                                       Local Address:Port                                                          Peer Address:Port                                                                                                                                                                                                                                                                         
ESTAB                            0                             36                                                             192.168.1.7:ssh                                                            192.168.1.4:58931                       
	 cubic wscale:8,2 rto:236 rtt:33.837/8.625 ato:40 mss:1460 pmtu:1500 rcvmss:1460 advmss:1460 cwnd:10 bytes_acked:559805 bytes_received:54694 segs_out:2754 segs_in:2971 data_segs_out:2299 data_segs_in:1398 send 3.5Mbps pacing_rate 6.9Mbps delivery_rate 44.8Mbps busy:36820ms unacked:1 rcv_rtt:513649 rcv_space:16130 rcv_ssthresh:14924 minrtt:0.112
ESTAB                            0                             0                                                              192.168.1.7:36666                                                          192.168.1.7:2181                        
	 cubic wscale:7,7 rto:204 rtt:0.273/0.04 ato:40 mss:33344 pmtu:65535 rcvmss:536 advmss:65483 cwnd:10 bytes_acked:2781 bytes_received:3941 segs_out:332 segs_in:170 data_segs_out:165 data_segs_in:165 send 9771.1Mbps lastsnd:4960 lastrcv:4960 lastack:4960 pacing_rate 19497.6Mbps delivery_rate 7621.5Mbps app_limited busy:60ms rcv_space:65535 rcv_ssthresh:66607 minrtt:0.035
ESTAB                            0                             27474                                                          192.168.1.7:20880                                                          192.168.1.5:60760                       
	 cubic wscale:7,7 rto:204 rtt:1.277/0.239 ato:40 mss:1448 pmtu:1500 rcvmss:1448 advmss:1448 cwnd:625 ssthresh:20 bytes_acked:96432644704 bytes_received:49286576300 segs_out:68505947 segs_in:36666870 data_segs_out:67058676 data_segs_in:35833689 send 5669.5Mbps pacing_rate 6801.4Mbps delivery_rate 627.4Mbps app_limited busy:1340536ms rwnd_limited:400372ms(29.9%) sndbuf_limited:433724ms(32.4%) unacked:70 retrans:0/5 rcv_rtt:1.308 rcv_space:336692 rcv_ssthresh:2095692 notsent:6638 minrtt:0.097

1.2.3.4.5.6.7.8.9.

通過netstat -nat也能查看當(dāng)前tcp socket的一些信息,比如Recv-Q, Send-Q。

(base) niuxinli@ubuntu:~$ netstat -nat
Active Internet connections (servers and established)
Proto Recv-Q Send-Q Local Address           Foreign Address         State      
tcp        0      0 0.0.0.0:20880           0.0.0.0:*               LISTEN     
tcp        0     36 192.168.1.7:22          192.168.1.4:58931       ESTABLISHED
tcp        0      0 192.168.1.7:36666       192.168.1.7:2181        ESTABLISHED
tcp        0  65160 192.168.1.7:20880       192.168.1.5:60760       ESTABLISHED
1.2.3.4.5.6.7.

可以看以下Recv-Q和Send-Q的具體含義:

   Recv-Q
       Established: The count of bytes not copied by the user program connected to this socket.  

   Send-Q
       Established: The count of bytes not acknowledged by the remote host. 
1.2.3.4.5.

Recv-Q是已經(jīng)到了接受緩沖區(qū),但是還沒被應(yīng)用代碼讀走的數(shù)據(jù)。Send-Q是已經(jīng)到了發(fā)送緩沖區(qū),但是對方還沒有回復(fù)Ack的數(shù)據(jù)。這兩種數(shù)據(jù)正常一般不會堆積,如果堆積了,可能就有問題了。

第一組實(shí)驗(yàn):單連接,改變TCP緩沖區(qū)

結(jié)果:

角色

Socket緩沖區(qū)

響應(yīng)時(shí)間

 

服務(wù)端

32k/32k

150ms

 

客戶端(800并發(fā))

32k/32k

430ms

 

客戶端(1并發(fā))

32k/32k

150ms

 

繼續(xù)調(diào)大緩沖區(qū)

角色

Socket緩沖區(qū)

響應(yīng)時(shí)間

CPU

服務(wù)端

64k/64k

150ms

user 2%, sys 9%

客戶端(800并發(fā))

64k/64k

275ms

user 4%, sys 13%

客戶端(1并發(fā))

64k/64k

150ms

user 4%, sys 13%

我們用netstat或者ss命令可以看到當(dāng)前的socket情況,下面的第二列是Send-Q大小,是寫入緩沖區(qū)還沒有被對端確認(rèn)的數(shù)據(jù),發(fā)送緩沖區(qū)最大時(shí)64k左右,說明緩沖區(qū)不夠用。

一次Dubbo擁堵的分析

 

繼續(xù)增大緩沖區(qū),到4M,我們可以看到,響應(yīng)時(shí)間進(jìn)一步下降,但是還是在傳輸上浪費(fèi)了不少時(shí)間,因?yàn)榉?wù)端應(yīng)用層沒有壓力。

角色

Socket緩沖區(qū)

響應(yīng)時(shí)間

CPU

服務(wù)端

4M/4M

150ms

user 4%, sys 10%

客戶端(800并發(fā))

4M/4M

210ms

user 10%, sys 12%

客戶端(1并發(fā))

4M/4M

150ms

user 10%, sys 12%

服務(wù)端和客戶端的TCP情況如下,緩沖區(qū)都沒有滿

一次Dubbo擁堵的分析

 

<center>服務(wù)端</center>

一次Dubbo擁堵的分析

 

<center>客戶端</center>

這個(gè)時(shí)候,再怎么調(diào)大TCP緩沖區(qū),也是沒用的,因?yàn)槠款i不在這了,而在于連接數(shù)。因?yàn)樵贒ubbo中,一個(gè)連接會綁定到一個(gè)NioWorker線程上,讀寫都由這一個(gè)連接完成,傳輸?shù)乃俣瘸^了單個(gè)線程的讀寫能力,所以我們看到在客戶端,大量的數(shù)據(jù)擠壓在接收緩沖區(qū),沒被讀走,這樣對端的傳輸速率也會慢下來。

第二組實(shí)驗(yàn):多連接,固定緩沖區(qū)

服務(wù)端的純業(yè)務(wù)函數(shù)響應(yīng)時(shí)間很穩(wěn)定,在緩沖區(qū)較小的時(shí)候,調(diào)大連接數(shù)雖然能讓時(shí)間降下來,但是并不能到最優(yōu),所以緩沖區(qū)不能設(shè)置太小,linux一般默認(rèn)是4M,在4M的時(shí)候,4個(gè)連接基本上已經(jīng)能把響應(yīng)時(shí)間降到最低了。

角色

Socket緩沖區(qū)

響應(yīng)時(shí)間

服務(wù)端

32k/32k

150ms

客戶端(800并發(fā),1連接)

32k/32k

430ms

客戶端(800并發(fā),2連接)

32k/32k

205ms

客戶端(800并發(fā),4連接)

32k/32k

160ms

客戶端(800并發(fā),6連接)

32k/32k

156ms

客戶端(800并發(fā),8連接)

32k/32k

156ms

客戶端(800并發(fā),2連接)

1M/1M

156ms

客戶端(800并發(fā),2連接)

4M/4M

156ms

客戶端(800并發(fā),4連接)

4M/4M

151ms

客戶端(800并發(fā),6連接)

4M/4M

151ms

結(jié)論

要想充分利用網(wǎng)絡(luò)帶寬, 緩沖區(qū)不能太小,如果太小有可能一次傳輸?shù)膱?bào)文就大于了緩沖區(qū),嚴(yán)重影響傳輸效率。但是太大了也沒有用,還需要多個(gè)連接數(shù)才能夠充分利用CPU資源,連接數(shù)起碼要超過CPU核數(shù)。

分享到:
標(biāo)簽:Dubbo
用戶無頭像

網(wǎng)友整理

注冊時(shí)間:

網(wǎng)站:5 個(gè)   小程序:0 個(gè)  文章:12 篇

  • 51998

    網(wǎng)站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網(wǎng)站吧!
最新入駐小程序

數(shù)獨(dú)大挑戰(zhàn)2018-06-03

數(shù)獨(dú)一種數(shù)學(xué)游戲,玩家需要根據(jù)9

答題星2018-06-03

您可以通過答題星輕松地創(chuàng)建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學(xué)四六

運(yùn)動步數(shù)有氧達(dá)人2018-06-03

記錄運(yùn)動步數(shù),積累氧氣值。還可偷

每日養(yǎng)生app2018-06-03

每日養(yǎng)生,天天健康

體育訓(xùn)練成績評定2018-06-03

通用課目體育訓(xùn)練成績評定