日日操夜夜添-日日操影院-日日草夜夜操-日日干干-精品一区二区三区波多野结衣-精品一区二区三区高清免费不卡

公告:魔扣目錄網為廣大站長提供免費收錄網站服務,提交前請做好本站友鏈:【 網站目錄:http://www.ylptlb.cn 】, 免友鏈快審服務(50元/站),

點擊這里在線咨詢客服
新站提交
  • 網站:51998
  • 待審:31
  • 小程序:12
  • 文章:1030137
  • 會員:747

前言

在實現TCP長連接功能中,客戶端斷線重連是一個很常見的問題,當我們使用netty實現斷線重連時,是否考慮過如下幾個問題:

  • 如何監聽到客戶端和服務端連接斷開 ?
  • 如何實現斷線后重新連接 ?
  • netty客戶端線程給多大比較合理 ?

其實上面都是筆者在做斷線重連時所遇到的問題,而 “netty客戶端線程給多大比較合理?” 這個問題更是筆者在做斷線重連時因一個異常引發的思考。下面講講整個過程:

因為本節講解內容主要涉及在客戶端,但是為了讀者能夠運行整個程序,所以這里先給出服務端及公共的依賴和實體類。

服務端及common代碼

maven依賴:

<dependencies>
    <!--只是用到了spring-boot的日志框架-->
    <dependency>
        <groupId>org.springframework.boot</groupId>
        <artifactId>spring-boot-starter</artifactId>
        <version>2.4.1</version>
    </dependency>

    <dependency>
        <groupId>io.netty</groupId>
        <artifactId>netty-all</artifactId>
        <version>4.1.56.Final</version>
    </dependency>

    <dependency>
        <groupId>org.jboss.marshalling</groupId>
        <artifactId>jboss-marshalling-serial</artifactId>
        <version>2.0.10.Final</version>
    </dependency>
</dependencies>

服務端業務處理代碼

主要用于記錄打印當前客戶端連接數,當接收到客戶端信息后返回“hello netty”字符串

@ChannelHandler.Sharable
public class SimpleServerHandler extends ChannelInboundHandlerAdapter {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(SimpleServerHandler.class);
    public static final ChannelGroup channels = new DefaultChannelGroup(GlobalEventExecutor.INSTANCE);

    @Override
    public void channelActive(ChannelHandlerContext ctx) throws Exception {
        channels.add(ctx.channel());
        log.info("客戶端連接成功: client address :{}", ctx.channel().remoteAddress());
        log.info("當前共有{}個客戶端連接", channels.size());
    }

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        log.info("server channelRead:{}", msg);
        ctx.channel().writeAndFlush("hello netty");
    }

    @Override
    public void channelInactive(ChannelHandlerContext ctx) throws Exception {
        log.info("channelInactive: client close");
    }

    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        if (cause instanceof JAVA.io.IOException) {
            log.warn("exceptionCaught: client close");
        } else {
            cause.printStackTrace();
        }
    }
}

服務端心跳檢查代碼

當接收心跳"ping"信息后,返回客戶端’'pong"信息。如果客戶端在指定時間內沒有發送任何信息則關閉客戶端。

public class ServerHeartbeatHandler extends ChannelInboundHandlerAdapter {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(ServerHeartbeatHandler.class);

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        log.info("server channelRead:{}", msg);
        if (msg.equals("ping")) {
            ctx.channel().writeAndFlush("pong");
        } else {
            //由下一個handler處理,示例中則為SimpleServerHandler
            ctx.fireChannelRead(msg);
        }
    }

    @Override
    public void userEventTriggered(ChannelHandlerContext ctx, Object evt) throws Exception {
        if (evt instanceof IdleStateEvent) {
            //該事件需要配合 io.netty.handler.timeout.IdleStateHandler使用
            IdleStateEvent idleStateEvent = (IdleStateEvent) evt;
            if (idleStateEvent.state() == IdleState.READER_IDLE) {
                //超過指定時間沒有讀事件,關閉連接
                log.info("超過心跳時間,關閉和服務端的連接:{}", ctx.channel().remoteAddress());
                //ctx.channel().close();
            }
        } else {
            super.userEventTriggered(ctx, evt);
        }
    }
}

編解碼工具類

主要使用jboss-marshalling-serial編解碼工具,可自行查詢其優缺點,這里只是示例使用。

public final class MarshallingCodeFactory {
    /** 創建Jboss marshalling 解碼器 */
    public static MarshallingDecoder buildMarshallingDecoder() {
        //參數serial表示創建的是Java序列化工廠對象,由jboss-marshalling-serial提供
        MarshallerFactory factory = Marshalling.getProvidedMarshallerFactory("serial");
        MarshallingConfiguration configuration = new MarshallingConfiguration();
        configuration.setVersion(5);
        DefaultUnmarshallerProvider provider = new DefaultUnmarshallerProvider(factory, configuration);
        return new MarshallingDecoder(provider, 1024);
    }

    /** 創建Jboss marshalling 編碼器 */
    public static MarshallingEncoder buildMarshallingEncoder() {
        MarshallerFactory factory = Marshalling.getProvidedMarshallerFactory("serial");
        MarshallingConfiguration configuration = new MarshallingConfiguration();
        configuration.setVersion(5);
        DefaultMarshallerProvider provider = new DefaultMarshallerProvider(factory, configuration);
        return new MarshallingEncoder(provider);
    }
}

公共實體類

public class UserInfo implements Serializable {
    private static final long serialVersionUID = 6271330872494117382L;
 
    private String username;
    private int age;

    public UserInfo() {
    }

    public UserInfo(String username, int age) {
        this.username = username;
        this.age = age;
    }
   //省略getter/setter/toString
}

下面開始本文的重點,客戶端斷線重連以及問題思考。

客戶端實現

  • 剛開始啟動時需要進行同步連接,指定連接次數內沒用通過則拋出異常,進程退出。
  • 客戶端啟動后,開啟定時任務,模擬客戶端數據發送。

客戶端業務處理handler,接收到數據后,通過日志打印。

public class SimpleClientHandler extends ChannelInboundHandlerAdapter {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(SimpleClientHandler.class);
    private NettyClient client;

    public SimpleClientHandler(NettyClient client) {
        this.client = client;
    }

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        log.info("client receive:{}", msg);
    }
}

封裝連接方法、斷開連接方法、getChannel()返回io.netty.channel.Channel用于向服務端發送數據。boolean connect()是一個同步連接方法,如果連接成功返回true,連接失敗返回false。

public class NettyClient {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(NettyClient.class);

    private EventLoopGroup workerGroup;
    private Bootstrap bootstrap;
    private volatile Channel clientChannel;

    public NettyClient() {
        this(-1);
    }

    public NettyClient(int threads) {
        workerGroup = threads > 0 ? new NioEventLoopGroup(threads) : new NioEventLoopGroup();
        bootstrap = new Bootstrap();
        bootstrap.group(workerGroup)
                .channel(NIOSocketChannel.class)
                .option(ChannelOption.TCP_NODELAY, true)
                .option(ChannelOption.SO_KEEPALIVE, false)
                .option(ChannelOption.CONNECT_TIMEOUT_MILLIS, 30000)
                .handler(new ClientHandlerInitializer(this));
    }

    public boolean connect() {
        log.info("嘗試連接到服務端: 127.0.0.1:8088");
        try {
            ChannelFuture channelFuture = bootstrap.connect("127.0.0.1", 8088);

            boolean notTimeout = channelFuture.awaitUninterruptibly(30, TimeUnit.SECONDS);
            clientChannel = channelFuture.channel();
            if (notTimeout) {
                if (clientChannel != null && clientChannel.isActive()) {
                    log.info("netty client started !!! {} connect to server", clientChannel.localAddress());
                    return true;
                }
                Throwable cause = channelFuture.cause();
                if (cause != null) {
                    exceptionHandler(cause);
                }
            } else {
                log.warn("connect remote host[{}] timeout {}s", clientChannel.remoteAddress(), 30);
            }
        } catch (Exception e) {
            exceptionHandler(e);
        }
        clientChannel.close();
        return false;
    }

    private void exceptionHandler(Throwable cause) {
        if (cause instanceof ConnectException) {
            log.error("連接異常:{}", cause.getMessage());
        } else if (cause instanceof ClosedChannelException) {
            log.error("connect error:{}", "client has destroy");
        } else {
            log.error("connect error:", cause);
        }
    }

    public void close() {
        if (clientChannel != null) {
            clientChannel.close();
        }
        if (workerGroup != null) {
            workerGroup.shutdownGracefully();
        }
    }

    public Channel getChannel() {
        return clientChannel;
    }

    static class ClientHandlerInitializer extends ChannelInitializer<SocketChannel> {
        private static final InternalLogger log = InternalLoggerFactory.getInstance(NettyClient.class);
        private NettyClient client;

        public ClientHandlerInitializer(NettyClient client) {
            this.client = client;
        }

        @Override
        protected void initChannel(SocketChannel ch) throws Exception {
            ChannelPipeline pipeline = ch.pipeline();
            pipeline.addLast(MarshallingCodeFactory.buildMarshallingDecoder());
            pipeline.addLast(MarshallingCodeFactory.buildMarshallingEncoder());
            //pipeline.addLast(new IdleStateHandler(25, 0, 10));
            //pipeline.addLast(new ClientHeartbeatHandler());
            pipeline.addLast(new SimpleClientHandler(client));
        }
    }
}

客戶端啟動類

public class NettyClientMain {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(NettyClientMain.class);
    private static final ScheduledExecutorService scheduledExecutor = Executors.newSingleThreadScheduledExecutor();

    public static void main(String[] args) {
        NettyClient nettyClient = new NettyClient();
        boolean connect = false;
        //剛啟動時嘗試連接10次,都無法建立連接則不在嘗試
        //如果想在剛啟動后,一直嘗試連接,需要放在線程中,異步執行,防止阻塞程序
        for (int i = 0; i < 10; i++) {
            connect = nettyClient.connect();
            if (connect) {
                break;
            }
            //連接不成功,隔5s之后重新嘗試連接
            try {
                Thread.sleep(5000);
            } catch (InterruptedException e) {
                e.printStackTrace();
            }
        }

        if (connect) {
            log.info("定時發送數據");
            send(nettyClient);
        } else {
            nettyClient.close();
            log.info("進程退出");
        }
    }

    /** 定時發送數據 */
    static void send(NettyClient client) {
        scheduledExecutor.schedule(new SendTask(client,scheduledExecutor), 2, TimeUnit.SECONDS);
    }
}

客戶端斷線重連

斷線重連需求:

  • 服務端和客戶端之間網絡異常,或響應超時(例如有個很長時間的fullGC),客戶端需要主動重連其他節點。
  • 服務端宕機時或者和客戶端之間發生任何異常時,客戶端需要主動重連其他節點。
  • 服務端主動向客戶端發送(服務端)下線通知時,客戶端需要主動重連其他節點。

如何監聽到客戶端和服務端連接斷開 ?

netty的io.netty.channel.ChannelInboundHandler接口中給我們提供了許多重要的接口方法。為了避免實現全部的接口方法,可以通過繼承io.netty.channel.ChannelInboundHandlerAdapter來重寫相應的方法即可。

1.void channelInactive(ChannelHandlerContext ctx);在客戶端關閉時被調用,表示客戶端斷開連接。當有以下幾種情況發生時會觸發:

  • 客戶端在正常active狀態下,主動調用channel或者ctx的close方法。
  • 服務端主動調用channel或者ctx的close方法關閉客戶端的連接 。
  • 發生java.io.IOException(一般情況下是雙方連接斷開)或者java.lang.OutOfMemoryError(4.1.52版本中新增)時

2.void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception;則是在入棧發生任何異常時被調用。如果異常是java.io.IOException或者java.lang.OutOfMemoryError(4.1.52版本新增)時,還會觸發channelInactive方法,也就是上面channelInactive被觸發的第3條情況。

3.心跳檢查也是檢查客戶端與服務端之間連接狀態的必要方式,因為在一些狀態下,兩端實際上已經斷開連接,但客戶端無法感知,這時候就需要通過心跳來判斷兩端的連接狀態。心跳可以是客戶端心跳和服務端心跳。

  • 客戶端信跳:即為客戶端發送心跳ping信息,服務端回復pong信息。這樣在指定時間內,雙方有數據交互則認為是正常連接狀態。
  • 服務端信息:則是服務端向客戶端發送ping信息,客戶端回復pong信息。在指定時間內沒有收到回復,則認為對方下線。

netty給我們提供了非常簡單的心跳檢查方式,只需要在channel的handler鏈上,添加io.netty.handler.timeout.IdleStateHandler即可實現。

IdleStateHandler有如下幾個重要的參數:

  • readerIdleTimeSeconds, 讀超時. 即當在指定的時間間隔內沒有從 Channel 讀取到數據時, 會觸發一個READER_IDLE的IdleStateEvent 事件.
  • writerIdleTimeSeconds, 寫超時. 即當在指定的時間間隔內沒有數據寫入到 Channel 時, 會觸發一個WRITER_IDLE的IdleStateEvent 事件.
  • allIdleTimeSeconds, 讀/寫超時. 當在指定的時間間隔內沒有讀或寫操作時, 會觸發一個ALL_IDLE的IdleStateEvent 事件.

為了能夠監聽到這些事件的觸發,還需要重寫ChannelInboundHandler#userEventTriggered(ChannelHandlerContext ctx, Object evt)方法,通過參數evt判斷事件類型。在指定的時間內如果沒有讀寫則發送一條心跳的ping請求,在指定時間內沒有收到讀操作則任務已經和服務端斷開連接。則調用channel或者ctx的close方法,使客戶端Handler執行channelInactive方法。

到這里看來我們只要在channelInactive和exceptionCaught兩個方法中實現自己的重連邏輯即可,但是筆者遇到了第一個坑,重連方法執行了兩次。

先看示例代碼和結果,在com.bruce.netty.rpc.client.SimpleClientHandler中添加如下代碼:

public class SimpleClientHandler extends ChannelInboundHandlerAdapter {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(SimpleClientHandler.class);
    //省略部分代碼......
    /** 客戶端正常下線時執行該方法 */
    @Override
    public void channelInactive(ChannelHandlerContext ctx) throws Exception {
        log.warn("channelInactive:{}", ctx.channel().localAddress());
        reconnection(ctx);
    }

    /** 入棧發生異常時執行exceptionCaught */
    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        if (cause instanceof IOException) {
            log.warn("exceptionCaught:客戶端[{}]和遠程斷開連接", ctx.channel().localAddress());
        } else {
            log.error(cause);
        }
        reconnection(ctx);
    }

    private void reconnection(ChannelHandlerContext ctx) {
        log.info("5s之后重新建立連接");
        //暫時為空實現
    }
}

ClientHandlerInitializer 中添加io.netty.handler.timeout.IdleStateHandler用于心跳檢查,ClientHeartbeatHandler用于監聽心跳事件,接收心跳pong回復。

static class ClientHandlerInitializer extends ChannelInitializer<SocketChannel> {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(NettyClient.class);
    private NettyClient client;

    public ClientHandlerInitializer(NettyClient client) {
        this.client = client;
    }

    @Override
    protected void initChannel(SocketChannel ch) throws Exception {
        ChannelPipeline pipeline = ch.pipeline();
        pipeline.addLast(MarshallingCodeFactory.buildMarshallingDecoder());
        pipeline.addLast(MarshallingCodeFactory.buildMarshallingEncoder());
        //25s內沒有read操作則觸發READER_IDLE事件
        //10s內既沒有read又沒有write操作則觸發ALL_IDLE事件
        pipeline.addLast(new IdleStateHandler(25, 0, 10));
        pipeline.addLast(new ClientHeartbeatHandler());
        pipeline.addLast(new SimpleClientHandler(client));
    }
}

com.bruce.netty.rpc.client.ClientHeartbeatHandler

public class ClientHeartbeatHandler extends ChannelInboundHandlerAdapter {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(ClientHeartbeatHandler.class);

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        if (msg.equals("pong")) {
            log.info("收到心跳回復");
        } else {
            super.channelRead(ctx, msg);
        }
    }

    @Override
    public void userEventTriggered(ChannelHandlerContext ctx, Object evt) throws Exception {
        if (evt instanceof IdleStateEvent) {
            //該事件需要配合 io.netty.handler.timeout.IdleStateHandler使用
            IdleStateEvent idleStateEvent = (IdleStateEvent) evt;
            if (idleStateEvent.state() == IdleState.ALL_IDLE) {
                //向服務端發送心跳檢測
                ctx.writeAndFlush("ping");
                log.info("發送心跳數據");
            } else if (idleStateEvent.state() == IdleState.READER_IDLE) {
                //超過指定時間沒有讀事件,關閉連接
                log.info("超過心跳時間,關閉和服務端的連接:{}", ctx.channel().remoteAddress());
                ctx.channel().close();
            }
        } else {
            super.userEventTriggered(ctx, evt);
        }
    }
}

先啟動server端,再啟動client端,待連接成功之后kill掉 server端進程。

Netty客戶端斷線重連實現及問題思考

 

通過客戶端日志可以看出,先是執行了exceptionCaught方法然后執行了channelInactive方法,但是這兩個方法中都調用了reconnection方法,導致同時執行了兩次重連。

為什么執行了exceptionCaught方法又執行了channelInactive方法呢?

我們可以在exceptionCaught和channelInactive方法添加斷點一步步查看源碼

Netty客戶端斷線重連實現及問題思考

 

當NioEventLoop執行select操作之后,處理相應的SelectionKey,發生異常后,會調用AbstractNioByteChannel.NioByteUnsafe#handleReadException方法進行處理,并觸發pipeline.fireExceptionCaught(cause),最終調用到用戶handler的fireExceptionCaught方法。

private void handleReadException(ChannelPipeline pipeline, ByteBuf byteBuf, Throwable cause, boolean close,
  RecvByteBufAllocator.Handle allocHandle) {
 if (byteBuf != null) {
  if (byteBuf.isReadable()) {
   readPending = false;
   pipeline.fireChannelRead(byteBuf);
  } else {
   byteBuf.release();
  }
 }
 allocHandle.readComplete();
 pipeline.fireChannelReadComplete();
 pipeline.fireExceptionCaught(cause);

 // If oom will close the read event, release connection.
 // See https://github.com/netty/netty/issues/10434
 if (close || cause instanceof OutOfMemoryError || cause instanceof IOException) {
  closeonRead(pipeline);
 }
}

該方法最后會判斷異常類型,執行close連接的方法。在連接斷線的場景中,這里即為java.io.IOException,所以執行了close方法,當debug到AbstractChannel.AbstractUnsafe#close(ChannelPromise, Throwable, ClosedChannelException, notify)方法中會發現最后又調用了AbstractUnsafe#fireChannelInactiveAndDeregister方法,繼續debug最后則會執行自定義的fireChannelInactive方法。

到這里可以總結一個知識點:netty中當執行到handler地fireExceptionCaught方法時,可能會繼續觸發到fireChannelInactive,也可能不會觸發fireChannelInactive。

除了netty根據異常類型判斷是否執行close方法外,其實開發人員也可以自己通過ctx或者channel去調用close方法,代碼如下:

@Override
public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
    if (cause instanceof IOException) {
        log.warn("exceptionCaught:客戶端[{}]和遠程斷開連接", ctx.channel().localAddress());
    } else {
        log.error(cause);
    }
    //ctx.close();
    ctx.channel().close();
}

但這種顯示調用close方法,是否一定會觸發調用fireChannelInactive呢?

如果是,那么只需要在exceptionCaught中調用close方法,fireChannelInactive中做重連的邏輯即可?。?/p>

在筆者通過日志觀察到,在exceptionCaught中調用close方法每次都會調用fireChannelInactive方法。但是查看源碼,筆者認為這是不一定的,因為在AbstractChannel.AbstractUnsafe#close(ChannelPromise,Throwable, ClosedChannelException, notify)中會調用io.netty.channel.Channel#isActive進行判斷,只有為true,才會執行fireChannelInactive方法。

//io.netty.channel.socket.nio.NioSocketChannel#isActive
@Override
public boolean isActive() {
    SocketChannel ch = javaChannel();
    return ch.isOpen() && ch.isConnected();
}

如何解決同時執行兩次問題呢?

在netty初始化時,我們都會添加一系列的handler處理器,這些handler實際上會在netty創建Channel對象(NioSocketChannel)時,被封裝在DefaultChannelPipeline中,而DefaultChannelPipeline實際上是一個雙向鏈表,頭節點為TailContext,尾節點為TailContext,而中間的節點則是我們添加的一個個handler(被封裝成DefaultChannelHandlerContext),當執行Pipeline上的方法時,會從鏈表上遍歷handler執行,因此當執行exceptionCaught方法時,我們只需要提前移除鏈表上自定義的Handler則無法執行fireChannelInactive方法。

Netty客戶端斷線重連實現及問題思考

 

最后實現代碼如下:

public class SimpleClientHandler extends ChannelInboundHandlerAdapter {

    private static final InternalLogger log = InternalLoggerFactory.getInstance(SimpleClientHandler.class);

    @Override
    public void channelInactive(ChannelHandlerContext ctx) throws Exception {
        log.warn("channelInactive:{}", ctx.channel().localAddress());
  ctx.pipeline().remove(this);
        ctx.channel().close();
        reconnection(ctx);
    }

    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        if (cause instanceof IOException) {
            log.warn("exceptionCaught:客戶端[{}]和遠程斷開連接", ctx.channel().localAddress());
        } else {
            log.error(cause);
        }
        ctx.pipeline().remove(this);
        //ctx.close();
        ctx.channel().close();
        reconnection(ctx);
    }
}

執行效果如下,可以看到當發生異常時,只是執行了exceptionCaught方法,并且通過channel關閉了上一次連接資源,也沒有執行當前handler的fireChannelInactive方法。

Netty客戶端斷線重連實現及問題思考

 

如何實現斷線后重新連接 ?

通過上面分析,我們已經知道在什么方法中實現自己的重連邏輯,但是具體該怎么實現呢,懷著好奇的心態搜索了一下各大碼友的實現方案。大多做法是通過ctx.channel().eventLoop().schedule添加一個定時任務調用客戶端的連接方法。筆者也參考該方式實現代碼如下:

private void reconnection(ChannelHandlerContext ctx) {
 log.info("5s之后重新建立連接");
 ctx.channel().eventLoop().schedule(new Runnable() {
  @Override
  public void run() {
   boolean connect = client.connect();
   if (connect) {
    log.info("重新連接成功");
   } else {
    reconnection(ctx);
   }
  }
 }, 5, TimeUnit.SECONDS);
}

測試:先啟動server端,再啟動client端,待連接成功之后kill掉 server端進程。客戶端如期定時執行重連,但也就去茶水間倒杯水的時間,回來后發現了如下異常。

......省略14條相同的重試日志
[2021-01-17 18:46:45.032] INFO   [nioEventLoopGroup-2-1] [com.bruce.netty.rpc.client.SimpleClientHandler] : 5s之后重新建立連接
[2021-01-17 18:46:48.032] INFO   [nioEventLoopGroup-2-1] [com.bruce.netty.rpc.client.NettyClient] : 嘗試連接到服務端: 127.0.0.1:8088
[2021-01-17 18:46:50.038] ERROR   [nioEventLoopGroup-2-1] [com.bruce.netty.rpc.client.NettyClient] : 連接異常:Connection refused: no further information: /127.0.0.1:8088
[2021-01-17 18:46:50.038] INFO   [nioEventLoopGroup-2-1] [com.bruce.netty.rpc.client.SimpleClientHandler] : 5s之后重新建立連接
[2021-01-17 18:46:53.040] INFO   [nioEventLoopGroup-2-1] [com.bruce.netty.rpc.client.NettyClient] : 嘗試連接到服務端: 127.0.0.1:8088
[2021-01-17 18:46:53.048] ERROR   [nioEventLoopGroup-2-1] [com.bruce.netty.rpc.client.NettyClient] : connect error:
io.netty.util.concurrent.BlockingOperationException: DefaultChannelPromise@10122121(incomplete)
 at io.netty.util.concurrent.DefaultPromise.checkDeadLock(DefaultPromise.java:462)
 at io.netty.channel.DefaultChannelPromise.checkDeadLock(DefaultChannelPromise.java:159)
 at io.netty.util.concurrent.DefaultPromise.await0(DefaultPromise.java:667)
 at io.netty.util.concurrent.DefaultPromise.awaitUninterruptibly(DefaultPromise.java:305)
 at com.bruce.netty.rpc.client.NettyClient.connect(NettyClient.java:49)
 at com.bruce.netty.rpc.client.SimpleClientHandler$1.run(SimpleClientHandler.java:65)
 at io.netty.util.concurrent.PromiseTask.runTask(PromiseTask.java:98)
 at io.netty.util.concurrent.ScheduledFutureTask.run(ScheduledFutureTask.java:170)
 at io.netty.util.concurrent.AbstractEventExecutor.safeExecute$$$capture(AbstractEventExecutor.java:164)
 at io.netty.util.concurrent.AbstractEventExecutor.safeExecute(AbstractEventExecutor.java)
 at io.netty.util.concurrent.SingleThreadEventExecutor.runAllTasks(SingleThreadEventExecutor.java:472)
 at io.netty.channel.nio.NioEventLoop.run(NioEventLoop.java:500)

根據異常棧,可以發現是com.bruce.netty.rpc.client.NettyClient#connect方法中調用了等待方法

boolean notTimeout = channelFuture.awaitUninterruptibly(20, TimeUnit.SECONDS);

而該方法內部會進行檢測,是否在io線程上執行了同步等待,這會導致拋出異常BlockingOperationException。

@Override
protected void checkDeadLock() {
    if (channel().isRegistered()) {
        super.checkDeadLock();
    }
}
protected void checkDeadLock() {
    EventExecutor e = executor();
    if (e != null && e.inEventLoop()) {
        throw new BlockingOperationException(toString());
    }
}

奇怪的是為什么不是每次嘗試重連都拋出該異常,而是每隔16次拋出一次呢?

這讓我聯想到自己的筆記本是8核處理器,而netty默認線程池是2 * c,就是16條線程,這之間似乎有些關聯。

實際上在調用ChannelFuture channelFuture = bootstrap.connect("127.0.0.1", 8088);,netty首先會創建一個io.netty.channel.Channel(示例中是NioSocketChannel),然后通過io.netty.util.concurrent.EventExecutorChooserFactory.EventExecutorChooser依次選擇一個NioEventLoop,將Channel綁定到NioEventLoop上。

Netty客戶端斷線重連實現及問題思考

 

io.netty.util.concurrent.SingleThreadEventExecutor#inEventLoop

//Return true if the given Thread is executed in the event loop, false otherwise.
@Override
public boolean inEventLoop(Thread thread) {
    return thread == this.thread;
}

重連的方法是在一個NioEventLoop(也就是io線程)上被調用,第1次重連實際上是選擇了第2個NioEventLoop,第2次重連實際上是選擇了第3個NioEventLoop,以此類推,當一輪選擇過后,重新選到第一個NioEventLoop時,boolean inEventLoop()返回true,則拋出了BlockingOperationException。

方案1

不要在netty的io線程上執行同步連接,使用單獨的線程池定時執行重試,該線程還可以執行自己重連的業務邏輯操作,不阻塞io線程。(如果不需要業務操作之后銷毀線程池)。

com.bruce.netty.rpc.client.SimpleClientHandler 修改reconnection方法

private static ScheduledExecutorService SCHEDULED_EXECUTOR;

private void initScheduledExecutor() {
 if (SCHEDULED_EXECUTOR == null) {
  synchronized (SimpleClientHandler.class) {
   if (SCHEDULED_EXECUTOR == null) {
    SCHEDULED_EXECUTOR = Executors.newSingleThreadScheduledExecutor(r -> {
     Thread t = new Thread(r, "Client-Reconnect-1");
     t.setDaemon(true);
     return t;
    });
   }
  }
 }
}

private void reconnection(ChannelHandlerContext ctx) {
 log.info("5s之后重新建立連接");
 initScheduledExecutor();

 SCHEDULED_EXECUTOR.schedule(() -> {
  boolean connect = client.connect();
  if (connect) {
   //連接成功,關閉線程池
   SCHEDULED_EXECUTOR.shutdown();
   log.info("重新連接成功");
  } else {
   reconnection(ctx);
  }
 }, 3, TimeUnit.SECONDS);
}

方案2

可以在io線程上使用異步重連:

com.bruce.netty.rpc.client.NettyClient添加方法connectAsync方法,兩者的區別在于connectAsync方法中沒有調用channelFuture的同步等待方法。而是改成監聽器(ChannelFutureListener)的方式,實際上這個監聽器是運行在io線程上。

 public void connectAsync() {
    log.info("嘗試連接到服務端: 127.0.0.1:8088");
    ChannelFuture channelFuture = bootstrap.connect("127.0.0.1", 8088);
    channelFuture.addListener((ChannelFutureListener) future -> {
        Throwable cause = future.cause();
        if (cause != null) {
            exceptionHandler(cause);
            log.info("等待下一次重連");
            channelFuture.channel().eventLoop().schedule(this::connectAsync, 5, TimeUnit.SECONDS);
        } else {
            clientChannel = channelFuture.channel();
            if (clientChannel != null && clientChannel.isActive()) {
                log.info("Netty client started !!! {} connect to server", clientChannel.localAddress());
            }
        }
    });
}

com.bruce.netty.rpc.client.SimpleClientHandler

public class SimpleClientHandler extends ChannelInboundHandlerAdapter {
    private static final InternalLogger log = InternalLoggerFactory.getInstance(SimpleClientHandler.class);
    private NettyClient client;

    public SimpleClientHandler(NettyClient client) {
        this.client = client;
    }

    @Override
    public void channelRead(ChannelHandlerContext ctx, Object msg) throws Exception {
        log.info("client receive:{}", msg);
    }

    @Override
    public void channelInactive(ChannelHandlerContext ctx) throws Exception {
        log.warn("channelInactive:{}", ctx.channel().localAddress());
        ctx.pipeline().remove(this);
        ctx.channel().close();
        reconnectionAsync(ctx);
    }

    @Override
    public void exceptionCaught(ChannelHandlerContext ctx, Throwable cause) throws Exception {
        if (cause instanceof IOException) {
            log.warn("exceptionCaught:客戶端[{}]和遠程斷開連接", ctx.channel().localAddress());
        } else {
            log.error(cause);
        }
        ctx.pipeline().remove(this);
        ctx.close();
        reconnectionAsync(ctx);
    }

    private void reconnectionAsync(ChannelHandlerContext ctx) {
        log.info("5s之后重新建立連接");
        ctx.channel().eventLoop().schedule(new Runnable() {
            @Override
            public void run() {
                client.connectAsync();
            }
        }, 5, TimeUnit.SECONDS);
    }
}

netty客戶端線程給多大比較合理 ?

netty中一個NioEventLoopGroup默認創建的線程數是cpu核心數 * 2 ,這些線程都是用于io操作,那么對于客戶端應用程序來說真的需要這么多io線程么?

通過上面分析BlockingOperationException異常時我們分析到,實際上netty在創建一個Channel對象后只會從NioEventLoopGroup中選擇一個NioEventLoop來綁定,只有創建多個Channel才會依次選擇下一個NioEventLoop,也就是說一個Channel只會對應一個NioEventLoop,而NioEventLoop可以綁定多個Channel。

1.對于客戶端來說,如果只是連接的一個server節點,那么只要設置1條線程即可。即使出現了斷線重連,在連接斷開之后,之前的Channel會從NioEventLoop移除。重連之后,仍然只會在僅有的一個NioEventLoop注冊一個新的Channel。

2.如果客戶端同時如下方式多次調用io.netty.bootstrap.Bootstrap#connect(String inetHost, int inetPort)連接多個Server節點,那么線程可以設置大一點,但不要超過2*c,而且只要出現斷線重連,同樣不能保證每個NioEventLoop都會綁定一個客戶端Channel。

 public boolean connect() {
      try {
          ChannelFuture channelFuture1 = bootstrap.connect("127.0.0.1", 8088);
          ChannelFuture channelFuture2 = bootstrap.connect("127.0.0.1", 8088);
          ChannelFuture channelFuture3 = bootstrap.connect("127.0.0.1", 8088);
      } catch (Exception e) {
          exceptionHandler(e);
      }
      clientChannel.close();
      return false;
  }

3.如果netty客戶端線程數設置大于1有什么影響么?

明顯的異??隙ㄊ遣粫械?,但是造成資源浪費,首先會創建多個NioEventLoop對象,但NioEventLoop是處于非運行狀態。一旦出現斷線重連,那么重新連接時,下一個NioEventLoop則會被選中,并創建/啟動線程一直處于runnable狀態。而上一個NioEventLoop也是一直處于runnable狀態,由于上一個Channel已經被close,所以會造成每次select結果都是空的,沒有意義的空輪詢。

如下則是netty客戶端使用默認線程數,4次斷線重連后一共創建的5條NioEventLoop線程,但是實際上只有第5條線程在執行讀寫操作。

Netty客戶端斷線重連實現及問題思考

 


Netty客戶端斷線重連實現及問題思考

 

4.如果客戶端存在耗時的業務邏輯,應該單獨使用業務線程池,避免在netty的io線程中執行耗時邏輯處理。

總結

本篇主要講解了,netty斷線重連的兩種實現方案,以及實現過程中遇到的異常問題,通過分析問題,讓大家了解netty的實現細節。

來源:blog.csdn.net/u013202238/article/details/111680798

分享到:
標簽:Netty
用戶無頭像

網友整理

注冊時間:

網站:5 個   小程序:0 個  文章:12 篇

  • 51998

    網站

  • 12

    小程序

  • 1030137

    文章

  • 747

    會員

趕快注冊賬號,推廣您的網站吧!
最新入駐小程序

數獨大挑戰2018-06-03

數獨一種數學游戲,玩家需要根據9

答題星2018-06-03

您可以通過答題星輕松地創建試卷

全階人生考試2018-06-03

各種考試題,題庫,初中,高中,大學四六

運動步數有氧達人2018-06-03

記錄運動步數,積累氧氣值。還可偷

每日養生app2018-06-03

每日養生,天天健康

體育訓練成績評定2018-06-03

通用課目體育訓練成績評定