接口突然超时10宗罪。。。

hexiaox810
发布于 2023-6-28 15:23
浏览
0收藏

大家好,我是苏三,又跟大家见面了。

前言

不知道你有没有遇到过这样的场景:我们提供的某个​​API接口​​​,​​响应时间​​​原本一直都很快,但在某个不经意的时间点,突然出现了​​接口超时​​。

也许你会有点懵,到底是为什么呢?

今天跟大家一起聊聊接口​突然​超时的10个原因,希望对你会有所帮助。

1.网络异常

接口原本好好的,突然出现超时,最常见的原因,可能是网络出现异常了。比如:偶然的网络抖动,或者是带宽被占满了。

1.1 网络抖动

经常上网的我们,肯定遇到过这样的场景:大多数情况下我们访问某个网站很快,但偶尔会出现网页一直转圈,加载不出来的情况。

有可能是你的网络出现了抖动,丢包了。

网页请求API接口,或者接口返回数据给网页,都有可能会出现网络丢包的情况。

​网络丢包​​可能会导致接口超时。

2.1 带宽被占满

有时候,由于页面或者接口设计不合理,用户请求量突增的时候,可能会导致服务器的网络带宽被占满的情况。

​服务器带宽​​​指的是在一定时间内​​传输​​​数据的​​大小​​,比如:1秒传输了10M的数据。

如果用户请求量突然增多,超出了1秒10M的上限,比如:1秒100M,而服务器带宽本身1秒就只能传输10M,这样会导致在这1秒内,90M数据就会延迟传输的情况,从而导致接口超时的发生。

所以对于有些高并发请求场景,需要评估一下是否需要增加服务器带宽。

2.线程池满了

我们调用的API接口,有时候为了性能考虑,可能会使用​​线程池​​异步查询数据,最后把查询结果进行汇总,然后返回。

如下图所示:

接口突然超时10宗罪。。。-鸿蒙开发者社区

调用远程接口总耗时 200ms = 200ms(即耗时最长的那次远程接口调用)

在java8之前可以通过实现​​Callable​​接口,获取线程返回结果。

java8以后通过​​CompleteFuture​​类实现该功能。我们这里以CompleteFuture为例:

public UserInfo getUserInfo(Long id) throws InterruptedException, ExecutionException {
    final UserInfo userInfo = new UserInfo();
    CompletableFuture userFuture = CompletableFuture.supplyAsync(() -> {
        getRemoteUserAndFill(id, userInfo);
        return Boolean.TRUE;
    }, executor);

    CompletableFuture bonusFuture = CompletableFuture.supplyAsync(() -> {
        getRemoteBonusAndFill(id, userInfo);
        return Boolean.TRUE;
    }, executor);

    CompletableFuture growthFuture = CompletableFuture.supplyAsync(() -> {
        getRemoteGrowthAndFill(id, userInfo);
        return Boolean.TRUE;
    }, executor);
    CompletableFuture.allOf(userFuture, bonusFuture, growthFuture).join();

    userFuture.get();
    bonusFuture.get();
    growthFuture.get();

    return userInfo;
}

这里我用到了executor,表示​​自定义的线程池​​​,为了防止高并发场景下,出现​​线程​​过多的问题。

但如果用户请求太多,线程池中已有的线程处理不过来,线程池会把多余的请求,放到​​队列​​​中​​排队​​​,等待​​空闲​​线程的去处理。

如果队列中排队的任务非常多,某次API请求一直在等待,没办法得到及时处理,就会出现接口超时问题。

这时候,我们可以考虑是否​​核心线程数​​设置太小了,或者有多种业务场景共用了同一个线程池。

如果是因为核心线程池设置太小,可以将其调大一些。

如果是因为多种业务场景共用了​​同一个线程池​​​,可以拆分成​​多个线程池​​。

3.数据库死锁

有时候接口超时得有点莫名其妙,特别是遇到数据库出现​​死锁​​的时候。

你提供的API接口中通过某个id更新某条数据,此时,正好线上在手动执行一个批量更新数据的sql语句。

该sql语句在一个事务当中,并且刚好也在更新那条数据,可能会出现死锁的情况。

由于该sql语句执行时间很长,会导致API接口的那次更新数据操作,长时间被数据库锁住,没法即使返回数据,而出现接口超时问题。

你说坑不坑?

所以建议在执行数据库批量操作前,一定要评估数据的影响范围,不要一次性更新太多的数据,不然可能会导致很多意想不到的问题。

此外,批量更新操作建议在用户访问少的时段执行,比如:凌晨。

4.传入参数太多

有时候,偶尔的一次接口超时,是由于参数传入太多导致的。

例如:根据id集合批量查询分类接口,如果传入的id集合数据量不多,传入几十个或上百个id,不会出现性能问题。毕竟id是分类表的​​主键​​​,可以走​​主键索引​​,数据库的查找速度是非常快的。

但如果接口调用方,一次性传入几千个,甚至几万个id,批量查询分类,也可能会出现接口超时问题。

因为数据库在执行sql语句之前,会评估一下耗时情况,查询条件太多,有可能走全表扫描更快。

所以这种情况下sql语句可能会丢失索引,让执行时间变慢,出现接口超时问题。

因此我们在设计​​批量接口​​的时候,建议要限制传入的集合的大小,比如:500。

如果超过我们设置最大的集合大小,则接口直接返回失败,并提示给用户:​​一次性传入参数过多​​。

该限制一定要写到接口文档中,避免接口调用方,在生产环境调用接口失败而踩坑。要在接口开发阶段通知到位。

此外,如果接口调用方要传入的参数就是很多怎么办?

答:可能是需求不合理,或者系统设计有问题,我们要尽量在系统设计阶段就规避这个问题。

如果我们重新进行系统设计改动比较大的话,有个临时的解决方案:在接口调用方中多线程分批调用该接口,最后将结果进行汇总。

5.超时时间设置过短

通常情况下,建议我们在调用远程API接口时,要设置​​连接超时时间​​​和​​读超时时间​​这两个参数,并且可以动态配置。

这样做的好处是,可以防止调用远程API接口万一出现了性能问题,响应时间很长,把我们自己的服务拖挂的情况发生。

比如:你调用的远程API接口,要100秒才返回数据,而你设置的超时时间是100秒。这时1000个请求过来,去请求该API接口,这样会导致​​tomcat线程池​​很快被占满,导致整个服务暂时不可用,至少新的请求过来,是没法即使响应的。

所以我们需要设置超时时间,并且超时时间还不能设置太长。

并发量不大的业务场景,可以将这两个超时时间设置稍微长一点,比如:​​连接超时时间​​​为10秒,​​读超时时间​​为20秒。

并发量大的业务场景,可以设置成​​秒级​​​或者​​毫秒级​​。

有些小伙伴为了开发方便,在多种业务场景共用这两个超时时间。

某一天,在并发量大的业务场景中,你将该超时时间改短了。

但直接导致并发量不大的业务场景中,出现调用API接口超时的问题。

因此,不建议多种业务场景共用同一个​​超时时间​​,最好根据并发量的不同,单独设置不同的超时时间。

6.一次性返回数据太多

不知道你有没有遇到过这样的需求:我们有个job,每天定时调用第三方API查询接口,获取昨天更新的数据,然后更新到我们自己的数据库表中。

由于第三方每天更新的数据不多,所以该API接口响应时间还是比较快的。

但突然有一天,该API接口却出现了接口超时问题。

查看日志发现,该API接口一次性返回的数据太多,而且该数据的更新时间相同。

这就可以断定,该API接口提供方进行了批量更新操作,修改了大量的数据,导致该问题的发生。

即使我们在job中加了​​失败重试机制​​,但由于该API一次性返回数据实在太多太多,重试也很有可能会接口超时,这样会导致一直获取不到第三方前一天最新的数据。

所以第三方这种根据日期查询增量数据的接口,建议做成分页查询的,不然后面没准哪一天,遇到批量更新的操作,就可能出现接口超时的问题。

7. 死循环

​死循环​​也会导致接口超时?

死循环不应该在接口​​测试阶段​​​就发现了,为什么要到​​生产环境​​才发现?

确实,绝大部分死循环问题,在测试阶段可以发现。

但有些无限递归隐藏的比较深,比如下面的情况。

死循环其实有两种:

  1. 普通死循环
  2. 无限递归

7.1 普通死循环

有时候死循环是我们自己写的,例如下面这段代码:

while(true) {
    if(condition) {
        break;
    }
    System.out.println("do samething");
}

这里使用了​​while(true)​​​的循环调用,这种写法在​​CAS自旋锁​​中使用比较多。

当满足condition等于true的时候,则自动退出该循环。

如果condition条件非常复杂,一旦出现判断不正确,或者少写了一些逻辑判断,就可能在某些场景下出现死循环的问题。

出现死循环,大概率是开发人员人为的bug导致的,不过这种情况很容易被测出来。

还有一种隐藏的比较深的死循环,是由于代码写的不太严谨导致的。如果用正常数据,可能测不出问题,但一旦出现异常数据,就会立即出现死循环。

7.2 无限递归

如果想要打印某个分类的所有父分类,可以用类似这样的递归方法实现:

public void printCategory(Category category){
  if(category == null 
      || category.getParentId() == null) {
     return;
  } 
  System.out.println("父分类名称:"+ category.getName());
  Category parent = categoryMapper.getCategoryById(category.getParentId());
  printCategory(parent);
}

正常情况下,这段代码是没有问题的。

但如果某次有人误操作,把某个分类的parentId指向了它自己,这样就会出现​​无限递归​​​的情况。导致接口一直不能返回数据,最终会发生​​堆栈溢出​​。

建议写递归方法时,设定一个递归的深度,比如:分类最大等级有4级,则深度可以设置为4。然后在递归方法中做判断,如果深度大于4时,则自动返回,这样就能避免无限递归的情况。

8.sql语句没走索引

你有没有遇到过这样一种情况:明明是同一条sql,只有入参不同而已。有的时候走的索引a,有的时候却走的索引b?

没错,有时候mysql会​​选错索引​​,甚至有时会不走索引。

mysql在执行某条sql语句之前,会通过抽样统计来估算扫描行数,根据影响行数、区分度、基数、数据页等信息,最后综合评估走哪个索引。

有时候传入参数1,sql语句走了索引a,执行时间很快。但有时候传入参数2,sql语句走了索引b,执行时间明显慢了很多。

这样有可能会导致API接口出现超时问题。

必要时可以使用​​force index​​来强制查询sql走某个索引。

9.服务OOM

我之前遇到过这样一种场景:一个根据id查询分类的接口,该id是​​主键​​,sql语句可以走主键索引,竟然也出现了接口超时问题。

我当时觉得有点不可思议,因为这个接口平均耗时只有十几毫秒,怎么可能会出现超时呢?

但从当时的日志看,接口响应时间有5秒,的确出现了接口超时问题。

最后从​​Prometheus​​的服务内存监控中,查到了OOM问题。

其实该API接口部署的服务当时由于​​OOM​​内存溢出,其实挂了一段时间。

当时所有的接口都出现了请求超时问题。

但由于​​K8S​​​集群有​​监控​​​,它自动会将挂掉的服务节点​​kill​​​掉,并且在容器中重新部署了一个​​新的服务节点​​,幸好对用户没造成太大的影响。

如果你对OOM问题比较感兴趣,可以看看我的另一篇文章《​​糟了,线上服务出现OOM了​​》。

10.在debug

我们有时候需要在本地开发工具,比如:​​idea​​中,直接连接测试环境的数据库,调试某个API接口的业务逻辑。

因为在开发环境,某些问题不太好复现。

为了排查某个bug,你在请求某个本地接口时,开启了​​debug模式​​,一行行的跟踪代码,排查问题。

走到某一行代码的时候,停留了很长一段时间,该行代码主要是更新某条数据。

此时,测试同学在相关的业务页面中,操作更新了相同的数据。

这种也可能会出现数据库​​死锁​​的问题。

由于你在idea的debug模式中,一直都没有提交事务,会导致死锁的时间变得很长,从而导致业务页面请求的API接口出现超时问题。

当然如果你对常规的接口超时问题比较感兴趣,可以看看我的另一篇文章,里面有非常详细的介绍。

当然如果你对常规的接口超时问题比较感兴趣,可以看看我的另一篇文章《​聊聊接口性能优化的11个小技巧​》,里面有非常详细的介绍。


文章转载自公众号:苏三说技术

分类
标签
已于2023-6-28 15:23:22修改
收藏
回复
举报
回复
    相关推荐