yeskery

OpenResty 实现限流的几种方式

在开发 api 网关的时,做过一些简单的限流,比如说静态拦截和动态拦截;静态拦截说白了就是限流某一个接口在一定时间窗口的请求数。用户可以在系统上给他们的接口配置一个每秒最大调用量,如果超过这个限制,则拒绝服务此接口,而动态拦截其实也是基于静态拦截进行改进,我们可以依据当前系统的响应时间来动态调整限流的阈值,如果响应较快则可以把阈值调的大一些,放过更多请求,反之则自动降低限流阈值,只使少量请求通过。

其实这就是一个很简单的限流方式。但是因为这些场景在我们开发的时候经常遇到,所以在这里用 OpenResty 大概实现一些常见的限流方式。(此处使用 OpenResty1.13.6.1 版本自带 lua-resty-limit-traffic 模块 ,实现起来更为方便)。

限制接口总并发数

场景:
按照 ip 限制其并发连接数

  1. lua_shared_dict my_limit_conn_store 100m;
  2. ...
  3. location /hello {
  4. access_by_lua_block {
  5. local limit_conn = require "resty.limit.conn"
  6. -- 限制一个 ip 客户端最大 1 个并发请求
  7. -- burst 设置为 0,如果超过最大的并发请求数,则直接返回503
  8. -- 如果此处要允许突增的并发数,可以修改 burst 的值(漏桶的桶容量)
  9. -- 最后一个参数其实是你要预估这些并发(或者说单个请求)要处理多久,以便于对桶里面的请求应用漏桶算法
  10. local lim, err = limit_conn.new("my_limit_conn_store", 1, 0, 0.5)
  11. if not lim then
  12. ngx.log(ngx.ERR, "failed to instantiate a resty.limit.conn object: ", err)
  13. return ngx.exit(500)
  14. end
  15. local key = ngx.var.binary_remote_addr
  16. -- commit true 代表要更新shared dictkey的值,
  17. -- false 代表只是查看当前请求要处理的延时情况和前面还未被处理的请求数
  18. local delay, err = lim:incoming(key, true)
  19. if not delay then
  20. if err == "rejected" then
  21. return ngx.exit(503)
  22. end
  23. ngx.log(ngx.ERR, "failed to limit req: ", err)
  24. return ngx.exit(500)
  25. end
  26. -- 如果请求连接计数等信息被加到shared dict中,则在ctx中记录下,
  27. -- 因为后面要告知连接断开,以处理其他连接
  28. if lim:is_committed() then
  29. local ctx = ngx.ctx
  30. ctx.limit_conn = lim
  31. ctx.limit_conn_key = key
  32. ctx.limit_conn_delay = delay
  33. end
  34. local conn = err
  35. -- 其实这里的 delay 肯定是上面说的并发处理时间的整数倍,
  36. -- 举个例子,每秒处理100并发,桶容量200个,当时同时来500个并发,则200个拒掉
  37. -- 100个在被处理,然后200个进入桶中暂存,被暂存的这200个连接中,0-100个连接其实应该延后0.5秒处理,
  38. -- 101-200个则应该延后0.5*2=1秒处理(0.5是上面预估的并发处理时间)
  39. if delay >= 0.001 then
  40. ngx.sleep(delay)
  41. end
  42. }
  43. log_by_lua_block {
  44. local ctx = ngx.ctx
  45. local lim = ctx.limit_conn
  46. if lim then
  47. local key = ctx.limit_conn_key
  48. -- 这个连接处理完后应该告知一下,更新shared dict中的值,让后续连接可以接入进来处理
  49. -- 此处可以动态更新你之前的预估时间,但是别忘了把limit_conn.new这个方法抽出去写,
  50. -- 要不每次请求进来又会重置
  51. local conn, err = lim:leaving(key, 0.5)
  52. if not conn then
  53. ngx.log(ngx.ERR,
  54. "failed to record the connection leaving ",
  55. "request: ", err)
  56. return
  57. end
  58. end
  59. }
  60. proxy_pass http://10.100.157.198:6112;
  61. proxy_set_header Host $host;
  62. proxy_redirect off;
  63. proxy_set_header X-Real-IP $remote_addr;
  64. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  65. proxy_connect_timeout 60;
  66. proxy_read_timeout 600;
  67. proxy_send_timeout 600;
  68. }

说明:
其实此处没有设置 burst 的值,就是单纯的限制最大并发数,如果设置了 burst 的值,并且做了延时处理,其实就是对并发数使用了漏桶算法,但是如果不做延时处理,其实就是使用的令牌桶算法。参考下面对请求数使用漏桶令牌桶的部分,并发数的漏桶令牌桶实现与之相似。

限制接口时间窗请求数

场景:
限制 ip 每分钟只能调用 120 次 /hello 接口(允许在时间段开始的时候一次性放过120个请求)

  1. lua_shared_dict my_limit_count_store 100m;
  2. ...
  3. init_by_lua_block {
  4. require "resty.core"
  5. }
  6. ....
  7. location /hello {
  8. access_by_lua_block {
  9. local limit_count = require "resty.limit.count"
  10. -- rate: 10/min
  11. local lim, err = limit_count.new("my_limit_count_store", 120, 60)
  12. if not lim then
  13. ngx.log(ngx.ERR, "failed to instantiate a resty.limit.count object: ", err)
  14. return ngx.exit(500)
  15. end
  16. local key = ngx.var.binary_remote_addr
  17. local delay, err = lim:incoming(key, true)
  18. -- 如果请求数在限制范围内,则当前请求被处理的延迟(这种场景下始终为0,因为要么被处理要么被拒绝)和将被处理的请求的剩余数
  19. if not delay then
  20. if err == "rejected" then
  21. return ngx.exit(503)
  22. end
  23. ngx.log(ngx.ERR, "failed to limit count: ", err)
  24. return ngx.exit(500)
  25. end
  26. }
  27. proxy_pass http://10.100.157.198:6112;
  28. proxy_set_header Host $host;
  29. proxy_redirect off;
  30. proxy_set_header X-Real-IP $remote_addr;
  31. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  32. proxy_connect_timeout 60;
  33. proxy_read_timeout 600;
  34. proxy_send_timeout 600;
  35. }

平滑限制接口请求数
场景:
限制 ip 每分钟只能调用 120 次 /hello 接口(平滑处理请求,即每秒放过2个请求)

  1. lua_shared_dict my_limit_req_store 100m;
  2. ....
  3. location /hello {
  4. access_by_lua_block {
  5. local limit_req = require "resty.limit.req"
  6. -- 这里设置rate=2/s,漏桶桶容量设置为0,(也就是来多少水就留多少水)
  7. -- 因为resty.limit.req代码中控制粒度为毫秒级别,所以可以做到毫秒级别的平滑处理
  8. local lim, err = limit_req.new("my_limit_req_store", 2, 0)
  9. if not lim then
  10. ngx.log(ngx.ERR, "failed to instantiate a resty.limit.req object: ", err)
  11. return ngx.exit(500)
  12. end
  13. local key = ngx.var.binary_remote_addr
  14. local delay, err = lim:incoming(key, true)
  15. if not delay then
  16. if err == "rejected" then
  17. return ngx.exit(503)
  18. end
  19. ngx.log(ngx.ERR, "failed to limit req: ", err)
  20. return ngx.exit(500)
  21. end
  22. }
  23. proxy_pass http://10.100.157.198:6112;
  24. proxy_set_header Host $host;
  25. proxy_redirect off;
  26. proxy_set_header X-Real-IP $remote_addr;
  27. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  28. proxy_connect_timeout 60;
  29. proxy_read_timeout 600;
  30. proxy_send_timeout 600;
  31. }

漏桶算法限流

场景:
限制 ip 每分钟只能调用 120 次 /hello 接口(平滑处理请求,即每秒放过2个请求),超过部分进入桶中等待,(桶容量为60),如果桶也满了,则进行限流。

  1. lua_shared_dict my_limit_req_store 100m;
  2. ....
  3. location /hello {
  4. access_by_lua_block {
  5. local limit_req = require "resty.limit.req"
  6. -- 这里设置rate=2/s,漏桶桶容量设置为0,(也就是来多少水就留多少水)
  7. -- 因为resty.limit.req代码中控制粒度为毫秒级别,所以可以做到毫秒级别的平滑处理
  8. local lim, err = limit_req.new("my_limit_req_store", 2, 60)
  9. if not lim then
  10. ngx.log(ngx.ERR, "failed to instantiate a resty.limit.req object: ", err)
  11. return ngx.exit(500)
  12. end
  13. local key = ngx.var.binary_remote_addr
  14. local delay, err = lim:incoming(key, true)
  15. if not delay then
  16. if err == "rejected" then
  17. return ngx.exit(503)
  18. end
  19. ngx.log(ngx.ERR, "failed to limit req: ", err)
  20. return ngx.exit(500)
  21. end
  22. -- 此方法返回,当前请求需要delay秒后才会被处理,和他前面对请求数
  23. -- 所以此处对桶中请求进行延时处理,让其排队等待,就是应用了漏桶算法
  24. -- 此处也是与令牌桶的主要区别既
  25. if delay >= 0.001 then
  26. ngx.sleep(delay)
  27. end
  28. }
  29. proxy_pass http://10.100.157.198:6112;
  30. proxy_set_header Host $host;
  31. proxy_redirect off;
  32. proxy_set_header X-Real-IP $remote_addr;
  33. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  34. proxy_connect_timeout 60;
  35. proxy_read_timeout 600;
  36. proxy_send_timeout 600;
  37. }

令牌桶算法限流

令牌桶其实可以看着是漏桶的逆操作,看我们对把超过请求速率而进入桶中的请求如何处理,如果是我们把这部分请求放入到等待队列中去,那么其实就是用了漏桶算法,但是如果我们允许直接处理这部分的突发请求,其实就是使用了令牌桶算法。

场景:
限制 ip 每分钟只能调用 120 次 /hello 接口(平滑处理请求,即每秒放过2个请求),但是允许一定的突发流量(突发的流量,就是桶的容量(桶容量为60),超过桶容量直接拒绝。

这边只要将上面漏桶算法关于桶中请求的延时处理的代码修改成直接送到后端服务就可以了,这样便是使用了令牌桶。

  1. lua_shared_dict my_limit_req_store 100m;
  2. ....
  3. location /hello {
  4. access_by_lua_block {
  5. local limit_req = require "resty.limit.req"
  6. local lim, err = limit_req.new("my_limit_req_store", 2, 0)
  7. if not lim then
  8. ngx.log(ngx.ERR, "failed to instantiate a resty.limit.req object: ", err)
  9. return ngx.exit(500)
  10. end
  11. local key = ngx.var.binary_remote_addr
  12. local delay, err = lim:incoming(key, true)
  13. if not delay then
  14. if err == "rejected" then
  15. return ngx.exit(503)
  16. end
  17. ngx.log(ngx.ERR, "failed to limit req: ", err)
  18. return ngx.exit(500)
  19. end
  20. -- 此方法返回,当前请求需要delay秒后才会被处理,和他前面对请求数
  21. -- 此处忽略桶中请求所需要的延时处理,让其直接返送到后端服务器,
  22. -- 其实这就是允许桶中请求作为突发流量 也就是令牌桶桶的原理所在
  23. if delay >= 0.001 then
  24. -- ngx.sleep(delay)
  25. end
  26. }
  27. proxy_pass http://10.100.157.198:6112;
  28. proxy_set_header Host $host;
  29. proxy_redirect off;
  30. proxy_set_header X-Real-IP $remote_addr;
  31. proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
  32. proxy_connect_timeout 60;
  33. proxy_read_timeout 600;
  34. proxy_send_timeout 600;
  35. }

说明:
其实 nginxngx_http_limit_req_module 这个模块中的 delaynodelay 也就是类似此处对桶中请求是否做延迟处理的两种方案,也就是分别对应的漏桶和令牌桶两种算法。

本文转载自:http://www.itzh.org/2018/01/14/openresty_rate_limiter_methods/

评论

发表评论 点击刷新验证码

提示

该功能暂未开放