メソッドの実行をN秒で最大Mコールにスロットルするコンポーネント/クラスが必要です(またはmsまたはnanosは関係ありません)。
言い換えれば、N秒のスライディングウィンドウでメソッドがM回以下実行されることを確認する必要があります。
既存のクラスがわからない場合は、これをどのように実装するかについてのソリューション/アイデアを自由に投稿してください。
リングバッファ の固定サイズMのタイムスタンプを使用します。メソッドが呼び出されるたびに、最も古いエントリをチェックし、過去にN秒未満の場合は、実行し、別のエントリを追加します。追加しないと、時差でスリープします。
箱から出してすぐに機能したのはGoogle Guava RateLimiter でした。
// Allow one request per second
private RateLimiter throttle = RateLimiter.create(1.0);
private void someMethod() {
throttle.acquire();
// Do something
}
具体的には、これを DelayQueue
で実装できるはずです。 M
Delayed
インスタンスを使用してキューを初期化し、遅延を最初にゼロに設定します。メソッドへのリクエストが来ると、 take
トークンになり、スロットル要件が満たされるまでメソッドがブロックされます。トークンが取得されると、 add
N
の遅延を持つキューへの新しいトークン。
Token bucket アルゴリズムを読んでください。基本的に、トークンが入ったバケットがあります。メソッドを実行するたびに、トークンを受け取ります。トークンがもうない場合は、トークンを取得するまでブロックします。一方、一定の間隔でトークンを補充する外部アクターがあります。
私はこれを行うためのライブラリ(または同様のもの)を知りません。このロジックをコードに記述するか、AspectJを使用して動作を追加できます。
分散システム全体で動作するJavaベースのスライディングウィンドウレートリミッターが必要な場合は、 https://github.com/mokies/ratelimitjをご覧ください。 プロジェクト。
IPによる要求を1分あたり50に制限するRedisバックアップ構成は、次のようになります。
import com.lambdaworks.redis.RedisClient;
import es.moki.ratelimitj.core.LimitRule;
RedisClient client = RedisClient.create("redis://localhost");
Set<LimitRule> rules = Collections.singleton(LimitRule.of(1, TimeUnit.MINUTES, 50)); // 50 request per minute, per key
RedisRateLimit requestRateLimiter = new RedisRateLimit(client, rules);
boolean overLimit = requestRateLimiter.overLimit("ip:127.0.0.2");
Redis設定の詳細については、 https://github.com/mokies/ratelimitj/tree/master/ratelimitj-redis を参照してください。
これはアプリケーションによって異なります。
マルチスレッドトークンに何らかの処理をさせたい場合を想像してくださいグローバルにレート制限されたアクションバースト禁止(つまり、10を制限したい場合) 10秒ごとにアクションが発生しますが、最初の1秒間に10のアクションが発生した後、9秒停止したままにしたくない場合)。
DelayedQueueには欠点があります:スレッドがトークンを要求する順序は、要求が満たされる順序ではない場合があります。複数のスレッドがトークンを待ってブロックされている場合、どのスレッドが次に利用可能なトークンを取得するかは明確ではありません。私の観点では、スレッドを永遠に待機させることさえできます。
1つの解決策は、2つの連続したアクション間の最小時間間隔を設定し、要求された順序でアクションを実行することです。
実装は次のとおりです。
public class LeakyBucket {
protected float maxRate;
protected long minTime;
//holds time of last action (past or future!)
protected long lastSchedAction = System.currentTimeMillis();
public LeakyBucket(float maxRate) throws Exception {
if(maxRate <= 0.0f) {
throw new Exception("Invalid rate");
}
this.maxRate = maxRate;
this.minTime = (long)(1000.0f / maxRate);
}
public void consume() throws InterruptedException {
long curTime = System.currentTimeMillis();
long timeLeft;
//calculate when can we do the action
synchronized(this) {
timeLeft = lastSchedAction + minTime - curTime;
if(timeLeft > 0) {
lastSchedAction += minTime;
}
else {
lastSchedAction = curTime;
}
}
//If needed, wait for our time
if(timeLeft <= 0) {
return;
}
else {
Thread.sleep(timeLeft);
}
}
}
あなたが尋ねたものではありませんが、 ThreadPoolExecutor
は、N秒でMリクエストの代わりにM同時リクエストに制限するように設計されています。
N秒のスライディングウィンドウ内でメソッドがM回以下実行されることを確認する必要があります。
私は最近、.NETでこれを行う方法に関するブログ投稿を書きました。 Javaで同様のものを作成できる場合があります。
簡単な調整アルゴリズムを実装しました。このリンクを試してください、 http://krishnaprasadas.blogspot.in/2012/05/throttling-algorithm.html
アルゴリズムについての簡単な説明、
このアルゴリズムは、Java Delayed Queue )の機能を利用します。 delayed 予想される遅延を持つオブジェクト(ここでは、ミリ秒 TimeUnit の1000/M)。同じオブジェクトを遅延キューに入れます。インターンは移動ウィンドウを提供します。その後、各メソッド呼び出し take がキューからオブジェクトを呼び出す前に、takeはブロッキング呼び出しであり、指定された遅延、およびメソッド呼び出しの後、更新された時間(ここでは現在のミリ秒)でオブジェクトをキューに入れることを忘れないでください。
ここで、異なる遅延を持つ複数の遅延オブジェクトを持つこともできます。このアプローチは、高いスループットも提供します。
元の質問は、このブログ投稿で解決された問題によく似ています: Java Multi-Channel Asynchronous Throttler 。
N秒間のMコールのレートについて、このブログで説明されているスロットルは、タイムライン上の長さNのany間隔がMを超えないことを保証します呼び出します。
以下の私の実装は、任意のリクエスト時間精度を処理できます。リクエストごとにO(1)時間の複雑さを持ち、追加のバッファを必要としません。 O(1)スペースの複雑さ、さらにトークンをリリースするためにバックグラウンドスレッドを必要とせず、代わりにトークンは最後のリクエストから経過した時間に従ってリリースされます。
class RateLimiter {
int limit;
double available;
long interval;
long lastTimeStamp;
RateLimiter(int limit, long interval) {
this.limit = limit;
this.interval = interval;
available = 0;
lastTimeStamp = System.currentTimeMillis();
}
synchronized boolean canAdd() {
long now = System.currentTimeMillis();
// more token are released since last request
available += (now-lastTimeStamp)*1.0/interval*limit;
if (available>limit)
available = limit;
if (available<1)
return false;
else {
available--;
lastTimeStamp = now;
return true;
}
}
}
これは、上記のLeakyBucketコードの更新です。これは、1秒あたり1000を超えるリクエストに対して機能します。
import lombok.SneakyThrows;
import Java.util.concurrent.TimeUnit;
class LeakyBucket {
private long minTimeNano; // sec / billion
private long sched = System.nanoTime();
/**
* Create a rate limiter using the leakybucket alg.
* @param perSec the number of requests per second
*/
public LeakyBucket(double perSec) {
if (perSec <= 0.0) {
throw new RuntimeException("Invalid rate " + perSec);
}
this.minTimeNano = (long) (1_000_000_000.0 / perSec);
}
@SneakyThrows public void consume() {
long curr = System.nanoTime();
long timeLeft;
synchronized (this) {
timeLeft = sched - curr + minTimeNano;
sched += minTimeNano;
}
if (timeLeft <= minTimeNano) {
return;
}
TimeUnit.NANOSECONDS.sleep(timeLeft);
}
}
上記のユニットテスト:
import com.google.common.base.Stopwatch;
import org.junit.Ignore;
import org.junit.Test;
import Java.util.concurrent.TimeUnit;
import Java.util.stream.IntStream;
public class LeakyBucketTest {
@Test @Ignore public void t() {
double numberPerSec = 10000;
LeakyBucket b = new LeakyBucket(numberPerSec);
Stopwatch w = Stopwatch.createStarted();
IntStream.range(0, (int) (numberPerSec * 5)).parallel().forEach(
x -> b.consume());
System.out.printf("%,d ms%n", w.elapsed(TimeUnit.MILLISECONDS));
}
}
この単純なアプローチを使用してみてください。
public class SimpleThrottler {
private static final int T = 1; // min
private static final int N = 345;
private Lock lock = new ReentrantLock();
private Condition newFrame = lock.newCondition();
private volatile boolean currentFrame = true;
public SimpleThrottler() {
handleForGate();
}
/**
* Payload
*/
private void job() {
try {
Thread.sleep(Math.abs(ThreadLocalRandom.current().nextLong(12, 98)));
} catch (InterruptedException e) {
e.printStackTrace();
}
System.err.print(" J. ");
}
public void doJob() throws InterruptedException {
lock.lock();
try {
while (true) {
int count = 0;
while (count < N && currentFrame) {
job();
count++;
}
newFrame.await();
currentFrame = true;
}
} finally {
lock.unlock();
}
}
public void handleForGate() {
Thread handler = new Thread(() -> {
while (true) {
try {
Thread.sleep(1 * 900);
} catch (InterruptedException e) {
e.printStackTrace();
} finally {
currentFrame = false;
lock.lock();
try {
newFrame.signal();
} finally {
lock.unlock();
}
}
}
});
handler.start();
}
}
分散システムでロックが必要な場合、これにredisを使用できます。 https://redis.io/commands/incr の2番目のアルゴリズム
Apache Camel もサポートされています Throttler 次のようなメカニズム:
from("seda:a").throttle(100).asyncDelayed().to("seda:b");
シンプルなレートリミッターの少し高度なバージョンを次に示します
/**
* Simple request limiter based on Thread.sleep method.
* Create limiter instance via {@link #create(float)} and call {@link #consume()} before making any request.
* If the limit is exceeded cosume method locks and waits for current call rate to fall down below the limit
*/
public class RequestRateLimiter {
private long minTime;
private long lastSchedAction;
private double avgSpent = 0;
ArrayList<RatePeriod> periods;
@AllArgsConstructor
public static class RatePeriod{
@Getter
private LocalTime start;
@Getter
private LocalTime end;
@Getter
private float maxRate;
}
/**
* Create request limiter with maxRate - maximum number of requests per second
* @param maxRate - maximum number of requests per second
* @return
*/
public static RequestRateLimiter create(float maxRate){
return new RequestRateLimiter(Arrays.asList( new RatePeriod(LocalTime.of(0,0,0),
LocalTime.of(23,59,59), maxRate)));
}
/**
* Create request limiter with ratePeriods calendar - maximum number of requests per second in every period
* @param ratePeriods - rate calendar
* @return
*/
public static RequestRateLimiter create(List<RatePeriod> ratePeriods){
return new RequestRateLimiter(ratePeriods);
}
private void checkArgs(List<RatePeriod> ratePeriods){
for (RatePeriod rp: ratePeriods ){
if ( null == rp || rp.maxRate <= 0.0f || null == rp.start || null == rp.end )
throw new IllegalArgumentException("list contains null or rate is less then zero or period is zero length");
}
}
private float getCurrentRate(){
LocalTime now = LocalTime.now();
for (RatePeriod rp: periods){
if ( now.isAfter( rp.start ) && now.isBefore( rp.end ) )
return rp.maxRate;
}
return Float.MAX_VALUE;
}
private RequestRateLimiter(List<RatePeriod> ratePeriods){
checkArgs(ratePeriods);
periods = new ArrayList<>(ratePeriods.size());
periods.addAll(ratePeriods);
this.minTime = (long)(1000.0f / getCurrentRate());
this.lastSchedAction = System.currentTimeMillis() - minTime;
}
/**
* Call this method before making actual request.
* Method call locks until current rate falls down below the limit
* @throws InterruptedException
*/
public void consume() throws InterruptedException {
long timeLeft;
synchronized(this) {
long curTime = System.currentTimeMillis();
minTime = (long)(1000.0f / getCurrentRate());
timeLeft = lastSchedAction + minTime - curTime;
long timeSpent = curTime - lastSchedAction + timeLeft;
avgSpent = (avgSpent + timeSpent) / 2;
if(timeLeft <= 0) {
lastSchedAction = curTime;
return;
}
lastSchedAction = curTime + timeLeft;
}
Thread.sleep(timeLeft);
}
public synchronized float getCuRate(){
return (float) ( 1000d / avgSpent);
}
}
そしてユニットテスト
import org.junit.Assert;
import org.junit.Test;
import Java.util.ArrayList;
import Java.util.List;
import Java.util.Random;
import Java.util.concurrent.ExecutionException;
import Java.util.concurrent.ExecutorService;
import Java.util.concurrent.Executors;
import Java.util.concurrent.Future;
public class RequestRateLimiterTest {
@Test(expected = IllegalArgumentException.class)
public void checkSingleThreadZeroRate(){
// Zero rate
RequestRateLimiter limiter = RequestRateLimiter.create(0);
try {
limiter.consume();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
@Test
public void checkSingleThreadUnlimitedRate(){
// Unlimited
RequestRateLimiter limiter = RequestRateLimiter.create(Float.MAX_VALUE);
long started = System.currentTimeMillis();
for ( int i = 0; i < 1000; i++ ){
try {
limiter.consume();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
long ended = System.currentTimeMillis();
System.out.println( "Current rate:" + limiter.getCurRate() );
Assert.assertTrue( ((ended - started) < 1000));
}
@Test
public void rcheckSingleThreadRate(){
// 3 request per minute
RequestRateLimiter limiter = RequestRateLimiter.create(3f/60f);
long started = System.currentTimeMillis();
for ( int i = 0; i < 3; i++ ){
try {
limiter.consume();
Thread.sleep(20000);
} catch (InterruptedException e) {
e.printStackTrace();
}
}
long ended = System.currentTimeMillis();
System.out.println( "Current rate:" + limiter.getCurRate() );
Assert.assertTrue( ((ended - started) >= 60000 ) & ((ended - started) < 61000));
}
@Test
public void checkSingleThreadRateLimit(){
// 100 request per second
RequestRateLimiter limiter = RequestRateLimiter.create(100);
long started = System.currentTimeMillis();
for ( int i = 0; i < 1000; i++ ){
try {
limiter.consume();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
long ended = System.currentTimeMillis();
System.out.println( "Current rate:" + limiter.getCurRate() );
Assert.assertTrue( (ended - started) >= ( 10000 - 100 ));
}
@Test
public void checkMultiThreadedRateLimit(){
// 100 request per second
RequestRateLimiter limiter = RequestRateLimiter.create(100);
long started = System.currentTimeMillis();
List<Future<?>> tasks = new ArrayList<>(10);
ExecutorService exec = Executors.newFixedThreadPool(10);
for ( int i = 0; i < 10; i++ ) {
tasks.add( exec.submit(() -> {
for (int i1 = 0; i1 < 100; i1++) {
try {
limiter.consume();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}) );
}
tasks.stream().forEach( future -> {
try {
future.get();
} catch (InterruptedException e) {
e.printStackTrace();
} catch (ExecutionException e) {
e.printStackTrace();
}
});
long ended = System.currentTimeMillis();
System.out.println( "Current rate:" + limiter.getCurRate() );
Assert.assertTrue( (ended - started) >= ( 10000 - 100 ) );
}
@Test
public void checkMultiThreaded32RateLimit(){
// 0,2 request per second
RequestRateLimiter limiter = RequestRateLimiter.create(0.2f);
long started = System.currentTimeMillis();
List<Future<?>> tasks = new ArrayList<>(8);
ExecutorService exec = Executors.newFixedThreadPool(8);
for ( int i = 0; i < 8; i++ ) {
tasks.add( exec.submit(() -> {
for (int i1 = 0; i1 < 2; i1++) {
try {
limiter.consume();
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}) );
}
tasks.stream().forEach( future -> {
try {
future.get();
} catch (InterruptedException e) {
e.printStackTrace();
} catch (ExecutionException e) {
e.printStackTrace();
}
});
long ended = System.currentTimeMillis();
System.out.println( "Current rate:" + limiter.getCurRate() );
Assert.assertTrue( (ended - started) >= ( 10000 - 100 ) );
}
@Test
public void checkMultiThreadedRateLimitDynamicRate(){
// 100 request per second
RequestRateLimiter limiter = RequestRateLimiter.create(100);
long started = System.currentTimeMillis();
List<Future<?>> tasks = new ArrayList<>(10);
ExecutorService exec = Executors.newFixedThreadPool(10);
for ( int i = 0; i < 10; i++ ) {
tasks.add( exec.submit(() -> {
Random r = new Random();
for (int i1 = 0; i1 < 100; i1++) {
try {
limiter.consume();
Thread.sleep(r.nextInt(1000));
} catch (InterruptedException e) {
e.printStackTrace();
}
}
}) );
}
tasks.stream().forEach( future -> {
try {
future.get();
} catch (InterruptedException e) {
e.printStackTrace();
} catch (ExecutionException e) {
e.printStackTrace();
}
});
long ended = System.currentTimeMillis();
System.out.println( "Current rate:" + limiter.getCurRate() );
Assert.assertTrue( (ended - started) >= ( 10000 - 100 ) );
}
}