배경
얼마 전 기획팀에서 쿠폰 기능에 개수 제한 기능을 추가하고 싶다는 요청이 들어왔다. 로직 설계는 심플했다.
갯수에 대한 상태 프로퍼티를 추가한 뒤 요청이 올 때마다 상태 변경한 뒤 쿠폰을 지급 또는 exception 처리를 하면 되었다.
하지만 이 경우, 동시성 이슈가 발생해서 간헐적으로 설정한 갯수보다 더 많은 쿠폰을 발급할 가능성이 있었다.
결국 이 요청사항의 핵심은 동시성 이슈를 해결하는 것이었고 이에 대한 방법을 찾아보고 도입해 보기로 했다.
동시성 이슈를 해결하는 방법
1. Synchronized 키워드
가장 먼저 떠오른 방법이었다. 멀티스레드 환경에서 동기화 처리를 위해 자바에서 제공하는 키워드로서 synchronized 블록 단위로 Lock을 걸기 때문에 동시성을 보장할 수 있었다.
하지만, 어노테이션이 적용되는 범위가 메서드이다보니 불필요한 로직들도 lock이 잡히고, 성능상 오버헤드가 심하다고 한다.
또한 단일서버가 아닌 멀티서버 환경에서는 동시성을 보장받지 못하는 점 때문에 이 방법은 적용해보지 않았다.
2. Optimistic Lock(낙관적 잠금)
데이터의 버전을 체크하면서 데이터의 정합성을 유지하는 방법이다. 실제로 lock을 잡는 방식이 아니기 때문에 성능적으로도 좋다고 한다.
하지만, 정합성 체크를 커밋 시점에 하기 때문에 충돌이 발생한 경우 해당 트렌젝션에 대한 롤백 처리가 필요하다.
여러 트렌젝션으로 묶인 로직이라면 롤백 처리가 복잡해질 수 있고 충돌이 자주 발생한다면 롤백으로 인한 오버헤드가 크게 발생할 수 도 있다고 한다.
쿠폰 발급 처리의 경우 보통 이벤트로 인해 요청이 몰리게 되는 경우가 많다. 그렇기 때문에 해당 방식도 적합하지 않다고 판단하였다.
3. Pessimistic Lock(비관적 잠금)
비관적 잠금은 트렌젝션이 시작할때 lock을 거는 방식이다.
배타락(Exclusive Lock), 공유락(Shared Lock) 두 가지 옵션이 있다.
- 배타락은 하나의 쓰레드에서 lock을 획득했으면 해제되기 전까지 다른 스레드에서 읽기/쓰기가 모두 불가능한 방식. (쿼리로 표현하면 select for update)
- 공유락은 하나의 쓰레드에서 lock을 획득했으면 해제되기 전까지 다른 스레드에서 읽기는 가능 쓰기는 lock을 획득해야 가능한 방식.
비관적 잠금은 작업 처리 과정 중 데드락이 발생할 가능성이 있다는 단점이 있고 처리시간이 길 경우 대기시간에 따른 성능이 저하될 수 있다고 한다. 또한, JPA와는 달리 R2DBC에서는 낙관적 락만 지원, pessimistic lock은 지원하지 않았기 때문에 다른 방식을 찾아보았다.
4. DB Internal Lock
MySQL internal Lock은 데이터의 동시성 처리를 위해 MySQL 서버에서 제공하는 방법이다. 총 3가지로 제공하고 있다.
- Row-Level Locking
- Table-Level Locking
- User-Level Locking
Row-Level Locking은 Row 수준으로 Locking을 하는 것이고, Table-Level Locking은 개별 테이블 단위로 설정되는 Locking이다.
User-Level Locking은 사용자가 지정한 문자열에 대해 키를 생성하고 해당 키로 잠금을 거는 방식이다.
보통 서비스에서 db 연동은 해두고 쓰기 때문에 초기구축이나 작업 비용이 적다는 장점이 있었다. 하지만 동시에 여러 프로세스가 접근한다면 lock을 얻기위한 시도로 인해 부하 발생이 가능했고 트랜잭션에 대한 connection pool 관리가 필요했다.
5. Redis를 활용한 방법
- lettuce를 활용한 방식
set when not exists(setnx) 방식으로 cache setting을 통해 lock을 거는 방법이다.
만약 spring framework에서 이미 redis를 사용한다면 라이브러리 추가 없이 사용가능하다.
lettuce는 spring-data-redis 라이브러리에서 제공하는 클라이언트이다. 또한 트랜잭션에 대한 connection pool 관리 필요 없다.
하지만 스핀락 방식이기 때문에 동시에 많은 스레드가 대기 상태라면 redis에 부하를 줄 수 있다고 한다.
- redisson을 활용한 방식
Pub-Sub 기반이라서 thread의 재시도에 따른 redis 부하가 발생하지 않는 방식이었다.
별도의 라이브러리를 사용해야 한다는 점이 걸리긴 했지만 생각보다 구현이 간단했다.
DB와 redis의 부하를 신경 쓰지 않으면서 비즈니스 로직에 좀 더 집중할 수 있는 이 방식을 선택해서 서비스에 적용해 보았다.
Redisson 도입기
Redisson dependency 설정(gradle)
implementation("org.redisson:redisson:3.16.3")
redission client 객체를 생성을 위한 설정 로직
fun redissonClient(): RedissonClient {
val config = Config()
config.useSingleServer().address = "redis://${redisWriteProperties.host}:${redisWriteProperties.port}"
return Redisson.create(config)
}
lock 관리 로직
suspend fun receiveLimitCoupon(userId: Long, couponId: Long): List<CouponUser?> {
val context = newSingleThreadContext("couponId")
return withContext(CoroutineScope(context).coroutineContext) {
val lock = redissonClient.getLock("limitCoupon")
val maxRetry = 3
var initRetry = 0
while (!lock.tryLock(10, 3, TimeUnit.SECONDS)) {
if (++initRetry == maxRetry) {
logger.info("threadID: ${Thread.currentThread().id} lock 획득 실패 Timeout")
return@withContext emptyList()
}
}
try {
logger.info("threadID: ${Thread.currentThread().id} lock 획득 성공")
receiveCouponWithCouponId(couponId = couponId, userId = userId)
} finally {
lock.unlock()
logger.info("threadID: ${Thread.currentThread().id} lock 반환 성공")
}
}
}
1. "limitCoupon"이라는 name으로 lock을 생성한다.
2. tryLock method를 이용해서 락 획득을 시도하다.
3. 락을 획득한 상태에서 비즈니스 로직(쿠폰발급)을 수행한다.
4. 명시적으로 lock을 해제한다.
락을 요청하는 횟수를 정할 수 있다. 소스에서는 총 3번 요청하고 그 사이에 획득을 하지 못한다면 emptyList를 return 하도록 했다.
요청할 때 파라미터를 지정할 수 있다. tryLock method의 파라미터를 살펴보면 첫 번째는 waitTime(락을 기다리는 시간)이다. 두 번째는 leaseTime(획득한 락을 자동으로 해제하는 시간)이다. 세 번째는 시간단위를 나타낸다.
waitTime동안 lock을 획득하지 못한다면 tryLock 함수는 false를 리턴하게 된다. 참고로 waitTime을 명시하지 않으면 즉시 값을 return 하게 되고, leaseTime이 명시되어 있지 않으면 watchDogTimeout값이라는 것을 이용하는데 default로 30초이다.
waitTime과 leaseTime을 적절하게 setting 하는 것은 중요하다.
만약 비즈니스 로직이 leaseTime보다 오래 걸린다면 처리과정 중 lock이 해제되고 해당 락은 다른 thread에 의해 선점될 수 있다. 그리고 락이 해제되었기 때문에 unlock() 메서드를 실행할 때 예외가 발생하게 된다.
동시성 테스트
1. Test1: 동시성을 고려하지 않은 로직에 coroutine을 이용해서 쿠폰 발급받기
쿠폰 제한 수량은 100개로 등록, 유저 100명의 요청을 10개의 worker로 나눠서 동시에 발급 요청했음.
test("case1 동시성 고려하지 않은 쿠폰 발급(10개 thread 동시에 처리)") {
val headerMap = mutableMapOf<String, String>()
headerMap["x-balcony-id"] = "BOOMTOON_COM"
val reactorContext = Context.of(
"BALCONY_CONTEXT",
HttpHeaders.readOnlyHttpHeaders(LinkedMultiValueMap<String, String>().apply { setAll(headerMap) })
).asCoroutineContext()
val userIds = List(100) { i -> i + 1 }
withContext(reactorContext) {
serviceOperator.execute {
userIds.chunked(10).forEach { userIds ->
launch {
userIds.forEach {
couponRedisService.notConcurrentlyReceiveLimitNormalCoupon(it.toLong(), 96)
}
}
}
}
}
}
테스트 결과 로그는 위와 같았다.
해당 값은 발급 전 남은 쿠폰의 개수를 출력한 것이다.
실제로 DB에 저장된 데이터를 확인해 보면 100명 모두 쿠폰을 발급받았지만 남아있는 쿠폰은 81개였다.
데이터 불일치 문제가 발생한 것이다.
2. Test2: redisson을 이용한 로직으로 동시에 쿠폰 발급받기
조건은 test1과 동일했다. 단지 발급로직에 redisson을 이용해서 lock 처리가 추가되었다.
test("Redis coupon 100번 동시 호출") {
val headerMap = mutableMapOf<String, String>()
headerMap["x-balcony-id"] = "BOOMTOON_COM"
val reactorContext = Context.of(
"BALCONY_CONTEXT",
HttpHeaders.readOnlyHttpHeaders(LinkedMultiValueMap<String, String>().apply { setAll(headerMap) })
).asCoroutineContext()
val userIds = List(100) { i -> i + 1 }
withContext(reactorContext) {
serviceOperator.execute {
userIds.chunked(10).forEach { userIds ->
launch {
userIds.forEach {
couponRedisService.receiveLimitCoupon(it.toLong(), 96)
}
}
}
}
}
}
테스트 결과는 다음과 같았다.
2개의 쿠폰이 남았길래 확인해 보니까 2명이 lock try timeout으로 받지 못한 것을 확인할 수 있었다.
하지만, 테스트 결과는 정상이었다. 총 98명이 받았다.
테스트를 로컬환경에서 진행 중이었는데 서버의 성능에 영향을 많이 받는 것을 알 수 있었다.
waitTime을 약간 늘려서 다시 테스트해 보았을 땐 정상으로 전부 처리된 것을 볼 수 있었다.
위에서 언급한 'waitTime과 leaseTime을 적절하게 setting 하는 것은 중요하다.'를 다시 한번 느꼈다.
100명의 유저가 80개의 쿠폰을 발급받는 테스트도 진행해 보았다.
테스트 결과, 쿠폰 발급 수는 80개였고 20명은 발급받지 못한 것을 확인할 수 있었다.
마무리
한 가지 문제를 해결하는 데는 다양한 솔루션이 있다.
동시성 이슈를 해결하는 방법도 위에서 언급한 것처럼 다양하게 있다.
어떤 솔루션이 자신의 상황에 가장 적절한지 충분히 고민해 본 다음에 적용하고 테스트해 보는 습관을 들이자.
참고자료
https://sabarada.tistory.com/175
https://dealicious-inc.github.io/2021/04/05/distributed-locking.html
'MyStory > dev_life' 카테고리의 다른 글
갑자기 헷갈린 git 명령어 pull, merge (1) | 2023.03.04 |
---|---|
개발자 퍼스널 브랜딩 과정 후기 :Know yourself (0) | 2023.02.22 |
우아한 테크 캠프 프로 5주차 회고 - 1 (0) | 2021.03.14 |
우아한 테크 캠프 프로 4주차 회고 (0) | 2021.03.07 |
우아한 테크 캠프 PRO 3주차 회고 (0) | 2021.02.14 |