LMS 고도화 프로젝트를 하던 와중에 팀 내에서 검색엔진 구축을 하기로 결정이 되었습니다.

요구사항은 "사용자 화면의 DB기 like 쿼리로 구축된 검색들을 검색엔진 기반 검색으로 변경"이었습니다.

ElasticSearch 인프라 세팅은 솔루션 팀에서 지원을 해주기로 하였고,
저는 클라이언트 개발,색인 데이터 정의, 데이터 색인, 검색 API 구현을 담당하기로 정해졌습니다.

ElasticSearch를 사이드 프로젝트로 간단히 해보는 정도로만 사용해봤는데 실제 프로젝트에는 처음 적용해보는 것이었습니다.

 

먼저 엘라스틱서치 버전은 7.10.2 버전을 사용하였는데 7.11부터는 라이센스 관련 이슈가 있어 해당 버전을 검토하기로 하였고,
스프링 부트로 구현된 기존 LMS에서도 무리없이 구현가능한 것으로 검토하여 해당 버전을 사용하기로 했습니다.

진행 순서는 다음과 같이 진행하였습니다.

  1. 사용자 화면 분석
  2. 검색에 필요한 데이터 정의
  3. 색인 시스템 구축
  4. 엘라스틱서치 세팅
  5. 검색 API 구현

1. 사용자 화면 분석

데이터 분석 단계에서는 사용자 페이지에서 사용하는 검색 API 리스트를 분석하고, 검색에 필요한 DB 컬럼을 정리하였습니다.
또한 고도화 단계에서 디자인이 변경되어 새로 추가된 검색 조건들도 포함하여 같이 분석을 진행하였습니다.

  1. 사용자 페이지에서 사용하는 검색 API 리스트업
  2. 검색 파라미터 및 Response에 필요한 DB 컬럼 분석
  3. 고도화 디자인 변경으로 인한 검색 요구사항 변경 분석

2. 검색에 필요한 데이터 정의

검색 데이터 정의 단계에서는 1번 단계에서 정리한 데이터를 토대로 검색에 필요한 인덱스를 정의하고, 필드를 정의하였습니다.
인덱스는 템플릿으로 관리하기로 하였으며, 템플릿을 썼을 때 장점은 다음과 같습니다.
Elasticsearch에서 템플릿(Template)은 새로운 인덱스를 생성할 때 자동으로 적용되는 설정, 매핑 및 기타 설정들을 정의한 것입니다.

템플릿을 사용하면 여러 인덱스에 동일한 설정을 일관되게 적용할 수 있고, 인덱스를 생성할 때마다 매번 설정을 반복할 필요 없이 미리 정의된 규칙을 따를 수 있습니다.

 

{
  "index_patterns": ["{index_name}-*"],
  "order": 1,

  "settings": {
    "number_of_shards": 1,
    "number_of_replicas": 1,

    "refresh_interval": "1s",

    "index.search.slowlog.threshold.query.warn": "10s",
    "index.search.slowlog.threshold.query.info": "5s",
    "index.search.slowlog.threshold.query.debug": "2s",
    "index.search.slowlog.threshold.query.trace": "500ms",

    "index.indexing.slowlog.threshold.index.warn": "10s",
    "index.indexing.slowlog.threshold.index.info": "5s",
    "index.indexing.slowlog.threshold.index.debug": "2s",
    "index.indexing.slowlog.threshold.index.trace": "500ms",
    "index.blocks.read_only_allow_delete": null,
    "index.max_result_window": 30000,

    "index.default_pipeline": "split_pipeline",

    "analysis":{
      "analyzer": {
        "nori_custom_analyzer": {
          "tokenizer": "nori_mixed",
          "filter": ["lowercase", "stop", "snowball", "search_nori_stop", "nori_readingform", "replace_shingle", "one_token_remover"]
        }
      },
      "tokenizer": {
        "nori_none": {
          "type": "nori_tokenizer",
          "decompound_mode": "none"
        },
        "nori_discard": {
          "type": "nori_tokenizer",
          "decompound_mode": "discard"
        },
        "nori_mixed": {
          "type": "nori_tokenizer",
          "decompound_mode": "mixed"
        }
      },
      "filter": {
        "search_nori_stop": {
          "type": "nori_part_of_speech",
          "stoptags": [
            "E", "J", "IC",
            "MAJ", "MM", "MAG",
            "SP", "SSC", "SSO", "SC", "SE",
            "XPN", "XSA", "XSN", "XSV",
            "UNA", "NA", "VSV", "NNB", "NNBC",
            "NR", "SF", "SY", "UNKNOWN", "VX", "VCN", "VCP", "NP", "VV"
          ]
        },
        "replace_shingle": {
          "type": "shingle",
          "token_separator": ""
        },
        "one_token_remover": {
          "type":"length",
          "min": 2
        }
      }
    }
  },
  "mappings": {
    "properties": {
      "id": {"type": "keyword", "ignore_above": 256},
      "description": {"type": "keyword", "copy_to": "contents"},
      "name": {"type": "text", "analyzer": "nori_custom_analyzer"},
      "keywords": {"type": "text", "analyzer": "nori_custom_analyzer"},
	 
      "contents": {"type": "text", "analyzer": "nori_custom_analyzer", "store": true},
      "latest": {"type": "date", "format": "strict_date_optional_time", "store": true},
      "popular": {"type":"long", "store": true}
    }
  }
}

실제 데이터 부분은 제외하였습니다.

3. 색인 시스템 구축

색인 시스템 설계에 대해서는 정말 고민이 많았던 것 같습니다.
주요 이슈는 다음과 같았습니다. 

 

  1. 색인 관리 테이블 구조
  2. 인덱스 구조
  3. 색인한 데이터에 대한 생성,수정,삭제되는 데이터 색인 방안
  4. 검색 결과에 집계되는 조회수, 좋아요 수 등은 어떻게 관리할 것인지?

먼저 색인 관리 테이블은 스프링 배치 테이블을 봤던 기억이 나서 참고하여 만들면 좋을 것 같아서 참고하면서 테이블을 만들었습니다.

참조 https://jojoldu.tistory.com/326

public class ElasticSearchBatchJob extends BaseUuidEntity {
    @Convert(converter = JobResultStatusConverter.class)
    // 준비(Ready), 성공(SUCCESS), 실패(FAIL), 스킵(SKIP)
    private JobResultStatus jobStatus;
    @Convert(converter = JobTypeConverter.class)
    // 배치, 벌크, 즉시, 전체
    private JobType jobType;
    // 활동명
    private String jobName;
	// 실행 시작 시간
    private LocalDateTime executionStartDateTime;
    // 실행 종료 시간
    private LocalDateTime executionEndDateTime;
    // 기준 시간
    private LocalDateTime standardDateTime;

    private String errorMessage;
    private String errorCode;

 

모든 색인 시에 엘라스틱서치 배치잡 테이블에 데이터를 저장하며 관리합니다.
색인에는 전체, 즉시(단일), 벌크, 배치 색인으로 구분하였습니다.
전체 색인은 수동으로만 가능하고, 초기데이터 인덱싱 또는 이슈가 있는 경우에만 사용하였습니다.
배치는 일 별로 배치 인덱싱을 하는 경우에만 활용하였고, 즉시(단일)는 바로 인덱싱이 필요한 경우에 사용하였습니다.
마지막으로, 벌크는 스프링 스케줄러 어노테이션을 활용한 주기적인 인덱싱인 경우에 활용하였으며, 자세한 내용은 아래에 서술합니다.

 

2번 인덱스 구조는 인덱스를 일별 단위로 {index_name}-{yyyy-MM-dd} 형태로 인덱싱하기로 하였고, 배치 인덱싱을 통하여 매일 자정에 새로 전체 인덱싱을 하도록 구현하였습니다. 또한 Alias를 활용하여 인덱스를 동적으로 관리할 수 있도록 하였습니다.

 

Alias를 활용하였을 때 장점은 다음과 같습니다.
인덱스를 변경하거나 추가할 때 애플리케이션에서 직접 인덱스 이름을 변경할 필요 없이 항상 같은 alias를 사용하여 데이터를 조회할 수 있습니다.
예를 들면 채널이란 인덱스의 channel-2024-12-22가 있고,시간이 지나 12월 23일이 돼서 스케줄러가 새로 channel-2024-12-23을 생성한다고 가정하면 기존 Alias만 삭제 후, 업데이트하면 인덱스 이름 변경할 필요 없이 최신 인덱스를 조회할 수 있습니다.
문제가 생겼을 때 이전 인덱스를 보여주게도 가능하며, 색인에 문제가 생겨 새로 전체 인덱싱을 하는 경우에도 검색의 중단 없이 전체 인덱싱 후 변경하면 되므로 애플리케이션의 변경이나 중단없이 관리가 가능하다는 장점이 있습니다.

실제로 구축할 때도  전체 색인 완료시에 alias를 삭제하고 alias를 다시 추가하는 방식으로 진행했습니다.
일별로 전체 색인을 진행하며, 전체 색인이 성공했을 때만 Alias 변경을 진행한다. 

private void deleteAliasAndAddNewAlias(JobType jobType, IndicesAliasesRequest deleteAliasesRequest, RestHighLevelClient client, LocalDateTime now) throws IOException {
    if (jobType.equals(JobType.ALL)) {
        deleteAliases(deleteAliasesRequest, client);
        client.indices().updateAliases(setAddAliasesRequest(now), RequestOptions.DEFAULT);
    }
}

 

private void deleteAliases(IndicesAliasesRequest deleteAliasesRequest, RestHighLevelClient client) throws IOException {
    if (deleteAliasesRequest.getAliasActions() != null && !deleteAliasesRequest.getAliasActions().isEmpty()) {
        client.indices().updateAliases(deleteAliasesRequest, RequestOptions.DEFAULT);
    }
}
private IndicesAliasesRequest setAddAliasesRequest(LocalDateTime now) {
    IndicesAliasesRequest addAliasesRequest = new IndicesAliasesRequest();
    for (ElasticSearchIndex alias : ElasticSearchIndex.values()) {
        IndicesAliasesRequest.AliasActions aliasAction = new IndicesAliasesRequest.AliasActions(IndicesAliasesRequest.AliasActions.Type.ADD).alias(alias.getName());
        aliasAction.index(getIndexName(alias, JobType.ALL, now));
        addAliasesRequest.addAliasAction(aliasAction);
    }
    return addAliasesRequest;
}

 

public static String getIndexName(ElasticSearchIndex index, JobType jobType, LocalDateTime now){
    if(jobType.equals(JobType.ALL)){
        DateTimeFormatter formatter = DateTimeFormatter.ofPattern("yyyyMMdd");
        String formattedDate = now.format(formatter);
        return index.getName() + "-" + formattedDate;
    }
    return index.getName();
}

 

3,4번 이슈를 해결하기 위해서 먼저 기존 테이블을 분석하였습니다.
데이터 색인 관리 방안은 교육 과정 ,차수 테이블 등 중요한 데이터들은 수정 사항이 인덱스에 바로 반영되어야 한다고 생각하여 데이터 업데이트 시에 바로 즉시(단일) 인덱싱을 하기로 결정하였습니다.


다음 4번 집계 관련 이슈를 해결하기 위해서 회의를 하였고, 즉시 갱신할 필요가 없다고 결론이 나서 기존 테이블의 모든 테이블에서 생성, 수정 시에 마지막 수정시간(lastModifiedDateTime) 컬럼을 업데이트하고 있었는데 해당 컬럼을 활용하여 주기적으로 벌크 인덱싱을 하여 인덱스를 맞추기로 하였습니다.

 

구체적인 방법은 다음과 같습니다.
스프링 스케줄러 어노테이션을 활용하여 3분 단위로 벌크 인덱싱을 수행하는데 배치잡 테이블의 기준 시간이라는 컬럼을 활용합니다.
기준 시간은 인덱싱이 성공한 경우 executionStartDateTime(실행 시작 시간)을 저장합니다.

스케줄러가 실행되면, 단일 인덱싱이 아닌 배치잡 중에서 가장 마지막에 성공한 기준 시간을 가져옵니다.
해딩 기준 시간을 기준으로 테이블 별로 가져올 테이블의 마지막 수정시간이 기준시간보다이후인 데이터를 조회하여 색인합니다.


다음과 같은 구조로 했을 때의 장점은 크게 두가지로 생각합니다.
첫 번째, 주요 테이블의 조회수, 좋아요 수 등 집계 데이터를 바뀔 때마다 갱신하지 않아도 된다.
두 번째, 주기적으로 기준시간과 마지막 수정시간을 비교하면서 조회하므로 자연스럽게 인덱스와 DB 데이터가 일치하는 지 검증이 가능하다.

public void bulkIndex(CreateElasticSearchBulkIndexRequest createElasticSearchBulkIndexRequest) {
    if (createElasticSearchBulkIndexRequest == null) {
        createElasticSearchBulkIndexRequest = new CreateElasticSearchBulkIndexRequest();
    }

    ElasticSearchBatchJobResponse latestBatchJob = elasticSearchBatchJobService.findLastSuccessBatchJobWhereJobTypeNotInSingle();

    JobType jobType = getJobType(createElasticSearchBulkIndexRequest);
    LocalDateTime standardDateTime = null;
    LocalDateTime now = LocalDateTime.now();

    if (latestBatchJob == null || jobType.equals(JobType.ALL)) {
        jobType = JobType.ALL;
    } else {
        standardDateTime = latestBatchJob.getStandardDateTime();
        createElasticSearchBulkIndexRequest.setStandardDateTime(latestBatchJob.getStandardDateTime());
    }

    ElasticSearchBatchJob elasticSearchBatchJob = elasticSearchBatchJobService.save(BULK_INDEX_JOB_NAME, standardDateTime, jobType);

    elasticSearchBatchJob.jobStart();

    IndicesAliasesRequest deleteAliasesRequest = new IndicesAliasesRequest();

    try (RestHighLevelClient client = elasticSearchClientUtil.getRestClient()) {

        if (jobType.equals(JobType.ALL)) {
            getDeleteAliasList(client, deleteAliasesRequest);
        }

        List<List<IndexRequest>> indexRequestsLists = new ArrayList<>();

		/** 데이터 조회해서 indexRequestsLists에 담기 **/

        int flag = 1;
        for (List<IndexRequest> indexRequests : indexRequestsLists) {
            flag = callBulkIndexing(indexRequests, client, flag);
        }

        updateJobStatus(flag, elasticSearchBatchJob);

        deleteAliasAndAddNewAlias(jobType, deleteAliasesRequest, client, now);

        elasticSearchBatchJob.jobEnd();
        client.close();
        updateElasticSearchBatchJob(elasticSearchBatchJob);

    } catch (IOException ioException) {
        handleIOException(ioException, elasticSearchBatchJob);
    }

 

private int callBulkIndexing(List<IndexRequest> indexRequests, RestHighLevelClient client, int flag) {
    if (indexRequests == null || indexRequests.isEmpty()) return 1;
    if (flag == 0) return 0;

    for (IndexRequest indexRequest : indexRequests) {
        IndexResponse indexResponse = elasticSearchClientUtil.callCreate(client, indexRequest);
        if (indexResponse.getShardInfo().getFailed() > 0) {
            return 0;
        }
    }
    return 1;
}

 

flag: 인덱싱이 성공했는지 실패했는지에 대한 플래그입니다. 처음에는 1로 설정되며, 실패할 경우 0으로 변경됩니다.

@Data
@Builder
@NoArgsConstructor
@AllArgsConstructor
public class CreateElasticSearchBulkIndexRequest {

    private LocalDateTime standardDateTime;
    private JobType jobType;

}

 

4. 엘라스틱서치 세팅

이 프로젝트는 모든 애플리케이션이 도커로 구성되어 있으며, 엘라스틱서치도 도커로 구성하였습니다.

docker-compose.yml

version: '3.8'

services:
  elasticsearch:
    image: elasticsearch:7.10.2
    container_name: 'elasticsearch'
    restart: always
    environment:
      - node.name=es-node
      - cluster.name=es-cluster
      - cluster.initial_master_nodes=es-node
      - bootstrap.memory_lock=true
      - "ES_JAVA_OPTS=-Xms4g -Xmx4g"
      - node.master=true
      - node.data=true
      - http.port=9400     
      - path.logs=/var/log/elasticsearch
      - network.host=_site_
      # 보안 관련 설정은 생략
    volumes:
      - ./elastic/log:/var/log/elasticsearch
      - ./elastic/data:/usr/share/elasticsearch/data
      # 인증서 관련 경로는 생략
    ulimits:
      memlock:
        soft: -1
        hard: -1
    ports:
      - 9400:9400
      - 9500:9500
    networks:
      - es-network
  
  kibana:
    image: docker.elastic.co/kibana/kibana:7.10.2
    container_name: kibana
    ports:
      - 5601:5601
    environment:
      ELASTICSEARCH_URL: http://elasticsearch:9400
      ELASTICSEARCH_HOSTS: http://elasticsearch:9400
    networks:
      - es-network

volumes:
  elastic-data:
    driver: local

networks:
  es-network:
    driver: bridge

키바나는 특별히 기능을 쓰진 않았고, 검색, 템플릿, 인덱싱 테스트 용도로만 활용하였습니다.

다음에 이어서 검색 쿼리 구현 관련 및 썼던 API를 정리하고 아쉬웠던 점을 적어보려고 합니다.

 

Reference

https://jojoldu.tistory.com/326

 

3. Spring Batch 가이드 - 메타테이블엿보기

이번 시간에는 Spring Batch의 메타 테이블에 대해 좀 더 자세히 살펴보겠습니다. 작업한 모든 코드는 Github에 있으니 참고하시면 됩니다. 지난 시간에 Spring Batch의 메타 테이블을 살짝 보여드렸는데

jojoldu.tistory.com

 

1. Git stash

git stash는 현재 작업 중인 작업을 임시 저장하고 다른 브랜치로 이동해야 할 때 매우 유용한 명령어이다.
개발 진행중인 브랜치에서 작업하다가 운영서버나 Dev서버에서 에러가 나서 확인해 달라고 요청하는 경우가 있다.

서버 로그만으로는 이슈 추적이 어려운 경우 특정 브랜치로 이동하여 로컬 환경에서 실행하여 확인해봐야 하는 경우가 생기는 데 그런 경우에 유용하게 쓰고 있다.

 

명령어는 다음과 같다.

git stash

git stash 명령어를 사용하면 현재 브랜치에서 작업 중인 변경한 작업들을 임시 저장한다.

git checkout branch_name

이제 원하는 브랜치에 마음대로 이동이 가능하다. 원하는 작업을 진행 후 원래 브랜치로 다시 이동하고 임시 저장한 작업들을 다시 돌리는 명령어는 다음과 같다

git stash apply

임시 저장한 브랜치를 다시 불러왔으면 해당 명령어를 사용해서 저장한 데이터를 삭제하면 된다.

git stash pop

 

문서를 보면 아무런 argument없이 git stash는 git stash push와 같다고 문서에 나온다.
또한 git stash list, git stash show로 stash한 목록을 볼 수 있다. 

문서를 보고 더 자세한 설명을 보고 싶은 분은 해당 링크를 보면 좋을 것 같다.

https://git-scm.com/docs/git-stash

 

Git - git-stash Documentation

A stash entry is represented as a commit whose tree records the state of the working directory, and its first parent is the commit at HEAD when the entry was created. The tree of the second parent records the state of the index when the entry is made, and

git-scm.com

 

2. Cherry-pick

체리픽은 원래  to choose only the best or most suitable from a group of people or things 라는 뜻으로 쓰인다고 한다.

해석하자면 가장 좋거나 가장 적합한 것을 고른다는 의미인데

어떤 회사의 제품이나 서비스 가운데 비용 대비 효율이 뛰어나거나 인기가 있는 특정 요소만을 케이크 위 체리 뽑듯이 골라 자신에게 유리하게 소비하려는 현상을 가리키는 경제 용어라고 한다.

 

깃에서의 체리픽도 비슷 느낌으로 보면 될 것 같다. 

Git cherry-pick은 다른 브랜치의 커밋을 내 브랜치에 적용시키고 싶을 때 케이크 위의 체리처럼 커밋을 뽑아오는 것이다.

기본 명령어는 다음과 같다. 한꺼번에 여러 커밋을 입력해도 된다.

git cherry-pick <COMMIT HASH>

 

체리픽시에 기존 코드와 다르면 충돌이 나는 경우가 있는데 

충돌난 코드를 고치고 git add 명령어로 수정된 코드를 올린다.

그 후에로 다시 체리픽을 진행 하면 된다.

--continue : Continue the operation in progress using the information in .git/sequencer. Can be used to continue after resolving conflicts in a failed cherry-pick or revert.

git add <path>
git cherry-pick --continue

 

또는 abort를 통해 취소하고 전 상태로 돌릴 수 있다.

--abort : Cancel the operation and return to the pre-sequence state.

git cherry-pick --abort

 

더 자세한 문서를 보고 싶으면 해당 링크를 보면 된다.

https://git-scm.com/docs/git-cherry-pick

 

 

Git - git-cherry-pick Documentation

git cherry-pick master Apply the change introduced by the commit at the tip of the master branch and create a new commit with this change. git cherry-pick ..master git cherry-pick ^HEAD master Apply the changes introduced by all commits that are ancestors

git-scm.com

 

MVC란? 

Model, View, Controller의 약자로, 세가지 영역으로 서로 역할을 나눈 것을 말한다.

기존에는 하나의 서블릿이나, JSP만으로 비즈니스 로직과 뷰 렌더링을 모두 처리하면서 개발하였다.
이처럼 비즈니스 로직과 뷰 렌더링이 같이 존재하면 너무 많은 역할을 담당하게 되며, 둘 중 하나의 코드만 수정하면 되는데 변경 시에 같이 수정해야하는 문제점이 발생한다.

결과적으로 유지보수 또한 어려워진다는 얘기이다.

 

이러한 부분을 컨트롤러와 뷰 영역으로 관심사의 분리를 통해 역할을 나눠서 해결하고자한 패턴MVC패턴이다.

 

MVC패턴은 두가지 방법이 있는데 1번 사진처럼 컨트롤러에 비즈니스 로직을 둘 수는 있지만 이렇게 되면 컨트롤러가 너무 많은 역할을 담당하게 되므로 일반적으로 비즈니스 로직은 서비스 계층을 별도로 만들어서 처리한다. 

Spring MVC

스프링 MVC는 다음과 같은 구조로 구성되어있다.

동작 순서

  1. 핸들러 조회 : 핸들러 매핑을 통해 요청 URL에 매핑된 핸들러(컨트롤러)를 조회한다.
  2. 핸들러 어댑터 조회 : 핸들러를 실행할 수 있는 어댑터를 조회한다.
  3. 핸들러 어댑터 실행 : 핸들러 어댑터를 실행한다.
  4. 핸들러 실행 : 핸들러 어탭더가 실제 핸들러를 실행한다.
  5. ModelAndView 반환 : 핸들러 어댑터는 핸들러가 반환하는 정보를 ModelAndView로 변환해서 반환한다.
  6. 뷰 리졸버(viewResolver) 호출 : 뷰 리졸버를 찾고 실행한다. 
  7. 뷰 반환 : 뷰 리졸버는 뷰의 논리 이름을 물리명으로 바꾸고, 렌더랑 역할을 담당하는 뷰 객체를 반환한다.
  8. 뷰 렌더링 : 뷰를 통해서 렌더링한다.

 

먼저 스프링 MVC의 핵심인 DispatcherServlet부터 알아보자.

DispatcherServlet

스프링 MVC는 프론트 컨트롤러 패턴으로 구현되어 있다.

프론트 컨트롤러 패턴이란 컨트롤러 앞에 컨트롤러를 두어서 모든 클라이언트 요청의 진입점 역할을 하는 패턴이다.
클라이언트 요청을 적절한 컨트롤러(핸들러)로 라우팅하며, 공통 로직 처리를 통하여 코드를 줄일 수 있다.
스프링 MVC의 프론트 컨트롤러가 바로 디스패처 서블릿(DispatcherServlet)이며, 스프링 MVC의 핵심 기능이다.

 

DispatcherServlet의 구조는 다음과 같다.

중요한 점은 부모 클래스인 HttpServlet을 상속받아서 사용하고 서블릿으로 동작한다는 점이다.

서블릿이 호출되면 HttpServlet 이 제공하는 serivce() 가 호출된다.
스프링 MVC는 DispatcherServlet 의 부모인 FrameworkServlet 에서 service() 를 오버라이드해둔 상태이다.
FrameworkServlet.service() 를 시작으로 여러 메서드가 호출되면서 DispacherServlet.doDispatch()가 호출된다.

doDispatch()에 대해 알아보자. 코드의 핵심 기능만 보기 위해서 예외처리와 인터셉트 등은 제외하였다.

protected void doDispatch(HttpServletRequest request, HttpServletResponse response) throws Exception {
    HttpServletRequest processedRequest = request;
    HandlerExecutionChain mappedHandler = null;
    ModelAndView mv = null;

	// 1. 핸들러 조회
    mappedHandler = getHandler(processedRequest); 
    if (mappedHandler == null) {
        noHandlerFound(processedRequest, response);
	return; 
    }
	//2.핸들러 어댑터 조회-핸들러를 처리할 수 있는 어댑터
    HandlerAdapter ha = getHandlerAdapter(mappedHandler.getHandler());
	// 3. 핸들러 어댑터 실행 -> 4. 핸들러 어댑터를 통해 핸들러 실행 -> 5. ModelAndView 반환 
    mv = ha.handle(processedRequest, response, mappedHandler.getHandler());
    processDispatchResult(processedRequest, response, mappedHandler, mv,dispatchException);
}
 private void processDispatchResult(HttpServletRequest request,HttpServletResponse response,
 HandlerExecutionChain mappedHandler, ModelAndViewmv, Exception exception) throws Exception {     
 	// 뷰 렌더링 호출
	render(mv, request, response);
  }
protected void render(ModelAndView mv, HttpServletRequest request,HttpServletResponse response) throws Exception {
    View view;
    String viewName = mv.getViewName(); 
    //6. 뷰 리졸버를 통해서 뷰 찾기, 7.View 반환
    view = resolveViewName(viewName, mv.getModelInternal(), locale, request);
	// 8. 뷰 렌더링
    view.render(mv.getModelInternal(), request, response);
  }

위 그림의 동작 순서와 동일하게 실행하는 걸 알 수 있다.

스프링 MVC의 강점은 DispatcherServlet의 코드를 고치지 않고 원하는 기능이나 확장을  할 수 있다는 점이다.

주요 인터페이스 목록

  • 핸들러 매핑: org.springframework.web.servlet.HandlerMapping 
  • 핸들러 어댑터: org.springframework.web.servlet.HandlerAdapter 
  • 뷰 리졸버: org.springframework.web.servlet.ViewResolver
  • 뷰: org.springframework.web.servlet.View

이 인터페이스들만 구현하여 DispatcherServlet에 등록하면 나만의 컨트롤러를 만들 수 있다.

핸들러 매핑(HandlerMapping)

핸들러 매핑은 URL요청을 어떤 컨트롤러와 연결할지 결정하는 역할을 한다.

주로 사용되는 방법은 애노테이션 기반인 RequestMappingHandlerMapping과 BeanNameUrlHandlerMapping이다.

  • 0 = RequestMappingHandlerMapping 사용 : 애노테이션 기반 컨트롤러인 @RequestMapping 사용
  • 1 = BeanNameUrlHandlerMapping : 스프링 빈의 이름으로 핸들러를 찾는다.

핸들러 매핑을 순서대로 실행하여 핸들러를 찾는다.

참고로 자주 쓰이는 @GetMapping, @PostMapping 등도 자세히 살펴보면 다음과 같이 @RequestMapping을 갖고 있다.

핸들러 어댑터(HandlerAdapter)

핸들러를 찾았으면 핸들러를 실행해줄 역할이 필요한데 그 역할을 담당하는 것이 바로 핸들러 어댑터이다.

핸들러 어댑터는 순서대로 supports()를 호출하여 해당 형식이 지원되는 지 찾는다.

순서는 다음과 같다.

  • 0. RequestMappingHandlerAdapter
  • 1. HttpRequestHandlerAdapter
  • 2. SimpleControllerHandlerAdapter

대상을 찾았으면 핸들러 어댑터를 실행하면서 핸들러 정보도 같이 넘겨준다. 찾은 컨트롤러(핸들러)를 내부에서 실행하고 결과를 반환한다.

 

가장 우선순위가 높은 핸들러 매핑과 핸들러 어댑터는 RequestMappingHandlerMapping, RequestMappingHandlerAdapter 이다.
@RequestMapping 의 앞글자를 따서 만든 이름인데, 이것이 바로 지금 스프링에서 주로 사용하는 애노테이션 기반의 컨트롤러를 지원하는 매핑과 어댑터이다. 실무에서는 99.9% 이 방식의 컨트롤러를 사용한다고 한다.

 

뷰 리졸버(viewResolver)

뷰 리졸버는 뷰를 식별하고 뷰 렌더링하는 역할을 한다.

스프링 부트에서는 다음과 같은 뷰 리졸버를 자동으로 등록한다.

  • 1 = BeanNameViewResolver : 빈 이름으로 뷰를 찾아서 반환한다.
  • 2 = InternalResourceViewResolver : JSP를 처리할 수 있는 뷰를 반환한다.

핸들러 어댑터를 통하여 논리 뷰 이름을 얻는다. 뷰 논리명으로 순서대로 뷰 리졸버를 호출한다.

만약 빈 이름에 해당하는 뷰가 없다면 2번인 InternalResourceViewResolver가 호출되는 것이다.

 

Reference

https://www.inflearn.com/course/%EC%8A%A4%ED%94%84%EB%A7%81-mvc-1/dashboard

 

스프링 MVC 1편 - 백엔드 웹 개발 핵심 기술 - 인프런 | 강의

웹 애플리케이션을 개발할 때 필요한 모든 웹 기술을 기초부터 이해하고, 완성할 수 있습니다. 스프링 MVC의 핵심 원리와 구조를 이해하고, 더 깊이있는 백엔드 개발자로 성장할 수 있습니다., 원

www.inflearn.com

 

자바의 데이터 타입은 크게 기본 타입(primitive type:원시 타입)과 참조 타입(reference type)으로 분류된다.

기본 타입은 정수, 실수, 문자, 논리 리터럴을 저장하는 타입이다.
참조 타입은 객체(Object)의 번지를 참조하는 타입으로 배열, 열거, 클래스, 인터페이스 등이 있다.

데이터 타입

  • 기본 타입(primitive type)
    • 정수 타입
      • byte
      • char
      • short
      • int
      • long
    • 실수 타입
      • float
      • double
    • 논리 타입
      • boolean
  • 참조 타입(reference type)
    • 배열
    • 열거
    • 클래스
    • 인터페이스

기본 타입과 참조 타입으로 선언된 변수의 차이점은 저장되는 값이 무엇이냐가 중요하다.

기본 타입으로 선언된 변수는 실제 값을 변수 안에 저장하지만 참조 타입으로 선언된 변수는 메모리의 번지를 값으로 갖는다.

번지를 통해 객체를 탐조한다는 뜻에서 참조 타입이라고 부른다.

메모리 상에서 변수는 스택 영역에 생성되고, 객체는 힙 영역에 생성된다.

 

참조 타입에 대해 자세히 알기 위해서는 JVM이 사용하는 메모리 영역에 대해서 알아야 할 필요가 있다.

 

메모리 사용 영역

출처 https://tecoble.techcourse.co.kr/post/2021-08-09-jvm-memory/

java.exe로 JVM이 시작되면 JVM은 운영체제에서 할당받은 메모리 영역을 다음과 같이 세부 영역으로 구분해서 사용한다.

영역은 크게 메서드 영역, 힙 영역, JVM Stack 영역 세 가지로 나뉜다.

 

메서드(Method) 영역

메소드 영역에는 코드에서 사용되는 클래스들을 클래스 로더로 읽는다.
클래스 별로 런타임 상수풀, 필드 데이터, 메서드 데이터, 메서드 코드, 생성자 코드 등을 분류해서 저장한다.

메서드 영역은 JVM이 시작할 때 생성되고 모든 스레드가 공유하는 영역이다.

 

힙(heap) 영역

객체와 배열이 생성되는 영역이다. 힙 영역에 생성된 객체와 배열은 JVM Stack 영역의 변수나 다른 객체의 필드에서 참조한다.

참조하는 변수나 필드가 없다면 의미 없는 객체가 되기 때문에 쓰레기로 취급하고 JVM은 가비지 컬렉터(Garbage Collector)를
실행시켜 쓰레기 객체를 힙 영역에서 자동으로 제거한다.

 

JVM 스택(Stack) 영역

JVM 스택 영역은 각 스레드마다 하나씩 존재하며, 스레드가 시작될 때 할당된다.

JVM 스택은 메서드를 호출할 때마다 프레임(Frame)을 추가(push)하고, 메서드가 종료되면 해당 프레임을 제거(pop)한다.

프레임 내부에는 로컬 변수 스택이 있는데, 기본 타입 변수와 참조 타입 변수가 추가되거나 제거된다.

변수는 선언된 블록 안에서만 스택에 존재하고, 블록을 벗어나면 스택에서 제거된다.

앞에서 말했듯이 기본 타입 변수는 스택 영역에 직접 값을 갖고 있지만 참조 타입 변수는 힙 영역이나 메서드 영역의 주소를 가진다.

참고로 자바에서는 배열을 객체로 취급한다.

 

 

+ Recent posts