-
패스트캠퍼스 환급챌린지 45일차 미션 (3월 16일) : 30개 프로젝트로 끝내는 추천시스템 구현 초격차 패키지 강의 후기2024년 패스트 캠퍼스 챌린지 2024. 3. 16. 00:05
강의 내용 Review
📍배운내용📍
- Retrieval 알고리즘
- Softmas DNN
👉강의내용👈
Retrieval 알고리즘
- Matrix Factorization: 콜라보레이션 필터링중에서도 모델 베이스에 속함
- Factorizaion Machine : 선형회귀 알고리즘으로 이진 분류를 풀기 위함, 이는 필드간의 상관관계 weight를 계산하기 위한 용도
- Matrix Factoriztion의 임베딩: 유저, 아이템을 임베딩함
- MF는 콜라보 레이션 필터링 기반으로 사용자와 항목 메트릭스를 두개의 작은 행렬로 분리하고, 이를 다시 곱했을때 실제값과 비슷하게 만드는 목적
- 유저와 아이템이 가까우면, 내적이 크면 가까움
- MF는 서빙이 효과적으로 가능함, 오프라인 데이터를 미리 계산해서 벡터를 만들어놓음, 벡터의 곱을통해 연관도를 미리 계산해 놓을수 있음, ANN이 가능함(유저와 아이템 벡터가 내적 공간에 같이 있음)
- 하지만 콜드 스타트 유저에 효율적이지 못하고 재학습이 필요함, 새로 추가된 아이템을 재학습 해야함, 기존 데이터 셋 전체에 대해서 재학습을 해야함
- 벡터 유사도를 주로 다뤘지만 코사인 유사도나, 유클리디안 거리를 지원해야함
- 코사인 유사도와 내적의 관계는? 코사인 유사도에 각 벡터의 놈을 곱한 것이 내적이 됨, 아이템이 학습 데이터에 자주 등장하면 놈값이 크게 나타남 그래서 인기도를 낮춰서 유사한 것을 추천 하고 싶으면 코사인 유사도를 사용함(놈값을 없앰)
- 아이템이 자주 나타나지 않으면 업데이트가 잘 안됨, 처음 놈값이 크지만 이후에 업데이트가 안되는 경우가 있어서 norm값을 정규화 하는 것도 필요함
Softmax DNN
- 쿼리 컨텍스트, 아이템 중에 쿼리와 아이템에 관련된 정보를 인풋으로 받아서 다중 클래스 분류함
- 피처들이 히든 레이어를 거쳐 유저의 벡터가 되고 이것이 아이템의 벡터와 내적이 되어 로짓으로 사용함
- 아웃풋은 클래스의 개수가 아니라, 인풋 벡터(유저)의 크기가 되고 클래스 개수만큼 준비된 아이템 벡터와 곱해서 연관도를 구해서 softmax를 구함
- 아이템 벡터도 학습이가능하고, 네거티브 중에 몇개 만 뽑아서 소프트맥스 사용함
- 내적 공간에서 유저와 아이템을 모두 임베딩함
- 유저의 다른 정보를 사용할수있어서 콜드 유저에 유용하고 재학습 없이 추론 만으로 유저의 정보 업데이트 가능
- 두 모델간의 장단점의 트레이드 오프가 있기 때문에 잘 골라 써야함
공부사진
45일차 후기
전에 배웠던건데 복습을 안해서 좀 새롭네..ㅠㅋㅋㅋ;;
본 포스팅은 패스트캠퍼스 환급 챌린지 참여를 위해 작성하였습니다.
'2024년 패스트 캠퍼스 챌린지' 카테고리의 다른 글