본문 바로가기
728x90

티스토리챌린지21

미리캔버스 사용하기 토마토가 멱살잡고 IT블로그로 만들어 놓으면제가 우당탕탕 말아 먹는 현실IT? 잇(It)템(Item) 아닌가요? 오늘은 돈은 안냈지만 돈 내고도 써보고 싶어지는 미리캔버스를 소개해 볼게요.https://www.miricanvas.com/ 디자인 플랫폼 미리캔버스디자인 작업이 필요한가요? 5만개 이상의 무료 템플릿으로 간편하고 편하게 원하는 디자인을 만들 수 있어요.www.miricanvas.com 대학, 대학원, 회사 등등 사회 생활을 하다보면 제 저주받은 미적 감각을 원망하게 되는 날이 이따금 찾아옵니다.영혼을 갈아넣어 만든 ppt도 찢고 싶어지는 그런 날이 오그든요.그럴때..! 미리캔버스를 사용하면 이미 죽어서 관짝에 들어가 있는 미적 감각을 다시 깨울 수 있어요.(관계자같지만, 사실상 무료 사용자 .. 2024. 11. 27.
KLUE/RoBERTa 토크나이저 토큰 대체하기! BERT 계열 모델을 사용하다 보면, 모델의 도메인에 대한 이해를 높인다던가 어떤 중요한 단어를 토큰화하지 않고 하나의 토큰으로 가져가게 하고 싶은 경우가 있지요.예를 들어 곤충 언어모델을 만들고 싶은데 토크나이저에 '나비' 토큰을 추가하지 않고,'나', '##비'로 토큰화 되어버리면 정말 슬플거에요.사실 subword tokenizer의 장점이 Out of Vocab에 강하다는 건데그래도 '나비' 로 바로 토큰화해서 모델이 받는거랑 '나' '##비' 혹은 '나' '비' 로 받는 거랑은모델이 이해하는데 차이가 조금은 있을 수 있겠죠?이럴 때 tokenizer.add_tokens 로 토큰을 추가하고, resize_token_embeddings를 적용하는 방법이 있긴한데,이렇게 하면 임베딩 사이즈가 달라지게.. 2024. 11. 26.
2024.11.23 마곡나루 호호방 오랜만에 점심부터 저녁까지 함께한 토요 나들이~룰루저녁엔 대방어를 먹기로 했그든요.사실 저희가 기대한 조합은 대방어 + 백김치여서 분명 인터넷에서 그런 메뉴를 보고 호호방을 찾아갔었는데흠흠 바꼈더라고요? https://naver.me/5NdqFLty 호호방 : 네이버방문자리뷰 335 · 블로그리뷰 428m.place.naver.com 호호방: 어서와 호호방은 처음이지? 응. 이제 그런 메뉴는 없어당근: ...(너무 당황한 나머지 메뉴판은 찍지 못했어요. 쨋든 잘 알아보고 갑시다!) 그래도 계절답게 대방어 메뉴는 있었어요.무려 돼방어 (돼지방어라네요? 대충 비싼 방어라고 합니다.)그래서 그런지 저 쪼매난 접시에 무려 5마넌그리고 술은 제가 즐겨먹는 한라토닉 세트로 시켰는데요.원래 한라산은 찐~한 파란 병.. 2024. 11. 25.
2024.11.23 마곡 할리스코 https://naver.me/Ff0ERe2Q 할리스코 : 네이버방문자리뷰 1,737 · 블로그리뷰 1,100m.place.naver.com 날씨가 좋았던 어제.어제 점심은 마곡나루 쪽에 있는 할리스코에서 타코로 한끼!할리스코 메뉴는 타코, 퀘사디아, 부리또, 랩, 볼 정도로 멕시칸 음식점에서 주로 볼 수 있는 메뉴들이었다!우리는 나초칩과 음료가 같이 나오는 까르니따스 타코 세트와 뱅뱅 쉬림프 랩으로 주문.우선 세트에서 같이 나온 나초와 살사소스. 살사소스는 딥치즈 소스로 변경 가능하다.살사소스는 적당히 매~콤하고 나초는 바삭바삭해서 맛있었다!그리고 첫번째 메인 메뉴인 까르니따스 타코. 까르니따스는 긴 시간 동안 향신료와 함께 부드럽게 삶아진 멕시코 돼지고기를 뜻한다고 한다. 사진에는 잘 보이진 않지만.. 2024. 11. 24.
Document Retrieval Evaluation Metrics - 2 2024.11.22 - [오블완 챌린지] - Document Retrieval Evaluation Metrics - 1 Document Retrieval Evaluation Metrics - 1RAG에서 중요한 요소는 크게 2가지이다.첫번째로 사용자가 입력한 쿼리와 관련된 문서를 찾는 것,두번째로는 검색된 문서 (chunks)를 기반으로 얼마나 질문에 대한 답변을 잘 하는지.여기서 첫번째carrotomato.tistory.com 오늘은 어제 작성했던 Document Retrieval 에서의 평가 metric 2번째 포스트.저번 포스트에서는 Confusion Matrix를 기반으로 하는 기본적인 IR evaluation metrics을 알아봤다.오늘은 추가적으로 많이 사용하는 metrics인 Mean Av.. 2024. 11. 23.
Document Retrieval Evaluation Metrics - 1 RAG에서 중요한 요소는 크게 2가지이다.첫번째로 사용자가 입력한 쿼리와 관련된 문서를 찾는 것,두번째로는 검색된 문서 (chunks)를 기반으로 얼마나 질문에 대한 답변을 잘 하는지.여기서 첫번째 요소인 Information Retrieval 에 대해 평가는 어떻게 해야할까?이건 정보 검색을 하는데 주로 사용되는 임베딩 모델의 평가와도 관련이 있다.우선 정보검색은 추천시스템과 아주 유사한 task라고도 볼 수 있다.사용자가 원하는 정보를 k개 검색해서 사용자한테 추천해주는 system인데기준을 쿼리와 저장된 chunks 사이의 임베딩 유사도라고 표현하면 이해가 좀 쉬우려나..?그래서 간단한 평가 metrics은 무엇이 있느냐.. 하면!우선은 confusion matrix를 기반으로 하는 평가 방법이 있.. 2024. 11. 22.
728x90