분류 전체보기(21)
-
Attention all you Need (2017) 논문 정리
부트캠프 할 때는 잉? 뭔 소리지 했던 부분들, 이해가 잘 안되던 부분들 있었는데 정리하면서 이해가 되었다! 주로 동빈나 유튜버 영상 참고를 많이 했고, 그외 다른 유튜버의 강의도 조금 참고 했다.
2025.04.03 -
Final 기업 연계 프로젝트
프로젝트 진행 기간 (01월 13일 - 02월 07일)프로젝트 주제주제 : 숫자 텍스트 변환 (Text - Normalization)목표 : 숫자가 포함된 텍스트를 한글로 바꾸기 (For TTS) 학습과 평가시 사용한 데이터https://aihub.or.kr/aihubdata/data/view.do?currMenu=115&topMenu=100&aihubDataSe=data&dataSetSn=484팀 개발 문화팀장으로 프로젝트를 진행했다.팀원 수는 총 3명이었다. (원래 한 분 더 계셨었는데 어떤 이유인지는 몰라도... bye bye) 이번 프로젝트에도 어김없이 휴일이 함께 있었는데... (쉬지 않았다... 악덕 팀장 ...?) 1월 13일 - 17일 : 프로젝트 기획안 및 팀 개발 일정 조율1월 20일 ..
2025.03.05 -
RecSys 경진대회
대회 진행 기간 (12월 23일 - 01월 02일)프로젝트 주제주제 : 미래 (next one week)에 사용자가 구매할 상품을 추천하는 것목표 : Binary relevance 기반의 NDCG@10 학습과 평가시 사용한 데이터www.kaggle.com/datasets/mkechinov/ecommerce-behavior-data-from-multi-category-store/data팀 개발 문화이번에도 팀장으로 프로젝트를 진행했다. 하지만 나도 연말 개인일정, 또 팀원들도 개인 일정으로 인해 대회에 온전히 집중하지 못했다.진행 과정평가 방식 파악사용자 id가 있고 해당 사용자에게 추천할 것들을 모델이 top10개 추천하고 정답 dataset과 비교해서 10개를 잘 맞췄나 비교하는 방식으로 평가가 이루어..
2025.01.14 -
IR 경진대회 회고
프로젝트 진행 기간 (12월 16일 - 12월 19일)프로젝트 주제주제 : 과학 질문과 이전 대화 히스토리를 보고 참고할 문서를 검색엔진에서 추출 후 이를 활용하여 질문에 적합한 대답을 생성하는 태스크(RAG)목표 : MAP, MRR 점수 최적화대화 메시지가 과학 상식에 대한 질문일 수도 있고 아닐수도 있기 때문에 과학 상식 질문이 아닌 경우는 문서를 추출할 필요가 없음.검색이 필요없는 ground truth 항목에 대해서는 검색 결과가 없는 경우를 1점으로 주고 그렇지 않는 경우는 0점으로 계산하게 로직이 추가 됨. 학습과 평가시 사용한 데이터documents.jsonl : 과학 상식 정보를 담고 있는 순수 색인 대상 문서 4200여개(Open Ko LLM Leaderboard에 들어가는 Ko-H4 데..
2024.12.21 -
Data Centric AI 학습 회고
Data Centric AI 등장 배경기존 AI는 모델 개발에 초점이 맞춰졌지만 모델의 성능 향상이 점차 둔화되고 데이터 품질 문제가 AI 성능에 큰 영향을 미쳤다.편형된 데이터와 레이블 오류가 모델의 성능을 저하시켰다. 하지만 고품질 데이터는 소량이라도 큰 성능 향상을 가져왔다. 엔드류 응 교수가 이런 주장을 했다.데이터를 개선하는 것이 더 효과적일 때가 많다.데이터 정제와 품질 관리가 AI 발전의 핵심이다.이렇게 Data Centric model을 통해 성능을 높이는 방향의 새로운 분야가 등장하게 되었다. 음...🤔 듣고 보면 당연한 이야기다. 내 차가 아무리 좋은 스포츠카라고 해도 차에 들어가는 기름이 고급유가 아니면...차 본래의 성능을 잘 못내니... 학습 내용이 챕터에서는 데이터 구축 프로세..
2024.12.15 -
LM to LLM 학습 일지 + Kaggle 연말 행사 회고
LM to LLM단어 임베딩 하는 것부터 시작해서 많은 것을 배우고 있다.카운트 기반, 의미 기반, 문맥 기반, PT(Pre-Training) 기반 언어모델, LLM동향과 Data-Centric, Model-Centric, Evaluation-Centric, Prompt engineering, Multimodal, Cross Lingual, Multilingual LLM등 다양한 것을 배운다. 논문들이 엄청 많이 나오는데 정말 간단하게 내용 정리되어 있어서 전반적인 내용을 간단하게 보기는 좋았지만 여러 논문들이 주장하는 내용들을 한 눈에 정리해서 보기에는 어려웠던 것 같다. 그래도 이번에 만들어진 팀의 경우에 각자 공부한 내용들 공유하는 시간이 있어서 그냥 빠르게 강의 듣고 넘어가는 일은 없는 것 같아서..
2024.12.09