[프로젝트 후기]
-
[프로젝트] 약 추천 서비스
GitHub - LJBang/Drug_Recommendation: 자연어 처리를 통한 약물 추천 챗봇 자연어 처리를 통한 약물 추천 챗봇. Contribute to LJBang/Drug_Recommendation development by creating an account on GitHub. github.com 개요 UCI에서 제공하는 약과 그 리뷰에 대한 데이터셋을 기반으로 사용자가 증상을 입력하면 적절한 약을 추천해주는 프로젝트 적합한 약을 추천해주기 위해서 영어로 된 리뷰 데이터를 학습하여 condition을 분류하는 모델을 만들고, 해당하는 condition에서 rating의 평균이 가장 높은 약들을 추천한다. 서비스의 형태는 안드로이드를 이용한 챗봇이며, condition예측과 약 추천을 위한..
-
[프로젝트] 해양 재난 상황판 (2)
GitHub - LJBang/make_RESTAPI: Spring Boot를 이용해 DB의 데이터를 제공하는 rest api 만들기 Spring Boot를 이용해 DB의 데이터를 제공하는 rest api 만들기. Contribute to LJBang/make_RESTAPI development by creating an account on GitHub. github.com JAVA Springboot를 사용해서 REST API를 구축했다. DB 연결 가장 먼저 전에 구현한 DB를 JDBC를 이용해서 스프링부트와 연결해주었다. ///// application.properties ///// server.address=localhost server.port = 8080 spring.datasource.url ..
[책 리뷰]
-
[책 리뷰] 행복의 기원 - 서은국
행복의 기원 - 서은국 행복은 뭘까? 어떻게 해야 행복해질까? 행복해져야하나?와 같은 질문에 대답하기 위해서 많은 사람들이 연구했다. 이 작가는 좀 더 진화론적인 관점에서 행복을 해석하고 있다. 문장 행복하기 위해서 사는 것이 아니라 살기 위해 행복감을 느끼도록 설계된 것이 인간이다. → 이 책의 메인 주제. 행복은 목표가 아니며 수단이다. 불행한 사람은 긍정의 가치를 모르는 것이 아니라 그것이 뜻대로 되지 않는 것이다. → 진짜 힘들 때면 생각을 하지 않으려고 해도 걱정들이 떠오르는 것을 멈출 수가 없을 때가 있다. 무작정 긍정적으로 생각하라거나 아무 생각도 하지 않으려고 노력하라는 것은 진짜 힘든 사람들에게는 크게 와닿지 않을 것 같다. 마음이 아플 때도 진통제가 효과가 있을까? → 이것은 매우 신기..
-
[책 리뷰] 또다시 같은 꿈을 꾸었어 - 스미노 요루
또다시 같은 꿈을 꾸었어 - 스미노 요루 똑똑한 초등학생 나노카는 학교에는 친하게 지낼만한 친구가 없지만, 동네에는 여러 친구들이 있다. 인생이란 무엇이고, 행복이 무엇인지에 대해 고민하게 되는 잔잔하고 따듯한 책. 문장 "인생이란 충치 같은 것이야." "무, 무슨 뜻이야?" "싫은 건 일찌감치 없애버려야지." "인생이란 점심시간 같은 것이야." "...... 도시락이 맛있어서?" "시간이 45분으로 정해져 있잖아. 그 시간 안에 멋진 것들을 접해야지." → 앞으로의 인생에서 최대한 많은 것들을 보고, 멋진 것들을 보고 기억에 남기자. 인생이란 오셀로 게임 같은 것이에요. 까맣게 힘든 일이 있으면 하얗게 좋은 일도 있다는 거? 아니, 아니, 그게 아니에요. 단 한개의 흰색으로 내 검은색 마음이 단숨에 뒤..
[머신러닝/딥러닝]
-
[논문] Attention Is All You Need, 2017
제가 이해한 내용을 정리한 글입니다. 오류가 있으면 고쳐주세요! 앞서 소개했던 BERT의 근본이 되는 방법인 Transformer를 소개하는 논문이다. 트랜스포머 계열은 자연어 처리 뿐만 아니라 여러 데이터에서 사용되는데, Vision 분야의 ViT, 시계열 분석의 TFT 등이 있다. 논문 배경 RNN계열의 모델은 시퀀스 모델링이나, 언어모델, 기계번역과 같은 분야에서 SOTA를 달성해왔다. 그러나 RNN 모델은 hidden states에서는 ht를 계산하기 위해서 ht−1이 반드시 필요한 재귀형(혹은 순차적) 모델이므로 병렬화할수 없었다. 이로 인해 메모리 제약이 걸리고, 학습과정에서 batch에 제한이 생겨 긴 시퀀스를 학습하는 것이 힘들었다. 어텐션 구조는 입출력 시퀀스의 거리에 상관..
-
[논문] BERT, 2018
제가 이해한 내용을 정리한 글입니다. 오류가 있으면 고쳐주세요! BERT, Bidrectional Encoder Representations from Transformers 최근 자연어 처리 분야에서 빠질 수 없는 이름이다. 트랜스포머 계열 중 인코더에 집중한 모델이며, 이를 베이스로 다양한 BERT모델이 만들어졌다. 논문은 여기 배경 사전학습 모델은 자연어 처리 분야에서 굉장히 효과적이다. 현재 사전학습 모델은 크게 2가지가 있는데, ELMo와 같이 특정 Task를 중심으로 사전 학습된 표현식을 추가적으로 사용하는 feature-based모델과 GPT와 같이 Task관련 파라미터를 최소화하고 사전학습된 파라미터를 fine-tuning하는 모델이 있다. 그러나 위 두 예시는 Unidirectional구조..